Minha pergunta é sobre o classificador de um vizinho mais próximo e é sobre uma afirmação feita no excelente livro The Elements of Statistical Learning, de Hastie, Tibshirani e Friedman. A declaração é (p. 465, seção 13.3):
"Como ele usa apenas o ponto de treinamento mais próximo ao ponto de consulta, o viés da estimativa de um vizinho mais próximo é geralmente baixo, mas a variação é alta".
O livro está disponível em
http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html
Para iniciantes, podemos definir o que é preconceito e variação. Da pergunta "como podemos aumentar a dimensão aumentar a variância sem aumentar o bi" , temos o seguinte:
"Primeiro, o viés de um classificador é a discrepância entre sua função estimada e verdadeira média, enquanto a variação de um classificador é a divergência esperada da função de previsão estimada em relação ao seu valor médio (ou seja, quão dependente o classificador é do aleatório amostragem realizada no conjunto de treinamento).
Portanto, a presença de viés indica algo basicamente errado com o modelo, enquanto a variação também é ruim, mas um modelo com alta variação pode pelo menos prever bem em média ".
Alguém poderia explicar por que a variação é alta e o viés é baixo para o classificador vizinho mais próximo?
fonte
Lembre-se de que o classificador 1-vizinho mais próximo é realmente o modelo de vizinho mais próximo mais complexo . Por mais complexo, quero dizer, ele tem o limite de decisão mais irregular e é mais provável que se ajuste demais. Se você usar um classificador vizinho N mais próximo (N = número de pontos de treinamento), classificará tudo como classe majoritária. Diferentes permutações dos dados fornecerão a mesma resposta, fornecendo um conjunto de modelos com variação zero (todos exatamente iguais), mas com um alto viés (consistentemente todos errados). Reduzir a configuração de K aproxima cada vez mais os dados de treinamento (baixa tendência), mas o modelo depende muito mais dos exemplos de treinamento específicos escolhidos (alta variação).
fonte
Aqui está um post muito interessante sobre tendências e variações. A seção 3.1 lida com o algoritmo knn e explica por que baixo k leva a alta variação e baixo viés.
A Figura 5 é muito interessante: você pode ver em tempo real como o modelo está mudando enquanto k está aumentando. Para baixo k, há muito ajuste excessivo (algumas "ilhas" isoladas), o que leva a um viés baixo, mas uma alta variação. Para k muito alto, você tem um modelo mais suave, com baixa variação, mas alto viés. Neste exemplo, um valor de k entre 10 e 20 dará um modelo de descida que é geral o suficiente (variação relativamente baixa) e preciso o suficiente (tendência relativamente baixa).
fonte