Qual é o significado do termo Variação no Modelo de Aprendizado de Máquina?

8

Eu estou familiarizado com os termos alto viés e alta variação e seus efeitos no modelo.

Basicamente, seu modelo apresenta alta variação quando é muito complexo e sensível e até mesmo extremos.

Mas recentemente me perguntaram o significado do termo Variância no modelo de aprendizado de máquina em uma das entrevistas?

Gostaria de saber o que exatamente Variance significa no modelo ML e como ele é introduzido no seu modelo? Eu realmente apreciaria se alguém pudesse explicar isso com um exemplo.

Sóciopata
fonte
A variação nas estatísticas é igual à variação na ML. Isso porque ML é uma nova marca de estatística.
23418 Jon

Respostas:

10

É praticamente o que você disse. Formalmente, você pode dizer:

A variação, no contexto do Machine Learning, é um tipo de erro que ocorre devido à sensibilidade de um modelo a pequenas flutuações no conjunto de treinamento.

Uma alta variação faria com que um algoritmo modelasse o ruído no conjunto de treinamento. Isso é mais comumente referido como sobreajuste .

Ao discutir a variação no Machine Learning, também nos referimos ao viés .

A tendência, no contexto do Machine Learning, é um tipo de erro que ocorre devido a suposições errôneas no algoritmo de aprendizado.

Um viés alto faria com que um algoritmo perdesse relações relevantes entre os recursos de entrada e as saídas de destino. Às vezes, isso é chamado de falta de ajuste .

Relação entre viés e variância:

Na maioria dos casos, tentar minimizar um desses dois erros levaria ao aumento do outro. Assim, os dois são geralmente vistos como uma troca .

Causa de alto viés / variância no ML:

O fator mais comum que determina o viés / variação de um modelo é sua capacidade (pense nisso como o modelo é complexo ).

  • Modelos de baixa capacidade (por exemplo, regressão linear) podem perder relações relevantes entre os recursos e os alvos, causando um viés alto. Isso é evidente na figura à esquerda acima.

  • Por outro lado, modelos de alta capacidade (por exemplo, regressão polinomial de alto grau, redes neurais com muitos parâmetros) podem modelar parte do ruído, juntamente com quaisquer relações relevantes no conjunto de treinamento, fazendo com que tenham alta variação, como visto na figura à direita acima.

Como reduzir a variação em um modelo?

A maneira mais fácil e comum de reduzir a variação em um modelo de ML é aplicando técnicas que limitam sua capacidade efetiva, isto é, regularização .

As formas mais comuns de regularização são penalidades de norma de parâmetro , que limitam as atualizações de parâmetro durante a fase de treinamento; parada precoce , o que reduz o treinamento; poda para algoritmos baseados em árvores; desistência de redes neurais, etc.

Um modelo pode ter baixo viés e baixa variação?

Sim . Da mesma forma, um modelo pode ter alto viés e alta variação, conforme ilustrado na figura abaixo.

Como podemos alcançar baixo viés e baixa variação?

Na prática, a maioria da metodologia é:

  1. Selecione um algoritmo com uma capacidade alta o suficiente para modelar suficientemente o problema. Nesse estágio, queremos minimizar o viés , portanto ainda não estamos preocupados com a variação.
  2. Regularize o modelo acima, para minimizar sua variação .
Djib2011
fonte
4

Variação é a mudança na precisão da previsão do modelo ML entre dados de treinamento e dados de teste.

Simplesmente o que isso significa é que, se um modelo de ML está prevendo com uma precisão de "x" nos dados de treinamento e sua precisão de previsão nos dados de teste é "y", então

Variação = x - y

Ajay Sant
fonte
1

Variância é a variabilidade da previsão do modelo para um dado ponto de dados ou um valor que nos diz espalhar nossos dados. O modelo com alta variação presta muita atenção aos dados de treinamento e não generaliza os dados que não havia visto antes. Como resultado, esses modelos têm um desempenho muito bom nos dados de treinamento, mas apresentam altas taxas de erro nos dados de teste.

Erro devido à variação

Erro devido à variação é a quantidade pela qual a previsão, em um conjunto de treinamento, difere do valor esperado em todos os conjuntos de treinamento. No aprendizado de máquina, conjuntos de dados de treinamento diferentes resultam em uma estimativa diferente. Mas, idealmente, não deve variar muito entre os conjuntos de treinamento. No entanto, se um método tem alta variação, pequenas alterações nos dados de treinamento podem resultar em grandes alterações nos resultados.

https://www.coursera.org/lecture/machine-learning/diagnosing-bias-vs-variance-yCAup

https://towardsdatascience.com/understanding-the-bias-variance-tradeoff-165e6942b229

Prhld
fonte