Li várias vezes que a validação cruzada "Deixar um fora" tem alta variação devido à grande sobreposição das dobras de treinamento. No entanto, não entendo por que isso é: o desempenho da validação cruzada não deve ser muito estável (baixa variação) exatamente porque os conjuntos de treinamento são quase idênticos? Ou estou entendendo completamente o conceito de "variação"?
Eu também não entendo completamente como o LOO pode ser imparcial, mas tem uma alta variação? Se a estimativa da LOO é igual ao verdadeiro valor do estimador na expectativa - como ela pode ter alta variação?
Nota: Sei que há uma pergunta semelhante aqui: por que a variação de validação cruzada de exclusão única (LOOCV) sobre a estimativa média do erro é alta? No entanto, a pessoa que respondeu diz mais tarde nos comentários que, apesar dos votos positivos, percebeu que sua resposta está errada.
fonte
Respostas:
Provavelmente, essa pergunta acabará sendo encerrada como uma duplicata de variância e viés na validação cruzada: por que o CV de exclusão única tem uma variação maior? , mas antes que aconteça, acho que vou transformar meus comentários em uma resposta.
Considere um exemplo simples. Deixe o valor verdadeiro de um parâmetro ser . Um estimador que rende 0,49 , 0,51 , 0,49 , 0,51 ... é imparcial e tem variação relativamente baixa, mas um estimador que rende 0,1 , 0,9 , 0,1 , 0,9 ... também é imparcial, mas tem variação muito maior.0,5 0,49 , 0,51 , 0,49 , 0,51 ... 0,1 , 0,9 , 0,1 , 0,9 ...
Você precisa pensar na variação entre diferentes realizações de todo o conjunto de dados. Para um determinado conjunto de dados, a validação cruzada de exclusão única produzirá modelos muito semelhantes para cada divisão, porque os conjuntos de treinamento estão se interceptando muito (como você notou corretamente), mas esses modelos podem estar juntos longe do modelo real; nos conjuntos de dados, eles estarão distantes em direções diferentes, portanto, alta variação.
Pelo menos é assim que eu entendo. Por favor, veja os tópicos vinculados para mais discussões e os artigos referenciados para ainda mais discussões.
fonte
for one particular dataset we can expect a very good estimation
. Eu acho que alguém pode interpretá-lo como significando que a estimativa de algum parâmetro específico do conjunto de dados será boa. Mas, em geral, a validação cruzada deve estimar um parâmetro da população : quão bem um determinado tipo de modelo pode fazer previsões sobre a variável dependente na população; e podemos não esperar uma boa estimativa do que por LOOCV, por causa do que você escreveu (a estimativa évery specific for this particular dataset
).Essa alta variação refere-se ao espaço dos conjuntos de treinamento. Aqui está o porquê do LOOCV ter alta variação: no LOOCV, obtemos um erro de previsão para cada observação, por exemplo, observação i, usando todo o conjunto de dados observado, exceto esta observação. Portanto, o valor previsto para i depende muito do conjunto de dados atual. Agora assuma que observamos outro conjunto de dados independente e ajustamos um modelo nesse novo conjunto de dados. Se usarmos esse novo modelo para obter um valor previsto para a observação i, o valor previsto é potencialmente muito diferente daquele avaliado pelo LOOCV (embora correto em média (imparcial)).
Essa é a intuição por trás da alta variação da previsão de erro no LOOCV.
No entanto, se você estiver usando o LOOCV para comparar os resultados de um modelo com diferentes hiperparâmetros, acredito que poderá usá-lo com segurança para estimar erros de previsão, desde que o verdadeiro valor do erro de previsão não seja do seu interesse, ou seja, você só deseja compare modelos diferentes com o conjunto de treinamento observado e você não se importa com o erro real real a ser estimado.
Dito isto, como regra geral, se você tiver uma amostra pequena, use LOOCV, caso contrário, use CV vezes k com um valor menor para k.
fonte