Minha principal pergunta é com relação à tentativa de entender como a validação cruzada k-fold se encaixa no contexto de ter conjuntos de treinamento / validação / teste (se é que se encaixa nesse contexto).
Geralmente, as pessoas falam em dividir os dados em um conjunto de treinamento, validação e teste - digamos na proporção de 60/20/20 por curso de Andrew Ng - pelo qual o conjunto de validação é usado para identificar parâmetros ideais para o treinamento do modelo.
No entanto, se alguém quiser usar a validação cruzada com dobras k na esperança de obter uma medida de precisão mais representativa quando a quantidade de dados for relativamente pequena, o que fazer a validação cruzada com dobras k implica exatamente nessa divisão 60/20/20 cenário?
Por exemplo, isso significaria que realmente combinaríamos os conjuntos de treinamento e teste (80% dos dados) e realizaríamos a validação cruzada com dobras k para obter nossa medida de precisão (descartando efetivamente com um "conjunto de testes" explícito? Em caso afirmativo, qual modelo treinado usamos a) na produção eb) para usar contra o conjunto de validação e identificar os parâmetros ideais de treinamento? Por exemplo, uma resposta possível para aeb é talvez usar o modelo da melhor dobra.
Dividir em treinamento / validação / teste também é uma estratégia de amostragem.
Você pode substituir o treinamento / validação por outra estratégia de amostragem. Em seguida, você executaria o fold CV em 80% dos dados e testaria nos 20% restantes.K
Você também pode aplicá-lo à parte de teste (isto é o que as pessoas chamam de validação cruzada aninhada), onde dobras são usadas para treinamento / validação e a outra para testar, e você as itera sobre as dobras.K−1
fonte