Atualmente, estou usando a parada antecipada no meu trabalho para evitar o excesso de ajuste. Especificamente, aqueles tomados em forma de parada antecipada, mas quando? .
Agora estou querendo comparar com outros algoritmos de classificação, onde parece que a validação cruzada de 10 vezes é amplamente usada.
No entanto, estou confuso sobre se a validação cruzada é um método para impedir o excesso de ajuste ou a seleção de bons parâmetros. (ou talvez este seja o mesmo?). Também estou confuso se métodos de parada precoce e validação cruzada podem ser usados no lugar um do outro ou em combinação.
Portanto, a pergunta é: qual é a relação entre parada antecipada e validação cruzada?
fonte
Além das duas abordagens de generalização mencionadas, existem muitas outras.
Muitas dessas abordagens (incluindo as abordagens de validação cruzada e parada antecipada) podem ser combinadas para maximizar o desempenho do modelo em dados não vistos (desempenho da generalização).
Uma observação sobre a abordagem de parada antecipada. Para redes neurais, Geoffrey Hinton recomenda interromper o treinamento quando a precisão do conjunto de testes atingir o máximo (a perda do conjunto de testes, excluindo os termos de regularização, é mínima). Um outro "ajuste" na abordagem de Hinton é não parar se a precisão do conjunto de testes for melhor (a perda é menor) do que para o seu conjunto de treinamento, mesmo que a precisão do conjunto de testes tenha parado de melhorar (a perda do conjunto de testes parou de diminuir). É improvável que você ganhe mais de uma época de treinamento, mas às vezes isso pode ajudar um pouco, especialmente em pequenos conjuntos de testes. Não faça isso para conjuntos de testes extremamente pequenos (menores que um conjunto de amostras representativo, como às vezes é usado no treinamento e na validação cruzada de dobras em K).
fonte
você não pode usar a parada antecipada e a validação cruzada com dobra K em combinação. como a parada antecipada seleciona o melhor modelo do conjunto de validação, o desempenho precisa ser verificado pelo conjunto de testes. mas na validação cruzada K-fold, não há um conjunto de testes, se você estiver usando a parada antecipada para selecionar o melhor modelo do conjunto de validação, e ele será verificado novamente no conjunto de validação. a validação cruzada K-fold está obtendo o desempenho médio (medido pela precisão) do melhor modelo, e isso não significa nada.
fonte