Se você conhecesse o Teorema do Almoço Não Gratuito (Wolpert & Macready), não ficaria tão desligado de um classificador e perguntaria por que não é o melhor. O Teorema da NFL afirma essencialmente que "no universo de todas as funções de custo, não existe um melhor classificador". Segundo, o desempenho do classificador sempre "depende dos dados".
O Teorema do Patinho Feio (Watanabe) afirma essencialmente que "no universo de todos os conjuntos de recursos, não existe um melhor conjunto de recursos".
O Teorema de Cover afirma que, se , ou seja, a dimensionalidade dos dados for maior que o tamanho da amostra, um problema de classificação binária será sempre linearmente separável.p>n
À luz do exposto, além do Occam's Razor , nunca há nada melhor do que qualquer outra coisa, independentemente da função de dados e custos.
Sempre argumentei que as CNNs por si só não são conjuntos de classificadores para os quais a diversidade (kappa vs erro) pode ser avaliada.