Tendo trabalhado com redes neurais por cerca de meio ano, experimentei em primeira mão o que muitas vezes são reivindicadas como suas principais desvantagens, ou seja, superajustar e ficar preso nos mínimos locais. No entanto, através da otimização do hiperparâmetro e de algumas abordagens recém-inventadas, elas foram superadas em meus cenários. De minhas próprias experiências:
- O abandono parece ser um método de regularização muito bom (também um pseudo-ensembler?),
- A normalização de lotes facilita o treinamento e mantém a força do sinal consistente em várias camadas.
- Adadelta alcança consistentemente ótimas ótimas
Eu experimentei a implementação do SVM SciKit-learns juntamente com meus experimentos com redes neurais, mas acho que o desempenho é muito baixo em comparação, mesmo depois de fazer pesquisas na grade por hiperparâmetros. Sei que existem inúmeros outros métodos e que os SVMs podem ser considerados uma subclasse de NNs, mas ainda assim.
Então, para a minha pergunta:
Com todos os métodos mais recentes pesquisados para redes neurais, eles lentamente se tornaram "superiores" a outros métodos? As redes neurais têm suas desvantagens, assim como outras, mas com todos os novos métodos, essas desvantagens foram mitigadas para um estado de insignificância?
Percebo que muitas vezes "menos é mais" em termos de complexidade do modelo, mas isso também pode ser arquitetado para redes neurais. A idéia de "sem almoço grátis" nos proíbe assumir que uma abordagem sempre reinará superior. É só que minhas próprias experiências - junto com inúmeros trabalhos sobre performances impressionantes de várias NN's - indicam que pode haver, pelo menos, um almoço muito barato.
fonte
Respostas:
As redes neurais também têm outras deficiências.
Ansioso para o que as outras pessoas têm a dizer aqui.
fonte
Apenas para acrescentar ao que foi dito na brilhante resposta de @ MikeWise,
Todos os modelos iguais de aprendizagem profunda geralmente são supremas quando comparados a outros algoritmos à medida que o tamanho do conjunto de dados aumenta:
Como tudo, tudo se resume ao conjunto de dados em questão, as redes neurais são boas em outros conjuntos de dados, mas, ao mesmo tempo, serão ruins em outros conjuntos de dados. Quando se trata de problemas não estruturados (por exemplo , visuais, texto, som ), neste momento as redes neurais parecem ser o melhor algoritmo. Dito isto, quando se trata de dados estruturados, uma rápida verificação do tipo de algoritmo usado para vencer competições online de ciência de dados revela que, os chamados algoritmos de aprendizado de máquina, como o XGboost, são supremas.
Quando se trata de outros modelos, a engenharia de recursos desempenha um papel importante na eficiência do algoritmo. A engenharia de recursos geralmente é uma coisa complicada de se fazer e fazer o que é certo. Os algoritmos de aprendizado profundo não exigem tanta engenharia de recursos (se houver) em comparação com outros algoritmos, na verdade eles aprendem os recursos por conta própria .
Se o pessoal do Google disser que não viu o aprendizado profundo chegando, quem deve descartar a possibilidade de algum algoritmo de aprendizado de máquina surgir e dominar o mundo pela tempestade?
Aqui está uma pesquisa sobre o que o cientista de dados disse quando perguntado: se o aprendizado profundo corresponde ao hype na aplicação no mundo real? .
Até mesmo alguns dos aplicativos populares de aprendizado profundo, como o AlphaGo, do Google, não são 100% de aprendizado profundo , mas fazem parte do aprendizado profundo, do bom e velho "aprendizado de máquina". Meu 2 centavo é, talvez ainda não devamos descartar outros algoritmos de aprendizado de máquina.
fonte