Esses tipos de perguntas podem ser dependentes de problemas, mas tentei encontrar pesquisas que abordassem a questão de saber se o número de camadas ocultas e seu tamanho (número de neurônios em cada camada) realmente importa ou não.
Então, minha pergunta é: realmente importa se, por exemplo, temos uma grande camada oculta de 1000 neurônios vs. 10 camadas ocultas com 100 neurônios cada?
fonte
Existem muitos aspectos.
1. Treinamento: O treinamento de redes profundas é um trabalho árduo devido ao problema de gradiente de fuga (explosão traseira). Portanto, não é recomendável construir uma rede neural de 10x100.
2. Desempenho de rede treinado:
Redes mais profundas são mais "inteligentes", mas a estrutura líquida de 10x100 é uma boa escolha.
fonte
Se o problema que você está resolvendo é linearmente separável, uma camada de 1000 neurônios pode fazer um trabalho melhor do que 10 camadas com cada um dos 100 neurônios. Se o problema for não linear e não convexo, você precisará de redes neurais profundas.
fonte
A saída da primeira camada oculta será multiplicada por um peso, processada por uma função de ativação na próxima camada e assim por diante. As redes neurais de camada única são muito limitadas para tarefas simples; NN mais profundo pode ter um desempenho muito melhor do que uma camada única.
No entanto, não use mais de uma camada se o seu aplicativo não for bastante complexo. Em conclusão, camada de 100 neurônios não significa rede neural melhor do que 10 camadas x 10 neurônios, mas 10 camadas são algo imaginário, a menos que você esteja aprendendo profundamente. comece com 10 neurônios na camada oculta e tente adicionar camadas ou adicionar mais neurônios à mesma camada para ver a diferença. aprender com mais camadas será mais fácil, mas é necessário mais tempo de treinamento.
fonte