Portanto, ao analisar as Redes Neurais com funções de base radial, notei que as pessoas só recomendam o uso de 1 camada oculta, enquanto nas redes neurais perceptron de múltiplas camadas, mais camadas são consideradas melhores.
Dado que as redes RBF podem ser treinadas com a versão de propagação reversa, existem razões pelas quais redes RBF mais profundas não funcionariam ou que uma camada RBF não poderia ser usada como penúltima ou primeira camada em uma rede MLP profunda? (Eu estava pensando na penúltima camada para que pudesse ser essencialmente treinada nos recursos aprendidos pelas camadas MLP anteriores)
machine-learning
neural-networks
rbf-network
user1646196
fonte
fonte
Respostas:
O problema fundamental é que os RBFs são a) não lineares demais, b) não fazem redução de dimensão.
por causa de a) os RBFs sempre foram treinados por médias k em vez de descidas gradientes.
Eu diria que o principal sucesso nos Deep NNs são as redes de convecção, onde uma das partes principais é a redução de dimensão: embora trabalhe com digamos 128x128x3 = 50.000 entradas, cada neurônio tem um campo receptivo restrito e há muito menos neurônios em cada camada .Em uma determinada camada de um MLP, cada neurônio representa uma característica / dimensão), assim você reduz constantemente a dimensionalidade (passando de camada para camada).
Embora se possa adaptar a matriz de covariância da RBF e reduzir a dimensão, isso torna ainda mais difícil o treinamento.
fonte