Eu li aqui que existem famílias de funções que precisam de nós na rede neural com no máximo d - 1 camadas para representar a função e precisam apenas de O ( n ) se a rede neural tiver pelo menos d camadas. Referia-se a um artigo de Hastad. Eu não encontrei. Alguém poderia me dizer o título do trabalho? Eu acho que esse é um resultado teórico realmente fascinante.
cc.complexity-theory
reference-request
jakab922
fonte
fonte
Respostas:
O artigo que as pessoas costumam citar é Limites inferiores quase ótimos para pequenos circuitos de profundidade , que aparecem em STOC 1986. O principal resultado referente à sua pergunta é:
fonte
Literalmente, o problema de separar exponencialmente as redes neurais de profundidade d da profundidade d-1, para todos os d, está aberto, até onde eu sei. Quando suas "funções de ativação" são funções de limite linear, por exemplo, fica aberto se todas as redes de todas as profundidades d podem ser simuladas, com um aumento polinomial de tamanho, na profundidade 3.
fonte
Perceptrons são frequentemente referidos como um modelo para redes neurais. Os autores eram estudantes de Johan Håstad, então essa pode ser a referência que você está procurando.
fonte