Concordo que isso é muito amplo, mas aqui está uma resposta de 1 frase para a maioria deles. Os que eu deixei de fora (da parte inferior do gráfico) são muito modernos e muito especializados. Eu não sei muito sobre eles, então talvez alguém que saiba possa melhorar essa resposta.
- Perceptron: regressão linear ou logística (e, portanto, classificação).
- Feed Forward: Regressão ou classificação geralmente não linear com ativação sigmoidal. Essencialmente, um perceptron de várias camadas.
- Rede de base radial: rede Feed Forward com funções de ativação de base radial. Usado para classificação e alguns tipos de filtragem de vídeo / áudio
- Deep Feed Forward: Feed Forward com mais de uma camada oculta. Usado para aprender padrões mais complexos de classificação ou regressão, talvez aprendizado de reforço.
- Rede Neural Recorrente: Uma Rede de Deep Feed Forward em que alguns nós se conectam a camadas anteriores . Usado no aprendizado por reforço e para aprender padrões em dados sequenciais, como texto ou áudio.
- LSTM: Uma rede neural recorrente com neurônios de controle especializados (às vezes chamados de portões) que permite que os sinais sejam lembrados por períodos mais longos ou esquecidos seletivamente. Usado em qualquer aplicativo RNN, e geralmente capaz de aprender seqüências que têm um tempo de repetição muito longo.
- GRU: Muito parecido com o LSTM, outro tipo de RNN fechado com neurônios de controle especializados.
- Codificador automático: aprende a compactar dados e descompactá-lo. Depois de aprender esse modelo, ele pode ser dividido em duas subpartes úteis: um mapeamento do espaço de entrada para um espaço de baixa dimensão, que pode ser mais fácil de interpretar ou entender; e um mapeamento de um pequeno subespaço dimensional de números simples para padrões complexos, que podem ser usados para gerar esses padrões complexos. Base de muito trabalho moderno em visão, linguagem e processamento de áudio.
- VAE, DAE, SAE: Especializações do codificador automático.
- Cadeia de Markov: Uma representação de rede neural de uma cadeia de markov: o estado é codificado no conjunto de neurônios ativos e as probabilidades de transição são, assim, definidas pelos pesos. Usado para aprender probabilidades de transição e aprendizado de recursos não supervisionados para outros aplicativos.
- HN, BM, RBM, DBM: arquiteturas especializadas baseadas na idéia da cadeia de Markov, usadas para aprender automaticamente recursos úteis para outras aplicações.
Rede convolucional profunda: como uma rede feed-forward, mas cada nó é realmente um banco de nós aprendendo uma convolução da camada anterior a ela. Isso essencialmente permite aprender filtros, detectores de borda e outros padrões de interesse no processamento de vídeo e áudio.
Rede Desconvolucional Profunda: Oposto a uma Rede Convolucional em algum sentido. Aprenda um mapeamento a partir de recursos que representam bordas ou outras propriedades de alto nível de alguma imagem invisível, de volta ao espaço em pixels. Gere imagens de resumos.
DCIGN: essencialmente um codificador automático feito de um DCN e um DN colados. Usado para aprender modelos generativos para imagens complexas, como rostos.
Rede Adversarial Generativa: Usado para aprender modelos generativos para imagens complexas (ou outros tipos de dados) quando não há dados de treinamento suficientes para um DCIGN. Um modelo aprende a gerar dados a partir de ruído aleatório e o outro aprende a classificar a saída da primeira rede como distinta de quaisquer dados de treinamento disponíveis.