Antecedentes: Muitas pesquisas modernas nos últimos ~ 4 anos (pós- alexnet ) parecem ter deixado de usar o pré-treinamento generativo para redes neurais para obter resultados de classificação de ponta.
Por exemplo, os principais resultados para o mnist aqui incluem apenas 2 artigos dos 50 principais que parecem usar modelos generativos, sendo ambos RBMs. Os outros 48 trabalhos vencedores são sobre diferentes arquiteturas discriminativas de avanço de alimentação, com muito esforço para encontrar melhores / novas inicializações de peso e funções de ativação diferentes do sigmóide usado no RBM e em muitas redes neurais mais antigas.
Pergunta: Existe alguma razão moderna para usar mais máquinas Restricted Boltzmann?
Caso contrário, existe uma modificação de fato que se possa aplicar a essas arquiteturas de feed forward para tornar alguma de suas camadas generativa?
Motivação: pergunto porque alguns dos modelos que estou vendo disponíveis, geralmente variantes no RBM, não têm necessariamente contrapartidas discriminatórias análogas óbvias a essas camadas / modelos generativos e vice-versa. Por exemplo:
CRBM (embora se possa argumentar que a CNN usou arquiteturas de feed forward é a arquitetura análoga discriminativa)
Além disso, esses também foram claramente pré-alexnet, de 2010, 2011 e 2009, com respeito.
fonte
Respostas:
Essa é uma pergunta antiga, mas como ela pede essencialmente 'melhores práticas', e não o que é realmente tecnicamente possível (ou seja, não precisa de muito foco de pesquisa), as melhores práticas atuais são algo como:
Para usos generativos, técnicas comuns incluem:
fonte
Encontrei recentemente este artigo sobre "Máquinas Adversárias Codificadas por Boltzmann", que integra RBMs com CNNs como modelo generativo.
Os autores mostram que é matematicamente "melhor" em alguns aspectos, e mostram alguns exemplos de brinquedos nos quais o BEAM parece muito mais capaz de aprender com precisão a distribuição de dados em comparação com outros modelos GAN.
O benchmark "mundo real" dos rostos da CelebA foi muito menos impressionante - não está claro que o BEAM se sai melhor ou até tão bem quanto outros GANs populares. No entanto, o uso de RBMs nessa configuração é certamente interessante.
fonte