Isso é de uma versão beta fechada para AI, com esta pergunta sendo postada pelo usuário número 47. Todo o crédito é para eles.
De acordo com a Wikipedia ,
As máquinas Boltzmann podem ser vistas como a contraparte estocástica e generativa das redes Hopfield.
Ambas são redes neurais recorrentes que podem ser treinadas para aprender sobre padrões de bits. Então, quando apresentado com um padrão parcial, a rede recuperará o padrão completo completo.
As redes Hopfield provaram ter uma capacidade de 0,138 (por exemplo, aproximadamente vetores de 138 bits podem ser recuperados do armazenamento para cada 1000 nós, Hertz 1991).
Como uma máquina de Boltzmann é estocástica, meu entendimento é que nem sempre mostraria necessariamente o mesmo padrão quando a diferença de energia entre um padrão armazenado e outro é semelhante. Mas, devido a essa estocástica, talvez ele permita um armazenamento mais denso de padrões, mas sem a garantia de que você sempre obterá o padrão "mais próximo" em termos de diferença de energia. Isso seria verdade? Ou uma rede Hopfield seria capaz de armazenar mais padrões?