Li em algum lugar que o método Variational Bayes é uma generalização do algoritmo EM. De fato, as partes iterativas dos algoritmos são muito semelhantes. Para testar se o algoritmo EM é uma versão especial do Variational Bayes, tentei o seguinte:
são dados, é a coleção de variáveis latentes e é os parâmetros. Em Bayes Variacionais, podemos fazer uma aproximação tal que . Onde são distribuições simples e tratáveis.
Como o algoritmo EM encontra uma estimativa de ponto MAP, pensei que Bayes Variacionais podem convergir para EM se eu usar uma Função Delta, de modo que: . é a primeira estimativa para os parâmetros, como geralmente é feito no EM.
Quando é dado, que minimiza a divergência de KL é encontrado pela fórmula A fórmula acima simplifica para , essa etapa é equivalente à etapa de Expectativa do algoritmo EM!
Mas não posso derivar a etapa de maximização como a continuação disso. Na próxima etapa, precisamos calcular e, de acordo com a regra de iteração Variational Bayes, é:
Os algoritmos VB e EM estão realmente conectados dessa maneira? Como podemos derivar o EM como um caso especial dos Bayes Variacionais, é minha abordagem verdadeira?
fonte
Respostas:
Sua abordagem está correta. EM é equivalente a VB sob a restrição de que o posterior aproximado para é limitado a ser uma massa pontual. (Isso é mencionado sem provas na página 337 da Análise de dados bayesiana .) Seja o local desconhecido desta massa de pontos: VB será minimize a seguinte divergência de : O mínimo acima de fornece o passo E do EM, e o mínimo acima de fornece o passo M do EM.Θ Θ∗
Obviamente, se você realmente avaliar a divergência de KL, seria infinita. Mas isso não é um problema se você considerar a função delta um limite.
fonte