A questão é baseada no artigo intitulado: Reconstrução de imagens em tomografia óptica difusa usando o modelo de transporte-difusão radiativa acoplada
Os autores aplicam EM algoritmo com sparsity regularização de um vector desconhecida para estimar os pixels de uma imagem. O modelo é dado por
No meu caso, considerei um filtro de comprimento e são vetores representando os filtros. Então,
O modelo pode ser reescrito como
Pergunta: Formulação do problema: (n por 1) é a entrada não observada e é a média zero com variação desconhecida ruído aditivo. A solução MLE será baseada na Expectation Maximization (EM).
No artigo Eq (19) está a função - a probabilidade total de log completa, mas para o meu caso não entendo como posso incluir a distribuição de na expressão completa de probabilidade de log.
Qual será a probabilidade de log completa usando EM de incluindo a distribuição anterior?
Respostas:
log L ( θ | x ) = E [ log L ( θ | x , Z ) | x , θ ⁰ ] - E [ log q
fonte
Eu não acho que mostrar aumento monotônico log-posterior (ou probabilidade logarítmica para MLE) seja suficiente para mostrar convergência para o ponto estacionário da estimativa de MAP (ou MLE). Por exemplo, os incrementos podem se tornar arbitrariamente pequenos. No famoso artigo de Wu 1983 , uma condição suficiente para convergir para o ponto estacionário de EM é a diferenciabilidade nos dois argumentos da função de limite inferior.
fonte