Estou tentando entender o EM e tentando inferir parâmetros desse modelo usando essa técnica, mas estou tendo problemas para entender como começar:
Então, eu tenho um modelo de regressão linear ponderada da seguinte forma, onde tenho observações e as observações correspondentes . O modelo da relação entre e é um modelo de regressão linear ponderada e as premissas de distribuição são as seguintes:
Aqui são os parâmetros de regressão e o modelo permite variações desiguais, fazendo com que as variáveis de resposta tenham pesos individuais na variação. Meu objetivo é encontrar a relação linear mais provável fornecida pelos parâmetros .
Então, agora posso escrever o log-posterior da seguinte maneira:
Agora, eu tenho tentado entender EM e não tenho certeza de que meu entendimento ainda esteja completo, mas como eu o entendo, para começar a estimar os parâmetros, começo assumindo a expectativa da distribuição log-posterior em relação aos parâmetros latentes / ocultos que, no meu caso, são e . Portanto, esse valor esperado exigido será:
No entanto, não tenho idéia de como proceder a partir daqui para calcular essa expectativa. Gostaria muito de receber sugestões sobre qual deve ser o próximo passo. Não estou procurando alguém para me obter todas as coisas necessárias, mas apenas um empurrão na direção certa sobre o que devo procurar resolver nas próximas etapas.
Respostas:
Deixe-me relembrar o básico do algoritmo EM primeiro. Ao procurar a estimativa de probabilidade máxima de uma probabilidade do formulário
No seu caso, parece que a variável latente éϖ feito do wi enquanto o parâmetro de interesse é β . Se você processar ambosβ e ϖ como variáveis latentes, não há nenhum parâmetro a ser otimizado. No entanto, isso também significa que o anteriorβ não é usado.
Se olharmos mais precisamente para o caso dewi , sua distribuição condicional é dada por
A probabilidade de log concluída é
fonte