Eu perguntei sobre isso antes e realmente tenho lutado para identificar o que torna um parâmetro de modelo e o que o torna uma variável latente. Portanto, analisando vários tópicos sobre este tópico neste site, a principal distinção parece ser:
Variáveis latentes não são observadas, mas têm uma distribuição de probabilidade associada a elas, pois são variáveis e parâmetros também não são observados e não têm distribuição associada a elas, que eu entendo como essas são constantes e têm um valor fixo, mas desconhecido, que estamos tentando encontrar. Além disso, podemos colocar anteriores nos parâmetros para representar nossa incerteza sobre esses parâmetros, embora exista apenas um valor verdadeiro associado a eles ou, pelo menos, é o que assumimos. Espero estar correto até agora?
Agora, observei este exemplo para regressão linear ponderada bayesiana de um artigo de jornal e estou realmente lutando para entender o que é um parâmetro e o que é uma variável:
Aqui e são observados, mas apenas y é tratado como uma variável, ou seja, possui uma distribuição associada a ela.
Agora, as premissas de modelagem são:
Portanto, a variação de é ponderada.
Há também uma distribuição prévia em e , que são distribuições normais e gama respectivamente.
Portanto, a probabilidade completa do log é dada por:
Agora, pelo que entendi, tanto e w são parâmetros de modelo. No entanto, no artigo eles continuam se referindo a eles como variáveis latentes. Meu raciocínio é β e w são parte da distribuição de probabilidade da variável y e são parâmetros do modelo. No entanto, os autores as tratam como variáveis aleatórias latentes. Isso está correto? Se sim, quais seriam os parâmetros do modelo?
O artigo pode ser encontrado aqui ( http://www.jting.net/pubs/2007/ting-ICRA2007.pdf ).
O artigo é Detecção automática de outlier: uma abordagem bayesiana de Ting et al.
Respostas:
No artigo, e em geral, variáveis (aleatórias) são tudo o que é extraído de uma distribuição de probabilidade. Variáveis latentes (aleatórias) são aquelas que você não observa diretamente ( y é observado, β não é, mas ambas são rv). A partir de uma variável aleatória latente, é possível obter uma distribuição posterior, que é sua distribuição de probabilidade condicionada aos dados observados.y β
Por outro lado, um parâmetro é fixo, mesmo que você não saiba seu valor. A estimativa de máxima verossimilhança, por exemplo, fornece o valor mais provável do seu parâmetro. Mas isso lhe dá um ponto, não uma distribuição completa, porque coisas fixas não têm distribuições! (Você pode colocar uma distribuição sobre a certeza de que tem esse valor ou em que faixa esse valor é, mas não é o mesmo que a distribuição do próprio valor, que só existe se o valor for realmente aleatório variável)
Nesta frase:
em teoria, eles falam sobre os dois parâmetros, não os que são variáveis aleatórias, já que no EM é isso que você faz, otimizando os parâmetros.
fonte