No modelo misto, assumimos que os efeitos aleatórios (parâmetros) são variáveis aleatórias que seguem distribuições normais. Parece muito semelhante ao método bayesiano, no qual todos os parâmetros são assumidos como aleatórios.
Então, o modelo de efeito aleatório é um caso especial do método bayesiano?
Essa é uma boa pergunta. A rigor, o uso de um modelo misto não o torna bayesiano. Imagine estimar cada efeito aleatório separadamente (tratando-o como um efeito fixo) e depois analisando a distribuição resultante. Isso é "sujo", mas conceitualmente você tem uma distribuição de probabilidade entre os efeitos aleatórios com base em um conceito de frequência relativa .
Mas se, como freqüentador, você se encaixa no seu modelo usando a máxima probabilidade máxima e depois deseja "estimar" os efeitos aleatórios, você tem uma pequena complicação. Como essas quantidades não são fixas como os parâmetros de regressão típicos, uma palavra melhor que "estimativa" provavelmente seria "previsão". Se você deseja prever um efeito aleatório para um determinado assunto, vai querer usar os dados desse assunto. Você precisará recorrer à regra de Bayes, ou pelo menos à noção de queAqui a distribuição de efeitos aleatórios funciona essencialmente como um anterior. E acho que, a essa altura, muitas pessoas chamariam isso de "Bayes empírico".
f( βEu| yEu) ∝ f( yEu| βEu) g( βEu) .
g( )
Para ser um verdadeiro bayesiano, você não precisaria apenas especificar uma distribuição para seus efeitos aleatórios, mas também distribuições (anteriores) para cada parâmetro que define essa distribuição, assim como distribuições para todos os parâmetros de efeitos fixos e o modelo epsilon. É bem intenso!
@baogorek - um padrão bastante robusto é priores Cauchy para efeitos fixos e meia cauchy para os parâmetros de variância - não que "intensa" - ele apenas se parece com probabilidade penalizado
probabilityislogic
4
Efeitos aleatórios são uma maneira de especificar uma suposição distributiva usando distribuições condicionais. Por exemplo, o one-way ANOVA modelo aleatório é:
E esta suposição de distribuição é equivalente para
( y i 1 ⋮ y i J ) ~ iid N ( ( u ⋮ u ) , Σ ) ,
onde Σ tem uma estrutura permutável (com entrada diagonal σ 2 b + σ 2 w e covariância σ 2 b ). Para bayesianificar o modelo, é necessário atribuir distribuições anteriores em μ e Σ .
Se você está falando em termos de reprodução das mesmas respostas, a resposta é sim. O método computacional INLA (google "inla bayesian") para GLMMs bayesianos combinados com um anterior uniforme para efeitos fixos e parâmetros de variação reproduz basicamente as saídas EBLUP / EBLUE sob a aproximação gaussiana "plug-in simples", na qual os parâmetros de variação são estimados via REML.
Acho que não, considero parte da função de probabilidade. É semelhante a especificar que o termo de erro segue uma distribuição Normal em um modelo de regressão, ou um determinado processo binário pode ser modelado usando um relacionamento logístico em um GLM.
Como nenhuma informação prévia ou distribuição é usada, não a considero bayesiana.
Efeitos aleatórios são uma maneira de especificar uma suposição distributiva usando distribuições condicionais. Por exemplo, o one-way ANOVA modelo aleatório é: E esta suposição de distribuição é equivalente para ( y i 1 ⋮ y i J ) ~ iid N ( ( u ⋮ u ) , Σ ) ,
fonte
Se você está falando em termos de reprodução das mesmas respostas, a resposta é sim. O método computacional INLA (google "inla bayesian") para GLMMs bayesianos combinados com um anterior uniforme para efeitos fixos e parâmetros de variação reproduz basicamente as saídas EBLUP / EBLUE sob a aproximação gaussiana "plug-in simples", na qual os parâmetros de variação são estimados via REML.
fonte
Acho que não, considero parte da função de probabilidade. É semelhante a especificar que o termo de erro segue uma distribuição Normal em um modelo de regressão, ou um determinado processo binário pode ser modelado usando um relacionamento logístico em um GLM.
Como nenhuma informação prévia ou distribuição é usada, não a considero bayesiana.
fonte