Está disponível uma interpretação bayesiana de REML? Para minha intuição, REML tem uma forte semelhança com os chamados procedimentos empíricos de estimativa de Bayes , e me pergunto se algum tipo de equivalência assintótica (sob alguma classe adequada de priores, digamos) foi demonstrada. Tanto Bayes empírico como REML parecem abordagens de estimativa 'comprometidas' realizadas em face de parâmetros incômodos , por exemplo.
Principalmente, o que busco por essa pergunta é o insight de alto nível que esses tipos de argumentos tendem a produzir. Obviamente, se um argumento dessa natureza, por algum motivo, não puder ser útil para o REML, uma explicação de por que isso ocorre também fornecerá informações bem-vindas!
bayesian
asymptotics
reml
David C. Norris
fonte
fonte
Respostas:
As interpretações bayesianas existem apenas dentro da estrutura da análise bayesiana, para estimadores que se relacionam com uma distribuição posterior. Portanto, a única maneira pela qual o estimador REML pode receber uma interpretação bayesiana (isto é, uma interpretação como um estimador extraído do posterior) é se considerarmos a probabilidade logarítmica restrita na análise REML como log-posterior em um correspondente Análise de Bayes; nesse caso, o estimador REML seria um estimador MAP da teoria bayesiana, com sua correspondente interpretação bayesiana.
Configurando o estimador REML para ser um estimador MAP: É relativamente simples ver como definir a probabilidade restrita de log na análise REML para ser o log-posterior em uma análise Bayes. Para fazer isso, exigimos que o log anterior seja negativo da parte da probabilidade de log removida pelo processo REML. Suponhamos que temos do Log-Likelihood onde ℓ RE ( θ ) é o log-probabilidade e residual θℓx(θ,ν)=ℓ∗(θ,ν)+ℓRE(θ) ℓRE(θ) θ é o parâmetro de interesse (com sendo nosso parâmetro de incômodo). Definir o anterior para π ( θ , ν ) ∝ exp ( - ℓ ∗ ( θ , ν ) ) fornece posterior correspondente:ν π(θ,ν)∝exp(−ℓ∗(θ,ν))
Isso nos dá:
Esse resultado nos permite interpretar o estimador REML como um estimador MAP, de modo que a interpretação bayesiana apropriada do estimador REML é que é o estimador que maximiza a densidade posterior sob o anterior .
Tendo ilustrado o método para dar uma interpretação bayesiana ao estimador REML, observamos agora que existem alguns grandes problemas com essa abordagem. Um problema é que o anterior é formado utilizando o log-probabilidade componente , que depende dos dados. Portanto, o "prioritário" necessário para obter essa interpretação não é um prior real, no sentido de ser uma função que pode ser formada antes da visualização dos dados. Outro problema é que o prior frequentemente será inadequado (ou seja, ele não se integra a um) e pode realmente aumentar de peso à medida que os valores dos parâmetros se tornam extremos. (Vamos mostrar um exemplo disso abaixo.)ℓ∗( θ , ν)
Com base nesses problemas, pode-se argumentar que não existe uma interpretação bayesiana razoável para o estimador REML. Alternativamente, pode-se argumentar que o estimador REML ainda mantém a interpretação bayesiana acima, sendo um estimador máximo a posteriori sob um "anterior" que deve coincidir coincidir com os dados observados na forma especificada e pode ser extremamente inadequado.
No REML, dividimos essa probabilidade de log nos dois componentes:
We obtain the REML estimator for the precision parameter by maximising the residual likelihood, which gives an unbiased estimator for the variance:
In this case, the REML estimator will correspond to a MAP estimator for the "prior" density:
As you can see, this "prior" actually depends on the observed data values, so it cannot actually be formed prior to seeing the data. Moreover, we can see that it is clearly an "improper" prior that puts more and more weight on extreme values ofθ and ν . (Actually, this prior is pretty bonkers.) If by "coincidence" you were to form a prior that happened to correspond to this outcome then the REML estimator would be a MAP estimator under that prior, and hence would have a Bayesian interpretation as the estimator that maximises the posterior under that prior.
fonte