O que é uma "Informação da Unidade Anterior"?

11

Eu tenho lido Wagenmakers (2007) Uma solução prática para o problema generalizado dos valores de p . Estou intrigado com a conversão dos valores BIC em fatores e probabilidades de Bayes. No entanto, até agora não tenho uma boa compreensão do que exatamente é uma informação de unidade anterior . Ficaria muito grato por uma explicação com figuras, ou o código R para gerar figuras, desse particular em particular.

Matt Albrecht
fonte

Respostas:

6

A informação anterior da unidade é uma prévia dependente de dados (normalmente Normal multivariada) com média no MLE e precisão igual à informação fornecida por uma observação. Veja, por exemplo, este relatório técnico ou este documento para obter detalhes completos. A idéia do UIP é fornecer um prior que 'permita que os dados falem por si'; na maioria dos casos, a adição de prior que informa sobre uma observação centralizada onde os outros dados estão 'apontando' terá pouco impacto na análise subsequente. Um de seus principais usos é mostrar que o uso de BIC corresponde, em grandes amostras, ao uso de fatores Bayes, com UIPs em seus parâmetros.

Provavelmente também vale a pena notar que muitos estatísticos (incluindo bayesianos) não se sentem à vontade com o uso dos fatores de Bayes e / ou BIC, para muitos problemas aplicados.

convidado
fonte
2
O BIC não é uma ferramenta bayesiana, pois remove o impacto do anterior. Como bayesiano, me sinto à vontade com os fatores Bayes, mas não com a AIC, BIC ou DIC!
Xian
Bem, eu nunca disse que era! Como bayesiano (quem leu e valoriza a escolha bayesiana), ficaria feliz com qualquer um desses métodos se eles tivessem alguma justificativa teórica da decisão, mesmo que aproximadamente, para uma utilidade que refletisse o que eu queria que a análise atingisse.
guest
Obrigado pelas respostas. Eu fiz uma pergunta de acompanhamento aqui
Matt Albrecht
2

As informações da unidade anteriores são baseadas na seguinte interpretação da conjugação:

Configuração

  • Dados normais: com com desconhecido e conhecido. Os dados podem então ser suficientemente resumidos pela média da amostra, que antes de qualquer dado ser visto é distribuída de acordo com .Xn=(X1,,Xn)XiN(μ,σ2)μσ2X¯N(μ,σ2n)
  • Normal anterior para :μ com com a mesma variação dos dados.μN(a,σ2)
  • Normal posterior para :μ Com onde e .μN(M,v)v=σ2M=1n+1(a+nx¯)v=σ2n+1

Interpretação

Portanto, depois de observar os dados , temos um for posterior que concentra-se em uma combinação convexa da observação e o que foi postulado antes da observação dos dados, que é, . Além disso, a variação de posterior é dada por , portanto, como se tivéssemos observações em vez de u ˉ x um σ 2X¯=x¯μx¯a n+1n ˉ x aσ2n+1n+1ncomparou a distribuição amostral da média amostral. Observe que uma distribuição amostral não é a mesma que uma distribuição posterior. No entanto, o tipo posterior parece com ele, permitindo que os dados falem por si mesmos. Assim, com a informação de unidade de uma prévia recebe uma posterior que é principalmente concentrada sobre os dados, , e encolhido para a informação prévia como um one-off penalidade.x¯a

Kass e Wasserman, além disso, mostraram que a seleção do modelo versus com o dado anteriormente acima pode ser bem aproximada com o critério de Schwartz (basicamente, BIC / 2) quando for grande.H 1 : μ R nM0:μ=aM1:μRn

Algumas observações:

  • O fato de o BIC aproximar um fator de Bayes com base em uma informação de unidade anterior, não implica que devemos usar uma informação de unidade antes de construir um fator de Bayes. A escolha padrão de Jeffreys (1961) é usar um Cauchy anterior no tamanho do efeito, veja também Ly et al. (no prelo) para uma explicação sobre a escolha de Jeffreys.
  • Kass e Wasserman mostraram que o BIC dividido por uma constante (que relaciona o Cauchy a uma distribuição normal) ainda pode ser usado como uma aproximação do fator Bayes (desta vez com base no Cauchy anterior em vez de no normal).

Referências

  • Jeffreys, H. (1961). Teoria da Probabilidade . Oxford University Press, Oxford, Reino Unido, 3 edição.
  • Kass, RE e Wasserman, L. (1995). "Um teste bayesiano de referência para hipóteses aninhadas e sua relação com o critério Schwarz", Jornal da Associação Estatística Americana , 90, 928-934
  • Ly, A., Verhagen, AJ, & Wagenmakers, E.-J. (no prelo). Testes de hipóteses padrão do fator Bayes de Harold Jeffreys: explicação, extensão e aplicação em psicologia. Jornal de Psicologia Matemática.
Alexander Ly
fonte