Terminologia para Média Bayesiana de Probabilidade Posterior com Uniforme Anterior

11

Se Uniforme e Bin , a média posterior de é dada por .p(0,1)X(n,p)pX+1n+2

Existe um nome comum para esse estimador? Descobri que resolve muitos problemas das pessoas e gostaria de poder apontar as pessoas para uma referência, mas não consegui encontrar o nome certo para ela.

Lembro-me vagamente que isso foi chamado de algo como o "estimador + 1 / + 2" em um livro de estatísticas 101, mas esse não é um termo muito pesquisável.

Cliff AB
fonte

Respostas:

11

Com antes Unif(0,1)Beta(α0=1,β0=1) e probabilidade Binom(n,θ) mostrando x sucessos em n ensaios, a distribuição a posteriori é Beta(αn=1+x,βn=1+nx). (Isso é facilmente visto multiplicando os núcleos do anterior e a probabilidade de obter o núcleo do posterior.)

Então a média posterior é

μn=αnαn+β=x+1n+2.

Em um contexto bayesiano, apenas o uso da terminologia média posterior pode ser melhor. (A mediana da distribuição posterior e o máximo de seu PDF também foram usados ​​para resumir as informações posteriores.)

Notas: (1) Aqui você está usando como uma distribuição anterior não informativa. Por sólidas bases teóricas, alguns estatísticos bayesianos preferem usar o Jeffreys prior como um prior não informativo. Então a média posterior éBeta(1,1)B e t a ( 1 Beta(12,12)μn=x+.5n+1.

(2) Ao fazer intervalos de confiança freqüentes, Agresti e Coull sugeriram "adicionar dois sucessos e duas falhas" à amostra para obter um intervalo de confiança com base no estimador que tem probabilidades de cobertura mais precisas (do que o intervalo Wald tradicional usandoDavid Moore chamou esse estimador de mais-quatro em alguns de seus textos estatísticos elementares amplamente usados, e a terminologia foi usada por outros. Não ficaria surpreso ao ver seu estimador chamado 'mais dois' e Jeffries 'chamado' mais um '.p^=x+2n+4, p =Xp^=xn).

(3) Todos esses estimadores têm o efeito de "encolher o estimador em direção a 1/2" e, portanto, foram chamados de "estimadores de encolhimento" (um termo que é muito mais amplamente usado, principalmente na inferência de James-Stein). Consulte Resposta (+1) de @Taylor.

BruceET
fonte
Relacionado - stats.stackexchange.com/questions/185221 .
Royi 08/02/19
2
sim, mas como isso ajuda na terminologia ?
BruceET 8/02/19
Ajuda com a derivação que você escreveu é fácil. Acho que algumas pessoas podem encontrar essa pergunta procurando a derivação em si.
Royi 08/02/19
3
(2) é realmente o que me interessava. Não sabia que o estimador era apresentado para justificativas puramente freqüentistas. Nos casos em que o prescrevo como solução, é sempre algo como calcular uma probabilidade quando um determinado multinomial não foi visto antes (ou seja, agrupar nas contagens de letras e um cluster não incluir "z" s), portanto, nada com probabilidades de cobertura de ICs. Obrigado!
Cliff AB
(0,1).
10

Isso é chamado de suavização de Laplace , ou regra de sucessão de Laplace , como Pierre-Simon Laplace usou para estimar a probabilidade de o sol nascer novamente amanhã: "Assim, descobrimos que um evento ocorreu várias vezes, a probabilidade de que ocorra novamente. a próxima vez é igual a esse número aumentado pela unidade, dividido pelo mesmo número aumentado por duas unidades ".

Ensaio filosófico sobre as probabilidades do marquês de Laplace

Xi'an
fonte
(+1) para referência histórica
BruceET
(+1) As respostas desta e de @ BruceET foram diferentes, mas as respostas corretas para minha pergunta.
Cliff AB
5

.5

Taylor
fonte
2
(+1) Isso é verdade, é um estimador de retração. Eu queria um nome específico para o caso binomial / multinomial, para que eu possa apontar outros pesquisadores para o material exatamente nesse estimador, para que eles não pensem que eu estou apenas dizendo "adicione 1 às coisas até que você obtenha a resposta desejada", mas também não precisa começar do começo para explicar o que são as estatísticas bayesianas.
Cliff AB