Comparação entre estimadores de Bayes

9
  1. Considere a perda quadrática , com o dado previamente que . Seja a probabilidade. Encontre o estimador de Bayes .L(θ,δ)=(θδ)2π(θ)π(θ)U(0,1/2)f(x|θ)=θxθ1I[0,1](x),θ>0δπ

  2. Considere a perda quadrática ponderada que com anterior . Seja seja a probabilidade. Encontre o estimador de Bayes .Lw(θ,δ)=w(θ)(θδ)2w(θ)=I(,1/2)π1(θ)=I[0,1](θ)f(x|θ)=θxθ1I[0,1](x),θ>0δ1π

  3. Compare eδπδ1π

Primeiro, notei que , e assumi que essa é a probabilidade, caso contrário não recebo nenhum posterior, então portanto o estimador de Bayes em relação à perda quadrática é f(x|θ)Beta(θ,1)

π(θ|x)f(x|θ)π(θ)=θxθ1I[0,1]2I(0,1/2)(θ)Beta(θ,1)
E[π(θ|x)]=θθ+1

Estou procurando no livro The Bayesian Choice e há um teorema sobre o estimador de Bayes associado à perda quadrática ponderada e é dado por

δπ(x)=Eπ[w(θ)θ|x]Eπ[w(θ)|x]

Alguém pode me explicar como eu o calculo?

O que eu tentei é:

δπ(x)=θw(θ)f(x|θ)π(θ)dθw(θ)f(x|θ)π(θ)dθf(x|θ)π(θ)dθw(θ)f(xθ)π(θ)dθ

Eu sei que o suporte é , mas quando tentei integrar no numerador[0,12]

θw(θ)f(x|θ)π(θ)dθ=012θθxθ1dθ=1x012θ2xθdθ

Não tenho bons resultados.

Xi'an
fonte
11
Não é não negativo aqui? w(θ)
Juho Kokkala 16/03
3
Não entendo sua observação sobre "apenas para não negativo", porque (1) uma função de perda nunca se tornará negativa e (2) sua função de perda não pode ser negativa de qualquer maneira. w(θ)
whuber
@whuber Puxa, agora eu percebi que a minha idiotice, eu estava olhando para o suporte do indicador

Respostas:

7

Primeiro, observe que eu corrigi o texto original da pergunta, pois o indicador funciona em suas definições de probabilidade, pois devem ser funções de not . Portanto, a probabilidade é que se integra claramente a um:xθ

f(x)=θxθ1I[0,1](x)
01θxθ1dx=1

Segundo, o posterior em não é uma função Beta, pois, como indicado por Greenparker Devido à restrição nos valores de também não é uma distribuição gama, mas um truncamento da distribuição gama.θ

π(θ|x)I[0,1/2](θ)θxθ1I[0,1/2](θ)θexp{log(x)θ}
θ

Portanto, o estimador Bayes é a expectativa posterior que podem parecer exigir o uso da função Gamma incompleta, mas que podem ser derivadas de forma fechada pela integração por parte: desde

E[θ|x]=01/2θ×θexp{log(x)θ}dθ/01/2θexp{log(x)θ}dθ=01/2θ2exp{log(x)θ}dθ/01/2θexp{log(x)θ}dθ
01/2θkexp{αθ}dθ=1α[θkexp{αθ}]01/2+kα01/2θk1exp{αθ}dθ
01/2exp{αθ}dθ=1exp{α/2}α

Por fim, como indicado no meu livro , de fato, minimizar in equivale a minimizar em que é equivalente a minimizar em que equivale a substituir o original original por um novo que precisa ser renormalizado em uma densidade, ou seja, δ

w(θ)(θδ)2π(θ|x)dθ
δ
w(θ)(θδ)2π(θ)f(x|θ)dθ
δ
(θδ)2w(θ)π(θ)f(x|θ)dθ
πw(θ)π(θ)
π1(θ)=w(θ)π(θ)/w(θ)π(θ)dθ
Xi'an
fonte
6

Sua resposta para a parte da perda de erro ao quadrado está errada.

π(θ|x)f(x|θ)π(θ)=2θxθ1I(0,1/2)(θ).

Esta é uma distribuição em , não em , e a variável aleatória no posterior é . Portanto, sua resposta está incorreta e a resposta correta seria a média posterior dessa distribuição.Beta(θ,1)xθθ

Para a segunda parte,

(O anterior da função de perda ponderada é mas você a refere como . Estou mudando a notação de volta para .)π1ππ1

Let , onde é uma constante de normalização. Você precisa calcularπ(θ)=cw(θ)π1(θ)c

δπ1(x)=Eπ1[w(θ)θ|x]Eπ1[w(θ|x)]=w(θ)θf(x|θ)π1(θ)dθw(θ)f(x|θ)π1(θ)dθ=θf(x|θ)π(θ)dθf(x|θ)π(θ)dθ=Eπ[θ|x]

Assim, para a função de perda ponderada de mínimos quadrados, o teorema diz que a estimativa de Bayes é a média posterior em relação a um anterior diferente. O anterior é

π(θ)w(θ)π1(θ).

A constante de normalização é .θw(θ)π(θ)dθ=Eπ1[w(θ)]

Eπ1[w(θ)]=01/2I0,1(θ)d(θ)=12.

Portanto, o anterior é . É o mesmo que você teve na primeira pergunta.π(θ)=2I(0,1/2)(θ)

Assim, a resposta para os cenários (seja o que for) será a mesma. Você pode encontrar a integral aqui . Embora possa ser suficiente corrigir a forma da resposta e não completar a integral.

Greenparker
fonte