Há um problema de lição de casa em um livro que pede para verificar a propriedade de uma certa distribuição posterior, e estou tendo um pequeno problema com isso. A configuração é que você tem um modelo de regressão logística com um preditor e um uniforme inadequado antes de .
Especificamente, assumimos para que
portanto a probabilidade é
O problema é que suspeito que esse posterior seja realmente impróprio.
Para a situação específica em que , se usarmos a alteração das variáveis e , podemos ver que
Na linha do asterisco, assumimos que 0 <y <n , mas, se não, então terminamos com a mesma coisa.
Estou fazendo algo bobo aqui? Ou isso é um posterior impróprio?
logistic
bayesian
posterior
improper-prior
Taylor
fonte
fonte
Respostas:
Para , é possível ver diretamente da sua equação a probabilidade de que a densidade posterior seja constante ao longo de linhas paralelas nas quais assume valores constantes. Portanto, o posterior é realmente impróprio e tem a forma de uma crista para . Basicamente, qualquer linha de regressão adequada à resposta observada em sairá igualmente bem.k=1 p(α,β|y1,x1) α+βxi k=1 x1
Em seguida, suponha que temos observações. Considere a reparameterização dada por Como essa é uma transformação linear de com um determinante constante do anterior para também é uniforme sobre , desde que . Considere a reparameterização adicional, a transformação inversa do logit para . Claramente, também são a priori independentes, com densidades dadas pork=2 η1η2=α+βx1=α+βx2 α,β η1,η2 R2 x1≠x2 pi=11+e−ηi, i=1,2 p1,p2 π(pi)=π(ηi)∣∣dηidpi∣∣∝ddpilnpi1−pi=1(1−pi)pi
Estes são chamados de anteriores inadequados de Haldane , que podem ser interpretados como uma certa forma de limite da densidade de uma distribuição Beta, com ambos os parâmetros próximos de zero. Condicional nos dados , desde que , a densidade marginal posterior de cada seja distribuições Beta apropriadas com os parâmetros . Retrotransformando, as distribuições posteriores de e também devem ser adequadas. Isso ocorre, exceto em casos especiais, como umy1,y2 0<yi<n pi yi,n−yi (η1,η2) (α,β) yi assumindo um valor de 0 ou nesse caso, a função beta normalizante é infinita e a parte posterior de (e, portanto, a parte posterior de e ) é inadequada.n B(yi,n−yi) pi α β
Para observações , a posterior também deve ser adequada, pois a densidade posterior não normalizada de é limitada pela posterior com base nas primeiras observações .k>2 α,β k=2
fonte
É impróprio, eu acredito. Eu só preciso provar que Denotar função Agora que é uma função monotonicamente crescente, quando , temos∫α∈Rβ>0p(y∣α,β,x)=+∞. σ=invlogit σ β>0 σ(α+βxi)>σ(α−βmax|xi|)>0, 1−σ(α+βxi)>1−σ(α+βmax|xi|)>0.
Assim, a integral∫α∈Rβ>0p(y∣α,β,x)>>>∫α∈Rβ>0∏[σ(α−βmax|xi|)]yi[1−σ(α+βmax|xi|)]ni−yi∫α∈Rβ>0∏[σ(α−βmax|xi|)]maxni[1−σ(α+βmax|xi|)]maxni∫α∈Rβ>0[σ(α−βmax|xi|)]kmaxni[1−σ(α+βmax|xi|)]kmaxni
São necessárias mais propriedades sobre :σ (σ(x))N=1(1+e−x)N>12N(max{1,e−x})N=12N(max{1,e−Nx})>12Nσ(Nx)
Seja, , em seguida,ξ=α−βmax|xi| η=α+βmax|xi|,N=kmaxni ∫α∈Rβ>0p(y∣α,β,x)>∝>=∫α∈Rβ>0[σ(α−βmax|xi|)]N[1−σ(α+βmax|xi|)]N∫−∞<ξ<η<+∞[σ(ξ)]N[σ(−η)]N122N∫ξ+∞(∫−∞+∞σ(Nξ)dξ) σ(−Nη)dη+∞
fonte
Eu já aceitei uma resposta, mas queria ressaltar que o posterior não é adequado para todos os conjuntos de dados possíveis. O posterior é proporcional à probabilidade, que é Se , isso simplifica para∏i=1k[invlogit(α+βxi)]yi[1−invlogit(α+βxi)]n−yi. y1=y2=⋯=yk=n ∏i=1k[invlogit(α+βxi)]n,
e podemos ver que∫∞−∞∫∞−∞∏i=1k[invlogit(α+βxi)]ndαdβ≥∫∞0∫∞−∞∏i=1k[invlogit(α+βxi)]ndαdβ≥∫∞0∫∞−∞[invlogit(α+βx(1))]nkdαdβ≥∫∞0∫∞−∞[invlogit(r1)]nkdr1dr2=∞.
fonte