Bootstrapping vs Bayesian Bootstrapping conceitualmente?

21

Estou com problemas para entender o que é um processo bayesiano de inicialização e como isso seria diferente da inicialização normal. E se alguém pudesse oferecer uma revisão intuitiva / conceitual e uma comparação de ambos, isso seria ótimo.

Vamos dar um exemplo.

Digamos que temos um conjunto de dados X que é [1,2,5,7,3].

Se fizermos uma amostragem com substituição várias vezes para criar tamanhos de amostra iguais ao tamanho de X (então, [7,7,2,5,7], [3,5,2,2,7] etc.), e então calcular as médias de cada um, é que a distribuição de bootstrap da amostra significa?

Qual seria a distribuição bayesiana de bootstrap disso?

E como a distribuição bayesiana de bootstrap de outros parâmetros (variação, etc) é feita da mesma maneira?

SpicyClubSauce
fonte
4
Veja sumsar.net/blog/2015/04/… e projecteuclid.org/euclid.aos/1176345338 , talvez @ rasmus-bååth possa lhe responder;)
Tim

Respostas:

27

O bootstrap (freqüentista) toma os dados como uma aproximação razoável à distribuição populacional desconhecida. Portanto, a distribuição amostral de uma estatística (uma função dos dados) pode ser aproximada, repetindo a amostragem repetida das observações com substituição e calculando a estatística para cada amostra.

Seja denotar os dados originais. (No exemplo dado, n = 5. ) Seja y b = ( y b 1 , , y b n ) denotar uma amostra de autoinicialização. Essa amostra provavelmente terá algumas observações repetidas uma ou mais vezes e outras observações estarão ausentes. A média da amostra de bootstrap é dada por m b = 1y=(y1,,yn)n=5yb=(y1b,...,ynb)É a distribuição dembpor várias replicações de autoinicialização que é usada para aproximar a distribuição de amostragem da população desconhecida.

mb=1nEu=1nyEub.
mb

A fim de compreender a ligação entre o bootstrap frequencista e o bootstrap Bayesiana, é instrutivo para ver como calcular a partir de uma perspectiva diferente.mb

Em cada amostra de auto-inicialização , cada observação y i ocorre de 0 a n vezes. Seja h b i o número de vezes que y i ocorre em y b , e seja h b = ( h b 1 , , h b n ) . Assim, h b i{ 0 , 1 , , n - 1 , n }ybyEunhEubyEuybhb=(h1b,...,hnb)hEub{0 0,1,...,n-1,n}e . Dado h b , podemos construir uma coleção de pesos não negativos que somam um: w b = h b / n , onde w b i = h b i / n . Com essa notação, podemos reexpressar a média da amostra de bootstrap como m b = n i = 1 w b iEu=1nhEub=nhbWb=hb/nWEub=hEub/n

mb=Eu=1nWEubyEu.

Wbhb

(nWb)Multinomial(n,(1/n)Eu=1n).
mbWby

yW

μ=Eu=1nWEuyEu.

Aqui está um esboço em miniatura do modelo por trás do bootstrap bayesiano: A distribuição de amostragem para as observações é multinomial e a anterior para os pesos é uma distribuição Dirichlet limitante que coloca todo o seu peso nos vértices do simplex. (Alguns autores se referem a esse modelo como modelo de probabilidade multinomial .)

WDirichlet(1,...,1).

μWy

Eu=1nWEug(yEu,θ)=0 0_,
g(yEu,θ)θ0 0_θyWWprobabilidade empírica e com método generalizado de momentos (GMM).)

Eu=1nWEu(yEu-μ)=0
θ=(μ,v)
g(yEu,θ)=(yEu-μ(yEu-μ)2-v).
mef
fonte
1
Obrigado pela descrição muito detalhada. Pessoalmente, eu apreciaria uma breve declaração sobre quando escolher cada um.
ErichBSchulz 18/02