Estou com problemas para entender o que é um processo bayesiano de inicialização e como isso seria diferente da inicialização normal. E se alguém pudesse oferecer uma revisão intuitiva / conceitual e uma comparação de ambos, isso seria ótimo.
Vamos dar um exemplo.
Digamos que temos um conjunto de dados X que é [1,2,5,7,3].
Se fizermos uma amostragem com substituição várias vezes para criar tamanhos de amostra iguais ao tamanho de X (então, [7,7,2,5,7], [3,5,2,2,7] etc.), e então calcular as médias de cada um, é que a distribuição de bootstrap da amostra significa?
Qual seria a distribuição bayesiana de bootstrap disso?
E como a distribuição bayesiana de bootstrap de outros parâmetros (variação, etc) é feita da mesma maneira?
Respostas:
O bootstrap (freqüentista) toma os dados como uma aproximação razoável à distribuição populacional desconhecida. Portanto, a distribuição amostral de uma estatística (uma função dos dados) pode ser aproximada, repetindo a amostragem repetida das observações com substituição e calculando a estatística para cada amostra.
Seja denotar os dados originais. (No exemplo dado, n = 5. ) Seja y b = ( y b 1 , … , y b n ) denotar uma amostra de autoinicialização. Essa amostra provavelmente terá algumas observações repetidas uma ou mais vezes e outras observações estarão ausentes. A média da amostra de bootstrap é dada por m b = 1y= ( y1, … , Yn) n = 5 yb= ( yb1, … , Ybn) É a distribuição dembpor várias replicações de autoinicialização que é usada para aproximar a distribuição de amostragem da população desconhecida.
A fim de compreender a ligação entre o bootstrap frequencista e o bootstrap Bayesiana, é instrutivo para ver como calcular a partir de uma perspectiva diferente.mb
Em cada amostra de auto-inicialização , cada observação y i ocorre de 0 a n vezes. Seja h b i o número de vezes que y i ocorre em y b , e seja h b = ( h b 1 , … , h b n ) . Assim, h b i ∈ { 0 , 1 , … , n - 1 , n }yb yEu n hbEu yEu yb hb= ( hb1, … , Hbn) hbEu∈ { 0 , 1 , … , n - 1 , n } e . Dado h b , podemos construir uma coleção de pesos não negativos que somam um: w b = h b / n , onde w b i = h b i / n . Com essa notação, podemos reexpressar a média da amostra de bootstrap como
m b = n ∑ i = 1 w b i∑ni = 1hbEu= n hb Wb= hb/ n WbEu= hbEu/ n
Aqui está um esboço em miniatura do modelo por trás do bootstrap bayesiano: A distribuição de amostragem para as observações é multinomial e a anterior para os pesos é uma distribuição Dirichlet limitante que coloca todo o seu peso nos vértices do simplex. (Alguns autores se referem a esse modelo como modelo de probabilidade multinomial .)
fonte