Por que usar o bootstrap paramétrico?

13

Atualmente, estou tentando entender algumas coisas relacionadas à inicialização paramétrica. A maioria das coisas provavelmente é trivial, mas ainda acho que perdi alguma coisa.

Suponha que eu queira obter intervalos de confiança para dados usando um procedimento de inicialização paramétrica.

Então, eu tenho essa amostra e presumo que ela é normalmente distribuída. Eu, então, estimar variância v e média m e obter minha estimativa distribuição P , que é, obviamente, apenas N ( m , v ) .v^m^P^N(m^,v^)

Em vez de amostrar a partir dessa distribuição, eu poderia apenas calcular os quantis analiticamente e ser feito.

a) Concluo: nesse caso trivial, o bootstrap paramétrico seria o mesmo que calcular as coisas em uma suposição de distribuição normal?

Então, teoricamente, esse seria o caso de todos os modelos paramétricos de inicialização, desde que eu possa lidar com os cálculos.

b) Concluo: usar a suposição de uma certa distribuição me trará uma precisão extra no bootstrap paramétrico sobre o nonparametric (se estiver correto, é claro). Mas, além disso, eu o faço porque não consigo lidar com os cálculos analíticos e tento simular minha saída.

c) Eu também o usaria se os cálculos "normalmente" fossem feitos usando alguma aproximação, porque isso talvez me desse mais precisão ...?

Para mim, o benefício da inicialização (não paramétrica) parecia residir no fato de que eu não preciso assumir nenhuma distribuição. Para o bootstrap paramétrico, essa vantagem se foi - ou há coisas que eu perdi e onde o bootstrap paramétrico fornece um benefício sobre o mencionado acima?

BootstrapBill
fonte
1
Você está basicamente correto - você está trocando erro analítico por erro de monte carlo. O bootstrap paramétrico também é uma amostra posterior aproximada.
probabilityislogic
1
quer dizer amostra posterior aproximada como em bayesiano? Ainda não entendi bem a conexão entre o bootstrapping e a estimativa de probabilidade máxima. mas isso é uma história diferente. Obrigado pela sua resposta!
BootstrapBill

Respostas:

8

Sim. Você está certo. Mas o bootstrap paramétrico protege melhores resultados quando as suposições são válidas. Pense nisso desta maneira:

Temos uma amostra aleatória de uma distribuição F . Nós estimamos um parâmetro de interesse θ como uma função da amostra, θ = h ( X 1 , ... , X n ) . Esta estimativa é uma variável aleatória, por isso tem uma distribuição que chamamos G . Esta distribuição é completamente determinada por H e F significa L = L ( H , F )X1,,XnFθθ^=h(X1,,Xn)GhFG=G(h,F). Ao fazer qualquer tipo de inicialização (paramétrico, não paramétrico, re-amostragem) o que estamos fazendo é estimar com F , a fim de obter uma estimativa de G , G = G ( h , F ) . De G estimamos as propriedades de θ . O que muda diferentes fom tipos de inicialização é a forma como obtemosFF^GG^=G(h,F^)G^θ^.F^

Se você puder analiticamente calcular G = G ( h , F ) que você deve ir para ele, mas, em geral, é uma coisa muito difícil de fazer. A magia de inicialização é que podemos gerar amostras com distribuição G . Para fazer isso, gerar aleatoriamente amostras de X b 1 , ... , X b n com distribuição F e calcular θ b = h ( X b 1 , ... , XG^=G(h,F^)G^X1b,,XnbF^ Que se vai seguir a G distribuição.θ^b=h(X1b,,Xnb)G^

Depois de pensar dessa maneira, as vantagens do bootstrap paramétrico são óbvias. F seria uma melhor aproximação das F , então G estaria mais próximo de G e, finalmente, as estimativas de θF^FG^Gθ^ propriedades 's seria melhor.

Manuel
fonte
1
Portanto, se colocarmos em termos de convergência de ordem superior, veremos que, embora o bootstrap paramétrico e não paramétrico sejam da mesma ordem de convergência (acho que é o que está escrito nas estatísticas assintóticas de van der vaarts), o paramétrico ainda é melhor. mas apenas em termos de algum fator?
usar o seguinte