Atualmente, estou tentando entender algumas coisas relacionadas à inicialização paramétrica. A maioria das coisas provavelmente é trivial, mas ainda acho que perdi alguma coisa.
Suponha que eu queira obter intervalos de confiança para dados usando um procedimento de inicialização paramétrica.
Então, eu tenho essa amostra e presumo que ela é normalmente distribuída. Eu, então, estimar variância v e média m e obter minha estimativa distribuição P , que é, obviamente, apenas N ( m , v ) .
Em vez de amostrar a partir dessa distribuição, eu poderia apenas calcular os quantis analiticamente e ser feito.
a) Concluo: nesse caso trivial, o bootstrap paramétrico seria o mesmo que calcular as coisas em uma suposição de distribuição normal?
Então, teoricamente, esse seria o caso de todos os modelos paramétricos de inicialização, desde que eu possa lidar com os cálculos.
b) Concluo: usar a suposição de uma certa distribuição me trará uma precisão extra no bootstrap paramétrico sobre o nonparametric (se estiver correto, é claro). Mas, além disso, eu o faço porque não consigo lidar com os cálculos analíticos e tento simular minha saída.
c) Eu também o usaria se os cálculos "normalmente" fossem feitos usando alguma aproximação, porque isso talvez me desse mais precisão ...?
Para mim, o benefício da inicialização (não paramétrica) parecia residir no fato de que eu não preciso assumir nenhuma distribuição. Para o bootstrap paramétrico, essa vantagem se foi - ou há coisas que eu perdi e onde o bootstrap paramétrico fornece um benefício sobre o mencionado acima?
fonte
Respostas:
Sim. Você está certo. Mas o bootstrap paramétrico protege melhores resultados quando as suposições são válidas. Pense nisso desta maneira:
Temos uma amostra aleatória de uma distribuição F . Nós estimamos um parâmetro de interesse θ como uma função da amostra, θ = h ( X 1 , ... , X n ) . Esta estimativa é uma variável aleatória, por isso tem uma distribuição que chamamos G . Esta distribuição é completamente determinada por H e F significa L = L ( H , F )X1,…,Xn F θ θ^=h(X1,…,Xn) G h F G=G(h,F) . Ao fazer qualquer tipo de inicialização (paramétrico, não paramétrico, re-amostragem) o que estamos fazendo é estimar com F , a fim de obter uma estimativa de G , G = G ( h , F ) . De G estimamos as propriedades de θ . O que muda diferentes fom tipos de inicialização é a forma como obtemosF F^ G G^=G(h,F^) G^ θ^ .F^
Se você puder analiticamente calcular G = G ( h , F ) que você deve ir para ele, mas, em geral, é uma coisa muito difícil de fazer. A magia de inicialização é que podemos gerar amostras com distribuição G . Para fazer isso, gerar aleatoriamente amostras de X b 1 , ... , X b n com distribuição F e calcular θ b = h ( X b 1 , ... , XG^=G(h,F^) G^ Xb1,…,Xbn F^ Que se vai seguir a G distribuição.θ^b=h(Xb1,…,Xbn) G^
Depois de pensar dessa maneira, as vantagens do bootstrap paramétrico são óbvias. F seria uma melhor aproximação das F , então G estaria mais próximo de G e, finalmente, as estimativas de θF^ F G^ G θ^ propriedades 's seria melhor.
fonte