Esta pergunta foi feita há muito tempo, mas estou postando uma resposta caso alguém a descubra no futuro. Em resumo, a resposta é afirmativa: você pode fazer isso em várias configurações e está justificado em corrigir a alteração no tamanho da amostra pelo . Essa abordagem é geralmente chamada de out of boostrap e funciona na maioria das configurações que o bootstrap `` tradicional '' 'faz, assim como em algumas configurações nas quais não.MN--√MN
O motivo é que muitos argumentos de consistência de autoinicialização utilizam estimadores do formato , em que são variáveis aleatórias e é um parâmetro de a distribuição subjacente. Por exemplo, para a média da amostra, e .1N√( TN- μ )X1, … , XNμTN= 1N∑Ni = 1XEuμ=E(X1)
Muitas provas de consistência de auto-inicialização argumentam que, como , dada uma amostra finita e estimativa de pontos associada ,
onde o é extraído da verdadeira distribuição subjacente e o é extraído com a substituição de .N→∞{x1,…,xN}μ N = T N ( x 1 , ... , x n ) √μ^N=TN(x1,…,xN)N−−√(TN(X∗1,…,X∗N)−μ^N)→DN−−√(TN(X1,…,XN)−μ)(1)
XiX∗i{x1,…,xN}
No entanto, também podemos usar amostras mais curtas do comprimento e considerar o estimador
Acontece que, como , o estimador ( ) tem a mesma distribuição limitadora que a anterior, na maioria das configurações em que ( ) mantém e alguns onde não. Nesse caso, ( ) e ( ) têm a mesma distribuição limitadora, motivando o fator de correção , por exemplo, no desvio padrão da amostra.M<NM−−√(TM(X∗1,…,X∗M)−μ^N).(2)
M,N→∞2112MN−−√
Esses argumentos são todos assintóticos e mantêm apenas o limite . Para que isso funcione, é importante não escolher muito pequeno. Há alguma teoria (por exemplo, Bickel e Sakov abaixo) sobre como escolher o ideal em função de para obter os melhores resultados teóricos, mas, no seu caso, os recursos computacionais podem ser o fator decisivo.M,N→∞M MN
Por alguma intuição: em muitos casos, temos como , de modo que
pode ser pensado um pouco como um de de bootstrap com e (estou usando minúsculas para evitar confusão notação ) Dessa maneira, emular a distribuição de ( ) usando um bootstrap out of com é algo mais `` certo '' do que o tradicional ( out ofμ^N→DμN→∞N−−√(TN(X1,…,XN)−μ),(3)
mnm=Nn=∞MNM<NNN3MNM<NNN) tipo. Um bônus adicional no seu caso é que é menos computacionalmente caro avaliar.
Como você mencionou, Politis e Romano são o artigo principal. Acho Bickel et al (1997) abaixo de uma boa visão geral do bootstrap out of também.MN
Fontes :
PJ Bickel, F. Goetze, WR van Zwet. 1997. Reamostrando menos de observações: ganhos, perdas e soluções para perdas. Statistica Sinica.n
PJ Bickel, A Sakov. 2008. Sobre a escolha de no ouf de auto-inicialização e de confiança limites para extrema. Statistica Sinica.mmn