É necessário centralizar ao inicializar a amostra?

13

Ao ler sobre como aproximar a distribuição da amostra, me deparei com o método de inicialização não paramétrico. Aparentemente, pode-se aproximar a distribuição de pela distribuição de ˉ Xn - ˉ X n , onde ˉ XnX¯n-μX¯n-X¯nX¯n denota a média da amostra da amostra de bootstrap.

Minha pergunta então é: eu preciso da centralização? Pelo que?

Eu não poderia apenas aproximar por P ( ˉ Xnx ) ?P(X¯nx)P(X¯nx)

Christin
fonte
Não vejo por que você precisa centralizar nada. Todas as amostras discutidas aqui são do mesmo tamanho, certo?
Bitwise
Mesmo tamanho, sim. Também não vejo a razão da centralização. Alguém seria capaz de apresentar uma explicação matemática por que ou por que não precisamos fazer isso? Quero dizer, podemos provar que o bootstrap funciona ou não funciona se não centralizarmos?
Christin
3
(Btw, uma prova de que o bootstrap funciona para o caso em que nos concentramos pode ser encontrada em Bickel, PJ e DA Freedman (1981), Alguma teoria assintótica para o bootstrap ).
Christin
Estou curioso: por que esta pergunta foi rejeitada?
cardeal
Talvez façamos a entrada para poder usar o Teorema do Limite Central, que nos dá essa n12(X¯n-μ) converge para a mesma distribuição que , ou seja,N(0,σ2). Talvez não haja assintóticos disponíveis para o caso sem centralização que nos digam se funciona. n12(X¯n-X¯n)N(0 0,σ2)
Kelu

Respostas:

4

Sim, você pode aproximar por P ( ˉ Xnx ), mas não é o ideal. Essa é uma forma de autoinicialização de percentil. No entanto, o bootstrap de percentil não terá um bom desempenho se você estiver tentando fazer inferências sobre a população, a menos que você tenha um tamanho de amostra grande. (Ele funciona bem com muitos outros problemas de inferência, inclusive quando o tamanho da amostra é pequeno.) Eu tomo esta conclusão das Estatísticas Modernas de Wilcox para as Ciências Sociais e ComportamentaisP(X¯nx)P(X¯nx) , CRC Press, 2012. Uma prova teórica está além de mim, receio. .

Uma variante da abordagem de centralização vai para o próximo passo e dimensiona sua estatística de autoinicialização centralizada com o desvio padrão da amostra e o tamanho da amostra, calculando da mesma maneira que na estatística. Os quantis da distribuição dessas estatísticas t podem ser usados ​​para construir um intervalo de confiança ou realizar um teste de hipótese. Este é o método bootstrap-t e fornece resultados superiores ao fazer inferências sobre a média.

Deixei s

T=X¯n-X¯s/n

Tμ

X¯-T0,975sn,X¯-T0,025sn

Considere os resultados da simulação abaixo, mostrando que, com uma distribuição mista mal distorcida, os intervalos de confiança desse método contêm o valor verdadeiro com mais frequência do que o método de autoinicialização por percentil ou uma inversão tradicional da estatística sem autoinicialização.

compare.boots <- function(samp, reps = 599){
    # "samp" is the actual original observed sample
    # "s" is a re-sample for bootstrap purposes

    n <- length(samp)

    boot.t <- numeric(reps)
    boot.p <- numeric(reps)

    for(i in 1:reps){
        s <- sample(samp, replace=TRUE)
        boot.t[i] <- (mean(s)-mean(samp)) / (sd(s)/sqrt(n))
        boot.p[i] <- mean(s)
    }

    conf.t <- mean(samp)-quantile(boot.t, probs=c(0.975,0.025))*sd(samp)/sqrt(n)
    conf.p <- quantile(boot.p, probs=c(0.025, 0.975))

    return(rbind(conf.t, conf.p, "Trad T test"=t.test(samp)$conf.int))
}

# Tests below will be for case where sample size is 15
n <- 15

# Create a population that is normally distributed
set.seed(123)
pop <- rnorm(1000,10,1)
my.sample <- sample(pop,n)
# All three methods have similar results when normally distributed
compare.boots(my.sample)

Isso fornece o seguinte (conf.t é o método de autoinicialização t; conf.p é o método de autoinicialização por percentil).

          97.5%     2.5%
conf.t      9.648824 10.98006
conf.p      9.808311 10.95964
Trad T test 9.681865 11.01644

Com um único exemplo de uma distribuição distorcida:

# create a population that is a mixture of two normal and one gamma distribution
set.seed(123)
pop <- c(rnorm(1000,10,2),rgamma(3000,3,1)*4, rnorm(200,45,7))
my.sample <- sample(pop,n)
mean(pop)
compare.boots(my.sample)

Isso fornece o seguinte. Observe que "conf.t" - a versão bootstrap t - oferece um intervalo de confiança mais amplo que os outros dois. Basicamente, é melhor responder à distribuição incomum da população.

> mean(pop)
[1] 13.02341
> compare.boots(my.sample)
                97.5%     2.5%
conf.t      10.432285 29.54331
conf.p       9.813542 19.67761
Trad T test  8.312949 20.24093

Finalmente, aqui estão milhares de simulações para ver qual versão fornece intervalos de confiança mais frequentemente corretos:

# simulation study
set.seed(123)
sims <- 1000
results <- matrix(FALSE, sims,3)
colnames(results) <- c("Bootstrap T", "Bootstrap percentile", "Trad T test")

for(i in 1:sims){
    pop <- c(rnorm(1000,10,2),rgamma(3000,3,1)*4, rnorm(200,45,7))
    my.sample <- sample(pop,n)
    mu <- mean(pop)
    x <- compare.boots(my.sample)
    for(j in 1:3){
        results[i,j] <- x[j,1] < mu & x[j,2] > mu
    }
}

apply(results,2,sum)

Isso fornece os resultados abaixo - os números são os tempos em mil em que o intervalo de confiança contém o valor real de uma população simulada. Observe que a verdadeira taxa de sucesso de todas as versões é consideravelmente menor que 95%.

     Bootstrap T Bootstrap percentile          Trad T test 
             901                  854                  890 
Peter Ellis
fonte
Obrigado, isso foi muito informativo. Este .pdf (de uma lição) descreve uma advertência para sua conclusão: psychology.mcmaster.ca/bennett/boot09/percentileT.pdf Este é um resumo do que Bennet diz: Muitos conjuntos de dados consistem em números que são> = 0 (dados que podem ser contados); nesse caso, o IC não deve conter valores negativos. Usando o método bootstrap-t, isso pode ocorrer, tornando o intervalo de confiança implausível. O requisito de que os dados sejam> = 0 viola a suposição de distribuição normal. Este não é um problema quando a construção de um percentil bootstrapped CI
Hannes Ziegler