tl; dr: Começando com um conjunto de dados gerado sob o valor nulo, fiz uma nova amostragem de casos com substituição e conduzi um teste de hipótese em cada conjunto de dados reamostrado. Esses testes de hipótese rejeitam o nulo mais de 5% do tempo.
Na simulação abaixo, muito simples, eu conjuntos de dados com e um modelo OLS simples para cada um. Em seguida, para cada conjunto de dados, eu gero 1000 novos conjuntos de dados re-amostrando linhas do conjunto de dados original com substituição (um algoritmo especificamente descrito no texto clássico de Davison & Hinkley como apropriado para a regressão linear). Para cada um deles, eu me encaixo no mesmo modelo OLS. Por fim, cerca de 16% dos testes de hipótese nas amostras de bootstrap rejeitam o nulo , enquanto que devemos obter 5% (como fazemos nos conjuntos de dados originais).
Eu suspeitava que isso tivesse algo a ver com observações repetidas, causando associações infladas; portanto, para comparação, tentei duas outras abordagens no código abaixo (comentado). No método 2, eu corrijo e substituo por resíduos reamostrados do modelo OLS no conjunto de dados original. No método 3, eu desenho uma subamostra aleatória sem substituição. Ambas as alternativas funcionam, ou seja, seus testes de hipótese rejeitam o nulo 5% das vezes.
Minha pergunta: Estou certo de que observações repetidas são as culpadas? Se sim, considerando que essa é uma abordagem padrão para o bootstrap, onde exatamente estamos violando a teoria padrão do bootstrap?
Atualização # 1: Mais simulações
Eu tentei um cenário ainda mais simples, um modelo de regressão somente interceptar para . O mesmo problema ocorre.
# note: simulation takes 5-10 min on my laptop; can reduce boot.reps
# and n.sims.run if wanted
# set the number of cores: can change this to match your machine
library(doParallel)
registerDoParallel(cores=8)
boot.reps = 1000
n.sims.run = 1000
for ( j in 1:n.sims.run ) {
# make initial dataset from which to bootstrap
# generate under null
d = data.frame( X1 = rnorm( n = 1000 ), Y1 = rnorm( n = 1000 ) )
# fit OLS to original data
mod.orig = lm( Y1 ~ X1, data = d )
bhat = coef( mod.orig )[["X1"]]
se = coef(summary(mod.orig))["X1",2]
rej = coef(summary(mod.orig))["X1",4] < 0.05
# run all bootstrap iterates
parallel.time = system.time( {
r = foreach( icount( boot.reps ), .combine=rbind ) %dopar% {
# Algorithm 6.2: Resample entire cases - FAILS
# residuals of this model are repeated, so not normal?
ids = sample( 1:nrow(d), replace=TRUE )
b = d[ ids, ]
# # Method 2: Resample just the residuals themselves - WORKS
# b = data.frame( X1 = d$X1, Y1 = sample(mod.orig$residuals, replace = TRUE) )
# # Method 3: Subsampling without replacement - WORKS
# ids = sample( 1:nrow(d), size = 500, replace=FALSE )
# b = d[ ids, ]
# save stats from bootstrap sample
mod = lm( Y1 ~ X1, data = b )
data.frame( bhat = coef( mod )[["X1"]],
se = coef(summary(mod))["X1",2],
rej = coef(summary(mod))["X1",4] < 0.05 )
}
} )[3]
###### Results for This Simulation Rep #####
r = data.frame(r)
names(r) = c( "bhat.bt", "se.bt", "rej.bt" )
# return results of each bootstrap iterate
new.rows = data.frame( bt.iterate = 1:boot.reps,
bhat.bt = r$bhat.bt,
se.bt = r$se.bt,
rej.bt = r$rej.bt )
# along with results from original sample
new.rows$bhat = bhat
new.rows$se = se
new.rows$rej = rej
# add row to output file
if ( j == 1 ) res = new.rows
else res = rbind( res, new.rows )
# res should have boot.reps rows per "j" in the for-loop
# simulation rep counter
d$sim.rep = j
} # end loop over j simulation reps
##### Analyze results #####
# dataset with only one row per simulation
s = res[ res$bt.iterate == 1, ]
# prob of rejecting within each resample
# should be 0.05
mean(res$rej.bt); mean(s$rej)
Atualização # 2: A resposta
Várias possibilidades foram propostas nos comentários e respostas, e eu fiz mais simulações para testá-las empiricamente. Acontece que o JWalker está certo de que o problema é que precisamos centralizar as estatísticas de autoinicialização pela estimativa dos dados originais para obter a distribuição de amostragem correta em . No entanto, também acho que o comentário do whuber sobre a violação dos pressupostos dos testes paramétricos também está correto, embora neste caso realmente recebamos falsos positivos nominais quando solucionamos o problema do JWalker.
fonte
ids
ids <- unique(ids)
Respostas:
Quando você redimensiona o valor nulo, o valor esperado do coeficiente de regressão é zero. Quando você reamostrar alguns conjuntos de dados observados, o valor esperado é o coeficiente observado para esses dados. Não é um erro do tipo I se P <= 0,05 quando você reamostrar os dados observados. De fato, é um erro do tipo II se você tiver P> 0,05.
Você pode obter alguma intuição calculando a correlação entre o abs (b) e a média (P). Aqui está o código mais simples para replicar o que você fez, além de calcular a correlação entre o erro "tipo I" no conjunto de simulações
atualizar a resposta por grand_chat não é a razão pela qual a frequência de P <= 0,05 é> 0,05. A resposta é muito simples e o que eu disse acima - o valor esperado da média de cada nova amostra é a média original observada. Esta é toda a base do bootstrap, que foi desenvolvido para gerar erros / limites de confiança padrão em uma média observada e não como um teste de hipótese. Como a expectativa não é zero, é claro que o "erro tipo I" será maior que alfa. E é por isso que haverá uma correlação entre a magnitude do coeficiente (a que distância de zero) e a magnitude do desvio do "erro tipo I" de alfa.
fonte
Se você fizer uma amostra com a substituição da sua amostra normal original, a amostra de inicialização resultante não será normal . A distribuição conjunta da amostra de bootstrap segue uma distribuição de mistura gnarly que provavelmente contém registros duplicados, enquanto que valores duplicados têm probabilidade zero quando você coleta amostras de uma distribuição normal.
Como um exemplo simples, se sua amostra original for duas observações de uma distribuição normal univariada, uma amostra de autoinicialização com substituição consistirá na metade do tempo na amostra original e na metade do tempo consistirá em um dos valores originais duplicados. É claro que a variação da amostra de bootstrap será, em média, menor que a do original - na verdade, será metade do original.
A principal conseqüência é que a inferência que você está fazendo com base na teoria normal retorna os valores incorretos quando aplicados ao exemplo de autoinicialização. Em particular, a teoria normal produz regras de decisão anticonservadoras, porque sua amostra de bootstrap produzirá estatísticas cujos denominadores são menores do que o esperado na teoria normal, devido à presença de duplicatas. Como resultado, o teste de hipótese da teoria normal acaba rejeitando a hipótese nula mais do que o esperado.p t
fonte
Concordo totalmente com a resposta da @ JWalker.
Há outro aspecto desse problema. Isso está no seu processo de reamostragem. Você espera que o coeficiente de regressão seja centrado em torno de zero porque você assume
X
eY
é independente. No entanto, na sua reamostragem, você fazo que cria correlação porque você está amostrando
X
eY
juntos. Por exemplo, digamos que a primeira linha do conjunto de dadosd
seja(x1, y1)
: No conjunto de dados reamostradoP(Y = y1|X = x1) = 1
, enquanto seX
eY
for independente,P(Y|X = x1)
segue uma distribuição normal.Então, outra maneira de corrigir isso é usar
o mesmo código que você usa para gerar
d
, a fim de tornar X e Y independentes um do outro.O mesmo motivo explica por que ele funciona com reamostragem residual (porque
X
é independente do novoY
).fonte
x's
. A que me referi é a correlação entreX
s eY
s.O maior problema aqui é que os resultados do modelo são espúrios e, portanto, altamente instáveis, porque o modelo é apenas um ruído adequado. Num sentido muito literal. Y1 não é uma variável dependente devido à forma como os dados da amostra foram gerados.
Editar, em resposta aos comentários. Deixe-me tentar outra vez explicar o meu pensamento.
Com um OLS, a intenção geral é descobrir e quantificar os relacionamentos subjacentes nos dados. Com dados do mundo real, geralmente não sabemos exatamente.
Mas esta é uma situação de teste artificial. Conhecemos o mecanismo EXATO de geração de dados, está bem ali no código postado pelo OP É
Se expressarmos isso na forma familiar de uma regressão OLS, ou seja,
Então, na minha opinião, este é um modelo expresso em FORM linear, mas NÃO é realmente uma relação / modelo linear, porque não há inclinação. Beta1 = 0.000000.
Quando gerarmos os 1000 pontos de dados aleatórios, o gráfico de dispersão será semelhante ao spray circular de espingarda clássica. Pode haver alguma correlação entre X1 e Y1 na amostra específica de 1000 pontos aleatórios gerados, mas, nesse caso, é uma ocorrência aleatória. Se o OLS encontrar uma correlação, ou seja, rejeitar a hipótese nula de que não há inclinação, uma vez que sabemos definitivamente que realmente não há relação entre essas duas variáveis, o OLS encontrou literalmente um padrão no Componente de Erro. Eu caracterizei isso como "ajustando o barulho" e "espúrio".
Além disso, uma das suposições / requisitos padrão de um OLS é que (+/-) "o modelo de regressão linear é" linear em parâmetros ". Dados os dados, minha opinião é de que não satisfazemos essa suposição.Portanto, as estatísticas de teste subjacentes à significância são imprecisas.Minha convicção é de que a violação da suposição de linearidade é a causa direta dos resultados não intuitivos do bootstrap.
Quando eu li esse problema pela primeira vez, não percebi que o OP pretendia testar sob a hipótese [nula].
Mas os mesmos resultados não intuitivos aconteceriam se o conjunto de dados tivesse sido gerado como
fonte