Qual é esse truque ao adicionar 1 aqui?

11

Eu estava olhando esta página na implementação de Monte Carlo do teste de Lillefors. Eu não entendo esta frase:

Há um erro aleatório neste cálculo da simulação. No entanto, devido ao truque de adicionar 1 ao numerador e denominador no cálculo do valor P, ele pode ser usado diretamente, sem levar em consideração a aleatoriedade.

O que eles querem dizer com o truque de adicionar 1 ao numerador e denominador?

O trecho de código relevante está aqui:

n <- length(x)
nsim <- 4999
d.star <- double(nsim)
for (i in 1:nsim) {
    x.star <- rnorm(n)
    d.star[i] <- fred(x.star)
}
hist(d.star)
abline(v = d.hat, lty = 2)
## simulation-derived P-value
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)
Aksakal
fonte
Você pode adicionar o contexto relevante aqui?
gung - Restabelece Monica
4
Parece que a suavização de Laplace para o estimador de probabilidades de Monte Carlo, o que reduz para 1/2; O principal efeito é provavelmente evitar obter um valor-p igual a 0, como observou @Tim (embora não haja risco de dividir por 0, como ele disse, a menos que você esteja fazendo 0 simulações). Eu realmente não vejo por que isso permite que você o use "sem considerar a aleatoriedade", no entanto.
Dougal
2
Você escreveu Geyer diretamente para perguntar o que a frase significa?
Alexis
@ Alexis, não, mas é uma boa ideia.
Aksakal
@ Dougal, sim, parece com a suavização de Laplace. Não está claro por que ele está aplicando aqui.
Aksakal

Respostas:

6

A explicação na página referenciada é

Sob a hipótese nula, a probabilidade é exatamente k / n sim quando são consideradas a aleatoriedade nos dados e a aleatoriedade na simulação.Pr(Pk/nsim)k/nsim

Para entender isso, precisamos examinar o código, cujas linhas-chave (consideravelmente abreviadas) são

fred <- function(x) {ks.test(...)$statistic}  # Apply a statistical test to an array
d.hat <- fred(x)                              # Apply the test to the data
d.star <- apply(matrix(rnorm(n*nsim), n, nsim),
                2, fred)                      # Apply the test to nsim simulated datasets
pval <- (sum(d.star > d.hat) + 1) / (nsim + 1)# Estimate a simulation p-value

O principal problema é que o código não corresponde à cotação. Como podemos reconciliá-los? Uma tentativa começa com a última metade da cotação. Podemos interpretar o procedimento como compreendendo as seguintes etapas:

  1. Recolha de dados distribuídos de forma independente e identicamente de acordo com uma lei de probabilidade L . Aplique um procedimento de teste t (implementado no código as ) para produzir o número T 0 = t ( X 1 , , X n ) .X1,X2,,XnGtfredT0=t(X1,,Xn)

  2. Gerar via computador conjuntos de dados comparáveis, cada um de tamanho n , de acordo com uma hipótese nula com a lei probabilidade F . Aplicar t para cada tal conjunto de dados para produzir N números T 1 , T 2 , ... , T N .N=nsimnFtNT1,T2,,TN

  3. Calcular

    P=(i=1NI(Ti>T0)+1)/(N+1).

    Id.star > d.hatT0Ti

F=Gα0<α<1N+11Pαα(N+1)α1TiT0T0(N+1)αN+1T0TiF(N+1)α

Pr(Pα)=(N+1)αN+1α
(N+1)αkα=k/(N+1)

[0,1]N+1αk/(N+1)=k/(nsim+1)Pa caixa de diálogo que publiquei sobre o valor de p. )

nsim+1nsim

whuber
fonte
5

Eu acredito que aqui, 1 é adicionado a ambos porque a estatística observada está incluída na distribuição de referência; se for esse o caso, é por causa da parte "pelo menos tão grande" da definição de valor-p.

Não sei ao certo porque o texto parece estar dizendo algo diferente, mas seria por isso que eu faria isso.

Glen_b -Reinstate Monica
fonte
1
@whuber Não vejo como posso concordar. Nem todos os testes são testes de razão de verossimilhança; quando não são LRTs, que relevância pode ter a interpretação em termos de razão de verossimilhança?
Glen_b -Replica Monica
1
@whuber Certamente pode fazer. Mas considere, por exemplo, um Wilcoxon-Mann-Whitney (ou, de fato, testes de permutação mais amplamente). Existe um grande número de testes perfeitamente razoáveis ​​em amplo uso que não são um teste de Lilliefors nem um teste de razão de verossimilhança. Quando há uma alternativa clara contra a qual o poder é desejado, geralmente é possível construir uma estatística de teste significativa, onde a ordem no espaço da amostra fornecida pela estatística de teste faz todo o sentido e possui propriedades razoáveis ​​em uma ampla variedade de alternativas.
Glen_b -Reinstala Monica
1
Certamente, ao criar uma estatística de teste que corresponda (no sentido de obter valores mais extremos, maiores ou menores) ao tipo de alternativa em que você está interessado, está apelando para "o tipo de alternativa em que está interessado. "- mas mesmo se alguém usasse um teste inadmissível (de fato, até mesmo um teste inútil), o princípio que descrevi em minha resposta de incluir a amostra observada nos resultados simulados ainda se aplicaria. Depois de fazer um pedido, mesmo que não seja o melhor, ao calcular valores-p, o caso observado ainda pertenceria à contagem.
Glen_b -Reinstala Monica
2
@ whuber não podemos estar tão distantes agora. Ao escolher uma estatística de teste razoável, certamente quereríamos apelar para alguma coisa . Mas uma vez que tenhamos uma estatística de teste (como devemos ter no momento em que estamos simulando sob o nulo), já o fizemos. E uma vez que tenhamos, a razão pela qual incluiríamos o caso observado em nosso cálculo do valor-p é por causa do que é um valor-p.
Glen_b -Reinstala Monica
1
Acho que não temos nenhuma diferença. (Observe que minha própria resposta deixa claro que a inclusão da amostra observada na contagem é apropriada.) Meu comentário não foi direcionado à sua resposta à pergunta (com a qual eu concordo e voto a favor), mas apenas à frase problemática "pelo menos tão grande. " Vejo essa frase mal interpretada em tantos lugares deste site (e em outros lugares) que queria chamar a atenção dos leitores para o que realmente deveria significar.
whuber