Recentemente, encontrei em um artigo de Klammer et al. uma declaração de que os valores-p devem ser distribuídos uniformemente. Acredito nos autores, mas não consigo entender por que é assim.
Klammer, AA, Park, CY, e Stafford Noble, W. (2009) Calibração de Estatística da Função SEQUEST XCorr . Journal of Proteome Research . 8 (4): 2106-2113.
Respostas:
Para esclarecer um pouco. O valor p é distribuído uniformemente quando a hipótese nula é verdadeira e todas as outras suposições são atendidas. A razão para isso é realmente a definição de alfa como a probabilidade de um erro do tipo I. Queremos que a probabilidade de rejeitar uma hipótese nula verdadeira seja alfa, rejeitamos quando o observado , a única maneira que isso acontece para qualquer valor de alfa é quando o valor-p vem de um uniforme distribuição. O objetivo de usar a distribuição correta (normal, t, f, chisq etc.) é transformar da estatística do teste em um valor-p uniforme. Se a hipótese nula for falsa, a distribuição do valor-p (espero) será mais ponderada em relação a 0.p-value<α
As funções
Pvalue.norm.sim
ePvalue.binom.sim
no pacote TeachingDemos para R simularão vários conjuntos de dados, computarão os valores-p e os plotarão para demonstrar essa idéia.Veja também:
para mais alguns detalhes.
Editar:
Como as pessoas ainda estão lendo esta resposta e comentando, pensei em abordar o comentário do @ whuber.
É verdade que, ao usar uma hipótese nula composta como os valores-p somente serão distribuídos uniformemente quando as duas médias forem exatamente iguais e não serão uniformes se for qualquer valor menor que . Isso pode ser facilmente visto usando a função e configurando-a para fazer um teste unilateral e simular com a simulação e meios hipotéticos diferentes (mas na direção de tornar o nulo verdadeiro).μ 1 μ doisμ1≤μ2 μ1 μ2
Pvalue.norm.sim
No que diz respeito à teoria estatística, isso não importa. Considere se eu afirmei que sou mais alto que todos os membros de sua família, uma maneira de testar essa afirmação seria comparar minha altura com a altura de cada membro de sua família, uma de cada vez. Outra opção seria encontrar o membro da sua família mais alto e comparar a altura deles com a minha. Se eu sou mais alto que essa pessoa, também sou mais alto que o resto e minha afirmação é verdadeira; se não sou mais alta que essa pessoa, minha afirmação é falsa. Testar um nulo composto pode ser visto como um processo semelhante, em vez de testar todas as combinações possíveis em que podemos testar apenas a parte da igualdade, porque se podemos rejeitar isso em favor deμ 1 = μ 2 μ 1 > μ 2 μ 1 < μ 2 μ 1 < μ 2 α μ 1 μ 2 αμ1≤μ2 μ1=μ2 μ1>μ2 então sabemos que também podemos rejeitar todas as possibilidades de . Se observarmos a distribuição dos valores-p nos casos em que , a distribuição não será perfeitamente uniforme, mas terá mais valores próximos de 1 do que 0, o que significa que a probabilidade de um erro do tipo I será menor que o valor selecionado, tornando-o um teste conservador. O uniforme se torna a distribuição limitadora à medida que se aproxima deμ1<μ2 μ1<μ2 α μ1 μ2 (as pessoas mais atualizadas nos termos da teoria das estatísticas provavelmente poderiam afirmar isso melhor em termos de supremo distributivo ou algo assim). Portanto, construindo nosso teste assumindo a parte igual do nulo, mesmo quando o nulo é composto, projetamos nosso teste para ter uma probabilidade de um erro do tipo I que é no máximo para todas as condições em que o nulo é verdadeiro.α
fonte
\leq
em TeX)!Sob a hipótese nula, sua estatística de teste tem a distribuição (por exemplo, normal padrão). Mostramos que o valor p tem uma distribuição de probabilidade em outras palavras, é distribuído uniformemente. Isso ocorre enquanto é invertível, uma condição necessária para que não seja uma variável aleatória discreta.T F(t) P=F(T) P F ( ⋅ ) T
Este resultado é geral: a distribuição de um CDF invertível de uma variável aleatória é uniforme em .[0,1]
fonte
Seja a variável aleatória com a função de distribuição cumulativa para todos os . Assumindo que é invertível, podemos derivar a distribuição do valor p aleatório seguinte maneira:T F(t)≡Pr(T<t) t F P=F(T)
a partir do qual podemos concluir que a distribuição de é uniforme em .P [0,1]
Essa resposta é semelhante à de Charlie, mas evita ter que definir .t=F−1(p)
fonte
Simulação simples da distribuição dos valores p em caso de regressão linear entre duas variáveis independentes:
fonte
Eu não acho que a maioria dessas respostas realmente responda à pergunta em geral. Eles são restritos ao caso em que existe uma hipótese nula simples e quando a estatística do teste possui um CDF invertível (como em uma variável aleatória contínua que possui um CDF estritamente crescente). Esses casos são os casos com os quais a maioria das pessoas se preocupa com os testes z e t, embora, para testar uma média binomial (por exemplo), não se tenha esse CDF. O que é fornecido acima parece correto aos meus olhos para esses casos restritos.
Se hipóteses nulas são compostas, as coisas são um pouco mais complicadas. A prova mais geral desse fato que eu já vi no caso composto usando algumas suposições sobre regiões de rejeição é fornecida nas "Testando Hipóteses Estatísticas" de Lehmann e Romano, páginas 63-64. Vou tentar reproduzir o argumento abaixo ...
Nós testamos a hipótese nula contra uma hipótese alternativa com base em uma estatística de teste, que vamos denotar como a variável aleatória . Supõe-se que a estatística de teste venha de alguma classe paramétrica, ou seja, , em que é um elemento da família de distribuições de probabilidade e é um espaço de parâmetro. A hipótese nula e a hipótese alternativa formam uma partição de emH0 H1 X X∼Pθ Pθ P≡{Pθ∣θ∈Θ} Θ H0:θ∈Θ0 H1:θ∈Θ1 Θ Θ=Θ0∪Θ1
onde
Θ0∩Θ1=∅.
O resultado do teste pode ser indicado como onde, para qualquer conjunto , definimos Aqui é o nosso nível de significância e indica a região de rejeição do teste para o nível de significância .ϕα(X)=1Rα(X) S 1S(X)={1,0,X∈S,X∉S. α Rα α
Suponha que as regiões de rejeição atendam ao se . Nesse caso de regiões de rejeição aninhadas, é útil determinar não apenas se a hipótese nula é ou não rejeitada em um determinado nível de significância , mas também determinar o menor nível de significância para o qual a hipótese nula seria rejeitada. Esse nível é conhecido como valor-p , Esse número nos dá uma idéia de quão forte os dados (conforme retratados pela estatística do teste ) contradizem a hipótese nula .Rα⊂Rα′ α<α′ α p^=p^(X)≡inf{α∣X∈Rα}, X H0
Suponha que para alguns e . Suponha adicionalmente que as regiões de rejeição obedeçam à propriedade de aninhamento mencionada acima. Em seguida, o seguinte vale:X∼Pθ θ∈Θ H0:θ∈Θ0 Rα
Se para todos os , então para ,supθ∈Θ0Pθ(X∈Rα)≤α 0<α<1 θ∈Θ0 Pθ(p^≤u)≤ufor all0≤u≤1.
Se para , temos para todos os , então para , temosθ∈Θ0 Pθ(X∈Rα)=α 0<α<1 θ∈Θ0 Pθ(p^≤u)=ufor all0≤u≤1.
Observe que essa primeira propriedade apenas nos diz que a taxa de falso positivo é controlada em rejeitando quando o valor de p é menor que , e a segunda propriedade nos diz (dada uma suposição adicional) que os valores de p são distribuídos uniformemente sob o valor nulo hipótese.u u
A prova é a seguinte:
Deixe e assuma para todos os . Então, por definição de , temos para todos os . Pela monotonicidade e pelo pressuposto, segue-se que para todos os . Deixando , segue-se que .θ∈Θ0 supθ∈Θ0Pθ(X∈Rα)≤α 0<α<1 p^ {p^≤u}⊂{X∈Rv} u<v Pθ(p^≤u)≤Pθ(X∈Rv)≤v u<v v↘u Pθ(p^≤u)≤u
Deixe e assuma que para todos os . Então e, por monotonicidade, segue-se que . Considerando (1), segue-se que .θ∈Θ0 Pθ(X∈Rα)=α 0<α<1 {X∈Ru}⊂{p^(X)≤u} u=Pθ(X∈Ru)≤Pθ(p^≤u) Pθ(p^(X)≤u)=u
Observe que a suposição em (2) não se aplica quando uma estatística de teste é discreta, mesmo que a hipótese nula seja simples e não composta. Tomemos, por exemplo, com e . Ou seja, jogue uma moeda dez vezes e teste se é justo versus inclinado em direção às cabeças (codificado como 1). A probabilidade de ver 10 caras em 10 lançamentos justos de moedas é (1/2) ^ 10 = 1/1024. A probabilidade de ver 9 ou 10 caras em 10 lançamentos justos de moedas é 11/1024. Para qualquer estritamente entre 1/1024 e 11/1024, você rejeitaria o nulo se , mas não temos esse para esses valores de quandoX∼Binom(10,θ) H0:θ=.5 H1:θ>0.5 α X=10 Pr(X∈Rα)=α α θ=0.5 . Em vez disso, para esse . Pr(X∈Rα)=1/1024 α
fonte
Se os valores de p forem distribuídos uniformemente sob o H0, isso significa que é mais provável que o valor de p seja igual a 0,05 do que o valor de p igual a 0,80, mas isso não é verdade, pois é menos provável que ocorra um valor de p valor de .05 a um valor de p de .80, porque essa é precisamente a definição da distribuição normal da qual o valor de p é obtido. Haverá mais amostras caindo dentro da faixa de normalidade do que fora dela, por definição. Portanto, é mais provável encontrar valores p maiores do que os menores.
fonte