Esta é uma questão puramente hipotética. Uma afirmação muito comum é que nunca é verdadeiro, é apenas uma questão de tamanho da amostra.
Vamos supor que, de fato, não exista absolutamente nenhuma diferença mensurável entre duas médias ( ) extraídas da população normalmente distribuída (para e estimadas ). Assumimos por grupo e usamos o teste . Isso significaria que o valor é indicando que não há absolutamente nenhuma discrepância em relação a . Isso indicaria que a estatística do teste é . A diferença média entre os grupos seria . Quais seriam os limites do intervalo de confiança de para a diferença média neste caso? Eles seriam ?
O ponto principal da minha pergunta foi que, quando podemos realmente dizer que é verdadeiro, ou seja, nesse caso? Ou quando, na estrutura freqüentista, podemos realmente dizer "sem diferença" quando comparamos dois meios?
fonte
Respostas:
Um intervalo de confiança para um t-teste é da formax¯1−x¯2±tcrit,αsx¯1−x¯2 , onde x¯1 e x¯2 são as médias das amostras, tcrit,α é o valor t crítico no α fornecido e sx¯1−x¯2 é o erro padrão da diferença de médias. E sep=1.0 , entãox¯1−x¯2=0 . Portanto, a fórmula é apenas±tcrit,αsx¯1−x¯2 , e os limites são apenas {−tcrit,αsx¯1−x¯2 ,tcrit,αsx¯1−x¯2 }.
Não sei por que você acha que os limites seriam{0,0}. O valor crítico t não é zero e o erro padrão da diferença média não é zero.
fonte
Sendo preguiçoso, use R para resolver o problema numericamente, em vez de fazer os cálculos manualmente:
Defina uma função que fornecerá valores normalmente distribuídos com uma média de (quase!) Exatamente zero e um SD de exatamente 1:
Execute um teste t:
Os meios não são exatamente zero devido à imprecisão de ponto flutuante.
Mais diretamente, os ICs são±
sqrt(1/8)*qt(0.975,df=30)
; a variação de cada média é 1/16, portanto, a variação combinada é 1/8.fonte
O IC pode ter limites, mas está centrado exatamente em torno de zero
Para um teste T de duas amostras (teste de uma diferença nas médias de duas populações), um valor p de exatamente um corresponde ao caso em que as médias da amostra observadas são exatamente iguais. † (As variações da amostra podem assumir qualquer valor.) Para ver isso, observe que a função de valor p para o teste é:†
Assim, a configuraçãox¯=y¯ produz:
Agora, suponha que você forme o intervalo de confiança padrão (aproximado) usando a aproximação Welch-Satterwaite. Nesse caso, assumindo quex¯=y¯ (para fornecer um valor p exato de um) fornece o intervalo de confiança:
onde o grau de liberdadeDF é determinado pela aproximação de Welch-Satterwaite. Dependendo das variações observadas da amostra no problema, o intervalo de confiança pode ser qualquer intervalo finito centrado em torno de zero. Ou seja, o intervalo de confiança pode ter limites, desde que seja centrado exatamente em torno de zero.
fonte
É difícil ter uma discussão filosófica convincente sobre coisas que têm 0 probabilidade de acontecer. Então, mostrarei alguns exemplos relacionados à sua pergunta.
Se você tiver duas amostras independentes enormes da mesma distribuição, as duas amostras ainda terão alguma variabilidade, a estatística t de duas amostras combinadas estará próxima, mas não exatamente igual a 0, o valor P será distribuído comoUnif(0,1), eo intervalo de confiança de 95% será muito curto e centrado muito perto 0.
Um exemplo de um desses conjuntos de dados e teste t:
Aqui estão os resultados resumidos de 10.000 dessas situações. Primeiro, a distribuição dos valores-P.
Em seguida, a estatística de teste:
E assim por diante, para a largura do IC.
É quase impossível obter um valor P da unidade fazendo um teste exato com dados contínuos, onde as suposições são atendidas. Tanto que um estatístico sábio ponderará sobre o que pode ter dado errado ao ver um valor-P igual a 1.
Por exemplo, você pode fornecer ao software duas amostras grandes idênticas . A programação continuará como se fossem duas amostras independentes e dará resultados estranhos. Mas, mesmo assim, o IC não terá largura 0.
fonte
A resposta direta (+1 a Noah) explicará que o intervalo de confiança para a diferença média ainda pode ter um comprimento diferente de zero, porque depende da variação observada na amostra de uma maneira diferente do valor p.
No entanto, você ainda pode se perguntar por que é assim. Como não é tão estranho imaginar que um alto valor de p também signifique um pequeno intervalo de confiança. Afinal, ambos correspondem a algo que está próximo de uma confirmação da hipótese nula. Então, por que esse pensamento não está correto?
Um alto valor p não é o mesmo que um pequeno intervalo de confiança.
O valor p é um indicador de quão extrema é uma observação em particular (extrema, dada alguma hipótese) ao expressar a probabilidade de se observar um determinado desvio. É uma expressão do tamanho do efeito observado em relação à precisão do experimento (um grande tamanho do efeito observado pode não significar muito quando o experimento é tão "impreciso" que essas observações não são extremas do ponto de vista estatístico / probabilístico ) Quando se observa uma p-valor de 1, então esta (apenas) de meios que lhe observado efeito zero porque a probabilidade de observar tais resultado zero ou maior é igual a 1 (mas esta não é a mesma que existe é nulo efeito).
Sidenote: Por que valores-p? O valor p expressa o tamanho real do efeito observado em relação aos tamanhos esperados do efeito (probabilidades). Isso é relevante porque os experimentos podem, por design, gerar observações de algum tamanho de efeito relevante por puro acaso devido a flutuações comuns em dados / reservas. Exigir que uma observação / experimento tenha um baixo valor de p significa que o experimento possui uma alta precisão - ou seja: o tamanho do efeito observado é menos frequente / provável devido a chances / flutuações (e provavelmente devido a um efeito real) .
Você deve observar que um valor-p alto não é (necessariamente) uma prova / suporte / o que for para a hipótese nula. O alto valor p significa apenas que a observação não é notável / extrema para uma dada hipótese nula, mas isso também pode ser o caso da hipótese alternativa (ou seja, o resultado está de acordo com as duas hipóteses efeito sim / não). Isso geralmente ocorre quando os dados não carregam muita informação (por exemplo, alto ruído ou amostra pequena).
fonte
Não, porque "ausência de evidência não é evidência de ausência". A probabilidade pode ser pensada como uma extensão da lógica , com incertezas adicionais; portanto, imagine por um momento que, em vez de números reais em intervalo de unidade, o teste de hipótese retornaria apenas os valores binários: 0 (falso) ou 1 (verdadeiro). Nesse caso, as regras básicas da lógica se aplicam, como no exemplo a seguir :
Quanto ao intervalo de confiança, se sua amostra é grande eμ1- μ2→ 0 , o intervalo de confiança para a diferença se tornaria extremamente estreito, mas diferente de zero. Como observado por outras pessoas, você pode observar coisas como zeros e exatas, mas devido às limitações de precisão do ponto flutuante.
Mesmo se você observoup = 1 e a ± 0 intervalo de confiança, você ainda precisa ter em mente que o teste fornece apenas a resposta aproximada. Ao fazer testes de hipóteses, não apenas assumimos queH0 0 é verdade, mas também faz uma série de outras suposições, como se as amostras fossem independentes e fossem de distribuição normal, o que nunca é o caso para dados do mundo real. O teste fornece uma resposta aproximada à pergunta incorreta, de modo que ela não pode "provar" a hipótese, pode apenas dizer "sob essas suposições irracionais, isso seria improvável" .
fonte
Nada impede você de usar as fórmulas t ou Gauss padrão para calcular o intervalo de confiança - todas as informações necessárias são fornecidas na sua pergunta. p = 1 não significa que há algo errado com isso. Observe que p = 1 não significa que você possa ter certeza de que o H0 é verdadeiro. Variação aleatória ainda está presente e se u0 = u1 pode ocorrer sob o H0, também pode acontecer se o valor verdadeiro de u0 for ligeiramente diferente do verdadeiro u1, portanto, haverá mais no intervalo de confiança do que apenas igualdade.
fonte
Não entre as pessoas que sabem do que estão falando e estão falando com precisão. O teste tradicional de hipóteses nunca conclui que o nulo é verdadeiro, mas se o nulo é verdadeiro ou não, é separado se o nulo é concluído como verdadeiro.
Para um teste bicaudal, sim.
Para a primeira aproximação, os limites de um intervalo de confiança de 95% são aproximadamente o dobro do desvio padrão aplicável. Não há descontinuidade em zero. Se você encontrar uma funçãof( ϵ ) que encontra o intervalo de confiança de 95% para uma diferença nas médias de ϵ , você pode simplesmente tirar limϵ → 0f( ϵ ) para encontrar o intervalo de confiança para uma diferença média de zero.
Podemos dizer o que quisermos. No entanto, dizer que um teste mostra que o nulo é verdadeiro não é consistente com o teste de hipóteses tradicional, independentemente dos resultados. E fazê-lo não é bem fundamentado do ponto de vista probatório. A hipótese alternativa, de que os meios não são os mesmos, abrange toda a diferença possível de meios. A hipótese alternativa é "A diferença de médias é1 ou 2 ou 3 ou .5 ou .1 , ... "Podemos postular uma diferença arbitrariamente pequena em médias, e isso será consistente com a hipótese alternativa. E com uma diferença arbitrariamente pequena, a probabilidade dada por essa média é arbitrariamente próxima da probabilidade dada por nulo. hipótese alternativa abrange não apenas a possibilidade de que os parâmetros das distribuições, como a média, sejam diferentes, mas que haja uma distribuição totalmente diferente. Por exemplo, a hipótese alternativa abrange "As duas amostras sempre terão uma diferença no significado de que isso é exatamente 1 ou exatamente 0, com probabilidade 0,5 para cada ". Os resultados são mais consistentes com isso do que com o nulo.
fonte