Por que vários (se não todos) testes de hipóteses paramétricas assumem amostragem aleatória?

12

Testes como Z, te vários outros assumem que os dados são baseados em uma amostragem aleatória. Por quê?

Suponha que eu esteja fazendo pesquisa experimental, onde me importo muito mais com a validade interna do que com a externa. Portanto, se minha amostra for um pouco tendenciosa, tudo bem, pois aceitei não inferir a hipótese para toda a população. E o agrupamento ainda será aleatório, ou seja, eu escolherei por conveniência os participantes da amostra, mas os atribuirei aleatoriamente a diferentes grupos.

Por que não posso simplesmente ignorar essa suposição?

Bruno
fonte
Se a técnica de amostragem apresentar um viés, não será 'aleatório'. Se não introduzir nenhum viés, será 'aleatório' (para alguma definição de aleatório ;-). Eu tive esquemas de amostragem que simplesmente coletaram todas as sétimas amostras para criar um tamanho de amostra correspondente à amostra contrária. No entanto, eu sabia que não havia um aspecto especial para essa seleção; portanto, o que pode ser pensado como um processo de amostragem não aleatório ainda era efetivamente aleatório. É o mesmo que selecionar as bolas 1,2,3,4,5,6 na loteria. É tão aleatório quanto qualquer outra sequência.
Philip Oakley
1
@PhilipOakley: selecionar as bolas 1,2,3,4,5,6 na loteria oferece a mesma chance de ganhar que qualquer outra seleção, mas reduz os ganhos esperados, pois é mais provável que você compartilhe o prêmio com outras pessoas que teve a mesma idéia
Henry
1
A amostragem sistemática, como a descrita por @Philip, geralmente é analisada como se produzisse amostras aleatórias simples, mas apresenta armadilhas. Por exemplo, se você medisse um processo de fabricação todos os dias e amostrasse cada sétima medida, estaria sujeito a confundir seus resultados com um efeito do dia da semana, já que (obviamente) você amostraria no mesmo dia cada semana. Você precisa trabalhar mais para pensar e abordar essas sutilezas ao lidar com amostras não aleatórias.
Whuber
1
@ Whuber, absolutamente. É preciso pensar muito (e amplamente) sobre essas coisas !! No meu caso, eu tinha horas de vídeo, com centenas de eventos, com longas lacunas entre elas, necessárias para reduzir o tamanho dos dados do conjunto não relacionado a eventos para uma regressão logística simples (cada quadro considerado de forma independente, pouca alteração entre os quadros), então descartar muitos quadros não relacionados a eventos era razoável. O aspecto da sequência temporal foi considerado separadamente.
Philip Oakley
1
@ Phillip Curiosamente, quase ao mesmo tempo em que você escrevia esse comentário sobre a aleatoriedade não existir, o NIST emitiu um comunicado de imprensa alegando que sim . Uma conta aparece na edição de hoje (4 de abril de 2018) da Nature .
whuber

Respostas:

18

Se você não está fazendo nenhuma inferência para um grupo mais amplo que a sua amostra real, não há aplicação de testes estatísticos em primeiro lugar, e a questão do "viés" não surge. Nesse caso, você apenas calcularia estatísticas descritivas da sua amostra, conhecidas. Da mesma forma, não há questão de "validade" do modelo neste caso - você está apenas observando variáveis ​​e registrando seus valores e descrições de aspectos desses valores.

Depois que você decidir ir além da sua amostra, fazer inferências sobre algum grupo maior, precisará de estatísticas e considerará questões como viés de amostragem etc. Nesse aplicativo, a amostragem aleatória se torna uma propriedade útil para ajudar a obter confiabilidade. inferências do grupo de interesse mais amplo. Se você não possui amostragem aleatória (e não conhece as probabilidades de suas amostras com base na população), torna-se difícil / impossível fazer inferências confiáveis ​​sobre a população.

Restabelecer Monica
fonte
5

Em pesquisas científicas reais, é muito raro ter dados provenientes de amostragem aleatória verdadeira. Os dados são quase sempre amostras de conveniência. Isso afeta principalmente a qual população você pode generalizar. Dito isto, mesmo que fossem uma amostra de conveniência, eles vieram de algum lugar, você só precisa ser claro sobre onde e as limitações que isso implica. Se você realmente acredita que seus dados não são representativos de nada, seu estudo não valerá a pena em nenhum nível, mas isso provavelmente não é verdade 1 . Portanto, geralmente é razoável considerar suas amostras como extraídas de algum lugar e usar esses testes padrão, pelo menos em um sentido coberto ou qualificado.

Há uma filosofia diferente de teste, no entanto, que argumenta que devemos nos afastar dessas suposições e dos testes que delas dependem. Tukey foi um defensor disso. Em vez disso, a maioria das pesquisas experimentais é considerada (internamente) válida porque as unidades de estudo (por exemplo, pacientes) foram aleatoriamente designadas para os braços. Diante disso, você pode usar testes de permutação , que na maioria das vezes assumem que a randomização foi feita corretamente. O contra-argumento para se preocupar muito com isso é que os testes de permutação normalmente mostram a mesma coisa que os testes clássicos correspondentes e têm mais trabalho a ser realizado. Então, novamente, testes padrão podem ser aceitáveis.

1. Para mais informações, talvez seja útil ler minha resposta aqui: Identificando a população e as amostras em um estudo .

Repor a Monica
fonte
3

Testes como Z, t e vários outros são baseados em distribuições de amostragem conhecidas das estatísticas relevantes. Essas distribuições amostrais, como geralmente usadas, são definidas para a estatística calculada a partir de uma amostra aleatória.

Às vezes, pode ser possível conceber uma distribuição amostral relevante para amostragem não aleatória, mas, em geral, provavelmente não é possível.

Michael Lew
fonte