Não concordo plenamente com o @fcoppens jump de reconhecer a importância da correção de múltiplas hipóteses em uma única investigação e afirmar que "pelo mesmo raciocínio, o mesmo vale se várias equipes realizarem esses testes".
Não há dúvida de que quanto mais estudos forem realizados e mais hipóteses forem testadas, mais erros do tipo I ocorrerão. Mas acho que há uma confusão aqui sobre o significado das taxas de "erro familiar" e como elas se aplicam no trabalho científico real.
Primeiro, lembre-se de que correções de testes múltiplos geralmente surgiam em comparações post-hoc para as quais não havia hipóteses pré-formuladas. Não está absolutamente claro que as mesmas correções são necessárias quando há um pequeno conjunto predefinido de hipóteses.
Segundo, a "verdade científica" de uma publicação individual não depende da verdade de cada declaração individual da publicação. Um estudo bem elaborado aborda uma hipótese científica geral (em oposição à estatística) de muitas perspectivas diferentes e reúne diferentes tipos de resultados para avaliar a hipótese científica . Cada resultado individual pode ser avaliado por um teste estatístico.
No entanto, pelo argumento de @fcoppens, se um desses testes estatísticos individuais cometer um erro do tipo I, isso levará a uma "crença falsa da 'verdade científica'". Isto está simplesmente errado.
A "verdade científica" da hipótese científica em uma publicação, em oposição à validade de um teste estatístico individual, geralmente vem de uma combinação de diferentes tipos de evidência. A insistência em vários tipos de evidência torna a validade de uma hipótese científica robusta aos erros individuais que inevitavelmente ocorrem. Ao relembrar minhas 50 publicações científicas, seria difícil encontrar alguma que permaneça tão perfeita em todos os detalhes como a @fcoppens parece insistir. No entanto, eu estou semelhante duramente pressionado para encontrar qualquer onde o científicahipótese estava completamente errada. Incompleto, talvez; irrelevante pelos desenvolvimentos posteriores no campo, certamente. Mas não "errado" no contexto do estado do conhecimento científico da época.
Terceiro, o argumento ignora os custos de cometer erros do tipo II. Um erro do tipo II pode fechar campos inteiros de pesquisas científicas promissoras. Se as recomendações do @fcoppens fossem seguidas, as taxas de erro do tipo II aumentariam enormemente, em detrimento do empreendimento científico.
Finalmente, é impossível seguir a recomendação na prática. Se eu analisar um conjunto de dados publicamente disponíveis, talvez eu não tenha como saber se alguém os usou ou com qual finalidade. Não tenho como corrigir os testes de hipóteses de ninguém. E, como argumentei acima, não deveria.
No teste de hipótese estatística, só é possível encontrar evidência estatística para a hipótese alternativa, rejeitando o nulo; a rejeição do nulo nos permite concluir que há evidências a favor da hipótese alternativa. (veja também O que se segue se não conseguirmos rejeitar a hipótese nula? ).
Portanto, uma falsa rejeição do nulo nos fornece evidências falsas, assim uma crença falsa da "verdade científica". É por isso que essa inflação do tipo I (a quase duplicação do erro do tipo I) deve ser evitada; erros mais altos do tipo I implicam mais crenças falsas de que algo é cientificamente comprovado . Portanto, as pessoas 'controlam' o tipo Ierror em nível familiar.
Pelo mesmo raciocínio, o mesmo vale se várias equipes executarem esses testes (nos mesmos dados).
Obviamente, as descobertas acima só são válidas se as equipes trabalharem nos mesmos dados . O que é diferente quando eles trabalham em amostras diferentes?
Portanto, se usarmos os mesmos dados, pode ser que as conclusões dos testes sejam baseadas em uma amostra desenhada com '' azar ''. Com outra amostra, o contexto é diferente.
fonte