Esta questão é levantada pelo meu supervisor e não sei explicar.
Normalmente, o nível de confiança aceito é 0,95, o que significa que a probabilidade de erro do tipo 1 é de 5%. Mas a potência geralmente aceita é 0,8 (Cohen, 1988), o que significa que a probabilidade de erro do tipo 2 é de 20%. Por que podemos aceitar maior probabilidade de erro do tipo 2 do que erro do tipo 1? Existe alguma razão estatística por trás disso?
Ele também perguntou o significado físico do poder = 0,8 (por que ele é selecionado como critério), o qual também não tenho idéia para explicá-lo.
E quando usamos a análise de potência para projetar o experimento, podemos selecionar o tamanho efetivo de 0,3, 0,5 ou 0,8 para representar os efeitos pequenos, médios e grandes. E meu supervisor perguntou por que esses números foram selecionados. Meu entendimento é que esses números são sugeridos com base na experiência. Ele imediatamente me perguntou qual é a experiência. Estou realmente frustrado com essas perguntas. Minha especialização não é estatística e preciso dedicar muito tempo a essas questões, o que acho que pode não ser significativo. Alguém pode sugerir se essas perguntas são realmente significativas ou não? Se sim, como vou encontrar a resposta.
fonte
Respostas:
Nem a taxa de erro tipo 5% nem os 80% de potência são universais. Por exemplo, os físicos de partículas tendem a usar um critério "5 sigma" que corresponde a uma taxa de erro tipo I nocional que é aproximadamente da ordem de um em um milhão. De fato, duvido que seu físico comum já tenha ouvido falar de Cohen.
Mas uma razão pela qual as duas taxas de erro que você cita devem ser diferentes seria que o custo dos dois tipos de erro não seria o mesmo.
Quanto ao motivo pelo qual a taxa de erro do tipo I geralmente é calculada em 5%, parte do motivo (parte do histórico da convenção) é discutida aqui .
fonte