Essa é uma maneira válida de construir um intervalo de confiança?

7

A regra dos três afirma que, se observarmos como 0, então é um intervalo de confiança de 95% para p . Estou confuso sobre a derivação dessa regra na Wikipedia e em outros lugares.YBin(n,p)[0,3/n]p

A Wikipedia equivale a encontrar um intervalo de confiança de 95% para encontrar todos os p tais que Pp(Y=0)0.05 . Estou lutando para conciliar isso com meu próprio entendimento de que um intervalo de confiança de 95% é uma região aleatória C(Y) tal que Pp(C(Y) covers p)=0.95 para todos os p .

Editar: percebi que minha pergunta era vaga (e excluí um palpite errado sobre a lógica subjacente da Wikipedia). Minha principal pergunta é: como o argumento da Wikipedia é justificado? Minha outra pergunta relacionada é: Como você verifica a probabilidade de cobertura do intervalo, considerando que ele é definido apenas para um valor possível de Y ?


fonte

Respostas:

5

Hanley e Lippman-Hand (1983) apresentam algo como o seguinte argumento que fornece motivação para a regra. Tomando como fixo, .nP(X=0|p)=(1p)n

Resolvendo para obtemos . O menor que mantém a probabilidade de não menor que é .(1p)nαpp1α1np0α1α1n

Agora .α1n=e1nlogα=1+1nlogα+12(1nlogα)2+...

Levando para a primeira ordem, obtemos . Quando , .p1nlogαα=0.05log(0.05)/n3/n

Jovanovic e Levy (1997) melhoram isso, baseando-o mais claramente a em um argumento de IC, lançando-o como um intervalo Clopper-Pearson e obtendo o mesmo limite e, portanto, o mesmo valor aproximado superior encadernado em :(1p)n=αp

se é o número observado de eventos em n ensaios, o limite superior de 100% Clopper-Pearson (max-P) pode ser obtido como uma solução paraX=x(1α)

t=0x(nt)pt(1p)t=α

Claramente, quando a expressão se reduz ax=0(1p)n=α

Eles também discutem alguns outros argumentos.

Hanley, JA, e Lippman-Hand, A. (1983),
"Se nada der errado, está tudo bem? Interpretando zero numeradores"
Journal of the American Medical Association, 249 (13), 1743-1745.

Jovanovic, BD e Levy, PS (1997),
"Um olhar sobre a regra dos três"
The American Statistician, 51 (2), 137-139

Glen_b -Reinstate Monica
fonte
A aproximação faz sentido, mas estou certo em ser cético em relação à lógica? Por exemplo, se você observar como 0, pode dizer que é um IC para porque está implícito em ? YPois(λ)[0,logα]1αλPλ(Y=0)=exp(λ)α
Como você verá na minha segunda referência, o argumento Hanley & Lippman-Hand precisa trabalhar para ser um argumento sólido - não é um argumento sobre um intervalo - mas Jovanovic & Levy apresentam um argumento baseado em intervalo de confiança (agora adicionei mais detalhes) . Acredito que você provavelmente poderia seguir um argumento baseado em intervalos semelhante ao que Jovanovic e Levy dão para obter o vínculo que obteve com o Poisson; Eu não tentei fazê-lo, no entanto.
Glen_b -Reinstala Monica
3

Dado sucessos de tentativas, o intervalo de confiança exato (Clopper – Pearson) é tal que ek=0n[p1,p2]

P(Kk=0|p=p1)=α2
P(Kk=0|p=p2)=α2,

onde . Você pode calcular usando a função binomial inversa. No entanto, também é possível resolver manualmente o pois o binômio cumulativo é muito simples nesse caso especial: . Você também pode usar uma aproximação de Poisson da mesma maneira para obter .KBinomial(n,p)[p1,p2]pi(1p)n=αenp=α

Aqui está um gráfico da aproximação em função do tamanho da amostra:

insira a descrição da imagem aqui

Dimitriy V. Masterov
fonte