Nota: desculpe-me antecipadamente se for uma duplicata, não encontrei um q semelhante na minha pesquisa
Digamos que temos um parâmetro verdadeiro p. Um intervalo de confiança C (X) é um VR que contém p, digamos, 95% das vezes. Agora, suponha que observemos X e calculemos C (X). A resposta comum parece ser incorreta interpretar isso como tendo uma "chance de 95% de conter p", pois "contém" ou "não".
No entanto, digamos que eu pego uma carta no topo de um baralho embaralhado e a deixo com a face para baixo. Intuitivamente, penso na probabilidade dessa carta de ser o ás de espadas como 1/52, mesmo que na realidade "seja ou não seja o ás de espadas". Por que não posso aplicar esse raciocínio ao exemplo do intervalo de confiança?
Ou, se não for significativo falar da "probabilidade" da carta ser o ás de espadas, uma vez que "é ou não é", eu ainda colocaria probabilidades de 51: 1 de que não é o ás de espadas. Existe outra palavra para descrever essa informação? Como esse conceito é diferente de "probabilidade"?
edit: Talvez seja mais claro, a partir de uma interpretação bayesiana de probabilidade, se me disserem que uma variável aleatória contém p 95% do tempo, dada a realização dessa variável aleatória (e nenhuma outra informação para condicionar) é correto dizer que a variável aleatória tem 95% de probabilidade de conter p?
edit: também, a partir de uma interpretação freqüentista da probabilidade, digamos que o frequentista concorda em não dizer algo como "existe uma probabilidade de 95% de que o intervalo de confiança contenha p". Ainda é lógico para um frequentista ter uma "confiança" de que o intervalo de confiança contém p?
Seja alfa o nível de significância e t = 100-alfa. K (t) é a "confiança" do frequentista de que o intervalo de confiança contém p. Faz sentido que K (t) deva estar aumentando em t. Quando t = 100%, o frequentista deve ter certeza (por definição) de que o intervalo de confiança contém p, para que possamos normalizar K (1) = 1. Da mesma forma, K (0) = 0. Presumivelmente, K (0,95) está em algum lugar entre 0 e 1 e K (0,999999) é maior. De que maneira o frequentista consideraria K diferente de P (a distribuição de probabilidade)?
fonte
Respostas:
Penso que muitos relatos convencionais sobre esse assunto não são claros.
Digamos que você pegue uma amostra do tamanho e obtenha um intervalo de confiança de 95 % para p .100 95% p
Então você pega outra amostra de , independente da primeira, e obtém outro intervalo de confiança de 95 % para p .100 95% p
O que muda é o intervalo de confiança; o que não muda é .p Isso significa que, nos métodos freqüentistas, diz-se que o intervalo de confiança é "aleatório", mas é "fixo" ou "constante", ou seja, não aleatório. Nos métodos freqüentistas, como o método dos intervalos de confiança, atribui-se probabilidades apenas a coisas aleatórias.p
Então e ( L , U ) é um intervalo de confiança. ( L = "inferior" e U = "superior".) Tire uma nova amostra e L e U mudam, mas p não.Pr(L<p<U)=0.95 (L,U) L= U= L U p
Digamos que em um caso particular você tenha e U = 43,61 . Nos métodos freqüentistas, não se atribuiria uma probabilidade à afirmação 40,53 < p < 43,61 , exceto uma probabilidade de 0 ou 1 , porque nada aqui é aleatório: 40,53 não é aleatório, p não é aleatório (pois não mudará se tomamos uma nova amostra) e 43,61 não é aleatório.L=40.53 U=43.61 40.53<p<43.61 0 1 40.53 p 43.61
Na prática, as pessoas se comportam como se tivessem certeza de que p está entre 40,53 e 43,61 . E, na prática, isso geralmente faz sentido. Mas às vezes não. Um desses casos é se números previamente grandes como 40 ou mais são conhecidos como improváveis ou se são altamente prováveis. Se alguém pode atribuir alguma distribuição de probabilidade anterior a p , usa-se o teorema de Bayes para obter um intervalo credível, que pode diferir do intervalo de confiança devido ao conhecimento prévio de quais faixas de valores de p95% p 40.53 43.61 40 p p são prováveis ou improváveis. Também pode realmente acontecer que os próprios dados - as coisas que mudam se uma nova amostra for coletada, possam dizer que é improvável que seja, ou até certo que não seja, tão grande quanto 40 . Isso pode acontecer mesmo nos casos em que o par ( L , U ) é uma estatística suficiente para p . Esse fenômeno pode ser tratado em alguns casos pelo método de condicionamento de Fisher em uma estatística auxiliar. Um exemplo deste último fenómeno é, quando a amostra consiste em apenas duas observações independentes que estão uniformemente distribuídos no intervalo q ± 1 / 2p 40 (L,U) p θ±1/2 . Então, o intervalo entre a menor das duas observações e a maior é um intervalo de confiança de . Mas se a distância entre eles é de 0,001 , seria absurdo estar perto de 50 % de certeza de que θ está entre eles e se a distância é de 0,999 , seria razoavelmente quase 100 % de certeza de que θ está entre eles. A distância entre eles seria a estatística auxiliar na qual se condicionaria.50% 0.001 50% θ 0.999 100% θ
fonte
A probabilidade, para os freqüentadores, vem da noção de "rebobinar tempo e espaço" para replicar descobertas, como se um número infinito de cópias do mundo fosse criado para avaliar uma descoberta científica repetidas vezes. Portanto, uma probabilidade é exatamente uma frequência. Para os cientistas, esta é uma maneira muito conveniente de discutir descobertas, uma vez que o primeiro princípio da ciência é que os estudos devem ser replicáveis.
No exemplo da sua carta, a confusão entre os bayesianos e os freqüentistas é que o frequentista não atribui uma probabilidade ao valor nominal da carta em particular que você jogou do baralho, enquanto um bayesiano o faria. O freqüentador atribuiria a probabilidade a uma carta, virada do topo do baralho aleatoriamente embaralhado. Um bayesiano não se preocupa em replicar o estudo; depois que o cartão é invertido, você agora tem 100% de crença sobre o que é o cartão e 0% de que ele pode ter outro valor. Para os bayesianos, a probabilidade é uma medida de crença.
Observe que os bayesianos não têm intervalos de confiança por esse motivo, eles resumem a incerteza com intervalos de credibilidade .
fonte