Na página da Wikipedia sobre intervalos de confiança :
... se intervalos de confiança são construídos em muitas análises de dados separadas de experimentos repetidos (e possivelmente diferentes), a proporção de tais intervalos que contêm o valor verdadeiro do parâmetro corresponderá ao nível de confiança ...
E da mesma página:
Um intervalo de confiança não prevê que o valor real do parâmetro tenha uma probabilidade específica de estar no intervalo de confiança, dados os dados realmente obtidos.
Se entendi direito, essa última afirmação é feita com a interpretação freqüentista da probabilidade em mente. Entretanto, de uma perspectiva de probabilidade bayesiana, por que um intervalo de confiança de 95% não contém o parâmetro verdadeiro com 95% de probabilidade? E se não, o que há de errado com o seguinte raciocínio?
Se eu tenho um processo que eu sei que produz uma resposta correta 95% das vezes, a probabilidade de a resposta seguinte estar correta é de 0,95 (dado que não tenho informações extras sobre o processo). Da mesma forma, se alguém me mostrar um intervalo de confiança criado por um processo que conterá o parâmetro verdadeiro 95% das vezes, não devo estar certo ao dizer que ele contém o parâmetro verdadeiro com probabilidade de 0,95, considerando o que sei?
Essa pergunta é semelhante, mas não é a mesma que, por que um IC de 95% não implica uma chance de 95% de conter a média? As respostas a essa pergunta foram focadas no motivo pelo qual um IC de 95% não implica uma chance de 95% de conter a média de uma perspectiva freqüentista. Minha pergunta é a mesma, mas de uma perspectiva de probabilidade bayesiana.
fonte
Respostas:
Atualização : Com o benefício de uma retrospectiva de alguns anos, escrevi um tratamento mais conciso do essencialmente o mesmo material em resposta a uma pergunta semelhante.
Como construir uma região de confiança
Vamos começar com um método geral para construir regiões de confiança. Pode ser aplicado a um único parâmetro, para gerar um intervalo de confiança ou um conjunto de intervalos; e pode ser aplicado a dois ou mais parâmetros, para gerar regiões de confiança dimensional mais alta.
Afirmamos que as estatísticas observadasD originam de uma distribuição com os parâmetros θ , ou seja, a distribuição amostral s(d|θ) sobre as possíveis estatísticas d , e buscamos uma região de confiança para θ no conjunto de valores possíveis Θ . Definir uma região de maior densidade (HDR): o h -HDR de um PDF é o menor subconjunto de seu domínio que suporta a probabilidade h . Denote o h -HDR de s ( d| ψ) como Hψ , para qualquer ψ ∈ Θ . Então, aregião de confiançah paraθ , dados os dadosD , é o conjuntoCD= { ϕ : D ∈ Hϕ} . Um valor típico deh seria 0,95.
Uma Interpretação Frequentista
A partir da definição anterior de uma regi de confian segued∈ Hψ⟷ ip ∈ Cd
com Cd= { ϕ : d∈ Hϕ} . Agora imagine um grande conjunto de ( imaginárias observações) { DEu} , feita sob circunstâncias semelhantes a D . ie São amostras de s ( d| θ) . Como Hθ suporta a massa de probabilidade h dos PDF s ( d| θ) ,P( DEu∈ Hθ) = h para todos osEu . Por conseguinte, a fracção de{ DEu} para os quaisDEu∈ Hθ éh . E assim, usando o equivalência acima, a fracção de{ DEu} para os quaisθ ∈ CDEu também éh .
Portanto, é isso que a reivindicação freqüentista da região de confiançah para θ equivale a:
A região de confiançaCD portanto, não reivindica a probabilidade de que θ esteja em algum lugar! A razão é simplesmente que não há nada na fomulação que nos permita falar de uma distribuição de probabilidade sobre θ . A interpretação é apenas uma superestrutura elaborada, que não melhora a base. A base é apenas s(d|θ) e D , onde θ não aparece como uma quantidade distribuída e não há informações que possamos usar para resolver isso. Existem basicamente duas maneiras de obter uma distribuição sobre θ :
Nos dois casos,θ deve aparecer à esquerda em algum lugar. Os freqüentistas não podem usar nenhum dos métodos, porque ambos exigem um prévio herético.
Uma visão bayesiana
O máximo que um bayesiano pode tirar dah região de confiança CD , dada sem qualificação, é simplesmente a interpretação direta: que é o conjunto de ϕ para o qual D enquadra no h -HDR Hϕ da distribuição amostral s(d|ϕ) . Isso não nos diz necessariamente muito sobre θ , e aqui está o porquê.
A probabilidade de queθ∈CD , dado D e a informação de base I , seja:
P(θ∈CD|DI)=∫CDp(θ|DI)dθ=∫CDp(D|θI)p(θ|I)p(D|I)dθ
Observe que, diferentemente da interpretação freqüentista, imediatamente exigimos uma distribuição sobreθ . A informação de fundoI nos diz, como antes, que a distribuição de amostragem és(d|θ) :
P(θ∈CD|DI)i.e.P(θ∈CD|DI)=∫CDs(D|θ)p(θ|I)p(D|I)dθ=∫CDs(D|θ)p(θ|I)dθp(D|I)=∫CDs(D|θ)p(θ|I)dθ∫s(D|θ)p(θ|I)dθ
Agora, em geral, essa expressão não é avaliada comoh , ou seja, aregião de confiançah CD nem sempre contémθ com probabilidadeh . De fato, pode ser totalmente diferente deh . Existem, no entanto, muitas situações comuns em que eleéavaliado parah , razão pela qual as regiões de confiança geralmente são consistentes com nossas intuições probabilísticas.
Por exemplo, suponha que o PDF da junta anterior ded e θ seja simétrico em que pd,θ(d,θ|I)=pd,θ(θ,d|I) . (Claramente, isso envolve a suposição de que o PDF varia sobre o mesmo domínio em d e θ .) Então, se o anterior for p(θ|I)=f(θ) , teremos s(D|θ)p(θ|I)=s(D|θ)f(θ)=s(θ|D)f(D) . Portanto,
P(θ∈CD|DI)i.e.P(θ∈CD|DI)=∫CDs(θ|D)dθ∫s(θ|D)dθ=∫CDs(θ|D)dθ
A partir da definição de um HDR sabemos que, para qualquerψ∈Θ
∫Hψs(d|ψ)ddand therefore that∫HDs(d|D)ddor equivalently∫HDs(θ|D)dθ=h=h=h
Portanto, dado ques(d|θ)f(θ)=s(θ|d)f(d) ,CD=HD implicaP(θ∈CD|DI)=h . O antecedente satisfaz
CD=HD⟷∀ψ[ψ∈CD↔ψ∈HD]
Aplicando a equivalência perto do topo:
CD=HD⟷∀ψ[D∈Hψ↔ψ∈HD]
Assim, a região de confiançaCD contémθ com probabilidadeh se para todos os valores possíveisψ deθ , oh -HDR des(d|ψ) contémD , se e apenas se oh -HDR des(d|D) contémψ .
Agora, a relação simétricaD∈Hψ↔ψ∈HD é satisfeito por todos ψ quando s(ψ+δ|ψ)=s(D−δ|D) para todos δ que abrangem o suporte de s(d|D) e s(d|ψ) . Portanto, podemos formar o seguinte argumento:
Vamos aplicar o argumento para um intervalo de confiança da média de uma distribuição normal 1-D(μ,σ) , dado uma amostra média x¯ a partir de n medições. Temos θ=μ e d=x¯ , de modo que a distribuição de amostragem é de
s(d|θ)=n−−√σ2π−−√e−n2σ2(d−θ)2
Suponha também que não sabemos nada sobreθ antes de coletar os dados (exceto que é um parâmetro de localização) e, portanto, atribua um uniforme anterior:f(θ)=k . Claramente agora temoss(d|θ)f(θ)=s(θ|d)f(d) , de modo que a primeira premissa é satisfeita. Sejas(d|θ)=g((d−θ)2) . (ou seja, pode ser escrito dessa forma.) Então
s(ψ+δ|ψ)=g((ψ+δ−ψ)2)=g(δ2)ands(D−δ|D)=g((D−δ−D)2)=g(δ2)so that∀ψ∀δ[s(ψ+δ|ψ)=s(D−δ|D)]
que a segunda premissa é satisfeita. Ambas as instalações sendo verdade, as ligações argumento de oito pontos nos concluir que a probabilidade de queθ situa-se no intervalo de confiançaCD éh !
Portanto, temos uma ironia divertida:
Considerações finais
Foram identificadas as condições (isto é, os dois locais) em que oh regi de confian, de facto, produzem probabilidade h que θ∈CD . Um freqüentador confunde a primeira premissa, porque envolve um prior em θ , e esse tipo de negócio é inevitável na rota para uma probabilidade. Mas para um bayesiano, é aceitável --- não, essencial. Estas condições são suficientes, mas não necessário, de forma que há muitas outras circunstâncias em que o Bayesiana P(θ∈CD|DI) é igual a h . Igualmente, porém, existem muitas circunstâncias em queP(θ∈CD|DI)≠h , especialmente quando as informações anteriores são significativas.
Nós aplicamos uma análise Bayesiana apenas como um Bayesian Would consistente, dada a informação na mão , incluindo estatísticasD . Mas um Bayesian, se ele puder, vai aplicar seus métodos para as medições brutas em vez --- ao {xi} , ao invés de x¯ . Muitas vezes, o recolhimento dos dados brutos nas estatísticas resumidas D destrói as informações nos dados; e as estatísticas resumidas são incapazes de falar de maneira tão eloquente quanto os dados originais sobre os parâmetros θ .
fonte
Two answers to this, the first being less helpful than the second
There are no confidence intervals in Bayesian statistics, so the question doesn't pertain.
In Bayesian statistics, there are however credible intervals, which play a similar role to confidence intervals. If you view priors and posteriors in Bayesian statistics as quantifying the reasonable belief that a parameter takes on certain values, then the answer to your question is yes, a 95% credible interval represents an interval within which a parameter is believed to lie with 95% probability.
yes, the process guesses a right answer with 95% probability
Just the same as your process, the confidence interval guesses the correct answer with 95% probability. We're back in the world of classical statistics here: before you gather the data you can say there's a 95% probability of randomly gathered data determining the bounds of the confidence interval such that the mean is within the bounds.
With your process, after you've gotten your answer, you can't say based on whatever your guess was, that the true answer is the same as your guess with 95% probability. The guess is either right or wrong.
And just the same as your process, in the confidence interval case, after you've gotten the data and have an actual lower and upper bound, the mean is either within those bounds or it isn't, i.e. the chance of the mean being within those particular bounds is either 1 or 0. (Having skimmed the question you refer to it seems this is covered in much more detail there.)
There are a couple of ways of looking at this
Technically, the confidence interval hasn't been produced using a prior and Bayes theorem, so if you had a prior belief about the parameter concerned, there would be no way you could interpret the confidence interval in the Bayesian framework.
Another widely used and respected interpretation of confidence intervals is that they provide a "plausible range" of values for the parameter (see, e.g., here). This de-emphasises the "repeated experiments" interpretation.
Moreover, under certain circumstances, notably when the prior is uninformative (doesn't tell you anything, e.g. flat), confidence intervals can produce exactly the same interval as a credible interval. In these circumstances, as a Bayesianist you could argue that had you taken the Bayesian route you would have gotten exactly the same results and you could interpret the confidence interval in the same way as a credible interval.
fonte
I'll give you an extreme example where they are different.
Suppose I create my 95% confidence interval for a parameterθ as follows. Start by sampling the data. Then generate a random number between 0 and 1 . Call this number u . If u is less than 0.95 then return the interval (−∞,∞) . Otherwise return the "null" interval.
Now over continued repititions, 95% of the CIs will be "all numbers" and hence contain the true value. The other 5% contain no values, hence have zero coverage. Overall, this is a useless, but technically correct 95% CI.
The Bayesian credible interval will be either 100% or 0%. Not 95%.
fonte
" da perspectiva bayesiana de probabilidade, por que um intervalo de confiança de 95% não contém o parâmetro verdadeiro com 95% de probabilidade? "
Nas estatísticas bayesianas, o parâmetro não é um valor desconhecido, é uma distribuição. Não há intervalo que contenha o "valor verdadeiro"; para um ponto de vista bayesiano, isso nem faz sentido. O parâmetro é uma variável aleatória; você pode conhecer perfeitamente a probabilidade desse valor estar entre x_inf e x_max, se você conhece a distribuição. É apenas uma mentalidade diferente sobre os parâmetros, geralmente os bayesianos usavam o valor mediano ou médio da distribuição do parâmetro como uma "estimativa". Não há um intervalo de confiança nas estatísticas bayesianas, algo semelhante é chamado intervalo de credibilidade .
Agora, do ponto de vista frequencista, o parâmetro é um "Valor Fixo", não uma variável aleatória. Você pode realmente obter um intervalo de probabilidade (95%)? Lembre-se de que é um valor fixo, não uma variável aleatória com uma distribuição conhecida. É por isso que você passou o texto : "Um intervalo de confiança não prevê que o valor real do parâmetro tenha uma probabilidade específica de estar no intervalo de confiança, dados os dados realmente obtidos".
A idéia de repetir a experiência repetidamente ... não é um raciocínio bayesiano, é um conceito frequencista. Imagine um experimento real ao vivo que você pode fazer apenas uma vez na vida, você pode / deve criar esse intervalo de confiança (do ponto de vista clássico) ?.
Mas ... na vida real, os resultados podem chegar bem perto (bayesiano x frequencista), talvez seja por isso que poderia ser confuso.
fonte