Na teoria bayesiana da probabilidade, probabilidade é nossa expressão do conhecimento sobre uma determinada coisa, não uma propriedade dessa coisa. No entanto, sempre vejo as pessoas tratarem como um parâmetro que precisa ser estimado. Eles configuram um prior para , geralmente na forma de uma função beta e, em seguida, atualizam-no à medida que as "realizações" dessa variável são recebidas.
Até o grande Jaynes bayesiano às vezes dá a impressão de que ele está "estimando as probabilidades" ou procurando o que melhor "ajusta os dados":
Agora, queremos levar em consideração apenas as hipóteses pertencentes à 'classe Bernoulli' na qual existem resultados possíveis em cada tentativa e as probabilidades do em repetições sucessivas do experimento são consideradas independentes e estacionárias;
Teoria da Probabilidade, ET Jaynes, página 297
Isso me deixa confuso, porque não é uma probabilidade , pois é uma propriedade da variável aleatória e não é uma frequência , pois a variável representa um único evento.
fonte
Respostas:
Isso é irrelevante. Não tem nada a ver com a interpretação do significado de probabilidade, uma vez que não se trata de filosofia, mas de objeto matemático bem definido. Você vê pessoas discutindo a estimativa do valor dep porque você olha para os manuais de estatística e estatística é sobre estimar coisas, mas p é um parâmetro de distribuição, pode ser conhecido ou desconhecido.
E seX é uma variável aleatória de Bernoulli com probabilidade de "sucesso" p , então Pr ( X= 1 ) = p por definição. assimp é um parâmetro dessa distribuição, mas também é probabilidade de "sucesso".
Sim, a variável aleatória descreve algum "evento único"; portanto, se você vai jogar uma moeda, o resultado possível é uma variável aleatória porque é incerta. Depois de jogar a moeda e conhecer o resultado, não é mais aleatório, o resultado é certo. Quanto à probabilidade, no cenário frequentista, você considera o cenário hipotético em que repetiria o experimento de lançamento de moedas inúmeras vezes e a probabilidade seria igual à proporção de cabeças entre essas repetições. No cenário subjetivo, bayesiano , a probabilidade é uma medida de quanto você acredita que vai observar as cabeças.
O exposto acima é, no entanto, irrelevante para questionar o quep é. É um parâmetro que também é igual à probabilidade de "sucesso". A questão de como você interpreta a probabilidade e o que isso significa é uma pergunta diferente.
fonte
Por exemplo, podemos ter uma moeda para a qual não temos certeza se é justa (p = 0,5 ) ou não (p ≠ 0,5 ) Mesmo assim, a justiça, ou a falta dela, é uma propriedade da moeda. Por acaso não temos certeza sobre essa propriedade da moeda.
Então, por exemplo, especificamos uma distribuição beta prévia como uma distribuição de probabilidade anterior sobre as possíveis probabilidades de sucesso em[ 0 , 1 ] . Esse prior pode, por exemplo, ser inspirado ao olhar para a moeda, avaliando se ela "parece" justa. Se parecer justo, estaremos inclinados a especificar um anterior com muita massa de probabilidade em torno dep = 0,5 .
Em outros casos, digamos, ao formar uma crença prévia sobre a probabilidade de um jogador de futebol ser bem-sucedido em sua próxima penalidade - também um resultado de Bernoulli, seja um gol ou não - estaremos inclinados a colocar mais probabilidade em massap cerca de 0,8, porque jogadores de futebol profissional pontuam na maioria dos pênaltis.
Em seguida, jogamos a moeda / observamos o jogador algumas vezes e resumimos as informações na função de probabilidade, para obter a atualização, ou seja, a posterior.
fonte
Para uma variável aleatóriaX∼ Bernoulli( P ) definido em um espaço de probabilidade ( Ω , F, P) , o parâmetro p (um número) é a probabilidade de um determinado evento, a saber, o evento { X= 1 } . Isso é,
p = P( X= 1 ) .
O número único p determina completamente a distribuição de X já que para qualquer conjunto Borel B⊆R temos
P(X∈B)=1B(0)P(X=0)+1B(1)P(X=1)=(1−p)1B(0)+p1B(1).
(Aqui 1B é a função indicadora de B .) É por isso que a família de distribuições de Bernoulli é parametrizada pelo intervalo [0,1] . Esse fato é independente de uma interpretação freqüentista ou bayesiana da estatística: é apenas um fato de probabilidade.
Se estamos sendo bayesianos, queremos o parâmetrop ser uma variável aleatória em si com alguma distribuição anterior. Formalmente, podemos dizer que nosso parâmetro é uma variável aleatóriaΠ suportado em [0,1] e nós temos
X∣Π∼Bernoulli(Π),
o que significa que
P(X=1∣Π)=Π,P(X=0∣Π)=1−Π
quase certamente (ou
P(X=1∣Π=p)=p,P(X=0∣Π=p)=1−p
para qualquer p∈[0,1] ) Nesse caso, o parâmetroΠ (uma variável aleatória) é a probabilidade condicional do evento{X=1} dado Π . Essa probabilidade condicional, juntamente com a distribuição deΠ (a distribuição anterior), determina completamente a distribuição de X Desde aP(X∈B)=E[P(X∈B∣Π)]=E[1B(0)P(X=0∣Π)+1B(1)P(X=1∣Π)]=E[(1−Π)1B(0)+Π1B(1)]=(1−E[Π])1B(0)+E[Π]1B(1)
para qualquer conjunto Borel B⊆R .
De qualquer forma, frequentista ou bayesiano, o parâmetro usual dos dados de Bernoulli é a probabilidade (marginal ou condicional) de algum evento.
fonte