Os bayesianos aceitam os axiomas de Kolmogorov?

24

Geralmente, a teoria das probabilidades é ensinada com os axiomas de Kolgomorov. Os bayesianos também aceitam os axiomas de Kolmogorov?

Escrito a mão
fonte
8
A teoria bayesiana segue os axiomas padrão da probabilidade, daí os axiomas de Kolmogorov.
Xi'an
3
@ Xi'an: Que graus subjetivos de crença podem ser representados por probabilidade não é tão óbvio - daí a questão, e o trabalho de Ramsey e de Finetti.
Scortchi - Restabelece Monica
2
É por isso que eu sou um "objetivo" Bayesian e começar com distribuições a priori definidos de acordo com as normas da teoria das probabilidades ...
Xi'an
2
Acredito que a interpretação da probabilidade de Cox-Jaynes fornece uma base rigorosa para a probabilidade bayesiana. (veja minha resposta). No entanto, seria bom ter a opinião de Xi'an sobre isso.
Summit
1
@ Summit: obrigado, mas tenho medo de não estar muito interessado na questão ...!
Xian

Respostas:

25

Na minha opinião, a interpretação da probabilidade de Cox-Jaynes fornece uma base rigorosa para a probabilidade bayesiana:

  • Cox, Richard T. "Probabilidade, frequência e expectativa razoável". American journal of physics 14.1 (1946): 1-13.
  • Jaynes, Edwin T. Teoria da probabilidade: a lógica da ciência. Cambridge University Press, 2003.
  • Beck, James L. "Identificação do sistema bayesiano baseado na lógica de probabilidade". Controle estrutural e monitoramento da saúde 17.7 (2010): 825-847.

Os axiomas da lógica de probabilidade derivados de Cox são:

  1. (P1): Pr[b|a]0 (por convenção)
  2. (P2): (função de negação)Pr[b¯|a]=1Pr[b|a]
  3. (P3): (função de conjunção)Pr[bc|a]=Pr[c|ba]Pr[b|a]

Os axiomas P1-P3 implicam o seguinte (Beck, James L. "Identificação do sistema bayesiano com base na lógica de probabilidade". Controle estrutural e monitoramento da saúde 17.7 (2010): 825-847):

  1. (P4): a) ; b) ; c)Pr[b|bc]=1Pr[b¯|bc]=0Pr[b|c][0,1]
  2. (P5): a) , b) , onde significa que está contido em , e significa que é equivalente a .Pr[a|c(ab)]Pr[b|c(ab)]Pr[a|c(ab)]=Pr[b|c(ab)]abacabab
  3. (P6):Pr[ab|c]=Pr[a|c]+Pr[b|c]Pr[ab|c]
  4. (P7): Supondo que a proposição declare que uma e apenas uma das proposições é verdadeira, então: cb1,,bN
    • a) Teorema da marginalização:Pr[a|c]=n=1NP[abn|c]
    • b) Teorema da probabilidade total:Pr[a|c]=n=1NPr[a|bnc]Pr[bn|c]
    • c) Teorema de Bayes: Para :k=1,,NPr[bk|ac]=Pr[a|bkc]Pr[bk|c]n=1NPr[a|bnc]Pr[bn|c]

Elas implicam a afirmação lógica de Kolmogorov, que pode ser vista como um caso especial.

Na minha interpretação de um ponto de vista bayesiano, tudo está sempre (implicitamente) condicionado às nossas crenças e ao nosso conhecimento.

A seguinte comparação é retirada de Beck (2010): Identificação do sistema bayesiano com base na lógica de probabilidade

O ponto de vista bayesiano

Probabilidade é uma medida de plausibilidade de uma declaração com base em informações especificadas.

  1. As distribuições de probabilidade representam estados de conhecimento plausível sobre sistemas e fenômenos, não propriedades inerentes a eles.
  2. Probabilidade de um modelo é uma medida de sua plausibilidade em relação a outros modelos em um conjunto.
  3. Quantifica pragmaticamente a incerteza devido à falta de informações, sem qualquer alegação de que isso se deva à aleatoriedade inerente à natureza.

O ponto de vista freqüentista

Probabilidade é a frequência relativa de ocorrência de um evento inerentemente aleatório a longo prazo .

  1. Distribuições de probabilidade são propriedades inerentes a fenômenos aleatórios.
  2. Escopo limitado, por exemplo, sem significado para a probabilidade de um modelo.
  3. A aleatoriedade inerente é assumida, mas não pode ser comprovada.

Como derivar os axiomas de Kolmogorov a partir dos axiomas acima

A seguir, a seção 2.2 de [Beck, James L. "Identificação do sistema bayesiano baseada na lógica de probabilidade". Controle Estrutural e Monitoramento da Saúde 17.7 (2010): 825-847.] Está resumido:

A seguir, usamos: medida de probabilidade no subconjunto de um conjunto finito :Pr(A)AX

  1. [K1]:Pr(A)0,AX
  2. [K2]:Pr(X)=1
  3. [K3]: se e forem disjuntos.Pr(AB)=Pr(A)+Pr(B),A,BXAB

Para derivar (K1-K3) dos axiomas da teoria das probabilidades, [Beck, 2010] introduziu a proposição que afirma e especifica o modelo de probabilidade para . [Beck, 2010] além disso introduz .πxXxPr(A)=Pr[xA|π]

  • P1 implica K1 com e c = πb={xA}c=π
  • K2 segue de ; P4 (a), e pi estados que x X .Pr[xX|π]=1πxX
  • ABxAxB Pr(xAB|π)=Pr(xA|π)+Pr(xB|π)
Summit
fonte
5
Pr(i=1nAi)=i=1nPr(Ai)Pr(i=1Ai)=i=1Pr(Ai)Aσ-field, e não simplesmente subconjuntos de um conjunto finito.
Scortchi - Restabelece Monica
2
@ Scortchi KRKoch em sua introdução à Bayesian Statistics cita Bernardo e Smith (1994), Bayesian Theory, p. 105, como uma fonte que mostra como lidar com o infinito contável. Eu não o verifiquei, mas como referência, também pode ser dada aqui.
gwr
12

Após o desenvolvimento da Teoria das Probabilidades, foi necessário mostrar que conceitos mais fracos, respondendo ao nome de "probabilidade", correspondiam ao conceito rigorosamente definido que eles haviam inspirado. As probabilidades bayesianas "subjetivas" foram consideradas por Ramsey e de Finetti, que mostraram independentemente que uma quantificação do grau de crença sujeita às restrições de comparabilidade e coerência (suas crenças são coerentes se ninguém pode fazer um livro holandês contra você) precisa ser uma probabilidade.

As diferenças entre axiomatizações são em grande parte uma questão de gosto em relação ao que deveria ser o que definia e o que derivava. Mas a aditividade contável é uma das de Kolmogorov que não é derivável da de Cox ou de Finetti, e tem sido controversa. Alguns bayesianos (por exemplo, de Finetti e Savage) param com aditividade finita e, portanto , não aceitam todos os axiomas de Kolmogorov. Eles podem distribuir uniformemente a probabilidade em intervalos infinitos sem impropriedade. Outros seguem Villegas também assumindo continuidade monótona e obtêm aditabilidade contável a partir disso.

Ramsey (1926), "Verdade e probabilidade", em Ramsey (1931), Os fundamentos da matemática e outros ensaios lógicos

de Finetti (1931), "Sul significat soggettivo della probabilità", Fundamenta Mathematicæ , 17 , pp 298 - 329

σ

Scortchi - Restabelecer Monica
fonte
3
Por que minha resposta deve lidar apenas com probabilidades "objetivas bayesianas"? O trabalho seminal de Cox (1946) aborda explicitamente a questão da subjetividade! É um artigo muito interessante - e fácil de ler. Não acho que faça sentido distinguir entre probabilidades bayesianas "subjetivas" e "objetivas": tudo é sempre implicitamente condicionado à pessoa que realiza a análise - e, nesse sentido, "subjetivo".
Summit
sobre a derivação dos axiomas declarados por Kolmogorov a partir de Cox: estou satisfeito com o modo como é feito na seção 2.2 de Beck, James L. "Identificação do sistema bayesiano baseado na lógica de probabilidade". Controle estrutural e monitoramento da saúde 17.7 (2010): 825-847.
Summit
1
@ Summit: (1) Você está certo; é antes que a visão disposicional da probabilidade de Ramsey e de Finetti os coloca diretamente no campo "subjetivo", enquanto a de Cox é mais geralmente aplicável. (2) Você está dizendo que a aditabilidade contável pode ser deduzida dos postulados de Cox?
Scortchi - Reinstate Monica
Estendi minha resposta e aguardo seus comentários.
Summit
1
@ Summit: Obrigado - Espero encontrar tempo para fazer o meu ser tão completo quanto a metade. Eu apontei a lacuna entre o ponto em que você pode chegar do teorema de Cox e os axiomas "completos" de Kolmogorov e acho que é especialmente pertinente à pergunta (embora eu tenha esquecido completamente disso quando respondi pela primeira vez). Jaynes tinha algumas coisas interessantes a dizer sobre este BTW.
Scortchi - Restabelece Monica