O teorema de Bayes vai
Está tudo bem. Mas eu li em algum lugar:
Basicamente, P (dados) nada mais é do que uma constante normalizadora, ou seja, uma constante que faz com que a densidade posterior se integre a uma.
Sabemos que e . 0 ≤ P ( dados | modelo ) ≤ 1
Portanto, deve estar entre 0 e 1. Nesse caso, por que precisamos de uma constante de normalização para integrar o posterior a um?
probability
bayesian
conditional-probability
bayes
Sreejith Ramakrishnan
fonte
fonte
0 <= P(model) <= 1
nem0 <= P(data/model) <= 1
porque um deles (ou ambos!) Pode exceder (e até ser infinito). Consulte stats.stackexchange.com/questions/4220 .Respostas:
Primeiro , a integral da "probabilidade x anterior" não é necessariamente 1 .
Não é verdade que se:
0 ≤ P ( dados | modelo ) ≤ 10 ≤ P( modelo ) ≤ 1 e0 ≤ P( dados | modelo ) ≤ 1
então a integral deste produto em relação ao modelo (para os parâmetros do modelo, de fato) é 1.
Demonstração. Imagine duas densidades distintas:
Se você multiplicar os dois, obtém: que não é uma densidade válida, pois não se integra a um: 0,40 + 0,25 = 0,65
Então, o que devemos fazer para forçar a integral a ser 1? Use o fator de normalização, que é:
(desculpe pela má notação. Escrevi três expressões diferentes para a mesma coisa, já que você pode vê-las todas na literatura)
Segundo , a "probabilidade" pode ser qualquer coisa e, mesmo que seja uma densidade, pode ter valores maiores que 1 .
Como o @whuber disse, esses fatores não precisam estar entre 0 e 1. Eles precisam que sua integral (ou soma) seja 1.
Terceiro [extra], "conjugados" são seus amigos para ajudá-lo a encontrar a constante de normalização .
Você verá frequentemente: porque o denominador ausente pode ser facilmente obter integrando este produto. Observe que essa integração terá um resultado bem conhecido se o anterior e a probabilidade forem conjugados .
fonte
A resposta curta para sua pergunta é que, sem o denominador, a expressão do lado direito é apenas uma probabilidade , não uma probabilidade , que só pode variar de 0 a 1. A "constante de normalização" permite obter a probabilidade de a ocorrência de um evento, e não apenas a probabilidade relativa desse evento em comparação com outro.
fonte
Você já tem duas respostas válidas, mas deixe-me adicionar meus dois centavos.
O teorema de Bayes é frequentemente definido como:
porque a única razão pela qual você precisa da constante é para que ela se integre a 1 (veja as respostas de outras pessoas). Isso não é necessário na maioria das abordagens de simulação MCMC para análise bayesiana e, portanto, a constante é eliminada da equação. Portanto, para a maioria das simulações, isso nem é necessário.
Eu amo a descrição por Kruschke : o último filhote de cachorro (constante) está com sono, porque ele não tem nada para fazer na fórmula.
Além disso, alguns, como Andrew Gelman, consideram a constante como "superestimada" e "basicamente sem sentido quando as pessoas usam planos anteriores" (consulte a discussão aqui ).
fonte