Tenho dificuldades com as probabilidades . Eu entendo o Teorema de Bayes
que pode ser deduzido diretamente da aplicação de . Assim, na minha interpretação, funções no teorema de Bayes são de alguma forma todas as probabilidades, marginais ou condicionais. Então, na verdade, pensei que Probabilidade como conceito fosse mais uma visão freqüentista da probabilidade inversa.
No entanto, já vi repetidamente declarações nos livros dos bayesianistas que afirmam que a probabilidade não é uma distribuição de probabilidade. Lendo o livro de MacKay ontem, me deparei com a seguinte declaração
"[...] é importante observar que os termos probabilidade e probabilidade não são sinônimos. A quantidade é uma função de e . Para fixo , define uma probabilidade sobre , pois fixo B , define a semelhança de ".
Entendo o seguinte: é uma probabilidade de sob um dado , portanto, uma função : A → [ 0 , 1 ] . Mas, considerando um dado valor e avaliando a dependência de em diferentes ', na verdade estamos usando uma função diferente .
Esta interpretação está correta?
Podemos então dizer que os métodos de máxima verossimilhança podem ser motivados pelo teorema bayesiano, onde o prior é escolhido para ser constante?
fonte
Respostas:
Acho que talvez a melhor maneira de explicar a noção de probabilidade seja considerar um exemplo concreto. Suponhamos que temos uma amostra de observações IID desenhadas a partir de uma distribuição de Bernoulli com probabilidade desconhecido de sucesso : X i ~ B e r n o u l l i ( p ) , i = 1 , ... , n , de modo que a função de massa de probabilidade conjunta da amostra é Essa expressão também caracteriza a probabilidade dep Xi∼Bernoulli(p) i=1,…,n
Por exemplo, suponha que e a amostra seja . Intuitivamente, concluiríamos que é mais provável que seja mais próximo de do que , porque observamos mais. De fato, temos Se plotarmos essa função em , podemos ver como a probabilidade confirma nossa intuição. Obviamente, não sabemos o valor real de - poderia ter sido vez de , mas a função de probabilidade nos diz que o primeiro é muito menos provável que o segundo. Mas se queremos determinar uma probabilidaden=5 x=(1,1,0,1,1) p 1 0
Portanto, o que fizemos aqui essencialmente é a regra de Bayes: Aqui, é uma distribuição anterior no (s) parâmetro (s) , o numerador é a probabilidade de que é também a distribuição conjunta de
fonte