Suponha que a quantidade que queremos deduzir seja uma distribuição de probabilidade. Tudo o que sabemos é que a distribuição vem de um conjunto determinado, digamos, por alguns de seus momentos e temos um anterior .
O princípio da entropia máxima (MEP) diz que que possui menos entropia relativa de (ou seja, ) é o melhor para selecionar. Enquanto a regra bayesiana de seleção tem um processo de seleção do posterior, dado o prior que é apoiado pelo teorema de Bayes.
Minha pergunta é se existe alguma conexão entre esses dois métodos de inferência (ou seja, se os dois métodos se aplicam ao mesmo problema e têm algo em comum)? Ou se na inferência bayesiana o cenário é completamente diferente do cenário mencionado acima? Ou não estou fazendo sentido ?!
Respostas:
Isso pode chegar um pouco tarde, mas a questão deve ser reformulada: conforme definido por Jaynes , a entropia máxima é uma maneira de construir uma distribuição anterior que (a) satisfaça as restrições impostas por e (b) tenha a entropia máxima, relativa a uma medida de referência no caso contínuo: Assim, a entropia máxima (de Jaynes) é claramente parte da caixa de ferramentas bayesiana. E a máxima entropia prévia não fornece a distribuição anterior mais próxima da verdadeira anterior, conforme sugerido pela pergunta de Ashok .∫ - log [ π ( θ ) ] d μ ( θ )E
A inferência bayesiana sobre uma distribuição é um problema completamente diferente, tratado pelos não paramétricos bayesianos (ver, por exemplo, este livro recente de Hjort et al.). Exige observações de , o que não parece ser o cenário da pergunta atual ...QQ Q
fonte