Estou procurando métodos que permitam estimar a entropia de informações de uma distribuição quando as únicas formas práticas de amostragem dessa distribuição são os métodos de Monte Carlo.
Meu problema não é diferente do modelo padrão de Ising, que normalmente é usado como exemplo introdutório para amostragem Metropolis-Hastings. I têm uma distribuição de probabilidade sobre um conjunto , ou seja, que tem para cada . Os elementos são de natureza combinatória, como os estados de Ising, e há um número muito alto deles. Isso significa que, na prática, nunca recebo a mesma amostra duas vezes ao fazer amostragens dessa distribuição em um computador. não pode ser calculado diretamente (devido ao desconhecimento do fator de normalização), mas é fácil calcular a razão .p ( a ) a ∈ A a ∈ A p ( a ) p ( a 1 ) / p ( a 2 )
Quero estimar a entropia de informações dessa distribuição,
Como alternativa, quero estimar a diferença de entropia entre essa distribuição e a obtida através da restrição a um subconjunto (e, é claro, re-normalizando).
fonte
Para a segunda parte da sua pergunta (estimativa da diferença de entropia entre distribuições), você poderá usar a identidade onde é a energia média, é a temperatura (é é proporcional a em ) e é a entropia. Para detalhes, veja: Jaynes, E. (1957). Teoria da informação e mecânica estatística. Physical Review, 106 (4), 620–630. http://doi.org/10.1103/PhysRev.106.620 .⟨ E ⟩ T θ p α e θ E S
Aqui estão duas referências adicionais sobre algoritmos para calcular energia livre:
Lelièvre, T., Rousset, M., & Stoltz, G. (2010). Computações de energia livre. Imperial College Press. http://doi.org/10.1142/9781848162488
Chipot, C. & Pohorille, A. (2007). Cálculos de energia livre. (C. Chipot e A. Pohorille, Eds.) (Vol. 86). Berlim, Heidelberg: Springer Berlin Heidelberg. http://doi.org/10.1007/978-3-540-38448-9
fonte