Estou procurando um livro ou recurso on-line que explique diferentes tipos de entropia, como Entropia de Amostra e Entropia de Shannon e suas vantagens e desvantagens. Alguém pode me apontar na direção certa?
references
entropy
cristão
fonte
fonte
Essas notas de aula sobre teoria da informação de O. Johnson contêm uma boa introdução a diferentes tipos de entropia.
fonte
Se você estiver interessado na estatística matemática em torno da entropia, consulte este livro
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
está disponível gratuitamente!
fonte
A entropia é apenas uma (como conceito) - a quantidade de informações necessárias para descrever algum sistema; existem apenas muitas generalizações. A entropia de amostra é apenas um descritor semelhante a entropia usado na análise da frequência cardíaca.
fonte
Jaynes mostra como derivar a entropia de Shannon de princípios básicos em seu livro .
fonte
O artigo de Grünwald e Dawid: teoria dos jogos, entropia máxima, discrepância mínima e teoria robusta da decisão bayesiana discutem generalizações da noção tradicional de entropia. Dada uma perda, sua função de entropia associada é o mapeamento de uma distribuição para a perda esperada alcançável mínima para essa distribuição. A função de entropia usual é a entropia generalizada associada à perda de log. Outras opções de perdas produzem entropia diferente, como a entropia de Rényi.
fonte