Andrew More define ganho de informação como:
onde é a entropia condicional . No entanto, a Wikipedia chama a quantidade acima de informações mútuas .
A Wikipedia, por outro lado, define ganho de informação como a divergência de Kullback – Leibler (também conhecida como divergência de informação ou entropia relativa) entre duas variáveis aleatórias:
onde é definido como a entropia cruzada .
Essas duas definições parecem ser inconsistentes uma com a outra.
Também vi outros autores falando sobre dois conceitos adicionais relacionados, a saber, entropia diferencial e ganho relativo de informações.
Qual é a definição ou relação precisa entre essas quantidades? Existe um bom livro de texto que cubra todos eles?
- Ganho de informação
- Informação mútua
- Entropia cruzada
- Entropia condicional
- Entropia diferencial
- Ganho de informações relativas
information-theory
Amelio Vazquez-Reina
fonte
fonte
Respostas:
Eu acho que chamar a divergência de Kullback-Leibler de "ganho de informação" não é padrão.
A primeira definição é padrão.
EDIT: No entanto, também pode ser chamado de informação mútua.H( Y) - H( Y| X)
Note que acho que você não encontrará nenhuma disciplina científica que realmente tenha um esquema de nomeação padronizado, preciso e consistente. Portanto, você sempre terá que olhar para as fórmulas, porque elas geralmente oferecem uma idéia melhor.
Livros didáticos: consulte "Boa introdução a diferentes tipos de entropia" .
Também: Cosma Shalizi: Métodos e Técnicas da Ciência de Sistemas Complexos: Uma Visão Geral, capítulo 1 (pp. 33-114) em Thomas S. Deisboeck e J. Yasha Kresh (eds.), Ciência de Sistemas Complexos em Biomedicina http: // arxiv.org/abs/nlin.AO/0307015
Robert M. Gray: Teoria da entropia e da informação http://ee.stanford.edu/~gray/it.html
David MacKay: teoria da informação, inferência e algoritmos de aprendizado http://www.inference.phy.cam.ac.uk/mackay/itila/book.html
Além disso, "O que é" entropia e ganho de informação "?"
fonte
fonte
fonte
Extrair informações mútuas de conjuntos de dados textuais como um recurso para treinar o modelo de aprendizado de máquina: (a tarefa era prever idade, sexo e personalidade dos blogueiros)
fonte
Ambas as definições estão corretas e consistentes. Não sei ao certo o que você acha incerto ao apontar vários pontos que podem precisar de esclarecimentos.
Entropia comum e entropia cruzada NÃO são iguais.
Eu espero ver essa notação aceita e as páginas wiki atualizadas.
fonte