Estou tentando entender a forma normalizada de informações mútuas pontuais.
Por que a probabilidade conjunta de log normaliza as informações mútuas pontuais entre [-1, 1]?
As informações mútuas pontuais são:
p (x, y) é delimitado por [0, 1], então log (p (x, y)) é delimitado por (, 0). Parece que o log (p (x, y)) deve, de alguma forma, equilibrar as mudanças em o numerador, mas não entendo exatamente como, também me lembra a entropia , mas, novamente, não entendo a relação exata.
entropy
information-theory
mutual-information
2 centavos
fonte
fonte
Respostas:
Da entrada da Wikipedia em informações mútuas pontuais :
Por que isso acontece? Bem, a definição para informações mútuas pontuais é
considerando que, para informações mútuas normalizadas em sentido normal, é:
O quando houver:
fonte
fonte