Li recentemente este artigo sobre a entropia de uma distribuição de probabilidade discreta. Ele descreve uma boa maneira de pensar em entropia como o número esperado de bits (pelo menos ao usar o em sua definição de entropia) necessário para codificar uma mensagem quando sua codificação é ideal, dada a distribuição de probabilidade das palavras que você usa.
No entanto, quando que se estende ao caso contínuo como aqui eu acredito que esta maneira de pensar pausas para baixo, uma vez que para qualquer distribuição de probabilidade contínua (por favor, corrija-me se isso é errado), então eu estava se perguntando se existe uma boa maneira de pensar sobre o que significa entropia contínua, assim como no caso discreto.
entropy
information-theory
dippynark
fonte
fonte
Respostas:
Não há interpretação da entropia diferencial que seja tão significativa ou útil quanto a da entropia. O problema com variáveis aleatórias contínuas é que seus valores normalmente têm probabilidade 0 e, portanto, exigiriam um número infinito de bits para codificação.
Se você observar o limite da entropia discreta medindo a probabilidade de intervalos[nε,(n+1)ε[ , você termina com
e não a entropia diferencial. Essa quantidade é, de certo modo, mais significativa, mas divergirá para o infinito à medida que tomamos intervalos cada vez menores. Faz sentido, uma vez que precisaremos de mais e mais bits para codificar em qual dos muitos intervalos o valor do nosso valor aleatório cai.
Uma quantidade mais útil para procurar distribuições contínuas é a entropia relativa (também divergência de Kullback-Leibler). Para distribuições discretas:
Ele mede o número de bits extras usados quando a distribuição verdadeira éP , mas usamos −logQ2(x) bits para codificar x . Podemos pegar o limite da entropia relativa e chegar a
porque olog2ε será cancelado. Para distribuições contínuas, isso corresponde ao número de bits extras usados no limite de compartimentos infinitesimalmente pequenos. Para distribuições contínuas e discretas, isso é sempre negativo.
Agora, poderíamos pensar em entropia diferencial como a entropia relativa negativa entrep(x) e uma densidade não normalizada λ(x)=1 ,
Veja a palestra de Sergio Verdu para uma ótima introdução à entropia relativa.
fonte