Esta questão fornece uma definição quantitativa de entropia cruzada, em termos de sua fórmula.
Estou procurando uma definição mais fictícia, diz a wikipedia:
Na teoria da informação, a entropia cruzada entre duas distribuições de probabilidade mede o número médio de bits necessários para identificar um evento a partir de um conjunto de possibilidades, se um esquema de codificação for usado com base em uma determinada distribuição de probabilidade q, em vez da distribuição "verdadeira" p .
Enfatizei a parte que está me dando problemas para entender isso. Gostaria de uma boa definição que não exija entendimento separado (pré-existente) da Entropia.
entropy
information-theory
Lyndon White
fonte
fonte
Respostas:
Para codificar um evento que ocorre com probabilidade você precisa de pelo menos log 2 ( 1 / p ) bits (por quê? Veja minha resposta em "Qual é o papel do logaritmo na entropia de Shannon?" ).p registro2( 1 / p )
Assim, em óptima que codifica para o comprimento médio da mensagem codificada é isto é,entropiadeShannonda distribuição de probabilidade original.
Então, se queremos codificá-lo de maneira ideal, codificamos A como 0 e B como 1, para obter um bit de mensagem codificada por uma letra. (E é exatamente a entropia de Shannon da nossa distribuição de probabilidade.)
fonte