Conheço o trabalho de Shannon com entropia, mas ultimamente tenho trabalhado em estruturas de dados sucintas nas quais a entropia empírica é frequentemente usada como parte da análise de armazenamento.
Shannon definido a entropia da informação produzida por uma fonte de informação discreta como , onde é a probabilidade do evento ocorrendo, por exemplo, um caracter específico gerado, e existem k possíveis eventos. i k
Como apontado por MCH nos comentários, a entropia empírica é a entropia da distribuição empírica desses eventos e, portanto, é dada por onde é o número de ocorrências observadas de evento e é o número total de eventos observados. Isso é chamado entropia empírica de ordem zero de ordem zero . A noção de Shannon de entropia condicional tem uma versão empírica similar de ordem superior .
Shannon não usou o termo entropia empírica, embora ele certamente mereça parte do crédito por esse conceito. Quem usou essa idéia pela primeira vez e quem primeiro usou o nome (muito lógico) da entropia empírica para descrevê-la?
fonte
Respostas:
Estou interessado em "entropia empírica" como você e o primeiro artigo que encontrei foi o de Kosaraju, como o usuário "Marzio De Biasi" contou em seu comentário.
Mas, na minha opinião, as definições reais de "entropia empírica" são feitas mais tarde, generalizando os conceitos anteriores:
Gagie reformulou a definição de entropia empírica de ordem de para:k
onde é um processo de Markov de ordem . Ele também mostrou que essa definição é equivalente à anterior. O próximo passo de Vitányi foi uma generalização para classes arbitrárias de processos (não apenas processos de Markov):kQ k
onde é a classe de processos permitidos e é a complexidade de Kolmogorov. Se escolhermos como a classe de ordem Markov processa produzindo uma sequência devariáveis aleatórias e ignorando a complexidade de Kolmogorov, isso também leva à definição de Gagie (multiplicada por ).X K( X)
X k | w | | w |
fonte