Existe algum uso para a quantidade em estatística ou teoria da informação?
probability
entropy
information-theory
charles.y.zheng
fonte
fonte
Respostas:
Permitindo denotar uma função de densidade de probabilidade (com relação à Lebesgue ou medida de contagem, respectivamente), a quantidade é conhecida como entropia Renyi da ordem . É uma generalização da entropia de Shannon que retém muitas das mesmas propriedades. Para o caso , interpretamos como , e isso corresponde à entropia padrão de Shannon .f
α≥0α=1H1(f)limα→1Hα(f)H(f)
Renyi introduziu isso em seu artigo
vale a pena ler, não apenas pelas idéias, mas pelo estilo de exposição exemplar.
O caso é uma das opções mais comuns para e esse caso especial é (também) frequentemente chamado de entropia Renyi. Aqui vemos que para uma variável aleatória distribuída com densidade .α H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E F ( X ) ) fα = 2 α
Observe que é uma função convexa e, portanto, pela desigualdade de Jensen, temos onde o lado direito denota a entropia de Shannon. Portanto, a entropia de Renyi fornece um limite inferior para a entropia de Shannon e, em muitos casos, é mais fácil de calcular.H 2 ( f ) = - log ( E f ( X ) ) ≤ E ( - log f ( X ) ) = - E log f ( X ) = H ( f )- log( X )
Outro exemplo natural em que a entropia de Renyi surge é quando se considera uma variável aleatória discreta e uma cópia independente . Em alguns cenários, queremos saber a probabilidade de que , que por um cálculo elementar seja X ⋆ X = X ⋆ P ( X = X ⋆ ) = ∞ Σ i = 1 P ( X = X i , X ⋆ = x i ) = ∞ Σ i = 1 P ( X = x i ) P ( X ⋆ = x i ) = e - H 2 ( fX X⋆ X= X⋆
Aqui denota a densidade em relação à medida de contagem no conjunto de valores .f Ω = { xEu: i ∈ N }
A entropia (geral) de Renyi também está aparentemente relacionada à energia livre de um sistema em equilíbrio térmico, embora eu não esteja pessoalmente interessado nisso. Um artigo (muito) recente sobre o assunto é
fonte