Uma conversa com a desigualdade de Fano?

10

A desigualdade de Fano pode ser declarada de várias formas, e uma particularmente útil é devida (com uma pequena modificação) a Oded Regev :

Seja uma variável aleatória e onde é um processo aleatório. Suponha que exista um procedimento que, dado que possa reconstruir com probabilidade . Então Y = g ( X ) g ( ) f y = g ( x ) x p I ( X ; Y ) p H ( X ) - H ( p )XY=g(X)g()fy=g(x)xp

Eu(X;Y)pH(X)-H(p)

Em outras palavras, se eu puder reconstruir, há muitas informações mútuas no sistema.

Existe um "inverso" da desigualdade de Fano: algo da forma

"Dado um canal com informações mútuas suficientes, existe um procedimento para reconstruir a entrada da saída com erro que depende da informação mútua"

Seria demais esperar que esse procedimento também fosse eficiente, mas também seria interessante ver exemplos (naturais) onde a reconstrução existe, mas deve ser ineficiente.

Suresh Venkat
fonte

Respostas:

12

Considere o seguinte procedimento de reconstrução : dado , a saída tal que é maximizado. A probabilidade de que este procedimento seja bem-sucedido é . Isso também é , onde é a entropia mínima da variável aleatória condicionada em . Sabemos que , onde é a entropia padrão Shannon da variável aleatória . Agora temos apenas o limite superiory x Pr [ X = X | Y = y ] max x Pr [ x | Y = y ] 2 - H ( X | Y = y ) H ( X | Y = Y ) X Y = Y H ( X ) H 1 ( X )P(y)yxPr[X=xY=y]maxxPr[xY=y]2-H(X|Y=y)H(XY=y)XY=yH(X)H1 1(X)X H ( X | Y = y ) I ( X : Y )H1 1(X)XH(X|Y=y)em termos de informação mútua .Eu(X:Y)

Escreva . Usando a desigualdade mencionada acima, ou .I ( X : Y ) H ( X ) - E y [ H ( X | Y = Y ) ]Eu(X:Y)=H(X)-H(X|Y)=H(X)-Ey[H(XY=y)]Eu(X:Y)H(X)-Ey[H(XY=y)]Ey[H(XY=y)]H(X)-Eu(X:Y)

A probabilidade de que o procedimento seja bem-sucedido onde e são escolhidos aleatoriamente é , que por concavidade é pelo menos . Portanto, a probabilidade de êxito do procedimento é de pelo menos .Y E y [ 2 - H ( X Y = y ) ] 2 - E y [ H ( X Y = y ) ] 2 I ( X : Y ) - H ( X )XYEy[2-H(XY=y)]2-Ey[H(XY=y)]2Eu(X:Y)-H(X)

Este procedimento é ideal: dado qualquer procedimento de aleatoriedade , a probabilidade de sucesso é , que é maximizado ponto a ponto quando emite deterministicamente o mais provável .E y [ x Pr ( X = x Y = y ) Pr ( P ( y ) = x ) ] P ( y ) xPEy[xPr(X=xY=y)Pr(P(y)=x)]P(y)x

Henry Yuen
fonte
11
Então, há uma afirmação quantitativa que é o inverso da desigualdade de Fano que se segue desse argumento?
mobius bolinho de massa 06/06
O que você quer dizer com quantitativo? O argumento que dei acima deve dizer: "Dado um canal com informações mútuas , existe um procedimento de reconstrução com erro no máximo ". 1 - 2 I ( X : Y ) - H ( X )Eu(X:Y)1 1-2Eu(X:Y)-H(X)
Henry Yuen
2

Boa resposta e prova. Portanto, o limite da sua resposta também pode ser reescrito desde que por definição. Isso apareceu no IEEE ISIT 1994, em uma palestra de Baumer, com o melhor de meu conhecimento.I ( X ; Y ) = H ( X ) - H ( X | Y )

perr1 1-2Eu(X;Y)-H(X)=1 1-2-H(X|Y),(1 1)
Eu(X;Y)=H(X)-H(X|Y)

Da mesma forma, pode-se obter onde está a entropia Renyi da ordemAqui, então o limite (2) é mais apertado que (1).

perr1 1-yYPY(y)2-H2(X|Y),(2)
Hα(Z)=1 11 1-α(zZPZ(z)α)
α(0 0,1 1)(1 1,).α=2,
kodlu
fonte