Muitos de nós estamos familiarizados - ou pelo menos já ouvimos falar - da entropia de Shannon de uma variável aleatória, e todos os relacionados. medidas teóricas da informação, como entropia relativa, informações mútuas etc. Existem algumas outras medidas de entropia que são comumente usadas na ciência da computação e na teoria da informação, como a min-entropia de uma variável aleatória.
Comecei a ver essas chamadas entropias de Renyi com mais frequência enquanto navego na literatura. Eles generalizam a entropia de Shannon e a min-entropia e, de fato, fornecem todo um espectro de medidas entrópicas de uma variável aleatória. Trabalho principalmente na área de informação quântica, onde a versão quântica da entropia de Renyi também é considerada com bastante frequência.
O que realmente não entendo é por que eles são úteis. Ouvi dizer que muitas vezes é mais fácil trabalhar analiticamente do que dizer entropia ou min-entropia de Shannon / von Neumann. Mas eles também podem estar relacionados à entropia de Shannon / min-entropia também.
Alguém pode fornecer exemplos (clássicos ou quânticos) de quando usar entropias Renyi é "a coisa certa a fazer"? O que estou procurando é um "gancho mental" ou "modelo" para saber quando eu posso querer usar as entropias de Renyi.
Obrigado!
fonte
Respostas:
Considere tentar fazer suposições atômicas para uma variável aleatória desconhecida distribuída em algum conjunto finito Na entropia de Shannon, supõe-se que você possa consultar pouco a pouco, ou seja, se você pode perguntar:A . A = { 1 , … , N }X A. A={1,…,N}
É ?X∈{1,…,N/2} (assuma ou use as funções de piso / teto)N
Em criptografia e em alguns cenários de decodificação, isso não é realista. Para tentar adivinhar uma senha desconhecida, é necessário fazer consultas atômicas, ou seja, consultar se é um valor específico.X
Acontece que o número esperado de consultas para adivinhar uma variável aleatória depende muito da entropia de Renyi da ordemO mesmo acontece com alguns momentos mais altos. Por exemploX 1/2.
e o numerador é essencialmente o logaritmo da entropia de Renyi da ordemPode-se também tornar a entropia de Shannon muito grande, enquanto a entropia de Renyi e a expectativa do número de suposições são muito pequenas. Se você confiasse na entropia de Shannon por segurança, estaria com problemas nesse caso.1/2.
Consulte também a pergunta relacionada Adivinhando um baixo valor de entropia em várias tentativas
Algumas referências:
fonte
Entropia Renyi é análoga, em certo sentido, a -norms, então primeiro recordação da let por que essas normas são úteis.ℓp
Suponha que temos um vetor de números . Queremos ter um único número que represente, em certo sentido, como é o elemento típico de uma aparência.a∈Rn a
Uma maneira de fazer isso é calcular a média dos números em , que corresponde aproximadamente à norma ℓ 1 : E 1 ≤ i ≤ n [ | a i | ] . Isso geralmente é útil, mas para algumas aplicações ele tem os seguintes problemas: Primeiro, a norma ℓ 1 não nos fornece um bom limite superior para o maior elemento de a , porque se houver um único elemento grande e muitos zeros, o ℓ 1 norma será significativamente menor que o maior elemento. Por outro lado, o ℓ 1a ℓ1 E1≤i≤n[|ai|] ℓ1 a ℓ1 ℓ1 A norma também não nos dá um bom limite de quão pequenos são os elementos de , por exemplo, quantos zeros a possui - esse problema ocorre exatamente no mesmo cenário de antes.a a
Obviamente, quando os elementos de apresentam muita variação, como no cenário extremo como acima, nenhum número único pode resolver os dois problemas acima. Temos uma troca. Por exemplo, se nós só queremos saber o maior elemento, podemos usar o l ∞ norma, mas, em seguida, vamos perder todas as informações sobre os elementos menores. Se quisermos o número de zeros, podemos observar a norma ℓ 0 , que é apenas o tamanho do suporte de a .a ℓ∞ ℓ0 a
Agora, o motivo para considerar as normas é que elas nos oferecem toda a troca contínua entre os dois extremos. Se quisermos mais informações sobre os grandes elementos, consideraremos que p é maior e vice-versa.ℓp p
O mesmo vale para entropias Rényi: entropia de Shanon é como norma - que nos diz algo sobre a probabilidade "típico" de um elemento, mas nada sobre a variância ou os extremos. A min-entropia nos fornece informações sobre o elemento com maior probabilidade, mas perde todas as informações sobre o restante. O tamanho do suporte dá o outro extremo. As entropias de Renyi nos dão uma troca contínua entre os dois extremos.ℓ1
Por exemplo, muitas vezes a entropia Renyi-2 é útil porque, por um lado, fica próxima à entropia de Shanon e, portanto, contém informações sobre todos os elementos da distribuição e, por outro lado, fornece mais informações sobre os elementos com maior probabilidade. Em particular, sabe-se que os limites na entropia Renyi-2 fornecem limites na min-entropia, consulte, por exemplo, o Apêndice A aqui: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps
fonte
A entropia de Renyi (da ordem 2) é útil na criptografia para analisar a probabilidade de colisões.
Lembre-se de que a entropia de Renyi da ordem 2 de uma variável aleatória é dada porX
Acontece que nos permite medir a probabilidade de que dois valores desenhados iid de acordo com a distribuição de X sejam os mesmos ("colidem"): essa probabilidade é exatamente 2 - H 2 ( X ) . Após desenho n vezes a partir desta distribuição, o número esperado de colisões entre estes n chama é C ( n , 2 ) 2 - H 2 ( X ) .H2(X) X 2−H2(X) n n C(n,2)2−H2(X)
Esses fatos são úteis na criptografia, onde as colisões às vezes podem ser problemáticas e permitir ataques.
Para algumas análises de outros usos em criptografia, recomendo a seguinte dissertação de doutorado:
Christian Cachin. Medidas de entropia e segurança incondicional em criptografia . Dissertação de doutorado, ETH Zurique, maio de 1997.
fonte
Essa outra resposta de stackexchange e esta postagem no blog podem ser muito úteis para você ter uma ideia rápida de um exemplo básico,
/physics/73424/deriving-entanglement-entropy-from-renyi-entropy
https://johncarlosbaez.wordpress.com/2011/02/10/rnyi-entropy-and-free-energy/
Grosso modo, as entropias de Renyi conhecem os estados excitados de um sistema quântico, mas a entropia de entrelaçamento conhece os estados fundamentais. AVISO: Essa intuição pode ser terrivelmente grosseira, mas pode ser apenas um bom "gancho mental": DI ficaria MUITO feliz em saber de uma maneira melhor e precisa de dizer isso!
Pode-se pensar em calcular a entropia de entrelaçamento (que é uma quantidade mais física) como o limite singular de calcular as entropias de Renyi ( S q para cada q ∈ Z + ). Mas esse limite S 1 = l i m i t q → 1 S q é terrivelmente mal definido. Freqüentemente, a idéia é que se possa calcular S q em um valor inteiro arbitrário e, em seguida, fazer uma continuação analítica disso para q ∈ R e tentar definir a tomada de q →S1 Sq q∈Z+ S1=limitq→1Sq Sq q∈R limite. (embora sempre q ∈ R , chamo de continuação "analítica" porque, muitas vezes, é preciso fazer a interpolação por contornos no plano complexo - e a continuação pode depender de quais contornos se escolhe através dos polos e cortes de galhos do S q aquele começou com)q→1 q∈R Sq
Em valores integrais de geralmente existe uma construção sempre muito bem definida em termos de alguma integração de alguma função em algum coletor q - ramificado. Depois que uma integração é feita, esquecemos alegremente o coletor usado e apenas tentamos fazer a continuação analítica parametricamente na variável q .q>1 q− q
Sempre há muitas questões sobre a existência e a boa postura quando se tenta fazer essas continuações analíticas - mas para alguém como eu, que é criado com uma dieta diária de integrais de caminho de Feynman, é um problema muito comum de se lidar. tem muitas ferramentas para resolvê-las. Três artigos interessantes para analisar essas questões são: http://arxiv.org/pdf/1306.5242.pdf , http://arxiv.org/pdf/1402.5396.pdf , http://arxiv.org/pdf/1303.7221 .pdf (o último destes artigos pode ser um ponto de partida mais fácil) Esta apresentação também pode ajudar, https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf
O que a entropia de Renyi diz em termos da teoria da complexidade quântica pode ser uma pergunta emocionante! Alguém pode pensar no índice Renyi como de alguma forma parametrizando uma hierarquia de classes de complexidade? Isso deve ser divertido se for verdade! Deixe-me saber :)
fonte
A entropia da Renyi chegou às definições de fluxo quantitativo de informações , uma área ou pesquisa de segurança. Veja o documento de pesquisa de G. Smith .
fonte