Vazamento suave de informações ao longo do tempo

8

Digamos que eu tenho uma variável aleatória de um bit e seja n um número natural. Eu quero uma sequência de variáveis ​​aleatórias 0 = X 0 , X 1 , , X n = X stX{0,1}n0=X0,X1,,Xn=X

H(X | {X0,,Xk})=1kn

Isto é, cada um adicional fornece um / n da informação de X , até que tudo o que é revelado por X n = X . Existe uma boa construção para esta sequência?Xk1/nXXn=X

Geoffrey Irving
fonte

Respostas:

2

Via Michael Kass: seja um processo Wiener começando em Y ( 0 ) = X e definaY(t)Y(0)=X

f(t)=H(X | Y(t))

Em seguida, , f ( ) = 1 , e f ( t ) é suavemente estritamente crescente no meio. Assim, para qualquer k podemos encontrar 0 t r X k = Y ( t ) tem a entropia condicional desejado ( t irá ser uma função decrescente da k ).f(0)=0f()=1f(t)k0tXk=Y(t)tk

Geoffrey Irving
fonte
3
Você não poderia simplesmente tomar onde é XOR e Y k é Bernoulli independente com média p k ? Xk=XYkYkpk
Sasho Nikolov
Sim, esse é um método reconhecidamente mais simples. :)
Geoffrey Irving
0

O problema com a construção anterior é que não há garantia de que seja inequivocamente revelado após a transmissão de n bits (o que parece ser um requisito). Aqui está uma construção semelhante que funciona se n for ímpar. Gerar n bits aleatórios com probabilidade de 1/2, S = Y 0 , Y 1 , . . . . Deixe- N ( 0 ) e N ( 1 ) ser o número de 1 e 0 em S . Agora, transmita S se X = 1 eXnnnS=Y0,Y1,...N(0)N(1)SX=1 ou X = 0 e N ( 1 ) < N ( 0 ) ; transmitir de outra forma a um complemento de S .N(1)>N(0)X=0N(1)<N(0)S

siravan
fonte
n=3
X
Correção. Minha análise anterior não está correta. Eu acho que existem duas maneiras de ver isso. O algoritmo é simétrico em bits e transmite um bit total de informações, portanto, cada bit deve contribuir com 1 / n bits de informação. Mas se queremos calcular as probabilidades condicionais, as coisas ficam confusas. Acredito que a situação é uma variante do problema de Monty Hall ( en.wikipedia.org/wiki/Monty_Hall_problem ).
siravan
1
Y(0)=X