Diferença entre “informação” e “informação útil” na teoria algorítmica da informação

16

De acordo com a Wikipedia :

Informalmente, do ponto de vista da teoria algorítmica da informação, o conteúdo da informação de uma string é equivalente ao comprimento da menor representação possível possível dessa string.

Qual é a definição rigorosa informal análoga de "informação útil"? Por que a "informação útil" não é tomada como o conceito mais natural ou mais fundamental; ingenuamente, parece que uma sequência puramente aleatória deve, por definição, conter zero informação, então estou tentando entender o fato de que ela é considerada como tendo informações máximas pela definição padrão.

user1247
fonte
2
Bem-vinda! Observe que você pode alterar seu nome de usuário para algo que as pessoas têm mais probabilidade de reconhecer quando se tornar um visitante comum.
Raphael

Respostas:

12

O conceito central aqui é a complexidade de Kolmogorov e, mais especificamente, a compressibilidade . Para obter uma sensação intuitiva de compressibilidade, considere duas seqüências de caracteres e B B , onde B = { 0 , 1 } . DeixeiUMABBBB={0 0,1}

1010 1010 1010 eUMA=1010 1010 1010 1010

0110 0111 1001 .B=1011 0110 0111 1001

Note que . Como poderíamos quantificar quanta informação A ou B possui? Se pensarmos na teoria clássica da informação, em geral, transmitir uma sequência de comprimento n leva n bits em média. No entanto, não podemos dizer quantos bits precisamos para transmitir uma sequência específica de comprimento n .|UMA|=|B|=16UMABnnn

Por que o conteúdo de informações de uma sequência aleatória não é zero?

Em uma análise mais detalhada, podemos ver que, de fato, . No entanto, é muito mais difícil de dizer se B tem quaisquer padrões óbvios em sua estrutura, pelo menos ele parece e se sente mais aleatória do que A . Como podemos encontrar um padrão em A , podemos compactar facilmente A e representá-lo com menos de 16 bits. Da mesma forma, como não é fácil detectar nenhum padrão em B , não podemos compactá-lo tanto. Portanto, podemos dizer que B tem mais informações do que um . Além disso, uma sequência aleatória de comprimento nA=108BAAA16BBAnpossui informações máximas, pois não há como compactá-las e, portanto, representá-las com menos de bits.n

O que é informação útil, então?

Para informação útil , sim, há uma definição usando uma máquina de Turing . A informação útil em x B éTxB

minT { l(T)+C(x|T):T{T0,T1,...}},

onde indica o comprimento de uma codificação de auto-limitante para uma máquina de Turing T . A notação é geralmente tal que C ( x ) indica a complexidade de Kolmogorov de X e C ( x | y ) a complexidade de Kolmogorov condicional de x dadas y .l(T)TC(x)xC(x|y)xy

Aqui incorpora a quantidade de informações úteis contidas em x . O que poderíamos perguntar é qual desses T selecionar entre aqueles que atendem ao requisito. O problema é separar um programa mais curto x em partes x = p q st p representa um T apropriado . Esta é realmente a própria idéia que gerou o comprimento mínimo da descrição (MDL) .TxTxx=pqpT

Juho
fonte
4

Pode ser porque "útil" é difícil de definir. Digamos que tenhamos uma mensagem altamente estruturada e rica em informações, que pode ser compactada no máximo por um fator de α para a mensagem y . Intuitivamente, x e y contêm a mesma quantidade de informações úteis; de fato, eles contêm a mesma quantidade de informações de acordo com a definição usual. Agora imagine um prefixo z de x do mesmo comprimento que y ; não deve conter informações mais úteis que x , portanto, não mais que y . No entanto, y é mais "aleatório" que z , pois zxαyxyzxyxyyzzpode ser compactado e não. Portanto, se tentarmos associar informações "úteis" à compressibilidade, poderemos encontrar o seguinte paradoxo: um prefixo de uma mensagem pode ter informações "úteis" mais altas que a mensagem inteira, aparentemente uma contradição.y

Patrick87
fonte
Pode ser difícil de definir, e pode ser que não possa confiar trivialmente na compressibilidade da mesma forma que "informações", mas parece ser a definição mais importante! Tal como está, "informação" parece ser um apelido para "complexidade Kolmogorov", em vez de uma tentativa séria de definir informações no sentido usual, que em outros contextos deve, por definição, ser útil! Esta é uma área ativa de pesquisa? Existem definições propostas?
precisa saber é o seguinte
@ user1247 Por que você vê Kolmogorov complexidade como não sendo sério?
Juho
@mrm Eu vejo isso como um conceito muito sério e interessante, mas não me sinto à vontade chamando esse conceito de "informação". O que significa uma string completamente aleatória conter informações? "Informação útil" parece mais aplicável e interessante quando se trata de discutir informações (onde "útil" está implícito) no mundo real, em discussões filosóficas ou mecânicas quânticas sobre informações sendo transmitidas ou recebidas, por exemplo.
user1247
1
@ user1247 Uma maneira possivelmente interessante de interpretar minha resposta é a seguinte: as informações são úteis ou inúteis apenas com base na maneira como são interpretadas. Para uma interpretação fixa, uma mensagem pode ter informações mais ou menos úteis que outra. Qualquer teoria da informação útil precisará, na minha opinião, levar em conta essas interpretações (medidas regulares como a entropia também o fazem, ainda que implicitamente).
precisa saber é o seguinte
@ Patrick87 Concordo absolutamente que qualquer boa teoria de "informações úteis" deve levar em conta o mecanismo de descriptografia. É isso que o torna um problema interessante! Se você me enviar uma string, e, em princípio, não posso descriptografá-la, ela deve ser definida para não conter informações úteis.
user1247
4

De um ponto de vista menos formal, acho que pode ajudar se você se distanciar da palavra "aleatório", pois está certo de que um conjunto de bits verdadeiramente aleatórios não armazena nenhuma informação no sentido prático. (Se eu criptografar um conjunto de nomes e enviar os valores criptografados para você, eles podem ter uma complexidade Kolmogorov muito alta, mas isso não ajudará a descobrir os nomes).

Mas pense dessa maneira. Se você vir um site em um idioma estrangeiro (por exemplo, sueco, supondo que você não o fale), será mais ou menos aleatório. Haverá alguma ordem para as palavras, mas não muito. No entanto, se você olhar para uma página da Web com texto parecido com este: 123456123456123456123456 ... e assim por diante, poderá entendê-la mais rapidamente. Se você não fala sueco, provavelmente conseguirá obter muito mais com isso, mesmo que a página sueca tenha o equivalente aos "seis primeiros números repetidos sequencialmente". Os sites contêm as mesmas informações, mas um parece aleatório para você. E, quanto à quantidade de espaço, o que você entende é bem menos eficiente que a página sueca, mesmo que armazene as mesmas informações. Você pode não achar essas informações "úteis" porque "

A noção de "informação" deve ser universal; portanto, o que parece bits aleatórios - e, portanto, inúteis - para você pode armazenar uma grande quantidade de informações para outra pessoa. A medida da informação pretende ser uma propriedade intrínseca da cadeia de caracteres e não pode depender do que faz ou não faz sentido para você e do que você pode ou não interpretar.

Outro ponto (mais técnico) que pode ajudar é que estou sendo um pouco falso aqui. Como Juho aponta, a informação édefinido em relação a quem o está interpretando. Você pode achar a página sueca completamente inútil como um veículo para obter informações, mas alguém que fala sueco pode achar que possui uma grande quantidade de informações. A definição reflete isso. No entanto, a partir da matemática, podemos aprender que a diferença entre a página mais curta (mais informativa para o espaço) para comunicar este site a você e a página mais curta que pode comunicá-lo a alguém que fala sueco pode diferir apenas por uma constante aditiva. Por quê? Porque para você, como um falante não-sueco, a maneira mais curta de armazenar a página que você entende é "os seis primeiros números inteiros repetidos sequencialmente". Isso pode ser um pouco mais longo que o sueco.

(Most efficient representation of information in English)(Most efficient representation in Swedish)+(Length of Swedish-English dictionary)
. Isso está ficando um pouco fora de tópico com a sua pergunta original, mas o que estou tentando dizer é que não importa muito quem está lendo as informações. A página sueca de aparência aleatória não era "útil" para você, mas é "útil" para outra pessoa, e você tem apenas uma quantidade constante de informações para poder usá-las.
SamM
fonte