No presente trabalho , o pesquisador talentoso Cosma Shalizi argumenta que aceitar plenamente uma visão subjetiva Bayesian, é preciso também aceitar um resultado não físico que a flecha do tempo (dado pelo fluxo de entropia) deve realmente ir para trás . Isto é principalmente uma tentativa de argumentar contra a máxima entropia / visão bayesiana totalmente subjetiva apresentada e popularizada por ET Jaynes .
Na LessWrong , muitos colaboradores estão muito interessados na teoria bayesiana de probabilidades e também na abordagem subjetiva bayesiana como base para teorias formais de decisão e um trampolim para uma forte IA Eliezer Yudkowsky é um colaborador comum lá e eu estava lendo recentemente este post quando eu deparei com esse comentário (vários outros bons comentários surgiram logo depois na página da postagem original).
Alguém pode comentar sobre a validade da refutação de Yudkowsky a Shalizi. Resumidamente, o argumento de Yudkowsky é que o mecanismo físico pelo qual um agente de raciocínio atualiza suas crenças exige trabalho e, portanto, tem um custo termodinâmico que Shalizi está varrendo para debaixo do tapete. Em outro comentário, Yudkowsky defende isso, dizendo:
"Se você considera a perspectiva de um observador perfeito logicamente onisciente fora do sistema, a noção de" entropia "é praticamente sem sentido, assim como a" probabilidade "- você nunca precisa usar a termodinâmica estatística para modelar qualquer coisa, apenas usa a precisão determinística equação de onda ".
Alguns probabilistas ou mecânicos estatísticos podem comentar sobre isso? Não me importo muito com argumentos da autoridade em relação ao status de Shalizi ou Yudkowsky, mas eu realmente gostaria de ver um resumo das maneiras pelas quais os três pontos de Yudkowsky oferecem críticas ao artigo de Shalizi.
Para estar em conformidade com as diretrizes da FAQ e fazer disso uma pergunta concretamente respondível , observe que estou solicitando uma resposta específica e detalhada que aceite o argumento de três etapas de Yudkowsky e indique onde, no artigo de Shalizi, essas três etapas refutam suposições e / ou derivações, ou, por outro lado, indica onde os argumentos de Yudkowsky são abordados no artigo de Shalizi.
Eu sempre ouvi o artigo de Shalizi ser apresentado como uma prova de ferro de que o bayesianismo subjetivo completo não pode ser defendido ... mas depois de ler o artigo de Shalizi algumas vezes, parece-me um argumento de brinquedo que nunca poderia ser aplicado para um observador interagindo com o que está sendo observado (isto é, com toda a física real). Mas Shalizi é um ótimo pesquisador, então eu gostaria de receber uma segunda opinião, porque é muito provável que eu não entenda partes importantes desse debate.
Respostas:
Em resumo: 1: 0 para Yudkowsky.
Cosma Shalizi considera uma distribuição de probabilidade sujeita a algumas medições. Ele atualiza as probabilidades de acordo (aqui não é importante se for a inferência bayensiana ou qualquer outra coisa).
Não surpreende nada, a entropia da distribuição de probabilidade diminui.
No entanto, ele conclui erradamente que diz algo sobre a flecha do tempo:
Como foi apontado nos comentários, o que importa para a termodinâmica é a entropia de um sistema fechado . Ou seja, de acordo com a segunda lei da termodinâmica , a entropia de um sistema fechado não pode diminuir. Não diz nada sobre a entropia de um subsistema (ou sistema aberto); caso contrário, você não poderá usar sua geladeira.
E uma vez que medimos o sth (isto é, interagem e coletamos informações), não é mais um sistema fechado. Ou não podemos usar a segunda lei, ou - precisamos considerar um sistema fechado feito do sistema medido e do observador (ou seja, nós mesmos).
Em particular, quando medimos o estado exato de uma partícula (enquanto antes conhecíamos sua distribuição), na verdade abaixamos sua entropia. No entanto, para armazenar as informações, precisamos aumentar nossa entropia pelo menos na mesma quantidade (normalmente há uma sobrecarga enorme).
Então, Eliezer Yudkowsky faz um bom argumento:
Na verdade, a observação sobre o trabalho não é a mais importante aqui. Enquanto a termodinâmica é sobre relacionar (ou negociar) entropia com energia, você pode se locomover (ou seja, não precisamos recorrer ao princípio de Landauer , do qual Shalizi é cético ). Para reunir algumas informações novas, você precisa apagar as informações anteriores.
Para ser consistente com a mecânica clássica (e também com o quantum), não é possível criar uma função que mapeie arbitrariamente qualquer coisa para todos os zeros (sem efeitos colaterais). Você pode criar uma função mapeando sua memória para zero , mas ao mesmo tempo despejando as informações em algum lugar, o que aumenta efetivamente a entropia do ambiente.
(O exposto acima se origina da dinâmica hamiltoniana - isto é, preservação do espaço de fase no caso clássico e unitariedade da evolução no caso quântico.)
PS: Um truque para hoje - "reduzir a entropia":
fonte
A falha de Shalizi é muito básica e deriva da suposição I, de que a evolução do tempo é invertível (reversível).
A evolução temporal dos estados INDIVIDUAIS é reversível. A evolução temporal de uma distribuição sobre TODO O ESPAÇO DE FASE certamente não é reversível, a menos que o sistema esteja em equilíbrio. O artigo trata a evolução temporal das distribuições em todo o espaço de fase, e não nos estados individuais, e, portanto, a suposição de invertibilidade é totalmente anti-física. No caso de equilíbrio, os resultados são triviais.
A flecha do tempo vem desse fato, na verdade, que a evolução das distribuições no tempo não é reversível (a razão pela qual os gradientes diminuem e os gases se espalham). Sabe-se que a irreversibilidade surge de 'termos de colisão'
Se você levar isso em consideração, o argumento dele se desfaz. Entropia da informação = entropia termodinâmica, ainda, por enquanto. : D
fonte
O artigo vinculado assume explicitamente que
Mas se você usar o QM da maneira convencional, essa suposição não se aplica. Suponha que você tenha um estado X1 que pode evoluir para X2 ou X3 com igual probabilidade. Você diria que o estado X1 evolui para o conjunto ponderado [1/2 X2 + 1/2 X3]. Shalizi prova que esse conjunto não tem mais entropia do que X1.
Mas nós, como observadores ou como parte desse sistema, apenas olhamos para um dos ramos, X2 ou X3. Escolher qual desses dois ramos examinamos adiciona um pouco de nova entropia, e essa seleção não é invertível. É daí que vem o aumento da entropia com o tempo. O que Shalizi fez é usar a matemática na qual toda entropia se origina na ramificação quântica e depois esquecer que a ramificação quântica acontece.
fonte