Gostaria de citar Nielsen & Chuang, Computação Quântica e Informação Quântica, edição do 10º aniversário, página 5 (grifo meu):
Uma classe de desafios para a forte tese de Church-Turing vem do campo da computação analógica. Nos anos desde Turing, muitas equipes diferentes de pesquisadores notaram que certos tipos de computadores analógicos podem resolver com eficiência problemas que se acredita não possuírem uma solução eficiente em uma máquina de Turing. À primeira vista, esses computadores analógicos parecem violar a forma forte da tese de Church-Turing. Infelizmente para o cálculo analógico, verifica-se que, quando são feitas suposições realistas sobre a presença de ruído em computadores analógicos, seu poder desaparece em todos os casos conhecidos; eles não conseguem resolver com eficiência problemas que não podem ser solucionados com eficiência em uma máquina de Turing.Esta lição - que os efeitos do ruído realista devem ser levados em consideração na avaliação da eficiência de um modelo computacional - foi um dos grandes desafios iniciais da computação quântica e da informação quântica, um desafio enfrentado com sucesso pelo desenvolvimento de uma teoria do erro quântico códigos de correção e computação quântica tolerante a falhas. Assim, diferentemente da computação analógica, a computação quântica pode, em princípio, tolerar uma quantidade finita de ruído e ainda manter suas vantagens computacionais.
É uma afirmação de que o ruído é escalado mais rapidamente do que uma potência do tamanho do problema ou alguém pode me indicar a direção certa para que eu possa descobrir mais sobre se esses limites de escala são fundamentais ou apenas um "problema de engenharia"?
Para ser claro, estou perguntando se os computadores analógicos não conseguem vencer as máquinas de Turing em eficiência devido ao ruído.
fonte
Respostas:
Em primeiro lugar, os autores parecem confundir duas teses diferentes: a tese de Church-Turing e a de Cook-Karp. O primeiro diz respeito ao que é computável, e o segundo diz respeito ao que é computável com eficiência .
De acordo com a tese de Cook-Karp, todos os modelos computacionais "fortes" razoáveis são polinomialmente equivalentes, no sentido de que todos se simulam polinomialmente. Equivalentemente, todo modelo computacional razoável pode ser simulado polinomialmente por uma máquina de Turing. Computadores quânticos são um contra-exemplo desta tese, pois parecem ser exponencialmente mais eficientes do que os computadores clássicos. No entanto, eles não são um contra-exemplo da tese de Church-Turing, ou seja, usando computadores quânticos, você não pode computar nada que já não possa computar com uma máquina de Turing. Também podemos formular uma tese atualizada de Cook-Karp, afirmando que todos os modelos computacionais fisicamente realizáveis são polinomialmente simulados por computadores quânticos.
Vários modelos físicos de computação foram propostos como desafiadores dessas teses, mas, sob exame minucioso, todos parecem não violar a tese de Church-Turing, ou não serem mais poderosos que a computação quântica. Scott Aaronson propõe considerar esta situação como uma "lei da natureza". No entanto, tanto quanto eu sei, não há argumentos teóricos que apóiem essas teses além do argumento indutivo de que todos os modelos propostos foram mostrados em conformidade com eles.
fonte
essa passagem (escrita há mais de uma década) é realmente essencial, invocando um pouco de conhecimento de fundo e antecipando muito bem algumas direções futuras de pesquisa. alude ao campo da hipercomputação, que às vezes está à margem do TCS, porque estuda modelos de computação que são supostamente "mais poderosos" do que as máquinas de Turing. o ponto interessante sobre as máquinas de Turing aqui é que elas não têm ruído; portanto, em certo sentido, a ciência da computação se baseia nessa idealização que, de certa forma, é fisicamente irrealista. e os sistemas eletrônicos imitam esse silêncio como um princípio de projeto, ele está sempre presente na dinâmica de chips de baixo nível, mas é abstraído de maneira muito eficaz nos projetos de nível superior que restringem todos os sinais elétricos aos bits ideais de 0/1. re isto:
parece que algumas de suas afirmações parecem prematuramente otimistas em retrospecto. é verdade que grandes quantidades de teoria foram criadas nos códigos de correção de erros de QM. no entanto, muito pouco foi testado e verificado experimentalmente. existem alguns cientistas / especialistas que suspeitam / levantam a hipótese de que possa haver leis físicas que exijam que o ruído seja dimensionado de maneira "ruim" para sistemas quânticos de n bits maiores. portanto, é uma área de pesquisa ativa e alguma controvérsia. na verdade, essa é uma área de disputa importante para dois projetos / abordagens de computação de QM, um dos sistemas DWave e outro do grupo Martinis UCSB / Google .
essa é a grande questão, não é? Para tentar responder a isso, considere que existem sistemas analógicos clássicos e os sistemas quânticos mais recentemente considerados . para sistemas clássicos, o consenso geral é o descrito por Nielsen / Chuang, segundo o qual existem modelos teóricos que "parecem" mais poderosos, mas quando o ruído é levado em consideração corretamente, essa "vantagem" teórica "derrete". em outras palavras, propor a existência de sistemas de computação analógicos "fundamentalmente teoricamente mais rápidos" do que os sistemas eletrônicos já construídos parece quase violar as leis da física / termodinâmica.
no entanto, a questão da computação QM é muito mais uma questão em aberto e depende (como eles antecipam um pouco) da natureza do ruído QM e se ele pode realmente ser experimentalmente / controlado, como foi proposto e está sob investigação ativa.
Há uma análise mais profunda dessas questões no artigo de Aaronsons, NP-complete Problems and Reality Physical . a visão cética pode ser encontrada em Perspectivas de Dyakonov para computação quântica: extremamente duvidosa .
fonte