Qual é a relação entre P vs. NP e a capacidade da Natureza de resolver problemas de PN de maneira eficiente?

7

Eu estava pensando em como a natureza pode calcular com eficiência problemas ridículos (ou seja, PN) com facilidade. Por exemplo, um sistema quântico requer um vetor de elemento para representar o estado, onde é apenas o número de partículas. A natureza não precisa de mais tempo, apesar da natureza exponencial de "resolver" esse sistema de partículas.2nnn

Isso pode não ser uma suposição totalmente válida, mas o princípio de ação na física me faz pensar que a natureza sempre quer fazer as coisas da maneira mais fácil. Se isso não for verdade, então esta questão provavelmente é discutível.

Se descobrimos que a natureza NÃO era capaz de resolver alguns problemas com eficiência, isso significa que estamos condenados em termos de poder resolver problemas de PN em tempo polinomial? As leis da física são uma arma forte o suficiente para enfrentar P vs. NP? O inverso da primeira pergunta / afirmação também é verdadeiro (se a natureza pode fazê-lo, também deve haver uma maneira de fazê-lo)?


fonte
12
natureza pode eficientemente calcular problemas ridículos (ie NP) com facilidade - [carece de fontes?]
Jeffe
Bom, provavelmente não estou usando a terminologia certa para descrever o que estou pensando (ou não entendo o conceito ... ou ambos). Estou aberto a ser corrigido e iluminado. Obrigado.
ps: Acho que as respostas a esta pergunta também se aplicam à sua pergunta.
Kaveh
5
A natureza não pode resolver a dobragem de proteínas com facilidade ... ela precisa de ajuda. Procure acompanhantes moleculares .
quer
Há evidências de que essa intuição é enganosa, pois se baseia em pequenos casos de problemas e a solução da Natureza nem sempre é bem assintoticamente adequada. As bolhas de sabão pareciam resolver pequenos problemas de otimização, mas ficam presas no mínimo local em grande escala.
Vijay D

Respostas:

21

Aqui estão cinco comentários que podem ser úteis para você:

  1. A crença atual é que, apesar da exponencialidade da função de onda, a mecânica quântica irá não vamos resolver os problemas NP-completos em tempo polinomial (embora notoriamente não vamos resolver certos problemas NP "especiais", como factoring e logaritmos discretos). A dificuldade básica é que, mesmo que uma solução para um problema de NP esteja "em algum lugar" na função de onda, isso não é útil se uma medição revelar apenas essa solução com probabilidade exponencialmente pequena. Para obter um algoritmo quântico útil , você precisa usar a interferência quântica para fazer com que a resposta correta seja observada com alta probabilidade, e só se sabe como obter uma aceleração exponencial dessa maneira (em comparação com o algoritmo clássico mais conhecido) para alguns problemas especiais como fatoração.

  2. O princípio da ação não implica que a Natureza tenha poderes mágicos de minimização. A maneira mais fácil de entender isso é que qualquer lei física formulada em termos do princípio de ação também pode ser formulada em termos da evolução temporal comum de um estado, sem referência a qualquer coisa que esteja sendo minimizada.

  3. Se P = NP, certamente problemas completos de NP podem ser resolvidos em tempo polinomial no universo físico, uma vez que existem computadores universais de Turing (você está usando um agora). No entanto, a direção inversa está longe de ser óbvia! Por exemplo, mesmo se você assumir P ≠ NP, ainda é logicamente possível (se muito improvável) que computadores quânticos possam resolver problemas de NP completos em tempo polinomial.

  4. A mera suposição de que existem alguns problemas que não podemos resolver com eficiência, certamente não implica que problemas completos de NP devam estar entre esses problemas! (Talvez aconteça que a gravidade quântica nos permita resolver problemas completos de NP em tempo linear, mas os problemas completos do PSPACE ainda levam tempo exponencial ... :-D)

  5. Por tudo que vale, meu dinheiro está firmemente na conjectura não apenas de que P ≠ NP, mas também que problemas completos de NP são intratáveis ​​no universo físico - usando computadores quânticos, computadores analógicos, "computadores buracos negros" ou qualquer outro outro recurso. Para saber mais sobre minhas razões, você pode aproveitar o artigo antigo da pesquisa NP-complete Problems and Reality Physical

Rafael
fonte
11
Obrigado por responder Scott, sei que minha pergunta não foi muito bem formada (principalmente devido à ignorância). Seus comentários são úteis como ponto de partida para mais leituras e pesquisas, e obrigado por vincular esse artigo (na verdade, está respondendo a muitas sub-perguntas que eu também estava tendo).
3

Esta pergunta é basicamente sobre o campo da computação natural, que tem muitos ângulos / direções interessantes. Aqui está um bom artigo de pesquisa: Fundamentos da computação natural: uma visão geral de de Castro.

também essas áreas são basicamente questões abertas no campo da computação e da física e sujeitas a um "princípio da incerteza" inerente, na medida em que é concebível que nunca sejam definitivamente respondidas por várias razões. existem muitos sistemas de computação física diferentes, novos são descobertos ao longo do tempo (por exemplo, a computação em DNA é uma área relativamente jovem), e não podemos ter certeza de que os encontramos todos [e por experiência / história é improvável que tenhamos].

também os limites extremos da física são aplicáveis ​​[por exemplo, buracos negros errados etc.] e isso estende as teorias da física aos limites! (veja, por exemplo, "qual é o volume de informações" )? os físicos teóricos geralmente reconhecem que existem aspectos da realidade física que não são cobertos pelo conhecimento humano e pelos modelos [matemáticos], especialmente nos extremos.

existem algumas crenças fortemente defendidas / defendidas, possivelmente não prováveis ​​entre os pesquisadores, para que possam ser chamadas de "teses" no mesmo sentido da tese de Church-Turing. [1] algumas autoridades se referem a uma tese de Church-Turing de "tempo polinomial" relacionada às suas perguntas. também existem referências à tese de CT forte:

qualquer dispositivo de computação pode ser simulado por TMs com, na pior das hipóteses, uma desaceleração polinomial.

ou a tese estendida de TC [Parberry] [3]:

O tempo em todos os modelos de máquinas "razoáveis" é relacionado por um polinômio.

em resumo, a pesquisa e a redação nesta área geral não são resolvidas; ativo / em andamento e sujeito a alta controvérsia. há alguma referência na wikipedia [4], mas de outra forma não vimos um bom artigo de pesquisa sobre o assunto, apenas muitos trabalhos diferentes que tendem a defender certos pontos de vista. observe também que há um debate / controvérsia atual muito forte no campo da computação em QM sobre viabilidade (ruído inerente grave) e viabilidade etc. [5]

[1] Física e tese de Church-Turing mathoverflow

[2] o que significaria refutar a tese da TC cstheory.se

[3] tese estendida de TC cstheory.se

[4] Variações da tese de Church-Turing , wikipedia

[5] Estado da arte e perspectivas da computação QM Dyakonov

vzn
fonte
ver também o abrangente e fortemente citationed Computação em sistemas físicos, Stanford Encyclopedia of Philosophy
vzn
a boa notícia é que o universo e a física são altamente propícios à computação, e alguns acreditam nisso de uma maneira muito forte, de modo que seu pensamento é que o universo e a própria física são algorítmicos, ou um algoritmo, o chamado cenário da física digital . isso se origina com Fredkin com o desenvolvimento posterior da Wolfram e também pode ser visto nas perspectivas de QM, por exemplo, Wheeler "it from bit" .
vzn
mais evidências de teorias físicas incompletas feitas por humanos - a partícula crucial de Higgs, que é considerada análoga à cola subjacente do universo, só foi confirmada recentemente após décadas de especulação / pesquisa, grandes equipes de cientistas e mais de US $ 15 bilhões gastos no maior experimento científico já construído.
vzn
2

Tive um professor de computação neural uma vez que apontou um excelente exemplo de como técnicas "analógicas" poderiam ser usadas em problemas embaraçosamente paralelos para reduzir o limite assintótico de uma computação:

Pegue um pacote de palitos de tamanhos diferentes. Existem muitas maneiras algorítmicas de classificar esse pacote de paus do maior para o menor com O (n * log (n)). Uma maneira "analógica" de classificar esse pacote de paus seria colocá-los em pé e deixar os paus descansar um fim em uma mesa (1 passo). Agora você tem todos os palitos com uma extremidade no mesmo nível contra a mesa. Pegue sua mão e coloque-a em cima - ela atingirá o máximo, remova o manche e repita para N passos. Este processo é O (N + 1), que é O (N). A chave aqui era empilhar as varas nas extremidades - uma solução massivamente paralela para ordenar as outras extremidades das varetas ao longo do eixo z (para cima).

Este é um experimento interessante e pode dar uma idéia de como as soluções analógicas podem reduzir o limite assintótico de um algoritmo de uma maneira simples. Duas advertências enormes aqui:

1) Não levamos um problema de NP a um problema de P com este exemplo (mais sobre isso mais tarde) e

2) se você usasse N processadores para classificar N itens, poderia classificar os números no tempo O (log n) (com uma grande constante), para que a redução não seja mágica. Às vezes, os recursos analógicos necessários resolvem um problema de maneira altamente paralela são baratos. Outro exemplo de recurso barato seria neurônios (biológicos) para aprendizado complexo e reconhecimento de padrões.

Os neurônios também podem colocar em perspectiva o NP => P aparente. Os problemas de NP são NP para encontrar a solução ideal . Você pode encontrar uma solução "suficientemente boa" no tempo P que funcione bem na natureza. O Evolution seleciona soluções altamente eficientes que são "suficientemente boas". Pense em como a pessoa comum é boa em identificar objetos em quase O (1) tempo. Isso ocorre porque há muito processamento paralelo em andamento, e seu cérebro nem sempre apresenta a solução ideal. Por exemplo, ilusões de ótica ou esquecer onde você coloca suas chaves (o que seria facilmente O (1) para um computador!).

Outro ponto com NP vs P na natureza: resolver o NP para encontrar a solução ideal não é o mesmo que identificar a solução ideal. A identificação de uma solução ideal para um problema de NP pode ser feita em tempo P. Novamente, o reconhecimento de uma solução "suficientemente boa" funcionará em vez de uma solução ideal. Tomemos o exemplo da dobragem de proteínas - este é um exemplo da natureza que faz todas as opções acima. Ele tira proveito das forças de interação molecular que funcionam em paralelo (não há necessidade do "algoritmo" natural de dobramento abordar um átomo de cada vez, como faz um algoritmo computacional). Além disso, não há garantia de que a solução (funcionalmente) ideal para a dobra de proteínas seja encontrada.

Existem muitos exemplos de doenças devido ao desdobramento de proteínas. Como o @PeterShor apontou às vezes, o algoritmo "natural" não funciona (levando a uma solução termodinamicamente ótima, mas não funcional). É aí que as proteínas acompanhantes entram - elas guiam a dobra para a forma funcional correta (um local termodinâmicomínimo). As proteínas formadas corretamente também interagem com outras proteínas para serem transportadas para o local correto, de modo que as "ruins" (onde o algoritmo heurístico realmente não resolveu o problema do NP) são frequentemente degradadas sem serem transportadas para lugar nenhum. Todos esses transportes e mecanismos de dobragem estão acontecendo com enormes tubos paralelos. Múltiplos mecanismos de transcrição e processamento estão convertendo simultaneamente DNA-> RNA-> Proteína em diferentes pontos da sequência de um gene. Cada célula do seu corpo está fazendo o mesmo (mas com diferentes mensagens químicas sobre o que produzir).

Então, resumindo: como a natureza faz isso? Truques e paralelismo. Geralmente, na verdade, não está transformando um problema de NP em P, apenas fazendo com que pareça fácil.

dhj
fonte
O problema com a computação analógica é a precisão. Se você permitir números reais arbitrários em comprimentos de bastão, não poderá distinguir corretamente os bastões usando as mãos. Por outro lado (heh), problemas discretizadores também os tornam mais fáceis também em computadores digitais, veja, por exemplo, classificação de raiz. Também não acho que seja útil usar o Big-Oh ao falar de cérebros. O tamanho da entrada é limitado, tudo é O (1). Reconhecendo Waldo em uma imagem lotado demora mais do que em fundos em branco de qualquer maneira ...
Adriann
Bem, é claro que isso não era para ser um exemplo rigoroso de engenharia (veja artigo de @ScottAaronson, scottaaronson.com/papers/npcomplete.pdf para limites físicos). Foi um exemplo de como os recursos analógicos podem ser altamente paralelos e baratos. Em relação ao "Big Oh" dos cérebros: O OP estava curioso sobre o aparentemente "cálculo eficiente dos problemas de NP". Eu acho que você está apoiando o argumento que eu estava tentando enfatizar sobre Big Oh e o cérebro: os problemas de PN não estão sendo resolvidos pelo cérebro, são apenas aproximações heurísticas - tanto que às vezes falha nos problemas de O (1).
dhj
@dhj Obrigado por esta exposição, acho que responde a muitas perguntas subjacentes que tenho recebido. Se eu tivesse representante, eu daria um voto positivo.
usar o seguinte código