Eu estava pensando em como a natureza pode calcular com eficiência problemas ridículos (ou seja, PN) com facilidade. Por exemplo, um sistema quântico requer um vetor de elemento para representar o estado, onde é apenas o número de partículas. A natureza não precisa de mais tempo, apesar da natureza exponencial de "resolver" esse sistema de partículas.
Isso pode não ser uma suposição totalmente válida, mas o princípio de ação na física me faz pensar que a natureza sempre quer fazer as coisas da maneira mais fácil. Se isso não for verdade, então esta questão provavelmente é discutível.
Se descobrimos que a natureza NÃO era capaz de resolver alguns problemas com eficiência, isso significa que estamos condenados em termos de poder resolver problemas de PN em tempo polinomial? As leis da física são uma arma forte o suficiente para enfrentar P vs. NP? O inverso da primeira pergunta / afirmação também é verdadeiro (se a natureza pode fazê-lo, também deve haver uma maneira de fazê-lo)?
Respostas:
Aqui estão cinco comentários que podem ser úteis para você:
A crença atual é que, apesar da exponencialidade da função de onda, a mecânica quântica irá não vamos resolver os problemas NP-completos em tempo polinomial (embora notoriamente não vamos resolver certos problemas NP "especiais", como factoring e logaritmos discretos). A dificuldade básica é que, mesmo que uma solução para um problema de NP esteja "em algum lugar" na função de onda, isso não é útil se uma medição revelar apenas essa solução com probabilidade exponencialmente pequena. Para obter um algoritmo quântico útil , você precisa usar a interferência quântica para fazer com que a resposta correta seja observada com alta probabilidade, e só se sabe como obter uma aceleração exponencial dessa maneira (em comparação com o algoritmo clássico mais conhecido) para alguns problemas especiais como fatoração.
O princípio da ação não implica que a Natureza tenha poderes mágicos de minimização. A maneira mais fácil de entender isso é que qualquer lei física formulada em termos do princípio de ação também pode ser formulada em termos da evolução temporal comum de um estado, sem referência a qualquer coisa que esteja sendo minimizada.
Se P = NP, certamente problemas completos de NP podem ser resolvidos em tempo polinomial no universo físico, uma vez que existem computadores universais de Turing (você está usando um agora). No entanto, a direção inversa está longe de ser óbvia! Por exemplo, mesmo se você assumir P ≠ NP, ainda é logicamente possível (se muito improvável) que computadores quânticos possam resolver problemas de NP completos em tempo polinomial.
A mera suposição de que existem alguns problemas que não podemos resolver com eficiência, certamente não implica que problemas completos de NP devam estar entre esses problemas! (Talvez aconteça que a gravidade quântica nos permita resolver problemas completos de NP em tempo linear, mas os problemas completos do PSPACE ainda levam tempo exponencial ... :-D)
Por tudo que vale, meu dinheiro está firmemente na conjectura não apenas de que P ≠ NP, mas também que problemas completos de NP são intratáveis no universo físico - usando computadores quânticos, computadores analógicos, "computadores buracos negros" ou qualquer outro outro recurso. Para saber mais sobre minhas razões, você pode aproveitar o artigo antigo da pesquisa NP-complete Problems and Reality Physical
fonte
Esta pergunta é basicamente sobre o campo da computação natural, que tem muitos ângulos / direções interessantes. Aqui está um bom artigo de pesquisa: Fundamentos da computação natural: uma visão geral de de Castro.
também essas áreas são basicamente questões abertas no campo da computação e da física e sujeitas a um "princípio da incerteza" inerente, na medida em que é concebível que nunca sejam definitivamente respondidas por várias razões. existem muitos sistemas de computação física diferentes, novos são descobertos ao longo do tempo (por exemplo, a computação em DNA é uma área relativamente jovem), e não podemos ter certeza de que os encontramos todos [e por experiência / história é improvável que tenhamos].
também os limites extremos da física são aplicáveis [por exemplo, buracos negros errados etc.] e isso estende as teorias da física aos limites! (veja, por exemplo, "qual é o volume de informações" )? os físicos teóricos geralmente reconhecem que existem aspectos da realidade física que não são cobertos pelo conhecimento humano e pelos modelos [matemáticos], especialmente nos extremos.
existem algumas crenças fortemente defendidas / defendidas, possivelmente não prováveis entre os pesquisadores, para que possam ser chamadas de "teses" no mesmo sentido da tese de Church-Turing. [1] algumas autoridades se referem a uma tese de Church-Turing de "tempo polinomial" relacionada às suas perguntas. também existem referências à tese de CT forte:
ou a tese estendida de TC [Parberry] [3]:
em resumo, a pesquisa e a redação nesta área geral não são resolvidas; ativo / em andamento e sujeito a alta controvérsia. há alguma referência na wikipedia [4], mas de outra forma não vimos um bom artigo de pesquisa sobre o assunto, apenas muitos trabalhos diferentes que tendem a defender certos pontos de vista. observe também que há um debate / controvérsia atual muito forte no campo da computação em QM sobre viabilidade (ruído inerente grave) e viabilidade etc. [5]
[1] Física e tese de Church-Turing mathoverflow
[2] o que significaria refutar a tese da TC cstheory.se
[3] tese estendida de TC cstheory.se
[4] Variações da tese de Church-Turing , wikipedia
[5] Estado da arte e perspectivas da computação QM Dyakonov
fonte
Tive um professor de computação neural uma vez que apontou um excelente exemplo de como técnicas "analógicas" poderiam ser usadas em problemas embaraçosamente paralelos para reduzir o limite assintótico de uma computação:
Pegue um pacote de palitos de tamanhos diferentes. Existem muitas maneiras algorítmicas de classificar esse pacote de paus do maior para o menor com O (n * log (n)). Uma maneira "analógica" de classificar esse pacote de paus seria colocá-los em pé e deixar os paus descansar um fim em uma mesa (1 passo). Agora você tem todos os palitos com uma extremidade no mesmo nível contra a mesa. Pegue sua mão e coloque-a em cima - ela atingirá o máximo, remova o manche e repita para N passos. Este processo é O (N + 1), que é O (N). A chave aqui era empilhar as varas nas extremidades - uma solução massivamente paralela para ordenar as outras extremidades das varetas ao longo do eixo z (para cima).
Este é um experimento interessante e pode dar uma idéia de como as soluções analógicas podem reduzir o limite assintótico de um algoritmo de uma maneira simples. Duas advertências enormes aqui:
1) Não levamos um problema de NP a um problema de P com este exemplo (mais sobre isso mais tarde) e
2) se você usasse N processadores para classificar N itens, poderia classificar os números no tempo O (log n) (com uma grande constante), para que a redução não seja mágica. Às vezes, os recursos analógicos necessários resolvem um problema de maneira altamente paralela são baratos. Outro exemplo de recurso barato seria neurônios (biológicos) para aprendizado complexo e reconhecimento de padrões.
Os neurônios também podem colocar em perspectiva o NP => P aparente. Os problemas de NP são NP para encontrar a solução ideal . Você pode encontrar uma solução "suficientemente boa" no tempo P que funcione bem na natureza. O Evolution seleciona soluções altamente eficientes que são "suficientemente boas". Pense em como a pessoa comum é boa em identificar objetos em quase O (1) tempo. Isso ocorre porque há muito processamento paralelo em andamento, e seu cérebro nem sempre apresenta a solução ideal. Por exemplo, ilusões de ótica ou esquecer onde você coloca suas chaves (o que seria facilmente O (1) para um computador!).
Outro ponto com NP vs P na natureza: resolver o NP para encontrar a solução ideal não é o mesmo que identificar a solução ideal. A identificação de uma solução ideal para um problema de NP pode ser feita em tempo P. Novamente, o reconhecimento de uma solução "suficientemente boa" funcionará em vez de uma solução ideal. Tomemos o exemplo da dobragem de proteínas - este é um exemplo da natureza que faz todas as opções acima. Ele tira proveito das forças de interação molecular que funcionam em paralelo (não há necessidade do "algoritmo" natural de dobramento abordar um átomo de cada vez, como faz um algoritmo computacional). Além disso, não há garantia de que a solução (funcionalmente) ideal para a dobra de proteínas seja encontrada.
Existem muitos exemplos de doenças devido ao desdobramento de proteínas. Como o @PeterShor apontou às vezes, o algoritmo "natural" não funciona (levando a uma solução termodinamicamente ótima, mas não funcional). É aí que as proteínas acompanhantes entram - elas guiam a dobra para a forma funcional correta (um local termodinâmicomínimo). As proteínas formadas corretamente também interagem com outras proteínas para serem transportadas para o local correto, de modo que as "ruins" (onde o algoritmo heurístico realmente não resolveu o problema do NP) são frequentemente degradadas sem serem transportadas para lugar nenhum. Todos esses transportes e mecanismos de dobragem estão acontecendo com enormes tubos paralelos. Múltiplos mecanismos de transcrição e processamento estão convertendo simultaneamente DNA-> RNA-> Proteína em diferentes pontos da sequência de um gene. Cada célula do seu corpo está fazendo o mesmo (mas com diferentes mensagens químicas sobre o que produzir).
Então, resumindo: como a natureza faz isso? Truques e paralelismo. Geralmente, na verdade, não está transformando um problema de NP em P, apenas fazendo com que pareça fácil.
fonte