Parece-me que uma questão extremamente relevante para as perspectivas da computação quântica seria como a complexidade da engenharia de sistemas quânticos se ajusta ao tamanho. Ou seja, é mais fácil de construir 1 computadores -qubit de um n computador -qubit. Em minha mente, este é aproximadamente análogo ao fato de que é mais fácil de resolver analiticamente n 1 problemas -Body do que um n -Body problema, já que o entrelaçamento é o fator motivador principal por trás quântico de computação em primeiro lugar.
Minha pergunta é a seguinte: Parece que deveríamos realmente nos preocupar com como a "dificuldade" de construir e controlar um sistema quântico de corpos é aumentada com n . Corrigir uma arquitetura de porta, ou mesmo um algoritmo - existe uma dificuldade em princípio decorrente do fato de um computador com qubit de n ser um problema quântico de muitos corpos? E, matematicamente falando, nossa compreensão de como os fenômenos quânticos se transformam em fenômenos clássicos é bastante pobre? Aqui, a dificuldade pode ser definida de várias maneiras, e a questão com a qual nos importamos é aproximadamente controlar uma máquina de 1000 qubit (ou seja, preservar a coerência de suas funções de onda) 'meramente' 100 x mais difícil do que controlar umaMáquina de 10 qubit, ou 100 2 ou 100 ! ou 100 100 ? Temos alguma razão para acreditar que é mais ou menos o primeiro, e não o último?
fonte
Respostas:
Esta é uma pergunta em que venho pensando há mais de 10 anos. Em 2008 eu era estudante e disse ao meu professor de computação quântica que queria estudar a "complexidade física" da execução de algoritmos quânticos para os quais se sabia que a "complexidade computacional" se beneficiava da computação quântica.
Por exemplo, a pesquisa Grover requer portões quânticos em oposição aO(n)portões clássicos, mas e se o custo de controlar portões quânticos escalar comon4,enquanto para portões clássicos é apenasn?O(n−−√) O(n) n4 n
Ele respondeu instantaneamente:
Estas são as etapas que você precisa seguir:
Agora você pode ver por que você veio aqui para fazer a pergunta e a resposta não estava em nenhum livro:
O passo 1 depende do tipo de implementação (NMR, Photonics, SQUIDS, etc.) O
passo 2 é muito difícil. A dinâmica livre de descoerência foi simulada sem aproximações físicas para 64 qubits , mas atualmente a dinâmica não-markoviana e não-perturbativa com descoerência está atualmente limitada a 16 qubits .
O passo 4 depende do algoritmo. Portanto, não há "escala universal" de complexidade física, mesmo se estiver trabalhando com um tipo específico de implementação (como NMR, Photonics, SQUIDs etc.). A
etapa 5 depende da escolha do código de correção de erro
Portanto, para responder especificamente às suas duas perguntas:
Depende da sua escolha na Etapa 1 , e ninguém foi capaz de percorrer as Etapas 1 a 3 ainda para obter uma fórmula precisa para a complexidade física em relação ao número de qubits, mesmo para um algoritmo específico. Portanto, essa ainda é uma questão em aberto, limitada pela dificuldade de simular a dinâmica do sistema quântico aberto.
fonte
Complexidade do circuito
Penso que a primeira questão é realmente entender o que se entende por 'controlar' um sistema quântico. Para isso, pode ajudar a começar a pensar no caso clássico.
Decoerência
Após os comentários,
Isso se divide em dois regimes. Para dispositivos quânticos de pequena escala, antes da correção de erros, você pode dizer que estamos no regime NISQ . Essa resposta é provavelmente mais relevante para esse regime. No entanto, à medida que o seu dispositivo aumenta, haverá retornos decrescentes; fica cada vez mais difícil realizar a tarefa de engenharia apenas para adicionar mais alguns qubits.
O que é realmente atraente é ver como os coeficientes nessas relações mudam à medida que o erro do seu portão se aproxima cada vez mais do limite de correção de erros. Parece que não consigo impor minhas mãos em um cálculo adequado (tenho certeza de que Andrew Steane fez um em algum momento. Possivelmente foi uma palestra em que fui.), Mas eles explodem muito, então você quer estar operando com uma margem decente abaixo do limite.
Dito isto, há algumas suposições que precisam ser feitas sobre sua arquitetura antes que essas considerações sejam relevantes. Por exemplo, tem que haver paralelismo suficiente; você deve ser capaz de agir em diferentes partes do computador simultaneamente. Se você fizer apenas uma coisa de cada vez, sempre ocorrerão erros muito rapidamente. Você também deseja ampliar seu processo de fabricação sem que as coisas piorem. Parece que, por exemplo, qubits supercondutores serão muito bons para isso. O desempenho deles depende principalmente da precisão com que você pode criar diferentes partes do circuito. Você acertou em uma e pode "apenas" repetir várias vezes para fazer muitos qubits.
fonte
Portanto, de certa forma, a "fidelidade" poderia fornecer uma estimativa de quão propenso a erros o processador é. Se você usasse o computador quântico para calcular, por exemplo, a dinâmica da reação química, ou qualquer outro problema, que pudesse usar superposição para obter uma aceleração quântica (ou mesmo "supremacia quântica" eventualmente)), você seria impactado pela descoerência ou até mesmo pela rapidez com que obtém uma superposição. , poderia desempenhar um papel na operação sem erros. "Fidelidade" pode fornecer uma estimativa de erro, se usamos 1 qubit, ou se diz 200 qubits. Você pode até "projetar" um Hamiltoniano, para fornecer qubits de alta fidelidade, no caso adiabático, onde ocorrem erros de vazamento.
Observe que, na prática, taxas de erro de 99,5% + são altamente desejáveis, para facilitar a correção eficiente de erros. As taxas de erro podem ser do tipo de leitura de elétrons entre qubits e precisão. Nesse caso, taxas de erro de 99,5% ou 99,8% (confiança do tipo cinco ou seis sigma) exigiriam menos custos indiretos (correção de erros) ao dimensionar o sistema.
fonte