Existem estimativas sobre como a complexidade da engenharia quântica é dimensionada com o tamanho?

12

Parece-me que uma questão extremamente relevante para as perspectivas da computação quântica seria como a complexidade da engenharia de sistemas quânticos se ajusta ao tamanho. Ou seja, é mais fácil de construir 1 computadores -qubit de um n computador -qubit. Em minha mente, este é aproximadamente análogo ao fato de que é mais fácil de resolver analiticamente n 1 problemas -Body do que um n -Body problema, já que o entrelaçamento é o fator motivador principal por trás quântico de computação em primeiro lugar.n 1nn 1n

Minha pergunta é a seguinte: Parece que deveríamos realmente nos preocupar com como a "dificuldade" de construir e controlar um sistema quântico de corpos é aumentada com n . Corrigir uma arquitetura de porta, ou mesmo um algoritmo - existe uma dificuldade em princípio decorrente do fato de um computador com qubit de n ser um problema quântico de muitos corpos? E, matematicamente falando, nossa compreensão de como os fenômenos quânticos se transformam em fenômenos clássicos é bastante pobre? Aqui, a dificuldade pode ser definida de várias maneiras, e a questão com a qual nos importamos é aproximadamente controlar uma máquina de 1000 qubit (ou seja, preservar a coerência de suas funções de onda) 'meramente' 100 x mais difícil do que controlar umannn1000100Máquina de 10 qubit, ou 100 2 ou 100 ! ou 100 100 ? Temos alguma razão para acreditar que é mais ou menos o primeiro, e não o último?101002100!100100

Keith Rush
fonte
Ha, não sei o que a minha e era suposto levar a ...
Keith Corrida
Olá @KeithRush, também não falta algo na primeira frase? Ótima pergunta, a propósito.
MEE - Restabelece Monica
Absolutamente não duplicado, mas eu sinto que as respostas às duas perguntas estão profundamente ligadas: quantumcomputing.stackexchange.com/questions/1803/...
agaitaarino

Respostas:

8

Esta é uma pergunta em que venho pensando há mais de 10 anos. Em 2008 eu era estudante e disse ao meu professor de computação quântica que queria estudar a "complexidade física" da execução de algoritmos quânticos para os quais se sabia que a "complexidade computacional" se beneficiava da computação quântica.

Por exemplo, a pesquisa Grover requer portões quânticos em oposição aO(n)portões clássicos, mas e se o custo de controlar portões quânticos escalar comon4,enquanto para portões clássicos é apenasn?O(n)O(n)n4n

Ele respondeu instantaneamente:

"Certamente sua ideia de complexidade física dependerá da implementação"

nn

Estas são as etapas que você precisa seguir:



FnFn

E

Agora você pode ver por que você veio aqui para fazer a pergunta e a resposta não estava em nenhum livro:

O passo 1 depende do tipo de implementação (NMR, Photonics, SQUIDS, etc.) O
passo 2 é muito difícil. A dinâmica livre de descoerência foi simulada sem aproximações físicas para 64 qubits , mas atualmente a dinâmica não-markoviana e não-perturbativa com descoerência está atualmente limitada a 16 qubits .
O passo 4 depende do algoritmo. Portanto, não há "escala universal" de complexidade física, mesmo se estiver trabalhando com um tipo específico de implementação (como NMR, Photonics, SQUIDs etc.). A
etapa 5 depende da escolha do código de correção de erro

Portanto, para responder especificamente às suas duas perguntas:

100101002100!100100

Depende da sua escolha na Etapa 1 , e ninguém foi capaz de percorrer as Etapas 1 a 3 ainda para obter uma fórmula precisa para a complexidade física em relação ao número de qubits, mesmo para um algoritmo específico. Portanto, essa ainda é uma questão em aberto, limitada pela dificuldade de simular a dinâmica do sistema quântico aberto.

Temos alguma razão para acreditar que é mais ou menos o primeiro, e não o último?

n!n100n

user1271772
fonte
1
nρ(C2)nnρn
1
O que você quer dizer com "dinâmica infinitesimal"? O campo vetorial é determinado pela dinâmica avaliada em que ponto? Calcular a norma de quê (usando o campo tensor métrico Fisher)? Você quer dizer calcular a norma do campo vetorial? Parece ser uma boa ideia, mas se é o que eu acho que você quer dizer, que é observar a decoerência por tempo infinitesimal em t = 0, não sei o quanto isso é valioso como métrica, porque é preciso tempo para que a decoerência atinja sua força total, porque a força de decoerência é caracterizada pela função de resposta do banho, que é parte integrante de t.
User1271772
1
(Mn,g)nMnρTρMnr(ρ). Se você deseja supremo em todos os estados possíveis, faça a subida do gradiente. Isso fornece um limite muito grosseiro da taxa de decoerência, dado o campo vetorial que definiu a dinâmica. Isso pode ser usado para limitar a decoerência, mesmo em períodos maiores, devido a essa taxa vinculada.
AHusain
4

Complexidade do circuito

Penso que a primeira questão é realmente entender o que se entende por 'controlar' um sistema quântico. Para isso, pode ajudar a começar a pensar no caso clássico.

n2n222n2n/nk2n

nϵO(n2), controlar adequadamente uma máquina de 1000 qubit é meio 10000 vezes mais difícil do que controlar uma máquina de 10 qubit, no sentido de que você precisa protegê-la da descoerência por muito mais tempo, implementar muitos mais portões etc.

Decoerência

Após os comentários,

Vamos considerar um algoritmo específico ou um tipo específico de circuito. Minha pergunta pode ser reafirmada - há alguma indicação, teórica ou prática, de como o problema (de engenharia) de impedir a decoerência é escalado à medida que escalamos o número desses circuitos?

Isso se divide em dois regimes. Para dispositivos quânticos de pequena escala, antes da correção de erros, você pode dizer que estamos no regime NISQ . Essa resposta é provavelmente mais relevante para esse regime. No entanto, à medida que o seu dispositivo aumenta, haverá retornos decrescentes; fica cada vez mais difícil realizar a tarefa de engenharia apenas para adicionar mais alguns qubits.

pppp1%O(logϵ)ϵO(logϵ)fator de escala. Para números específicos, você pode estar interessado nos tipos de cálculos que Andrew Steane realizou: veja aqui (embora os números provavelmente possam melhorar um pouco agora).

O que é realmente atraente é ver como os coeficientes nessas relações mudam à medida que o erro do seu portão se aproxima cada vez mais do limite de correção de erros. Parece que não consigo impor minhas mãos em um cálculo adequado (tenho certeza de que Andrew Steane fez um em algum momento. Possivelmente foi uma palestra em que fui.), Mas eles explodem muito, então você quer estar operando com uma margem decente abaixo do limite.

Dito isto, há algumas suposições que precisam ser feitas sobre sua arquitetura antes que essas considerações sejam relevantes. Por exemplo, tem que haver paralelismo suficiente; você deve ser capaz de agir em diferentes partes do computador simultaneamente. Se você fizer apenas uma coisa de cada vez, sempre ocorrerão erros muito rapidamente. Você também deseja ampliar seu processo de fabricação sem que as coisas piorem. Parece que, por exemplo, qubits supercondutores serão muito bons para isso. O desempenho deles depende principalmente da precisão com que você pode criar diferentes partes do circuito. Você acertou em uma e pode "apenas" repetir várias vezes para fazer muitos qubits.

DaftWullie
fonte
1
Isto é essencialmente o que eu quis dizer, mas remover a complexidade algorítmica e focar na complexidade da engenharia - especialmente evitando a decoerência. Vamos considerar um algoritmo específico ou um tipo específico de circuito. Minha pergunta pode ser reafirmada - há alguma indicação, teórica ou prática, de como o problema (de engenharia) de impedir a decoerência é escalado à medida que escalamos o número desses circuitos?
Keith Rush
@KeithRush OK! Agora começo a entender o que você procura :) em essência, essa é a complexidade computacional da tolerância a falhas - quais são as despesas gerais de tempo e espaço para obter um certo número de qubits lógicos de alta qualidade - e é algo que as pessoas descobriram com muito cuidado. Vou tentar descobrir as informações relevantes amanhã, a menos que alguém me derrube.
DaftWullie
2

mn

Portanto, de certa forma, a "fidelidade" poderia fornecer uma estimativa de quão propenso a erros o processador é. Se você usasse o computador quântico para calcular, por exemplo, a dinâmica da reação química, ou qualquer outro problema, que pudesse usar superposição para obter uma aceleração quântica (ou mesmo "supremacia quântica" eventualmente)), você seria impactado pela descoerência ou até mesmo pela rapidez com que obtém uma superposição. , poderia desempenhar um papel na operação sem erros. "Fidelidade" pode fornecer uma estimativa de erro, se usamos 1 qubit, ou se diz 200 qubits. Você pode até "projetar" um Hamiltoniano, para fornecer qubits de alta fidelidade, no caso adiabático, onde ocorrem erros de vazamento.

Observe que, na prática, taxas de erro de 99,5% + são altamente desejáveis, para facilitar a correção eficiente de erros. As taxas de erro podem ser do tipo de leitura de elétrons entre qubits e precisão. Nesse caso, taxas de erro de 99,5% ou 99,8% (confiança do tipo cinco ou seis sigma) exigiriam menos custos indiretos (correção de erros) ao dimensionar o sistema.

user3483902
fonte