Como alguém que é bacharel em física, fiquei um pouco escandalizado quando comecei a trabalhar com simulações moleculares. Foi um pouco chocante descobrir que mesmo as simulações mais detalhadas e computacionalmente caras não podem reproduzir quantitativamente todo o comportamento da água a partir dos primeiros princípios.
Anteriormente, eu tinha a impressão de que as leis básicas da mecânica quântica eram um problema resolvido (além da gravidade, que geralmente se supõe irrelevante em escala molecular). No entanto, parece que uma vez que você tenta escalar essas leis e aplicá-las a algo maior ou mais complexo que um átomo de hidrogênio, seu poder preditivo começa a quebrar.
Do ponto de vista matemático, entendo que as funções de onda rapidamente se tornam muito complicadas para resolver e que aproximações (como Born-Oppenheimer) são necessárias para tornar as funções de onda mais tratáveis. Entendo também que essas aproximações introduzem erros que se propagam cada vez mais à medida que o tempo e as escalas espaciais do sistema em estudo aumentam.
Qual é a natureza do maior e mais significativo desses erros de aproximação? Como posso obter uma compreensão intuitiva desses erros? Mais importante, como podemos avançar para um método ab-initio que nos permita simular com precisão moléculas inteiras e populações de moléculas? Quais são os maiores problemas não resolvidos que estão impedindo as pessoas de desenvolver esses tipos de simulações?
Respostas:
Tanto quanto sei, os métodos mais precisos para cálculos estáticos são a interação de configuração completa com um Dirac Hamiltonian de quatro componentes totalmente relativístico e um conjunto de bases "suficientemente completo". Eu não sou especialista nessa área em particular, mas pelo que sei do método, resolvê-lo usando um método variacional (em vez de um método baseado em Monte-Carlo) aumenta muito, pois acho que o número de determinantes de Slater que você tem para incluir em sua matriz dimensiona algo como . (Há um artigo sobre o custo computacional aquiO (no r b sCne) .) Os métodos de Monte-Carlo relacionados e os métodos baseados neles usando "andadores" e redes de determinantes podem fornecer resultados mais rapidamente, mas, como está implícito acima, não são variacionais. E ainda são terrivelmente caros.
As aproximações atualmente em uso prático apenas para energias de mais de dois átomos incluem:
Para dinâmica, muitas das aproximações referem-se a coisas como o tamanho limitado de um sistema tratável e a opção prática de escalonamento de tempo - são coisas bastante padrão no campo de simulação numérica de tempo. Também há manutenção de temperatura (consulte termostatos Nose-Hoover ou Langevin). No entanto, isso é principalmente um conjunto de problemas de mecânica estatística, como eu o entendo.
De qualquer forma, se você tem uma mente física, pode ter uma idéia muito boa do que é negligenciado observando as formulações e os papéis sobre esses métodos: os métodos mais comumente usados terão pelo menos um ou dois papéis que não são a especificação original explicando sua formulação e o que ela inclui. Ou você pode apenas conversar com pessoas que os usam. (As pessoas que estudam sistemas periódicos com DFT estão sempre resmungando sobre o que os diferentes funcionais fazem e não incluem e explicam.) Muito poucos dos métodos têm omissões surpreendentes específicas ou modos de falha. O problema mais difícil parece ser o tratamento adequado da correlação eletrônica, e qualquer coisa acima do método Hartree-Fock, que não explica nada disso, é uma tentativa de incluí-lo.
Pelo que entendi, obter a precisão do IC relativístico completo com conjuntos completos de bases nunca será barato sem reinventar dramaticamente (ou jogar fora) os algoritmos que usamos atualmente. (E para as pessoas que dizem que DFT é a solução para tudo, estou aguardando suas formulações de densidade pura sem orbitais.)
Há também o problema de que quanto mais preciso você faz sua simulação, incluindo mais contribuições e formulações mais complexas, mais difícil é realmente fazer alguma coisa. Por exemplo, o acoplamento de órbita de rotação às vezes é evitado apenas porque torna tudo mais complicado de analisar (mas às vezes também porque tem efeito desprezível), e os orbitais canônicos Hartree-Fock ou Kohn-Sham podem ser bastante úteis para entender os recursos qualitativos de um sistema sem estratificar a saída adicional de métodos mais avançados.
(Espero que algo disso faça sentido, provavelmente seja um pouco irregular. E provavelmente perdi a aproximação ou a coisinha favorita de alguém.)
fonte
A questão principal será que, além do aumento da potência computacional, você precisará criar algoritmos melhores que possam derrubar o expoente 3.7 para algo mais gerenciável.
fonte
O problema é amplamente equivalente à diferença entre computadores clássicos e computadores quânticos. Computadores clássicos trabalham com valores únicos de uma só vez, pois apenas um futuro / histórico é possível para uma entrada determinística. No entanto, um computador quântico pode operar em todas as entradas possíveis simultaneamente, porque pode ser colocado em uma superposição de todos os estados possíveis.
Da mesma forma, um computador clássico precisa calcular todas as propriedades individualmente, mas o sistema quântico que está simulando possui todas as leis do universo para calcular todas as propriedades simultaneamente.
O problema é exacerbado pela maneira como temos que passar dados quase em série através de uma CPU, ou no máximo alguns milhares de CPUs. Por outro lado, o universo tem um conjunto quase ilimitado de cálculos simultâneos acontecendo ao mesmo tempo.
Considere como exemplo 3 elétrons em uma caixa. Um computador precisa escolher um passo no tempo (primeira aproximação) e continuar recalcular as interações de cada elétron entre si, por meio de um número limitado de CPUs. Na realidade, os elétrons têm um número incognoscível de partículas de troca reais e virtuais em trânsito, sendo absorvidos e emitidos, como um processo contínuo. Cada partícula e ponto no espaço tem alguma interação acontecendo, o que precisaria de um computador para simular.
Simulação é realmente a arte de escolher suas aproximações e seus algoritmos para modelar o assunto da melhor maneira possível com os recursos disponíveis. Se você quer perfeição, receio que seja a matemática de galinhas esféricas nos aspiradores; só podemos simular perfeitamente o muito simples.
fonte
Não sei se o seguinte ajuda, mas para mim foi muito esclarecedor visualizar o comportamento de escala dos sistemas quânticos:
O principal problema vem do fato de que o espaço de Hilbert dos estados quânticos cresce exponencialmente com o número de partículas. Isso pode ser visto com muita facilidade em sistemas discretos. Pense em um par de poços em potencial que estão conectados entre si, podem apenas dois: poço 1 e poço 2. Agora adicione bósons (por exemplo, Rubidium 87, apenas como exemplo), primeiro apenas um. Quantos vetores de base possíveis existem?
Agora, suponha que o bóson possa saltar (ou escavar um túnel) de um poço para o outro. O Hamiltoniano que descreve o sistema pode então ser escrito como notação matricial, como
Ondeϵ1 , 2 | 1 , 0 ⟩ | 0 , 1 ⟩
Esse problema é tão simples que pode ser resolvido manualmente.
Agora, suponha que tenhamos mais poços em potencial e mais bósons, por exemplo, no caso de quatro poços com dois bósons, há 10 possibilidades diferentes para distribuir os bósons entre os poços. Então o hamiltoniano teria 10x10 = 100 elementos e 10 eigenstates.
fonte
A teoria funcional da densidade é outra maneira de lidar com esse problema, mas é uma aproximação. É uma aproximação muito boa em alguns casos, mas em outros casos pode ser surpreendentemente ruim.
fonte
Penso que uma simulação altamente precisa da água foi o tópico de uma das primeiras e grandes simulações realizadas com o supercomputador Jaguar . Você pode examinar este artigo e seu trabalho de acompanhamento (que, a propósito, foi finalista do prêmio Gordon-Bell em 2009):
"Água líquida: obter a resposta certa pelas razões certas" , Aprà, Rendell, Harrison, Tipparaju, deJong, Xantheas.
fonte
Esse problema é resolvido pela teoria funcional de densidade. A essência está substituindo muitos graus de liberdade do corpo por vários campos, um deles sendo a densidade de elétrons. Para uma grande exposição, consulte a palestra nobel de um dos fundadores da DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf
fonte