Sua pergunta é sobre o modelo de verificação. Você pode encontrar vários recursos sobre métodos e padrões pesquisando Verificação e Validação ( Roache 1997 , 2002 , 2004 , Oberkampf & Trucano 2002 , Salari & Knupp 2000 , Babuska & Oden 2004 ), bem como o tópico mais amplo de Quantificação da Incerteza . Em vez de elaborar métodos, gostaria de destacar uma comunidade que assumiu uma posição firme sobre o assunto.
Em 1986, Roache, Ghia e White estabeleceram a Declaração de Política Editorial do Journal of Fluids Engineering sobre o Controle da Precisão Numérica, que começa com
Existe um problema profissional na comunidade da dinâmica dos fluidos computacional e também na área mais ampla da física computacional. Nomeadamente, há uma necessidade de padrões mais altos no controle da precisão numérica.
[...] O problema certamente não é exclusivo do JFE e teve um foco ainda mais acentuado na Conferência AFOSRHTTM-Stanford de 1980-81 sobre Fluxos Turbulentos Complexos. Concluiu-se que o Comitê de Avaliação da conferência considerou que, na maioria das submissões da conferência, era impossível avaliar e comparar a precisão de diferentes modelos de turbulência, pois não era possível distinguir erros de modelagem física de erros numéricos relacionados ao algoritmo e grade. Esse é especialmente o caso de métodos precisos de primeira ordem e métodos híbridos.
Eles concluem com diretrizes muito diretas:
O Journal of Fluids Engineering não aceitará para publicação nenhum artigo que relate a solução numérica de um problema de engenharia de fluidos que não atenda à tarefa de teste sistemático de erros de truncamento e estimativa de precisão.
[...] devemos deixar claro que um único cálculo em uma grade fixa não será aceitável , pois é impossível inferir uma estimativa de precisão desse cálculo. Além disso, os editores não considerarão um acordo razoável com dados experimentais como prova suficiente de precisão, especialmente se houver parâmetros ajustáveis envolvidos, como na modelagem de turbulência.
A versão atual contém um conjunto abrangente de critérios e representa um padrão que, na minha opinião, outros campos devem aspirar a corresponder. É vergonhoso que ainda hoje a conscientização sobre a importância da verificação do modelo esteja ausente em muitos campos.
Não existem tais padrões, pois as estimativas de erros confiáveis geralmente custam muito mais do que os cálculos aproximados.
Basicamente, existem quatro tipos de estimativas de erro:
(i) Análises teóricas comprovando que um método numérico é numericamente estável. Isso realmente não fornece uma barra de erro, pois a análise apenas garante que o erro cometido não seja pior que um erro quantificado nos argumentos de entrada. É suficiente para a maioria dos cálculos científicos, pois as entradas também são aproximadas, portanto, o erro cometido com um método numericamente estável não é pior do que ter usado uma entrada ligeiramente diferente (mas desconhecida). Os métodos numéricos mais conceituados são acompanhados de uma análise numérica, embora não seja possível encontrar nenhuma implementação que reporte mediante solicitação o chamado erro inverso resultante.
(ii) estimativas de erros assintóticos. Eles assumem que os produtos de todos os erros (erros de entrada, erros de arredondamento ou discretização sendo as fontes mais comuns) podem ser negligenciados (questionável se as funções forem muito não-lineares) e usar análise de sensibilidade para propagar erros de entrada. Juntamente com uma análise de estabilidade numérica, isso também pode capturar o efeito de erros de arredondamento ou de discretização. As barras de erro resultantes são tão confiáveis quanto a validade das suposições nas quais elas se baseiam. Usando ferramentas de diferenciação automática, o custo da estimativa de erro normalmente é um fator de 1 ou 2, além do custo da aproximação. Portanto, esse tipo de estimativa de erro é bastante frequente na prática.
[Editar] Por exemplo, o teorema de Oettli-Prager fornece estimativas de erros atrasados facilmente computáveis para a solução de sistemas lineares. A análise de sensibilidade diz que esses erros devem ser multiplicados pela norma da matriz inversa, que pode ser estimada usando o estimador de Hager (embutido nos estimadores de números de condição modernos).
(iii) Análise de erro estocástico: (CESTAC, http://www.sciencedirect.com/science/article/pii/0378475488900705) Isso é feito sobrecarregando todas as operações com uma variante estocástica correspondente que avalia três conjuntos de argumentos e depois adiciona um erro artificial de arredondamento aleatório. os três resultados finais são usados para calcular uma média e um desvio padrão da raiz quadrada de (soma dos quadrados dos desvios da média dividida por 2 = 3-1). Isso fornece uma estimativa de precisão bastante útil da parte do erro de arredondamento. No entanto, isso não leva em conta erros de discretização, que geralmente é o erro dominante nos cálculos ODE e PDE. O custo depende da linguagem de programação devido à sobrecarga na execução de operações sobrecarregadas. Supondo (o que quase nunca ocorre) que a sobrecarga não acarreta penalidade de tempo, o custo do resultado mais a estimativa de erro é um fator 3 em comparação ao cálculo apenas da aproximação.
(iv) Análise de intervalo: Isso fornece limites rigorosos para todas as fontes de erro, se feitos corretamente, mas, exceto em casos simples, requer muita experiência (ou software que o incorpora) para fazê-lo de uma maneira que os limites não superestimem severamente os erros reais . Um bom software de intervalo está disponível, entre outros, para álgebra linear (por exemplo, IntLab http://www.ti3.tu-harburg.de/rump/intlab/ ; custa um fator de cerca de 6 se a dimensão for grande) e otimização global (por exemplo, , COCONUT http://www.mat.univie.ac.at/~coconut/coconut-environment/; pode ser muito mais caro ou até mais barato que a otimização global aproximada, dependendo dos recursos do problema). Mas muitas outras classes de problemas fáceis de tratar com precisão aproximadamente (por exemplo, encerrando as trajetórias dos grandes planetas do sistema solar ao longo de 10 anos) estão completamente fora do alcance da atual geração de métodos de intervalo.
fonte
Tipo de. Existem limites de erro teóricos que foram derivados por analistas numéricos que geralmente superestimam e podem não ser tão úteis na prática, porque podem envolver informações difíceis de obter para problemas na prática. Um bom exemplo seria o limite de erros numéricos na solução de equações comuns, que você pode encontrar nos livros de Hairer e Wanner. O livro de Nick Higham, Precisão e estabilidade de algoritmos numéricos (talvez eu esteja um pouco desconfortável com o título) também fornece alguns limites de erro em operações numéricas comuns e algoritmos de álgebra linear. A literatura de análise numérica está repleta de tais limites.
Métodos de análise de intervalo também foram usados para calcular limites de erro; esses métodos são rigorosos e tendem a fornecer limites de erro mais fortes que os limites teóricos, mas esses métodos ainda podem superestimar o erro em um cálculo numérico. Esses métodos foram melhor explorados (até onde sei) em otimização global, mas também estão sendo utilizados na quantificação de incertezas. Arnold Neumaier escreveu pelo menos um livro sobre métodos de análise de intervalo e está melhor qualificado para comentar esse tópico em detalhes. Além de possíveis problemas de superestimação, os métodos de análise de intervalo exigem a necessidade de infraestrutura computacional adicional, que exige uma atualização dos grandes pacotes de simulação numérica existentes (como PETSc, Trilinos, CLAWPACK / PyClaw, etc.) ) para incluir aritmética de intervalo e diferenciação automática (para métodos baseados em Taylor). Pelo que vi, não há muitos pacotes de diferenciação automática e aritmética com intervalo permissivamente licenciados por aí, embora existam alguns. Mesmo assim, às vezes, essas bibliotecas têm funcionalidade limitada; tem sido difícil encontrar uma biblioteca aritmética de intervalo permissivamente licenciada (LGPL ou BSD) com funcionalidade semelhante a BLAS.
As estimativas de erro a posteriori podem ser obtidas com mais facilidade, mas não são rigorosas. Eu estou mais familiarizado com essas estimativas do trabalho em equações diferenciais ordinárias, mas elas também existem para muitos métodos usados para calcular soluções para equações diferenciais parciais.
Mais amplamente, métodos de quantificação de incertezas, como o uso de expansões de caos polinomiais, métodos de Monte Carlo ou outros métodos de amostragem, podem ser usados para quantificar a incerteza nos cálculos devido a variações nos parâmetros de entrada. Esses métodos devem poder fornecer algum tipo de "barra de erro" heurística devido a variações nos parâmetros, mas não fornecem limites rigorosos.
Acredito que você esteja absolutamente certo quando se trata de especificação de erros numéricos: a ciência computacional deve ser tão rigorosa na apresentação de seus resultados quanto as ciências físicas baseadas em experimentos. Há muito trabalho sendo realizado nessa área (sob os termos gerais "quantificação da incerteza" e "análise numérica"), e espero que barras de erro sejam incluídas ao discutir a maioria dos resultados computacionais em algum momento no futuro .
fonte
Além das outras respostas, há alguns pontos adicionais a serem considerados.
fonte