Pelo que entendi, existem duas categorias principais de métodos iterativos para resolver sistemas lineares de equações:
- Métodos estacionários (Jacobi, Gauss-Seidel, SOR, Multigrid)
- Métodos de Krylov Subespaço (Gradiente Conjugado, GMRES, etc.)
Entendo que a maioria dos métodos estacionários funciona relaxando (suavizando) iterativamente os modos de Fourier do erro. Pelo que entendi, o método de Gradiente Conjugado (método subespaço Krylov) funciona por "reforço" através de um conjunto ideal de instruções de pesquisa de competências da matriz aplicado ao th residual. Esse princípio é comum a todos os métodos do subespaço de Krylov? Caso contrário, como caracterizamos o princípio por trás da convergência dos métodos do subespaço de Krylov, em geral?
Respostas:
Em geral, todos os métodos de Krylov buscam essencialmente um polinômio pequeno quando avaliado no espectro da matriz. Em particular, o th residual de um método Krylov (com zero de estimativa inicial) pode ser escrita sob a forman
onde é algum polinômio monônico de grau n .Pn n
Se é diagonalizável, com A = V Λ V - 1 , temosUMA A = VΛ V- 1
No caso de ser normal (por exemplo, simétrico ou unitário), sabemos que κ ( V ) = 1. GMRES constrói esse polinômio através da iteração de Arnoldi, enquanto CG constrói o polinômio usando um produto interno diferente (consulte esta resposta para obter detalhes) . Da mesma forma, o BiCG constrói seu polinômio através do processo não simétrico de Lanczos, enquanto a iteração Chebyshev usa informações anteriores sobre o espectro (geralmente estimativas dos maiores e menores valores próprios para matrizes definidas simétricas).UMA κ ( V) = 1.
Como um exemplo interessante (motivado por Trefethen + Bau), considere uma matriz cujo espectro é este:
No MATLAB, eu construí isso com:
Se considerarmos o GMRES, que constrói polinômios que realmente minimizam o residual sobre todos os polinômios mônicos de grau , podemos prever facilmente o histórico residual observando o polinômio candidaton
que no nosso caso dá
para no espectro de Uma .z UMA
Agora, se rodarmos o GMRES em um RHS aleatório e compararmos o histórico residual com esse polinômio, eles deverão ser bastante semelhantes (os valores polinomiais candidatos são menores que o residual do GMRES porque ):∥ b ∥2> 1
fonte
Em normas
Como um adendo à resposta de Reid.Atcheson, gostaria de esclarecer algumas questões sobre normas. Na iteração, o GMRES encontra o polinômio P n que minimiza a n- 2 da quantidade residualnt h Pn 2
Suponha que seja SPD, então A induz uma norma e A - 1 também . EntãoUMA UMA UMA- 1
onde usamos o erro
Nitidez dos limites de convergência
Finalmente, há literatura interessante sobre os diferentes métodos de Krylov e sutilezas da convergência GMRES, especialmente para operadores não normais.
Nachtigal, Reddy e Trefethen (1992) Com que rapidez são as iterações não simétricas da matriz? (pdf do autor) fornece exemplos de matrizes para as quais um método supera todos os outros por um grande fator (pelo menos a raiz quadrada do tamanho da matriz).
Embree (1999) Qual é a descrição dos limites de convergência do GMRES? fornece uma discussão perspicaz em termos de pseudoespectra, que oferece limites mais nítidos e também se aplica a matrizes não diagonalizáveis.
Embree (2003) A tartaruga e a lebre reiniciam o GMRES (autor pdf)
Greenbaum, Pták e Strakoš (1996) Qualquer curva de convergência não crescente é possível para o GMRES
fonte
Métodos iterativos em poucas palavras:
Isso é bem explicado no livro de Youcef Saad sobre métodos iterativos .
fonte