Suponha que o sistema linear a seguir seja dado que é o Laplaciano ponderado conhecido como positivo definido, com um espaço nulo unidimensional abrangido por , e a variação de conversão de , ou seja, não altera o valor da função (cuja derivada é ). As únicas entradas positivas de estão na diagonal, que é um somatório dos valores absolutos das entradas negativas fora da diagonal.
Descobri em um trabalho acadêmico altamente citado em seu campo que, embora seja diagonalmente dominante, métodos como o Gradiente Conjugado, Gauss-Seidl, Jacobi ainda poderiam ser usados com segurança para resolver . A lógica é que, devido à invariância da tradução, é seguro fixar um ponto (por exemplo, remova a primeira linha e coluna de e a primeira entrada de ), convertendo em uma matriz diagonalmente dominante. De qualquer forma, o sistema original é resolvido na forma completa de , com .
Esta suposição está correta e, em caso afirmativo, qual é a lógica alternativa? Estou tentando entender como a convergência dos métodos ainda se mantém.
Se o método de Jacobi é convergente com , o que se poderia afirmar sobre o raio espectral da matriz de iteração , onde é a matriz diagonal com entradas de na diagonal? É , portanto diferente das garantias gerais de convergência para ? Estou perguntando isso, já que os valores próprios dos A matriz laplaciana com as na diagonal deve estar no intervalo .ρ D - 1 ( D - L ) D L ρ ( D - 1 ( D - L ) ≤ 1 ρ ( D - 1 ( D - L ) ) < 1 D - 1 L [ 0 , 2 ]
Do trabalho original:
......................................
Em cada iteração, calculamos um novo layout (x (t +1), y (t + 1)) resolvendo o seguinte sistema linear: Sem perda de generalidade, podemos fixar a localização de um dos os sensores (utilizando o grau de liberdade de translação da tensão localizada) e obtêm uma matriz estritamente diagonal dominante. Portanto, podemos usar com segurança a iteração de Jacobi para resolver (8)
.......................................
Acima, a noção de "iteração" está relacionada ao procedimento de minimização subjacente e não deve ser confundida com a iteração de Jacobi. Portanto, o sistema é resolvido por Jacobi (iterativamente) e, em seguida, a solução é comprada no lado direito de (8), mas agora para outra iteração da minimização subjacente. Espero que isso esclareça o assunto.
Observe que eu achei Quais solucionadores lineares iterativos convergem para matrizes semidefinidas positivas? , mas estou procurando uma resposta mais elaborada.
Respostas:
A iteração Jacobi pode ser comprovada convergente.
A primeira coisa que você deve ter certeza é que , que é a condição para a existência de solução (presumo L = L T , caso contrário, você precisa c ∈ ( K e r L T ) ⊥ ), porque você disse V 0 : = K e r L = s p a n { 1 n } . Usaremos a convenção de que V 0cT1n=0 L=LT c∈(KerLT)⊥ V0:=KerL=span{1n} V0 é também a matriz com colunas sendo a base ortonormal dela. No seu caso, .V0:=1n/n−−√
Então, para os erros da iteração Jacobi no sistema original, você tem onde P : = I -
A citação a seguir é antiga e mantida apenas para referência. Veja depois para a nova prova.
Note-se que é o eigen-vector correspondente ao valor próprio uma de eu - D - 1 G . Com base na observação, chamamos o Teorema 2.1 de Autovalores de matrizes atualizadas de primeiro nível com algumas aplicações de Jiu Ding e Ai-Hui Zhou.V0 1 I−D−1L
Teorema 2,1 Vamos e v ser dois n vectores de coluna -dimensional tal que u é um vector próprio de uma associada com valores próprios λ 1 . Então, os autovalores de A + u v T são { λ 1 + u T v , λ 2 , … , λ n } contando a multiplicidade algébrica.u v n u A λ1 A+uvT {λ1+uTv,λ2,…,λn}
Em seguida, sabemos que os espectros de é o mesmo que eu - D - 1 L , excepto que o valor próprio 1 neste último é deslocado por - uma para o valor próprio zero no ex. Como ρ ( I - D - 1 L ) ⊂ ( - 1 , 1 ] , temos ρ ( ˜ S ) ⊂ ( - 1 , 1 ) .S~ I−D−1L 1 −1 ρ(I−D−1L)⊂(−1,1] ρ(S~)⊂(−1,1)
fonte
Os métodos de Krylov nunca usam explicitamente a dimensionalidade do espaço em que iteram; portanto, você pode executá-los em sistemas singulares, desde que mantenha as iterações no subespaço não nulo. Isso normalmente é feito projetando o espaço nulo em cada iteração. Há duas coisas que podem dar errado: a primeira é muito mais comum que a segunda.
Para resolver sistemas singulares usando o PETSc, consulte
KSPSetNullSpace()
. A maioria dos métodos e pré-condicionadores pode resolver sistemas singulares. Na prática, o pequeno espaço nulo para PDEs com condições de contorno de Neumann quase nunca é um problema, desde que você informe o solucionador de Krylov do espaço nulo e escolha um pré-condicionador razoável.Pelos comentários, parece que você está especificamente interessado em Jacobi. (Por que? Jacobi é útil como um multigrid suave, mas existem métodos muito melhores para usar como solucionadores.) Jacobi aplicado a não converge quando o vetor b tem um componente no espaço nulo de A , no entanto, o parte da solução ortogonal ao espaço nulo converge; portanto, se você projetar o espaço nulo de cada iteração, ele convergirá. Como alternativa, se você escolher um bec consistente e uma estimativa inicial, as iterações (na aritmética exata) não acumulam componentes no espaço nulo.Ax=b b A b
fonte