Existem heurísticas para otimizar o método de relaxamento excessivo (SOR) sucessivo?

10

Pelo que entendi, o relaxamento excessivo sucessivo funciona escolhendo um parâmetro 0ω2 e usando uma combinação linear de uma iteração (quase) de Gauss-Seidel e o valor no timestep anterior ...

uk+1=(ω)ugsk+1+(1ω)uk

I estado 'quase' porque ugsk+1 inclui as últimas informações atualizadas de acordo com esta regra, a qualquer instante temporal. (observe que em ω=1 , isso é exatamente gauss-seidel).

De qualquer forma, li que na escolha ideal para (de modo que a iteração converge mais rapidamente do que qualquer outra) se aproxima de 2 para o problema de poisson, pois a resolução espacial se aproxima de zero. Existe uma tendência semelhante para outros problemas simétricos, diagonalmente dominantes? Ou seja, existe uma maneira de escolher o ômega de maneira ideal sem incorporá-lo a um esquema de otimização adaptável? Existem outras heurísticas para outros tipos de problemas? Que tipos de problemas o sub-relaxamento ( ) seria ideal?ω < 1ωω<1

Paulo
fonte
Não é bem a sua pergunta, mas veja Salakhutdinov e Roweis, Métodos de otimização de limites excessivamente adaptativos , 2003, 8p. ( Adaptive speedups têm alto estrondo per fanfarrão, mas são afaik impossível analisar, de modo off-topic aqui.)
denis

Respostas:

12

Jacobi úmido

Suponhamos que a matriz tem diagonal D . Se o espectro de D - 1 A estiver no intervalo [ a , b ] do eixo real positivo, a matriz de iteração de Jacobi com fator de amortecimento ω B Jacobi = I - ω D - 1 A possui espectro no intervalo [ 1 - ω b , 1 - ω a ] , minimizando o raio espectral com ω opt = 2ADD1A[a,b]ω

BJacobi=IωD1A
[1ωb,1ωa] fornece um fator de convergência de ρopt=1-2a
ωopt=2a+b
Seab, esse fator de convergência é muito ruim, como esperado. Observe que é relativamente fácil estimarbusando um método de Krylov, mas muito caro estimara.
ρopt=12aa+b=baa+b.
umabbuma

Relaxamento sucessivo (SOR)

D-1 1UMAμmaxEu-D-1 1UMAμmax<1 1

ωoptar=1 1+(μmax1 1+1 1-μmax2)2
ρoptar=ωoptar-1
ωoptarμmax1 1

Comentários

ω=1 1ω<1 1

D-1 1UMA

BSOR=1 1-(1 1ωD+eu)-1 1UMA
(1 1ωD+eu)-1 1UMA
Jed Brown
fonte
4
Concordo que não é mais 1950: o), no entanto, discordo que não faz sentido usar mais os solucionadores iterativos de papelaria. Podemos obter eficiência de livros didáticos multigrid usando um solucionador iterativo estacionário para um solucionador de aplicativos de engenharia baseado em solucionadores de superfícies livres não lineares de alta ordem (equações de fluxo e equador de Euler). A eficiência foi tão boa quanto um método de subespaço GMRES krylov pré-condicionado com precisão alcançável (nosso pub recente pode ser encontrado aqui emlinelibrary.wiley.com/doi/10.1002/fld.2675/abstract, servindo como prova de conceito).
Allan P. Engsig-Karup
11
Você está usando o Gauss-Seidel como uma solução mais suave para multigrid (que é onde os métodos como o SOR pertencem). Se o multigrid estiver funcionando bem, um método externo de Krylov também não será necessário (embora seu artigo não mostre essas comparações). Assim que o multigrid começa a perder eficiência (por exemplo, mais de 5 iterações para obter erros de discretização), geralmente vale a pena envolver um método de Krylov no ciclo multigrid.
perfil completo de Jed Brown
Todo o método é um p-multigrid com suavização do tipo GS; no entanto, o método completo pode ser escrito como um método iterativo estacionário, pois todos os operadores são constantes. Você pode visualizá-lo como um método Richardson pré-condicionado com M um pré-condicionador construído a partir do método multigrid. As análises foram feitas, mas ainda não foram publicadas. Na verdade, este trabalho foi na outra direção que você propõe. O método krylov neste trabalho (um GMRES) foi descartado e depois foi transformado em um método multigrid de alta ordem, pois descobrimos que era tão eficiente (e com requisitos de memória reduzidos).
Allan P. Engsig-Karup
php
Observe que, em smoothers multigrid, às vezes é preferível (permitindo a arquitetura), tornar o acoplamento de ordem alta / baixa multiplicativo. Isso também estende a formulação "pré-condicionada de Richardson". (Tive uma discussão em uma conferência na semana passada com um cara que queria ver essencialmente todos os métodos como Richardson pré-condicionado com iteração aninhada, o que não acho que seja um benefício particular sobre outras declarações de composição do solucionador. Não sei se é relevante para você, mas seus pontos de me lembrar da discussão).
Jed Brown