Nos métodos de decomposição de domínio (DD) e multigrid (MG), pode-se compor a aplicação das atualizações de bloco ou correções grosseiras como aditivas ou multiplicativas . Para solucionadores pontuais, essa é a diferença entre as iterações de Jacobi e Gauss-Seidel. O mais suave multiplicativo para atuando como é aplicado comoS ( x o l d , b ) = x n e w
e o aditivo mais suave é aplicado como
para algum amortecimento . O consenso geral parece ser o de que os multiplicadores têm propriedades de convergência muito mais rápidas, mas eu me perguntava: em que situações é melhor o desempenho das variantes aditivas desses algoritmos?
Mais especificamente, alguém tem algum caso de uso em que a variante aditiva deve e / ou apresenta desempenho significativamente melhor que a variante multiplicativa? Existem razões teóricas para isso? A maior parte da literatura sobre multigrid é bastante pessimista sobre o método Aditivo, mas é usada tanto no contexto do DD quanto o aditivo Schwarz. Isso também se estende à questão muito mais geral da composição de solucionadores lineares e não lineares, e que tipo de construção terá um bom desempenho e um bom desempenho em paralelo.
fonte
Para problemas de SPD, os métodos aditivos são melhores para a suavização de MG por várias razões, como já mencionado e mais algumas:
Os métodos multiplicativos, no entanto, têm as propriedades espectrais corretas prontas para uso em um MG mais suave, ou seja, eles não precisam de amortecimento. Isso pode ser uma grande vitória para problemas hiperbólicos em que a suavização polinomial não é muito agradável.
fonte
Vou reafirmar o que @Jed disse: O método Multiplicativo sempre converge pelo menos tão bem como o método Aditivo (assintoticamente), para que você ganhe apenas com base na simultaneidade, mas isso depende da arquitetura.
fonte