A versão 3.0 do padrão MPI excluiu formalmente a interface C ++ (ela foi descontinuada anteriormente). Embora as implementações ainda possam suportá-lo, os recursos novos no MPI-3 não possuem uma interface C ++ definida no padrão MPI. Consulte
Message Passing Interface - uma interface de programação paralela padrão e altamente portátil para sistemas de memória distribuídos.
A versão 3.0 do padrão MPI excluiu formalmente a interface C ++ (ela foi descontinuada anteriormente). Embora as implementações ainda possam suportá-lo, os recursos novos no MPI-3 não possuem uma interface C ++ definida no padrão MPI. Consulte
Eu tenho um aplicativo que pode ser trivialmente paralelizado, mas seu desempenho é em grande parte limitado a E / S. O aplicativo lê uma única matriz de entrada armazenada em um arquivo com tamanho geralmente de 2 a 5 GB (mas espero que esse número aumente no futuro). Um cálculo típico aplica a...
O que mais detesto no MPI é lidar com tipos de dados (isto é, mapas de dados / máscaras) porque eles não se encaixam muito bem com o C ++ orientado a objetos. boost::mpino entanto, apenas suporta o MPI 1.1 no site: O boost :: mpi é uma interface amigável em C ++ para a Interface de transmissão...
Estou paralelizando código para resolver numericamente um modelo de equilíbrio populacional em 5 dimensões. Atualmente, tenho um código paralelo MPICH2 muito bom no FORTRAN, mas à medida que aumentamos os valores dos parâmetros, as matrizes ficam muito grandes para serem executadas no modo de...
Normalmente, escrevo código serial e, quando o faço, escrevo testes de unidade com alguma estrutura de teste no estilo xUnit (MATLAB xUnit, PyUnit / nose ou estrutura de teste C ++ do Google). Com base em uma pesquisa superficial do Google, não tenho visto muito sobre como os profissionais...
Estou trabalhando em um problema que pode ser paralelo usando uma única operação mpi_allgather ou uma operação mpi_scatter e uma mpi_gather. Essas operações são chamadas dentro de um loop while, portanto, podem ser chamadas várias vezes. Na implementação com um esquema MPI_allgather, estou...
Estou tentando otimizar um aplicativo MPI com um padrão de comunicação altamente assíncrono. Cada classificação possui uma lista de itens a serem calculados e envia mensagens conforme necessário, se as entradas ou saídas residirem em uma classificação diferente. Além disso, cada classificação é...
Estou procurando referências credíveis informando quanto recursos os supercomputadores gastam em coordenar versus realizar um trabalho real relacionado a tarefas. Os recursos podem estar disponíveis para processamento, mas até Watts parece uma unidade válida. Acredito que um dos meus professores...
Qual a diferença entre esses dois métodos? Um problema pode ser resolvido por um método capaz de ser resolvido pelo outro? Ambos / ou um deles podem ser paralelos ao OpenMP e / ou
Pelo que entendi, a ordem na qual as mensagens MPI ponto a ponto sem bloqueio (Isend e Irecv) são recebidas é consistente com a ordem em que são enviadas. Existem técnicas para priorizar determinadas mensagens em detrimento de outras? Por exemplo, temos um algoritmo de vários níveis no qual as...
Eu tenho um monte de processos MPI trocando mensagens de solicitação para frente e para trás. Os processos não sabem quais outros processos enviarão a eles mensagens ou quantos. Diante dessa situação, quero uma maneira eficiente de saber se todos os outros processos se consideram concluídos no...
Em MPI, existe algum mecanismo interno para notificar um grupo de processos de que eles precisam para receber mensagens de outros processos? No meu aplicativo, todo processo precisa enviar dados para um grupo de processos com IDs de classificação conhecidos (que potencialmente são alterados a cada...
Qual é a política de várias transferências assíncronas sobrepostas no MPI? Eu tenho um programa com várias irecvoperações assíncronas abertas . Acho que as transferências que podem ocorrer (o correspondente isendfoi chamado) aguardam outras transferências que ainda não estão prontas (o...
Ao escrever código MPI 3.0, que deve passar argce argvà MPI_Initchamada ou não, e por quê? EDIT: Como a resposta de Bill Barth levantou algumas perguntas, quero fazer algumas observações: A aprovação argc/ argvnão é necessária desde o MPI 1.1. A pergunta é especificamente sobre por que deveria /...