logo

Crowdly

Browser

Додати до Chrome

Algorithmes pour le calcul parallèle

Шукаєте відповіді та рішення тестів для Algorithmes pour le calcul parallèle? Перегляньте нашу велику колекцію перевірених відповідей для Algorithmes pour le calcul parallèle в moodle2024.uca.fr.

Отримайте миттєвий доступ до точних відповідей та детальних пояснень для питань вашого курсу. Наша платформа, створена спільнотою, допомагає студентам досягати успіху!

Dans la parallélisation de la méthode de Jacobi appliquée à l'équation de chaleur vue en cours, quel type de décomposition est susceptible d'être plus performante ?

0%
0%
0%
0%
Переглянути це питання

Soit monProg l'exécutable du programme suivant, et on l'exécute avec la commande mpirun -np 5  ./monProg. Donner l'espace mémoire occupé en nombre d'octets par Vect dans cette exécution en supposant qu'un int occupe 4 octets.

#include "mpi.h"

int main(int argc, char **argv) {

    int rang = -1, Vect[12]={0};

    MPI_Init( &argc, &argv );

    MPI_Comm_rank(MPI_COMM_WORLD, &rang);

    MPI_Finalize();

    return 0;

}

Переглянути це питання

En MPI, la communication point-à-point s'effectue entre :

0%
0%
0%
0%
Переглянути це питання

Corriger les erreurs du programme suivant :

  1. #include <stdio.h>
  2.  
  3. int main(int argc, char **argv){
  4.     int myRank, nbProcs;
  5.  
  6.     MPI_Comm_rank( MPI_COMM_WORLD, &myRank );
  7.     MPI_Comm_size( MPI_COMM_WORLD, &nbProcs);
  8.  
  9.     printf( " Hello from proc. %d/%d\n ", myRank, nbProcs);
  10.     MPI_Finalize();
  11.  
  12.     return 0;
  13. }
Переглянути це питання

La mesure du temps d'exécution avec la commande "mpirun -np 16 ./myprog" du programme suivant est-elle correcte ?

  1. #include <stdio.h>
  2. #include "mpi.h"
  3.  
  4. int main(int argc, int **argv) {
  5.     int myRank, nbProcs;
  6.     double start, execTime;
  7.  
  8.     MPI_init(&argc, &argv);
  9.     start = MPI_Wtime();
  10.     ……
  11.     execTime = MPI_Wtime()- start;
  12.     printf("Le temps d'execution du programme parallele est %lf\n", execTime);
  13.  
  14.     MPI_Finalize();
  15.     return 0;
  16. }
13%
88%
Переглянути це питання

Quel est le nombre de processus du communicateur "comm" après les lignes de code suivantes:

// on suppose toutes les variables déclarées

dim[0] = 4; dim[1] = 3;

period[0] = 1; period[1] = 0;

reorder = 1;

MPI_Cart_create(MPI_COMM_WORLD,2,dim,period,reorder, &comm); 

0%
0%
100%
0%
Переглянути це питання

Quelle est la topologie MPI après les lignes de code suivantes:

dim[0] = 4; dim[1] = 4;

period[0] = 1; period[1] = 0;

reorder = 1;

MPI_Cart_create(MPI_COMM_WORLD, 2, dim, period, reorder, &comm);

0%
0%
100%
0%
Переглянути це питання

Dans le bout de code MPI suivant, le schéma de communication s'exécute correctement pour 4 processus, vrai ou faux ?

// on suppose toutes las variables correctement déclarées

MPI_init(&argc, &argv);

MPI_Comm_rank(MPI_COMM_WORLD, &myRank);

...

if (myRank == 0){

    scanf("%d",&n);

   MPI_Bcast(&n,1,MPI_INT,0,MPI_COMM_WORLD);

}

else {

MPI_Recv(&n,1,MPI_INT,0,tag,MPI_COMM_WORLD,&status);

}

...

0%
0%
Переглянути це питання

La commande suivante lance le programme ./myprog

mpiexec  -hosts  turing,ada -np 8 ./myprog

0%
0%
0%
Переглянути це питання

Parmi les affirmations suivantes, choisir celle/celles qui convient/conviennent

100%
75%
0%
Переглянути це питання

Хочете миттєвий доступ до всіх перевірених відповідей на moodle2024.uca.fr?

Отримайте необмежений доступ до відповідей на екзаменаційні питання - встановіть розширення Crowdly зараз!

Browser

Додати до Chrome