Skip to content

Latest commit

 

History

History

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 

README.md

Exercice 6 - Communication de tableaux

Cet exercice met en pratique non plus la communication d'un simple entier mais celle d'un tableau de type Numpy.

Warning

n'oubliez pas de charger Miniforges avant de commencer cet exercice.

source /gpfs/workdir/labotm/Installations/miniforges3/m2dfe_env.sh

Consignes

  1. Complétez la première communication bloquante pour l'échange d'un tableau d'entier

  2. Complétez maintenant la deuxième communication pour l'échange d'un tableau de float

  3. Exécutez le code en utilisant 4 processus :

mpirun -np 4 ./executable

Rappel

Vous pouvez utiliser l'exemple de script SLURM suivant pour exécuter votre code sur un noeud de Ruche :

#!/bin/bash
#SBATCH --job-name=master_dfe
#SBATCH --output=output
#SBATCH --error=error            # fichier qui réceptionne la sortie standard
#SBATCH --ntasks=1                # Nombre d'unité de calcul ou de processus MPI
#SBATCH --time=00:10:00           # Temps souhaité pour la réservation
#SBATCH --partition=cpu_short     # Partition des jobs rapides

source /gpfs/workdir/labotm/Installations/miniforges3/m2dfe_env.sh

mpirun -np 1 python3 main.py

Pour rappel, on exécute le script avec la commande sbatch :

sbatch launch.slurm

Vous pouvez modifier le paramètre --ntasks pour exécuter votre code avec plusieurs processus MPI.