DOCUMENTATION

Plus d'informations sur Gromacs sont disponibles ici : http://www.gromacs.org/About_Gromacs

Pour l'utiliser, il faut charger le module gromacs correspondant à la version désirée :

module load gromacs/gromacs-2023

Voici un exemple de script Slurm permettant de lancer Gromacs en parallèle sur 2 nœuds. Les développeurs préconisent entre 4 et 6 trheads OpenMP par tâche MPI :

#!/bin/bash

#SBATCH -N 2-2
#SBATCH --exclusive
#SBATCH --tasks-per-node=4
#SBATCH --cpus-per-task=6

module load gromacs/gromacs-2023

mpirun gmx_mpi mdrun -ntomp $SLURM_CPUS_PER_TASK -nsteps 100000 -resetstep 90000 -npme 1 -nstlist 400 -s topol.tpr

Cette version ayant été compilée pour fonctionner aussi sur GPU, il est possible que des messages concernant des composants Nvidia ou Cuda manquant apparaîssent. Ces messages sont sans incidence sur les calculs. Par exemple :

WARNING: Could not find any nv files on this host!

Voici un exemple de script Slurm permettant de lancer Gromacs sur un nœud GPU :

#SBATCH -N 1-1
#SBATCH -p publicgpu
#SBATCH --ntasks-per-socket=3
#SBATCH --cpus-per-task=2
#SBATCH --gres=gpu:4
#SBATCH --exclusive

module load gromacs/gromacs-2023

echo "Threads OpenMP : $SLURM_CPUS_PER_TASK"

mpirun gmx_mpi mdrun -v -ntomp $SLURM_CPUS_PER_TASK -nsteps 100000 -resetstep 90000 -nb gpu -bonded gpu -pme gpu -npme 1 -nstlist 400 -s topol.top

VERSIONS ET SCRIPTS D'INSTALLATION


TAGS