MATÉRIEL
Au 10/06/2024, les ressources de calcul disponibles pour la communauté sont composées de 2,6 Po de stockage, de 130078 cœurs de calcul, 68 To de mémoire vive, le tout réparti sur 541 nœuds de calcul :
- 10 nœuds AMD Epyc Rome Zen2 7002 (2x24 cœurs, 128 ou 256 Go) ;
- 63 nœuds Intel Cascade Lake (2x16 cœurs, 128 ou 384 Go) ;
- 3 nœuds Intel Cascade Lake (2x8 cœurs, 128 Go) ;
- 127 nœuds Intel Skylake (2x12 cœurs, 96 ou 192 Go) ;
- 73 nœuds Intel Broadwell (2x14 cœurs, 128 ou 256 Go) ;
- 35 nœuds Intel Haswell (2x8 cœurs, 64 ou 128 Go) ;
- 95 nœuds Intel Ivy Bridge (2x8 cœurs, 64 ou 128 Go) ;
- 166 nœuds Intel Sandy Bridge (2x8 cœurs, 64 Go) ;
- 4 nœuds Intel Sandy Bridge (2x6, 32 Go) ;
- 16 nœuds Intel Xeon Nehalem (2x6 cœurs, 24 Go) ;
- Certains de ces noeuds hébergent des accélérateurs GPU, pour un total de plus de 290, financés par Equipex et par mutualisation :
- 4 Tesla H100 (80 Go) ;
- 16 Tesla A100 (40 Go) ;
- 10 Tesla A40 (48 Go) ;
- 29 Quadro RTX 6000 (22,7 Go) ;
- 2 Quadro RTX 5000 (16,1 Go) ;
- 12 Tesla V100 SXM2 (NVLink - 32,5 Go) ;
- 14 Tesla V100 PCIe (32,5 Go) ;
- 64 Tesla P100 (16,2) ;
- 100 GTX 1080Ti (11,1 Go) ;
- 20 Tesla K80 (11,4 Go) ;
- 10 Tesla K40 (11,4 Go) ;
- 20 Tesla K20 (4,7 Go).
Tous les processeurs sont d'architecture x86_64. Chaque coeur de calcul est associé à 2, 4 ou 8 Go de mémoire vive.
Les nœuds de calcul sont interconnectés par des réseaux à haute-débit et faible latence pour les communications entre processus de calcul (par exemple MPI) :
- 8 Switch Intel Omni-Path 100 Gbps ;
- 12 Switch Mellanox InfiniBand 40 Gbps ou 100 Gbps ;
et connectés au cœur du réseau Ethernet du Data Center à 10 et 25 Gbps.
Le système mis à votre disposition est Red Hat 8.7.
Afin de permettre à tous l'accès équitable aux ressources de calcul, vous devez utiliser un système de files d'attente pour y soumettre vos travaux. Avantage : une fois que les ressources de calcul sont mises votre disposition, elles vous sont exclusivement réservées. Le système de files d'attente en place au Centre de Calcul de l'université s'appelle Slurm.
Pour le développement et l'expérimentation de vos applications, nous mettons à votre disposition un serveur frontal équipé de 28 cœurs et de 256 Go de RAM, qui vous permet d'avancer rapidement dans votre cycle de développement. Ainsi, vous n'utilisez le système de files d'attente que pour les codes stabilisés.
Les applications pré-installées sur le centre de calcul sont référencées ici.
MUTUALISATION
Le Centre de Calcul propose une offre de mutualisation des ressources qui permet aux laboratoires de l'Université d'acheter des nœuds de calcul, mais de les héberger au sein du cluster de calcul. Toute l'installation, la configuration et la maintenance des nœuds de calcul est ainsi assurée par l'équipe du CCUS. Les laboratoires ont alors un accès prioritaire aux nœuds qu'ils ont acheté, mais ces derniers restent en mode non prioritaire à la disposition de la communauté quand ils ne les utilisent pas. Les opérations de mutualisation ont permis l'acquisition d'une partie des ressources présentées ci-dessus :
- 274 nœuds CPU ;
- 108 GPUs dans 26 nœuds mutualisés ;
- 43 GPUs dans des nœuds GPU appartenant au CCUS.
Pour toute demande de mutualisation, vous pouvez contacter les membres de l'équipe ou ouvrir un ticket au support informatique, via le formulaire de contact ou par mail direct (dnum-cesar-support@unistra.fr) en précisant que la demande s'adresse au centre de calcul.