Équipements et hébergement

GLiCID repose sur la fusion de cinq entités (voir ici ) qui disposaient de leurs équipements propres. GLiCID dispose actuellement de l'ensemble de ces anciens équipements et des nouveaux équipements acquis depuis 2021. À la fin du CPER 2021-2027, les anciens équipements seront en grande partie arrêtés et GLiCID ne disposera plus que de ses équipements acquis en propres sur les fonds État, CPER et PIA3.

Les anciens équipements sont installés dans la salle informatique de l'ECN, dans le datacenter de Nantes Université, et dans les salles informatiques de l'Université d'Angers et de Le Mans.

Les futurs équipements sont destinés à être installés dans le futur datacenter DaCaS, prévu pour sortir de terre début 2026. En attendant, la première tranche du CPER est installée dans la salle de l'ECN, à la place de l'ancien équipement (LIGER).

En résumé, GLiCID dispose actuellement de plus de 16300 cœurs de tous types, 100To de RAM, 80 GPU, 1.5Po de stockage rapide et 4Po de stockage tiède CEPH.

Équipements de calcul

Dernière mise à jour: 03/10/2023

Cluster Nautilus

  • Équipementier: Eviden (BULL-ATOS)
  • Date de mise en production: Octobre 2023
  • Lieu d'installation: salle ECN, puis datacenter DaCaS (début 2026)
  • Refroidissement: Direct Liquid Cooling
En résumé: 5376 cœurs AMD Genoa, 28To de RAM, 16 GPU A100-80Go, 8 GPU A40, réseau infiniband 100Go.

Série CPU Nombre de nœudsCœurs par Nœud RAM/NœudGPU/NœudRéseau
AMD Genoa (EPYC9424F)402x48384Go-Infiniband
AMD Genoa (EPYC9424F)82x48768Go-Infiniband
AMD Genoa (EPYC9424F)42x48768Go4 A100-80GoInfiniband
AMD Genoa (EPYC9424F)42x48768Go2 A40Infiniband

Cluster Phileas

Ce cluster fait partie du projet MesoNET.

  • Équipementier: Eviden (BULL-ATOS)
  • Date de mise en production: Décembre 2023
  • Lieu d'installation: salle ECN, puis datacenter DaCaS (début 2026)
  • Refroidissement: Direct Liquid Cooling
En résumé: 3072 cœurs Intel Sapphire rappids, 16To de RAM réseau infiniband 100Go.

Série CPU Nombre de nœudsCœurs par Nœud RAM/NœudGPU/NœudRéseau
Intel Sapphire rappids302x48256Go-Infiniband
Intel Sapphire rappids22x482To-Infiniband

Cluster Waves

  • Équipementier: ClusterVision, DELL et HPE
  • Date de mise en production puis ajout de matériels: mars 2016, 2019,2020,2022
  • Date d'arrêt de production: Extinction progressive de 2026 à 2030
  • Lieu d'installation: Datacenter Nantes Université
  • Refroidissement: air
En résumé: 6712 cœurs de plusieurs types, 66To de RAM, 24 GPU A100-40Go, 8 GPU A40, 18 GPU T4, réseaux OmiPath 100G et RoCE100.

Nom des machinesSérie CPUNombre de nœudsCœurs par Nœud RAM/NœudGPU/NœudRéseau
NazareIntel Xeon e5-2630-v412720128-Opa 100
Intel Xeon e5-2630-v4120512-Opa 100
CribbarIntel Xeon Silver 4114820128-RoCE 2x25
Intel Xeon Silver 41141220192-RoCE 2x25
Intel Xeon Silver 42101620128-RoCE 2x25
Intel Xeon Silver 42101220256-RoCE 2x25
Intel Xeon Silver 4210"R"2420128-RoCE 2x25
Intel Xeon Silver 4210"R"1420384-RoCE 2x25
Intel Xeon Silver 4210"R"220768-RoCE 2x25
BudBudIntel Xeon E5-2640 v42201282 K80Opa 100
Intel Xeon E5-2640 v41201282 P100Opa 100
Xeon silver 41141201921 P100Opa 100
Xeon silver 41141201921 P100Opa 100
Xeon silver 42105201924 T4Opa 100
Xeon silver 42104201922 A40Opa 100
AMD Epyc 73137322562 A100-40GoRoCE 100
AMD Epyc 73132325122 A100-40GoRoCE 100
CloudbreakAMD Epyc 72822432128-RoCE 2x25
AMD Epyc 72821232256-RoCE 2x25
AMD Epyc 7513464512-RoCE 100

Cluster BiRD

  • Équipementier: DELL et HPE
  • Date de mise en production: 2012
  • Lieu d'installation: Datacenter Nantes Université
  • Refroidissement: air
En résumé: 1116 cœurs de divers types, 8To de RAM, 9 GPU T4 réseaux Infiniband et RoCE.

Nom des machinesSérie CPUNombre de nœudsCœurs par Nœud RAM/NœudGPU/NœudRéseau
BiRD OLDAMD Opteron Processor 6276464256 Go-Infiniband
BiRD NEWIntel Xeon CPU E5-2660 v4828384 Go-Infiniband
OpenStack gen 1AMD Opteron Processor 6274864256 Go-Infiniband
OpenStack gpu gen 1Intel Xeon W-213342464 Go2 T4Infiniband
OpenStack gpu gen 2Intel Xeon Platinum 8260224192 Go4 T42x25
OpenStack gen 2AMD Opteron Processor 6274464512 Go-2x25 + 2x100

Cluster Liger

  • Équipementier: BULL-ATOS
  • Date de mise en production: 2015
  • Date d'arrêt de production: juin 2023

Cluster Loire

  • Équipementier: SGI
  • Date de mise en production: 2011
  • Date d'arrêt de production: novembre 2023

Équipements de stockage

Stockage chaud:

Les différents stockages sont montés sur tous les clusters.

Nom TechnologieVolumétrie Rattachement physique
scratch/nautilusNetApp450ToNautilus
scratch/WavesCEPH-ssd110ToWaves
scratch/BiRDBeeGFS437ToBiRD

Stockage tiède:

Nom TechnologieVolumétrie Rattachement physique
LabDATACEPH4Po-

Hébergements

À sa sortie de terre en 2026, l'ensemble des équipements de GLiCID acquis depuis 2022 seront installés dans le futur datacenter DaCaS.

En attendant, les équipements sont répartis dans les salles et datacenters historiques des quatre tutelles:

Datacenter NU

Le datacenter de Nantes Université est labellisé. Il dispose d'un ilôt HPC de 10 baies maximum, refroidies par air. Le PUE est de 1.4.

Salle ECN

La salle informatique de l'École Centrale Nantes dispose d'un ilôt HPC de 6 baies maximum, refroidies par eau (DLC). Le PUE de la partie DLC est 1.17.

Salle math NU

La salle informatique math, salle historique du CCIPL, dispose de 4 baies maximum, refroidies par air. Le PUE est de cette salle était de 1.4 en pleine production. Cette salle en en cours d'arrêt. Ses équipements HPC seront tous arrêtés en 2023. Il n'y restera qu'une demi-baie de stockage CEPH (moins de 3kW) jusqu'au début 2026, date de fermeture définitive de cette salle.