Aller au contenu principal

Caractéristiques

Description matérielle

Le cluster HPC est composé de 238 nœuds pour un total de 6360 cœurs et 38 To de RAM, dont 2 nœuds équipés de GPU.

  • calcul CPU
 #nœudsCPU MemoireRéseau
362 x 12 cœurs à 2,3 GHz (Intel Xeon E5-2670v3)128 Go Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
642 x 12 cœurs à 2,2 GHz (Intel Xeon E5-2650v4)128 Go Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps
562 x 12 cœurs à 2,1 GHz (Intel Xeon Silver 4116)192 Go Omnipath FDR 100 Gbps, ethernet 10 Gbps
682 x 16 cœurs à 2,1 GHz (Intel Xeon Silver 4216)192 Go Omnipath FDR 100 Gbps, ethernet 10 Gbps
122 x 16 cœurs à 2,4 GHz (Intel Xeon Silver 4314)512 Go Omnipath FDR 100 Gbps, ethernet 10 Gbps
  • calcul GPU
 #nœudsCPU MemoireRéseauGPU
12 x 20 cœurs à 2,4 GHz (Intel Xeon Gold 6148)320 Go Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps2 GPU Nvidia RTX2080Ti (Turing, 12Go GDDR6) 
12 x 16 cœurs à 2,4 GHz (Intel Xeon Silver 4314)256 Go Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps2 GPU Nvidia A100-80G (Ampere, 80Go HBM2e) 

Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz

Pour plus de détails concernant les nœuds GPU voir ceci

  • autres nœuds
Type #nœudsCPU MemoireRéseauAutre
controlleur 1 2 x 12 cœurs (Intel Xeon E5-2670v3) 64 Go Infiniband QDR 40 Gbps, ethernet 10 Gbps et 1 Gbps Baies de disques SAS, 190 To utilisables
stockage BeeGFS52 x 4 cœurs (Intel Xeon E5-2407)48 GoOmnipath FDR 100 Gbps, Infiniband QDR 40 Gbps et ethernet 10 Gbps Baies de disques SAS, 290 To utilisables

-->

-->