Cette 63ᵉ édition du Top500 consacre une nouvelle fois le supercalculateur Frontier, mais le système Aurora, second de la liste, après avoir franchi la barrière des machines exascales, pourrait annoncer la fin du règne de Frontier. Le supercomputer Frontier de l'Oak Ridge National Laboratory (ORNL), dans le Tennessee, maintient sa position de leader avec un score HPL de 1,206 EFlop/s. Avec un total de 8 699 904 cœurs CPU et GPU combinés, le système Frontier est doté d'une architecture HPE Cray EX associant des puces AMD EPYC de 3ᵉ génération, optimisés pour le HPC et l'IA, à des accélérateurs AMB Instinct MI250X du même fournisseur. Le système s'appuie sur le réseau Slingshot 11 de Cray pour le transfert de données, et la machine a une efficacité énergétique de 52,93 GFlops/Watt situant le Frontier à la 13ᵉ place du Green500.
Dans ce même classement, le système Aurora de l'Argonne Leadership Computing Facility (Ill.) arrive en seconde position de ce Top500. Aurora est aussi la deuxième machine à franchir la barrière de l'exascale avec un score HPL de 1,012 EFlop/s, une nette amélioration par rapport au score de 585,34 PFlop/s de la précédente édition. Le système Aurora est basé sur un HPE Cray EX- Intel Exascale Computer Blade et utilise des processeurs Intel Xeon CPU Max Series (avec mémoire HBM), des accélérateurs GPU Data Center Max Series et une interconnexion Slingshot-11. Le Top500 indique qu'Aurora a atteint ce rang alors qu'il est en cours de déclassement et n'est pas complètement achevé.
Un top 5 cohérent
Par rapport à l’édition précédente, le Top 5 reste cohérent. Si, fin 2023, le supercomputer Microsoft NDv5 Eagle avait perturbé la liste, il reste troisième du classement. Installé sur le cloud Azure aux États-Unis, Eagle est toujours le système cloud le mieux classé du TOP500. Le NDv5 Eagle affiche un score HPL de 561,2 PFlop/s et il est basé sur des processeurs Intel Xeon Platinum 8480C et des accélérateurs Nvidia H100. Les systèmes Fugaku et Lumi conservent également leurs 4ᵉ et 5ᵉ places respectives. Basé à Kobe, au Japon, le Fugaku affiche un score HPL de 442 PFlop/s et il reste le système le mieux classé en dehors des États-Unis. Le système Lumi de l’EuroHPC/CSC en Finlande, le plus grand système en Europe, conserve aussi sa place de 5ᵉ avec un noyau HPL de 380 PFlop/s.
Nouveau venu sur la liste, le système Alps du Centre national suisse de calcul (CSCS) en Suisse se classe à la sixième place de cette édition avec un score HPL de 270 PFlop/s. À noter que Sierra, le système installé au Lawrence Livermore National Laboratory en Californie, classé 10ᵉ en novembre 2023, a disparu de la liste.
Les 10 superordinateurs les plus rapides du Top500 de mai 2024, en détail :
#1 : Frontier
Ce supercomputer HPE Cray EX est le premier système américain dont les performances dépassent un Exaflop/s. Il est installé à l'Oak Ridge National Laboratory (ORNL), dans le Tennessee, USA, où il est exploité pour le ministère américain de l'Energie (Department of Energy, DOE).
Cœurs : 8 699 904
Rmax (PFLOPS) : 1 206,00
Rpeak (PFLOPS) : 1 714,81
Puissance (kW) : 22 786
#2 : Aurora
Le système Aurora est installé à l'Argonne Leadership Computing Facility, Illinois, USA, où il est également exploité pour le DOE et détient un score HPL préliminaire de 1,012 Exaflop/s.
Cœurs : 9 264 128
Rmax (PFLOPS) : 1 012,00
Rpeak (PFLOPS) : 1 980,01
Puissance (kW) : 38 698
#3 : Eagle
Troisième de la liste, ce supercalculateur Microsoft NDv5 est installé dans le cloud Azure. Il est basé sur des processeurs Xeon Platinum 8480C et des accélérateurs Nvidia H100 et a atteint un score HPL de 561 Pflop/s.
Cœurs : 2 073 600
Rmax (PFLOPS) : 561,20
Rpeak (PFLOPS) : 846,84
#4 : Fugaku
Ce système est installé au RIKEN Center for Computational Science (R-CCS) à Kobe, au Japon. Il dispose de 7 630 848 cœurs, ce qui lui a permis d'atteindre un score de 442 Pflop/s au benchmark HPL.
Cœurs : 7 630 848
Rmax (PFLOPS) : 442,01
Rpeak (PFLOPS) : 537,21
Puissance (kW) : 29 899
#5 : LUMI
Située dans le centre de données du CSC à Kajaani, en Finlande, l’European High-Performance Computing Joint Undertaking (EuroHPC JU) met en commun les ressources européennes pour développer des supercalculateurs Exascale haut de gamme pour le traitement des données volumineuses (big data).
Cœurs : 2 752 704
Rmax (PFLOPS) : 379,70
Rpeak (PFLOPS): 531,51
Puissance (kW) : 7 107
#6 : Alps (nouveau sur la liste)
Ce supercomputer est un système HPE Cray EX254n avec des puces Nvidia Grace 72C et GH200 Superchip et une interconnexion Slingshot-11. Il atteint 270 PFlop/s.
Cœurs : 1 305 600
Rmax (PFLOPS) : 270,00
Rpeak (PFLOPS) : 353,75
Puissance (kW) : 5 194
#7 : Leonardo (précédemment #6)
Le système Leonardo est installé sur un autre site EuroHPC à Cineca, en Italie. Il s'agit d'un système Atos BullSequana XH2000 avec des Xeon Platinum 8358 32C 2,6 GHz comme processeurs principaux, des accélérateurs Nvidia A100 SXM4 40 Go et une interconnexion Infiniband Quad-rail HDR100.
Cœurs : 1 824 768
Rmax (PFLOPS) : 241,20
Rpeak (PFLOPS) : 306,31
Puissance (kW) : 7 494
#8 : MareNostrum 5 ACC
Le système MareNostrum 5 ACC a été retesté et effectue un bond dans le classement par rapport au système Summit. Installé au Supercomputing Center EuroHPC de Barcelone en Espagne, il occupe désormais la huitième place du classement.
Cœurs : 663 040
Rmax (PFLOPS) : 175,30
Rpeak (PFLOPS) : 249,44
Puissance (kW) : 4 159
#9 : Summit (précédemment #7)
Hébergé à l'ORNL au Tennessee, le système Summit construit par IBM compte 4 356 nœuds, chacun abritant deux puces Power9 avec 22 cœurs chacun et six GPU Nvidia Tesla V100 avec 80 multiprocesseurs (SM) en streaming
Cœurs : 2 414 592
Rmax (PFLOPS) : 148,60
Rpeak (PFLOPS) : 200,79
Puissance (kW) : 10 096
#10 : Eos Nvidia DGX SuperPOD (précédemment #9)
Ce système est basé sur le serveur DGX H100 de Nvidia avec des processeurs Intel Xeon Platinum 8480C, des accélérateurs Nvidia H100 et des liens Infiniband NDR400. Il atteint 121,4 PFlop/s.
Cœurs : 485 888
Rmax (PFLOPS) : 121,40
Rpeak (PFLOPS) : 188,65
Commentaire