L’entreprise britannique Graphcore, qui développe des accélérateurs pour l'IA et l'apprentissage machine, a considérablement augmenté les performances de ses serveurs IPU (Intelligence Processing Unit) massivement parallèles. Les puces orientées IA de Graphcore sont vendues dans des designs montés en rack appelés IPU-POD. Jusqu'à présent, le rack IPU-POD64 existant pouvait accueillir un maximum de 64 unités. Mais les derniers racks IPU-POD128 et IPU-POD256 peuvent en accueillir deux et quatre fois plus.
Graphcore affirme que les 32 pétaFLOPS de capacité de traitement d'IA de l'IPU-POD 128 et les 64 pétaFLOPS de l'IPU-POD 256, met ses racks au niveau des supercalculateurs d'IA, avec en plus une empreinte beaucoup plus faible que celle d’un superordinateur classique, dont la taille est celle d’un terrain de basket. Les systèmes IPU-POD sont capables de traiter séparément les tâches de calcul d'IA des serveurs, ce qui signifie que différents types de charges de travail d'IA nécessitant des niveaux de performance différents peuvent être exécutés sur le même POD. Par exemple, on peut allouer un IPU-POD à l'apprentissage plus rapide de grands modèles de langage basés sur Transformer sur l'ensemble d'un système, ou diviser le système en vPOD plus petits et plus flexibles pour permettre à un plus grand nombre de développeurs d'accéder aux IPU.
Du HPC au format compact
Cette répartition est rendue possible grâce à la pile logicielle Poplar de Graphcore, qui comprend un SDK, la bibliothèque Graphcore Communication Library (GCL) pour gérer la communication et la synchronisation entre les IPU, et PopRun et PopDist, qui permettent aux développeurs d'exécuter leurs applications sur plusieurs systèmes IPU-POD. Pour la communication IPU intra-rack, les précédents POD utilisaient des IPU-Links de 64Gb/s. Désormais, l'IPU-POD128 et l'IPU-POD256 utilisent le nouveau Gateway Links, une connexion horizontale de rack à rack qui étend les liens IPU-Links en utilisant un tunnel sur l'Ethernet 100Gb.
Les deux systèmes ont été développés pour les hyperscalers du cloud, les laboratoires nationaux de calcul scientifique et les entreprises disposant de grandes équipes d'IA sur des marchés comme les services financiers ou l'industrie pharmaceutique. Parmi les premiers clients de Graphcore figurent le Lawrence Berkeley National Laboratory du Département américain de l'énergie et J.P. Morgan. Les IPU-POD16, IPU-POD64, IPU-POD128 et IPU-POD256 sont livrés dès aujourd'hui par le géant français de l'informatique ATOS et d'autres partenaires intégrateurs de systèmes dans le monde entier. Ils sont aussi disponibles dans le cloud chez Cirrascale.
Commentaire