En mai dernier, Ampere Computing dévoilait la feuille de route de sa famille de processeurs pour serveur baptisées AmpereOne (sur base arm). Au programme, il y avait une puce dotée de 256 cœurs. En plein cœur de l’été, le fournisseur vient enrichir son portefeuille avec un processeur connu sous le nom de code Aurora.
Par rapport aux autres produits du fournisseur, Aurora comprendra 512 cœurs. Le nombre de canaux de mémoire DDR5 n’a toutefois pas été spécifié. Son prédécesseur en comprenait 12 avec 256 cœurs (gravés en 3 nm). Bien difficile aussi d’en savoir plus sur la compatibilité mémoire (HBM) et sur les protocoles supportés (PCIe, CXL), la société ne souhaitant pas communiquer en précisant qu’il s’agit d’une roadmap et non d’un produit fini. Les arbitrages techniques ne sont donc pas encore décidés.
Ampere étoffe son portefeuille AmpereOne avec Aurora sans donner beaucoup de détails par rapport à ses prédécesseurs. (Crédit Photo: Ampere)
Un accélérateur IA sur le SoC et un refroidissement par air
A la différence des autres modèles, Aurora ajoute un accélérateur d’IA sur le SoC sans toutefois donner plus de précision sur le choix technologique (cœur Tensor ou autre moteur FPGA). Cet accélérateur est soutenu par une interconnexion mesh maison pour relier les cœurs du CPU et les unités de traitements dédiés à l’IA. Ampere veut ainsi tirer profit des travaux du groupe de travail Universal Chiplet Interconnect express (UCIe). Comprenant plusieurs membres (Qualcomm, AMD, TSMC,…), il vise à créer une norme ouverte prévoyant une interconnexion die to die et d’un bus entre les chiplets.
Si aucune date n’a été fixée par Ampere pour la fabrication de la puce Aurora, son objectif est par contre clair pour Jeff Wittich, responsable produit chez le fournisseur: « Il est possible de faire de l’IA avec des solutions refroidies par air et ainsi respecter les objectifs d’empreinte carbone ». Il fait référence notamment aux derniers rapports de Google, de Microsoft ou de Meta qui voient leur objectif environnemental obérer par les ressources mobilisées par l’IA. De surcroît, les derniers accélérateurs GPU Blackwell de Nvidia nécessitent des serveurs refroidis par liquide et des racks de 1 MW. Jeff Wittich observe que « 77% des racks actuellement déployés sont encore inférieurs à 20 kW, et la moitié d'entre eux sont inférieurs à 10 kW ». Les entreprises sont donc à la recherche d’une puce performante, mais moins gourmande en énergie. Ampere a donc une belle carte à jouer à condition de séduire les hyperscalers comme c'est déjà le cas avec Oracle.