Les processeurs, piliers du datacenter 

Les processeurs, GPU, FPGA et autres accélérateurs sont au cœur des datacenters modernes. Ils ne sont pas de simples outils de calcul : leur performance, leur efficacité énergétique et leur capacité à gérer des charges de travail intenses influencent directement la conception et l'architecture des datacenters. Pour être "IA Ready", ces derniers doivent intégrer des technologies capables de gérer des modèles d'IA de plus en plus complexes et gourmands.

Derrière les outils de type ChatGPT se cachent des millions, voire des milliards de paramètres, nécessitant une puissance de calcul et de mémoire de stockage considérables. Pendant l’entraînement, les modèles ajustent leurs paramètres à partir de quantités considérables de données – un processus itératif qui s’étend sur plusieurs jours ou semaines, selon la taille du modèle. Une fois entraîné, le modèle d’apprentissage passe à l’action. Cette phase « d’inférence »,  au cours de laquelle il tire des conclusions à partir de données nouvelles, implique des calculs en temps réel extrêmement exigeants.  

Soutenir les tâches de calcul intensif

Ces impératifs de performance impactent directement l’architecture des datacenters, qui doivent être capables de gérer simultanément une multitude de tâches de calcul intensif. Les processeurs multicœurs, tels que les AMD EPYC™, et les unités de traitement graphique (GPU) jouent un rôle clé dans ce contexte. Les premiers parallélisent les tâches et traitent rapidement de gros volumes de données, tandis que les GPU, spécialement conçus pour les calculs massivement parallèles, accélèrent les algorithmes d’IA complexes.

Aujourd'hui, les GPU AMD Instinct™ équipent plusieurs des supercalculateurs les plus rapides au monde qui utilisent l'IA pour accélérer la recherche sur le cancer ou créer des LLM de pointe avec des milliards de paramètres, utilisés par la communauté scientifique mondiale.

De nombreuses charges de travail IA peuvent fonctionner efficacement sur des serveurs uniquement équipés de processeurs EPYC de 5e génération. Parmi ces charges de travail, on retrouve les modèles de langage avec jusqu'à 13 milliards de paramètres, l'analyse d'images et de fraudes, ou encore les systèmes de recommandation. Les serveurs équipés de deux CPU de dernière génération offrent jusqu'à deux fois le débit d'inférence comparé aux versions précédentes.

Réduire la latence pour des résultats en temps réel

Dans les projets d’IA adaptative, la latence minimale est cruciale pour des modèles capables de réagir instantanément à de nouvelles données. Ces exigences s'appliquent notamment à des applications comme le traitement du langage naturel en direct, la personnalisation en temps réel ou encore la prise de décision automatisée.
Les processeurs multicœurs d’AMD, tels que les EPYC™, se distinguent non seulement par leur capacité à monter en charge pour répondre aux besoins fluctuants des phases de formation et d’inférence, mais aussi par leur optimisation pour réduire les temps de réponse. Conçus pour équilibrer la charge et maintenir une réactivité élevée dans des environnements multi-tâches, ces architectures permettent de traiter rapidement des volumes massifs de données tout en garantissant des performances constantes.

Un datacenter agile pour évoluer au fil des innovations en Intelligence Artificielle

Si les datacenters doivent gérer des charges de travail toujours plus intenses, ils doivent également rester suffisamment agiles pour intégrer les avancées rapides de l'IA générative et adaptative. Cette double exigence impose une conception axée sur la modularité et l’évolutivité.

Les solutions proposées par AMD répondent à ces besoins grâce à des architectures pensées pour optimiser les performances tout en permettant une montée en puissance progressive. Les processeurs AMD EPYC™, par exemple, offrent une base flexible qui s’adapte aisément à l’ajout de nouvelles ressources de calcul. Cette approche modulaire permet aux datacenters d’intégrer des innovations technologiques sans nécessiter de refonte complète de l’infrastructure.

La connectivité réseau : maillon essentiel de la réussite des projets d’IA

Au-delà des enjeux de performance, de scalabilité et d’adaptabilité des datacenters, le réseau s’impose naturellement comme le pilier qui relie et optimise les ressources au sein de l’infrastructure. Sans infrastructure réseau performante, difficile d’assurer une communication rapide et fiable entre les différents composants – qu’il s’agisse de processeurs, de GPU ou de systèmes de stockage.

Conscient de ces enjeux, AMD a enrichi son portefeuille avec des solutions réseau telle que l’unité de traitement de données Pensando Salina et la carte réseau Pensando Pollara 400, qui visent à optimiser les flux de données et à réduire les goulots d’étranglement. En assurant une gestion efficace de la communication entre GPU et autres éléments critiques, ces outils permettent une exécution fluide des charges de travail d’IA. Ils s’inscrivent dans une vision globale d’AMD, où chaque composant de l’infrastructure, du calcul au réseau, contribue à la création de datacenters à la fois performants et évolutifs.