Ces derniers jours, Intel et Nvidia ont mis en avant des initiatives dans le domaine des composants réseau avec pour objectif de décharger le trafic réseau assuré par le processeur central, libérant ainsi des ressources pour le calcul. Le fondeur de Santa Clara a mis en route ce qu'il appelle "une tempête parfaite de 5G, de développement de périphérie et d'intelligence artificielle omniprésente" avec une gamme élargie de matériels, de logiciels et de solutions pour l'infrastructure réseau. Cette initiative comprend des améliorations de l'architecture logicielle de référence d'Intel, FlexRAN, un accélérateur dédié au réseau d'accès radio virtualisé (vRAN) d'Intel, des processeurs Intel Xeon Scalable et D de nouvelle génération optimisés pour les réseaux (nom de code "Ice Lake") et des solutions Intel Select améliorées pour l'infrastructure de virtualisation des fonctions réseau (NFVI).
Intel a cité une étude de Dell'Oro selon laquelle 50 % des déploiements de réseaux centraux seraient transformés en réseaux virtualisés cette année, et la virtualisation s'étendrait au réseau d'accès radio (RAN). "La mise en oeuvre d'une architecture cloud apporte la même économie de serveurs qui a transformé le centre de données et renforce la sécurité en permettant aux réseaux d'être plus rapidement réparés, mis à jour et protégés. La suite complète de silicium, de logiciels et d'outils d'Intel, riche en fonctionnalités, et son expérience dans l'assistance aux clients pour transformer les réseaux, permettent un déploiement plus rapide au niveau du coeur, de l'accès et de la périphérie", a déclaré la société dans un communiqué.
Le portefeuille de réseaux d'Intel comprend :
- FlexRAN : les optimisations de l'architecture logicielle de référence d'Intel comprennent un pipeline MIMO (Multiple Input, Multiple Output) massif en milieu de bande pour une bande passante accrue et la prise en charge de communications ultra fiables à faible latence (URLLC) ;
- RAN Dedicated Accelerator ACC100 : une solution d'accélération à faible puissance et à coût serré pour les déploiements vRAN, qui décharge et accélère la correction des erreurs de paquets, libérant ainsi l'unité centrale pour les tâches de calcul.
Intel prépare également des contrôleurs dédiés pour les réseaux, des Xeon Scalable de 3e génération optimisés pour les réseaux, dont le nom de code est Ice Lake-SP. Ils sont conçus pour les cas d'utilisation d'infrastructures nécessitant des performances plus élevées par watt, notamment les coeurs de réseau sans fil, l'accès sans fil et les charges de travail en périphérie de réseau et les appliances de sécurité. Ces Xeon seront livrés à la fin de l'année.
Le fondeur travaille également sur une génération de processeurs Intel Xeon D, dont le nom de code est Ice Lake-D, pour des environnements en périphérie moins sensibles aux performances et aux contraintes de facteur de forme, et qui offriront des niveaux d'intégration plus élevés, comme l'IP de réseau intégré, selon la société. Intel prévoit de commencer à livrer ces puces vers le milieu de l'année 2021 à ses premiers clients.
Les plans de Nvidia pour le DPU
Comme s'il n'avait pas fait assez de bruit ces derniers temps, Nvidia a lancé sa conférence sur la technologie GPU (GTC) avec une série d'annonces autour des circuits graphiques et de l'IA, mais il y a également eu quelques nouvelles concernant les centres de données. Ainsi que la société a fait le point sur son initiative d'unité de traitement des données (DPU). Suite au rachat de Mellanox l'an dernier, Nvidia a hérité d'une gamme de contrôleurs réseau hautes performances basés sur le circuit BlueField. La société a déclaré que ses contrôleurs introduisent le concept de "data-center-infrastructure-on-a-chip architecture," ou DOCA, un mélange de coeurs ARM, de cartes SmartNIC ConnectX-6, et dans certains cas, avec l'architecture GPU pour datacenters de Nvidia.
Les cartes réseau Bluefield-2 viennent épauler le processeur pour accélérer le traitement des paquets IP ou assurer des fonctions de sécurité. (Crédit Nvidia)
"Le datacenter est devenu la nouvelle unité de calcul", a déclaré le CEO Jen-Hsun Huang dans un communiqué. "Les DPU sont un élément essentiel des centres de données modernes, sécurisés et accélérés dans lesquels les CPU, GPU et DPU sont capables de se combiner en une seule unité de calcul entièrement programmable, compatible avec l'IA et capable de fournir des niveaux de sécurité et de puissance de calcul jusqu'alors impossible".
BlueField-2, est actuellement en phase d'échantillonnage auprès des clients et sera disponible en 2021 sur les serveurs d'Asus, Atos, Dell Technologies, Fujitsu, Gigabyte, H3C, Inspur, Lenovo, Quanta et Supermicro. Un deuxième produit, BlueField-2X, reprend les fonctionnalités d'IA de l'architecture GPU Ampere pour les tâches de sécurité, de réseau et de stockage accélérées par l'IA. Il sera également disponible l'année prochaine. Par ailleurs, Nvidia a établi une feuille de route pour les produits DPU qui comprend les BlueField-3 et BlueField-3X attendus en 2022 et le BlueField-4 en 2023. Ce dernier intégrera les cœurs GPU et ARM dans le silicium. Les cartes BlueField sont aujourd’hui livrées avec des puces séparées pour le processeur Arm et le GPU Nvidia.