Même si l'IA n'a pas eu d'impact significatif sur les performances financières de la plupart des équipementiers réseaux et que les défis de la chaîne d'approvisionnement restent une de leurs préoccupations immédiates, elle fait l'objet d'un buzz qui se propage jusque dans les publications des résultats financiers de ces fournisseurs. Des entreprises comme Cisco, Arista, Juniper, Extreme et Aruba de HPE indiquent qu'elles livrent davantage de produits, preuve que les importants efforts effectués depuis plusieurs mois autour de la refonte de leurs produits et au travail incessant de la part des équipes de la chaîne logistique pour remédier aux pénuries de composants ont été payants. Mais la situation reste difficile et certains clients sont encore confrontés à des retards de commande.
La fin des arriérés de commandes élevés se rapproche
« Il est clair que le carnet de commandes diminue comme nous l'avions prévu cette année, mais il reste environ trois fois supérieur à la normale », a déclaré Rami Rahim, CEO de Juniper, aux analystes de Wall Street, lors de la communication des résultats trimestriels. Juniper fait état d'un carnet de commandes d'environ 2 Md$ au début de l'année et s'attend à ce qu'il soit réduit de moitié d'ici à la fin de son exercice fiscal en décembre. Quant à Cisco, il affiche toujours des niveaux de carnet de commandes conséquents, mais affirme que la situation s'est considérablement améliorée. « L'arriéré de commandes a baissé à mesure que l'approvisionnement s'est normalisé et, comme prévu, par rapport aux niveaux historiques, au seuil de l'exercice 24, l'augmentation des livraisons va réduire notre carnet de commandes de fin d'année de moitié », a déclaré le directeur financier de Cisco, Scott Herren, aux analystes lors de la dernière présentation des résultats de l'entreprise. « Ce carnet de commandes excédentaire se résorbera au cours du premier semestre de l'exercice 2024, majoritairement au cours premier trimestre », a-t-il ajouté.
Cisco revendique 500 M$ de commandes pour ses fabrics Ethernet IA
Si les problèmes liés au carnet de commandes et à la chaîne d'approvisionnement restent un sujet de préoccupation important, dans l'ensemble, les fournisseurs se sont beaucoup focalisés sur les opportunités offertes par le développement de l'IA. Par exemple, le CEO de Cisco, Chuck Robbins, a déclaré que l'entreprise avait enregistré des commandes d'une valeur de 500 M$ pour des fabrics Ethernet IA. « L'accélération de l'IA va fondamentalement changer notre monde et créer de nouveaux moteurs de croissance pour notre industrie », a déclaré M. Robbins. « Le design ASIC et le fabric évolutif de Cisco pour l'IA font que nous sommes bien placés pour fournir l'infrastructure dont les hyperscalers et d'autres ont besoin pour créer des clusters ML d'IA. Nous prévoyons que l'Ethernet sera le principal support pour connecter les charges de travail d'IA au cours des cinq prochaines années », a ajouté M. Robbins.
Cisco a récemment dévoilé des processeurs Silicon One programmables haut de gamme, destinés à étayer l'infrastructure AI/ML à grande échelle pour les entreprises et les hyperscalers. Les modèles d'IA/ML sont passés de quelques GPU à des dizaines de milliers d'unités reliés en parallèle et en série. « Le nombre de GPU et l'échelle du réseau sont sans précédent », a déclaré Cisco. « L'opportunité offerte par l'IA est très prometteuse, et alors que nos plus grands clients cloud revoient leurs projets de réseaux classiques et d'IA, Arista s'adapte à ces changements et double ses investissements dans l'IA », a indiqué pour part Jayshree Ulall le CEO d'Arista, aux analystes lors de la récente conférence consacrée aux résultats financiers de l'entreprise. « Nous prévoyons des clusters plus importants et des déploiements de production en 2025 et au-delà. Au cours de la décennie à venir, la mise en réseau de l'IA deviendra une extension de la mise en réseau du cloud pour former un réseau frontal et dorsal homogène et transparent », a-t-il ajouté. « Nos tests actuels sur les réseaux d'IA dorsaux devraient déboucher sur des projets pilotes en 2024 », a ajouté M. Ulall.
L'Ethernet comme support privilgié des réseaux d'IA
Arista et Cisco parient beaucoup sur le fait que l'Ethernet sera le support de prédilection des futurs réseaux d'intelligence artificielle. Les deux fournisseurs font partie de Ultra Ethernet Consortium (UEC), un groupe créé récemment et hébergé par la Fondation Linux, qui comprend AMD, Broadcom, Eviden, HPE, Intel, Meta et Microsoft. Son objectif : travailler à des avancées dans le domaine de la couche physique, de la liaison, du transport et du logiciel Ethernet afin d'améliorer la technologie Ethernet actuelle pour qu'elle puisse gérer l'échelle et la vitesse requises par l'IA. « Le trafic et les exigences de performance de l'IA sont différents car ils comprennent un petit nombre de flux synchronisés à large bande passante, ce qui les rend sujets à des collisions qui ralentissent le temps d'exécution des tâches des clusters d'IA car ils connectent des milliers de GPU, générant des milliards de paramètres », a déclaré M. Ulall. « Arista a développé des fonctionnalités, comme l'équilibrage intelligent des charges, des analyseurs avancés pour établir des rapports et [d'autres] outils permettant d'obtenir des performances prévisibles pour son logiciel de réseau EOS, et la technologie Ethernet et IP établie servira d'architecture de base pour gérer cela », a déclaré M. Ulall. L'objectif de Cisco est de combiner ces technologies Ethernet améliorées et de les pousser plus loin pour permettre aux clients de mettre en place ce que le fournisseur appelle un « Scheduled Fabric ». Dans un Scheduled Fabric, les composants physiques - puces, optiques, commutateurs - sont reliés entre eux comme un grand châssis modulaire et communiquent les uns avec les autres pour fonctionner de manière optimale. « Quand le Scheduled Fabric sera au point et que les clients seront plus à l'aise pour passer de l'InfiniBand à l'Ethernet, nous commencerons à voir l'impact réel de l'IA, peut-être à la fin de l'année 2024, et certainement en 2025 », a déclaré M. Robbins.
Les produits pilotés par Mist AI en forte croissance chez Juniper
En attendant, Juniper affirme que l'IA a déjà un impact sur ses résultats. « Les clients reconnaissent le leadership de Juniper en matière d'opérations basées sur l'IA et fournies via un cloud de microservices moderne », a estimé M. Rahim. « Le chiffre d'affaires du segment Mist de notre activité, qui comprend les produits pilotés par Mist AI - le principal système de gestion de Juniper basé sur le cloud - a connu un trimestre record, avec une croissance de près de 100 % par rapport à l'année précédente au cours du deuxième trimestre, et des commandes en hausse de près de 40 % par rapport à l'année précédente », a ajouté le CEO. Juniper a récemment intégré le grand modèle de langage (LLM) ChatGPT à Marvis, l'assistant de réseau virtuel de Mist. Marvis peut détecter et décrire une myriade de problèmes de réseau, y compris les échecs persistants de clients câblés ou sans fil, les câbles défectueux, les trous dans la couverture des points d'accès, les liens WAN problématiques et une capacité de radiofréquence insuffisante. « En ajoutant les fonctionnalités ChatGPT, Juniper étend les fonctions de Marvis et augmente ses options de documentation et de support afin d'aider les administrateurs IT à obtenir rapidement l'assistance nécessaire en cas de problèmes ou de défis », a déclaré Juniper.