Petit à petit, les acteurs de l’IA se penchent sur la consommation électrique des infrastructures nécessaire au développement et à l’entraînement des modèles. Lenovo s’inscrit dans cette démarche en dévoilant la sixième génération de sa plateforme de refroidissement liquide Netptune que nous avions pu observer de près sur un serveur ThinkSystem SD650-I V3 lors du salon Teratec 2023. Elle s’étend désormais aux serveurs ThinkSystem V3 et V4 avec une option de boucle d’eau ouverte pour les CPU. Netpune propose par ailleurs plusieurs autres systèmes de refroidissement : une plaque froide pour les CPU et les accélérateurs afin de maximiser l’extraction de chaleur, un procédé de refroidissement de la mémoire pour le HPC et une technique avec de l’eau chaude réutilisable.
Cette multitude de technique part d’un constat simple, comme le rappelait récemment Fabrice Coquio, président de Digital Realty France, « aujourd’hui, les plateformes IA requièrent 100 kw pour les refroidir. Or, le refroidissement par air ne peut pas aller au-delà de 22 kw. La seule option est le refroidissement par eau ». Les datacenters sont donc en train de prendre en compte cette nouvelle donne en intégrant le liquid cooling et en particulier l’offre Neptune de Lenovo. Les deux sociétés ont signé un partenariat pour fournir la plateforme dans plus de la moitié de ses datacenters dans le monde.
Des services IA plus verticaux
Jeremy Roberts, analyste principal chez Info-Tech Research Group a déclaré à nos confrères de Network World, « l'IA fait l'objet d'un examen minutieux en raison de son empreinte carbone, et une solution - même si elle finit par être plus complexe ou plus chère - qui peut la réduire de manière significative pourrait être très avantageuse pour l'acheteur ». Le refroidissement liquide est une excellente idée en théorie et existe depuis longtemps, mais il doit faire face à certaines réserves. « Tout d’abord, la plupart des workload ne nécessitent pas ce type de technologie. Par ailleurs, la gestion de la plomberie pourrait être un défi », souligne le consultant. Ce dernier ne voit donc pas une adoption de ce procédé à court terme, mais « il est très probable que ce type de solution augmentera au fur et à mesure que les besoins informatiques progresseront ».
En complément de l’aspect refroidissement, Lenovo a également annonce des services en IA s’appuyant sur les puces et les logiciels Nvidia. Il y a notamment AI Fast Start pour NIM (Nvidia Inference Microservices) qui apporte aux développeurs un moteur d’inférence conteneurisé. De son côté, AI Fast Start for Innovators aide les entreprises à créer des cas d’usage de l’IA en piochant dans le portefeuille de 165 solutions clés en main du programme Lenovo AI Innovators et des services de conseil. Toujours sur les cas d’usage, le programme Fast Start se verticalise avec un dédié au service client, au monde du voyage, à l’industrie et la distribution.