Régulateurs, investisseurs, consommateurs et même employés. Tous poussent les entreprises à minimiser l'impact climatique de leurs initiatives en matière d'IA. Plusieurs facteurs peuvent y contribuer - des centres de données alimentées par la géothermie aux unités de traitement graphique (GPU) plus efficaces - mais les utilisateurs eux-mêmes doivent aussi dépasser l'envie d'utiliser les modèles d'IA les plus grands pour résoudre tous les problèmes s'ils veulent vraiment lutter contre le changement climatique.
Les craintes que l'IA contribue au réchauffement de la planète découlent des estimations selon lesquelles les GPU utilisés pour développer et faire fonctionner les modèles d'IA consomment quatre fois plus d'énergie que ceux qui servent les applications cloud conventionnelles, et que l'IA pourrait être en passe de consommer autant d'électricité que l'Irlande.
En réaction, les autorités de régulation en Europe et aux États-Unis s'apprêtent à exiger des grands utilisateurs d'IA qu'ils rendent compte de leur impact sur l'environnement. Les agences de notation et les clients accordent une plus grande attention aux questions environnementales, sociales et de gouvernance (ESG) telles que les émissions de carbone, explique Faith Taylor, vice-présidente pour le développement soutenable et responsable ESG chez le fournisseur de services d'infrastructure Kyndryl. En outre, dit-elle, « les employés, en particulier ceux de la jeune génération, disent qu'ils ne travailleront pas dans une entreprise qui n'a pas certains objectifs environnementaux. Nous considérons que c'est un facteur de recrutement et de fidélisation ».
Alors que les efforts en matière de développement durable deviennent de plus en plus prioritaires, voici quatre façons permettant aux entreprises de rationaliser l'impact environnemental de leurs investissements dans l'intelligence artificielle.
Miser sur des processus et architectures plus efficaces
Boris Gamazaychikov, responsable de la réduction des émissions chez le fournisseur SaaS Salesforce, recommande d'utiliser des modèles d'IA spécialisés afin de réduire la puissance nécessaire pour les entraîner. « Est-il nécessaire qu'un modèle capable d'écrire un sonnet écrive du code informatique pour nous ?, interroge-t-il. Nous pensons que non. Notre approche a consisté à créer des modèles spécifiques pour des cas d'utilisation spécifiques plutôt qu'un modèle polyvalent. »
Il recommande également d'exploiter la communauté des logiciels libres pour trouver des modèles qui peuvent être pré-entraînés pour diverses tâches. Il cite, par exemple, le Llama-2 de Meta, dont plus de 13 000 variantes ont déjà été créées. « Ces 13 000 nouveaux modèles ne nécessitent pas de pré-entraînement, précise-t-il. Pensez à la quantité de calcul et aux émissions de carbone que cela permet d'économiser. L'équipe de recherche en IA de Salesforce a également mis au point des méthodes telles que le parallélisme maximal », ajoute-t-il. Cette approche répartit efficacement les tâches à forte intensité de calcul afin de réduire la consommation d'énergie et les émissions de carbone.
Plutôt que d'entraîner le modèle sur l'ensemble des données d'entraînement en une seule fois, Salesforce le fait en plusieurs étapes - appelées "époques" - au cours desquelles une partie des données est légèrement modifiée à chaque fois en fonction des résultats de l'entraînement précédent. Cela permet également de réduire la consommation d'énergie.
Certains hyperscalers proposent aussi des outils et des conseils pour rendre l'IA plus durable, comme Amazon Web Services, qui fournit des conseils sur l'utilisation des technologies serverless (pour éliminer les ressources inactives), des outils de gestion des données et des jeux de données. AWS propose également des modèles pour réduire le traitement et le stockage des données, ainsi que des outils pour « dimensionner correctement » l'infrastructure pour une application d'IA. S'ils sont utilisés correctement, ces outils peuvent aider à minimiser les ressources de calcul nécessaires à l'IA, donc son impact sur l'environnement.
Utiliser moins de données
La réduction de la taille du ou des jeux des données utilisés pour entraîner un modèle est l'un des moyens les plus efficaces de minimiser la consommation d'énergie et les émissions de carbone liées à l'IA. « Il est possible de réduire la taille de nombreux modèles d'IA d'un ordre de grandeur tout en ne perdant que deux à trois pour cent en précision », explique le professeur Amanda Stent, directrice du Davis Institute for Artificial Intelligence du Colby College. « Ces techniques sont bien connues, mais elles ne sont pas aussi bien utilisées qu'elles pourraient l'être, car les gens sont séduits par l'idée véhiculée par les modèles de grande taille. » Il faut également tenir compte de l'attention que ces derniers ont reçue dans la presse.
Boris Gamazaychikov affirme que la dernière version du modèle CodeGen de Salesforce, qui permet aux utilisateurs de générer du code exécutable à l'aide d'un prompt en langage naturel, est aussi performante que des modèles deux fois plus grands. En règle générale, dit-il, une réduction de 50 % de la taille d'un modèle se traduit par une réduction équivalente des émissions de carbone.
Chez Plex, service de streaming vidéo et musical, Scott Weston, responsable Data Science, réduit la taille de ses données d'apprentissage en se concentrant sur un besoin spécifique. « Nous ne voulons pas seulement trouver les utilisateurs qui vont s'abonner ou quitter la plateforme, mais aussi ceux qui devraient s'abonner et comment faire en sorte qu'ils le fassent », explique-t-il. L'entraînement du modèle est plus simple car le jeu de données est plus ciblé et limité au problème spécifique de l'entreprise qu'il s'agit de résoudre, ajoute-t-il. « L'environnement est alors gagnant, car nous n'avons pas besoin de toute cette puissance de calcul supplémentaire pour entraîner nos modèles ».
Scott Weston utilise la modélisation ascendante, en effectuant une série de tests A/B pour déterminer comment les clients potentiels réagissent à différentes offres, puis exploite les résultats de ces tests pour construire le modèle. La taille des jeux de données est aussi limitée par des préoccupations métiers. « Nous sommes prudents lorsque nous menons des tests de grande envergure, car nous ne voulons pas interrompre le flux régulier de communications avec nos clients. »
Alimenter les datacenters en énergie renouvelable
L'hébergement des opérations d'IA dans un centre de données alimenté à l'énergie renouvelable est un moyen simple de réduire les émissions de carbone, mais cela ne va pas sans contrepartie.
Le service de traduction en ligne Deepl gère ses fonctions d'IA à partir de quatre datacenters en colocation : deux en Islande, un en Suède et un en Finlande. Le centre de données islandais utilise à 100 % de l'énergie géothermique et hydroélectrique produite de manière renouvelable. Le climat froid permet également d'éliminer 40 % ou davantage de l'énergie totale nécessaire pour refroidir les serveurs. Il suffit d'ouvrir les fenêtres plutôt que d'utiliser des climatiseurs, explique Guido Simon, directeur de l'ingénierie chez Deepl. Le coût est également avantageux, selon lui, avec des prix de 5 centimes par KW/h contre 30 centimes ou plus en Allemagne.
La latence du réseau entre l'utilisateur et un datacenter durable peut être un problème pour les applications sensibles au temps de réponse, observe toutefois Amanda Stent. Mais cette préoccupation ne concerne que la phase d'inférence, durant laquelle l'application fournit des réponses aux utilisateurs, pas l'entraînement préliminaire.
Deepl, dont le siège se trouve à Cologne (Allemagne), a constaté qu'il était possible de réaliser à la fois l'entraînement et l'inférence sur ses datacenters distants. « Nous avons environ 20 millisecondes de latence en plus par rapport à un centre de données plus proche de nous, détaille Guido Simon. Au cours du processus d'inférence, la connexion initiale au moteur d'IA peut prendre 10 allers-retours, ce qui se traduit par un retard de 200 à 300 millisecondes dû à la distance, mais il est possible d'optimiser l'application pour réduire cette durée initiale. »
La vitesse de la connexion Internet au site distant peut, bien sûr, atténuer ces problèmes de latence. Verne Global Iceland, l'un des fournisseurs islandais de Deepl, affirme être le site d'interconnexion de tous les systèmes de câbles sous-marins à destination et en provenance d'Islande, avec une connectivité par fibre redondante et de grande capacité vers l'Europe et les États-Unis.
Selon Amanda Stent, même si un datacenter utilise une alimentation "renouvelable", il faut aussi s'interroger sur la nature des GPU ou des unités de traitement tensoriel (TPU) qui sont déployés. S'il n'exploite pas les puces les plus récentes et les plus efficaces, il pourrait finir par consommer plus d'énergie qu'un centre de données alimenté de manière conventionnelle, mais plus moderne. Ce n'est toutefois pas un problème pour Deepl, qui héberge ses propres serveurs - qualifiés d'ultramodernes - dans ses installations de colocalisation, précise Guido Simon.
Ne pas utiliser l'IA du tout
Si l'IA suscite l'enthousiasme des employés et clients, elle peut s'avérer superflue si d'autres approches sont plus faciles à mettre en oeuvre et ont moins d'impact sur l'environnement. « Demandez-vous toujours si l'IA/ML est adaptée à votre application », recommande AWS dans ses lignes directrices en matière de développement durable. « Il n'est pas nécessaire d'utiliser l'IA à forte intensité de calcul lorsqu'une approche plus simple et plus durable peut s'avérer tout aussi efficace. Par exemple, l'utilisation de l'intelligence artificielle pour acheminer les messages IoT peut être injustifiée ; vous pouvez exprimer la logique à l'aide d'un moteur de règles. »
Outre les considérations environnementales, Plex n'est pas en mesure de consacrer des millions de dollars en calcul à l'entraînement des plus grands modèles. « Il s'agit de faire preuve d'ingéniosité et de s'assurer que l'on réfléchit à tout et que l'on ne se contente pas d'injecter de l'argent pour nourrir le problème », explique Scott Weston.
La société de jeux en ligne Mino Games utilise DataGPT, qui intègre des outils analytiques, une base de données pour la mise en cache, ainsi que des processus d'extraction, de traduction et de chargement (ETL) pour accélérer les requêtes, comme celles relatives à la compréhension des nouvelles fonctionnalités à offrir aux joueurs. Diego Cáceres, responsable de l'analyse des données, invite à la prudence quant à l'usage de l'IA. « Formulez soigneusement le problème métier et demandez-vous si de simples calculs mathématiques ne suffisent pas », conseille-t-il.
Les défis auxquels se heurte l'IA durable
Outre le coût de la mise en oeuvre d'une IA durable au sein d'une application distribuée basée sur le cloud, il est difficile de savoir quelle charge de travail consomme de l'énergie, explique Yugal Joshi, partenaire de la société de conseil Everest Group. C'est pourquoi, selon lui, la plupart des entreprises se concentrent d'abord sur les résultats métiers de l'IA, et ensuite seulement sur la durabilité.
Selon Boris Gamazaychikov, de Salesforce, un autre défi consiste à obtenir des développeurs des informations sur l'empreinte carbone de leurs modèles de fondation. Avec la montée de la réglementation émanant de sources telles que l'Union européenne et la Securities and Exchange Commission des États-Unis, « si les entreprises ne divulguent pas déjà ces chiffres, elles devront commencer à le faire bientôt », se réjouit-il.
Un autre défi à la modération des usages réside dans l'attrait pour les percées spectaculaires de l'IA, quel qu'en soit le coût pour l'environnement. « Certaines entreprises s'affichent comme durables, mais elles veulent aussi être connues pour l'excellence de leur IA, et leurs employés veulent faire quelque chose qui transforment l'activité », observe Amanda Stent, du Colby College. « Tant que des pressions financières n'obligeront pas les entreprises à devenir plus efficaces en matière d'intelligence artificielle, quelque chose d'autre les éloignera de l'objectif de durabilité.