L'année dernière, alors que de nombreux DSI travaillaient à évaluer leurs émissions carbone du Scope 3 (les émissions indirectes), l'IA générative a fait son entrée dans pratiquement toutes les entreprises. Parfois par la grande porte, mais souvent plus discrètement, les cadres testant la technologie pour rédiger des documents et courriels sans nécessairement l'admettre.
Dans de nombreuses organisations, les cas d'usage se sont arrêtés là. Mais certains services IT approuvent désormais - et même encouragent - l'utilisation de l'IA générative pour des tâches telles que la production de code. D'autres organisations se tournent vers leurs fournisseurs de logiciels pour obtenir des mises à jour incluant des composants d'IA générative. À l'autre extrémité du spectre, on trouve des entreprises comme la société fintech suédoise Klarna, qui a intégré l'IA générative non seulement dans une série de projets internes, mais aussi dans les produits qu'elle vend. Pour encadrer ces usages, la fintech a développé une gouvernance de l'IA avec des lignes directrices sur la manière dont a technologie doit être utilisée dans les projets.
Martin Elwin, directeur de l'ingénierie de Klarna : « En cumulant initiatives en production et en développement, nous étudions actuellement une centaine de cas d'usage ». (Photo : Klarna)
Klarna s'appuie fortement sur l'IA depuis le lancement de ChatGPT en novembre 2022, et le sentiment général au sein de l'entreprise est que l'IA générative peut aider presque tout un chacun dans l'organisation à devenir plus efficace, quel que soit son niveau de compétence ou son poste. « En cumulant initiatives en production et en développement, nous étudions actuellement une centaine de cas d'usage au sein de l'entreprise pour lesquels nous pourrions utiliser l'IA générative, explique Martin Elwin, directeur de l'ingénierie chez Klarna. Et ce n'est pas limité aux ingénieurs ; tout le monde est impliqué, de la finance au juridique, en passant par le marketing et autres services. »
Il y a quelques semaines, Klarna a annoncé un assistant d'intelligence artificielle qui répond aux questions des utilisateurs avec peu ou pas d'assistance humaine. Cette application aide les consommateurs à trouver les articles qu'ils souhaitent acheter auprès du commerçant le plus approprié, et il les aide à effectuer les paiements et à bénéficier d'une assistance après-vente. Selon Daniel Greaves, responsable de la communication chez Klarna, « environ quatre semaines après son lancement, l'assistant IA a pris en charge les deux tiers des demandes de chat de notre service clientèle et fait le travail de l'équivalent d'environ 700 personnes ».
Srini Koushik, de Rackspace Technology : « Dans ma propre entreprise, si l'IA m'évite d'envoyer quelqu'un sur un vol de New York à Londres, j'ai compensé la consommation qu'elle génère ». (Photo : Rackspace)
Mais ces utilisations de l'IA, ainsi que d'autres, aussi bénéfiques apparaissent-elles, font froncer les sourcils. « À première vue et dans l'état actuel des choses, l'IA et le développement durable vont dans des directions opposées », explique Srini Koushik, président de l'IA, de la technologie et du développement durable chez Rackspace Technology. « L'IA consomme beaucoup d'énergie, qu'il s'agisse d'entraîner de grands modèles de langage (LLM) ou de réaliser des inférences. Et ce n'est que le début. La consommation d'énergie augmente de manière exponentielle. »
Néanmoins, le responsable du fournisseur de cloud et de nombreux autres spécialistes affirment que les avantages de l'IA l'emportent largement sur son empreinte carbone sans cesse croissante, ce qui n'est peut-être pas le cas pour d'autres applications gourmandes en énergie, telles que les crypto-monnaies. L'IA promet d'aider les chercheurs à découvrir des sources d'énergie plus efficaces, telles que la fusion nucléaire, à optimiser l'utilisation des sources d'énergie actuelles grâce à une meilleure distribution ou encore à mieux mesurer les ramifications des émissions de CO2 via l'analyse des dynamiques climatiques. « L'IA sera bénéfique pour l'humanité à bien des égards », assure Srini Koushik. « Dans ma propre entreprise, si l'IA m'évite d'envoyer quelqu'un sur un vol de New York à Londres, j'ai compensé la consommation qu'elle génère ».
Niklas Sundberg, chief digital officer de Kuehne+Nagel : « Vous devriez pouvoir demander à Copilot ou à ChatGPT quelle est l'empreinte carbone de votre dernière requête. » (Photo : Kuehne+Nagel)
Que l'IA tienne ou non ses promesses à long terme, les DSI tenus de rendre compte de leur émissions carbone doivent désormais inclure l'impact de l'IA dans leur Scope 3. Et, là, les choses se compliquent très rapidement. Par exemple, si vous effectuez une inférence à l'aide d'un modèle formé par quelqu'un d'autre, vous devez intégrer votre part de l'impact CO2 du fonctionnement dudit modèle dans vos émissions du Scope 3. Le fournisseur peut être en mesure de vous indiquer la consommation globale d'énergie nécessaire à la phase d'entraînement, mais, même dans ce cas, personne ne sait comment répartir ce coût entre tous les utilisateurs au cours de la durée de vie du modèle.
« Rien de tout cela n'est encore clair, car les rapports sur le Scope 3 sont nouveaux, tout comme l'IA générative », observe Niklas Sundberg, chief digital officer de Kuehne+Nagel, une entreprise suisse de transport et de logistique d'envergure mondiale. Le dirigeant a publié en 2022 un ouvrage sur le GreenIT en entreprise, Sustainable IT playbook for technology leaders.
Malgré ces angles morts, les DSI vont de l'avant avec l'IA. En cours de route, certains ont découvert trois pistes pour atténuer l'impact sur leurs projets d'IA générative sur leur feuille de route en matière de développement durable.
1. Utiliser un grand fournisseur pour optimiser l'utilisation
« Nous sommes déjà des utilisateurs avancés de l'IA, et l'une des choses que nous recommandons est d'utiliser l'IA, en particulier l'inférence, par l'intermédiaire de fournisseurs qui ont des environnements à la demande d'inférence », dit Martin Elwin, de Klarna. Du bon sens. Plus il y a de personnes utilisant un service de cloud public, plus le taux d'utilisation est élevé. Améliorer l'utilisation des ressources pour l'exécution d'applications d'IA gourmandes en énergie pourrait faire la différence dans l'empreinte carbone globale de votre organisation.
Les DSI peuvent aller plus loin en posant aux fournisseurs une liste de questions, à commencer par la manière dont ils entraînent leurs modèles et celle dont l'inférence est exécutée. « Si vous n'achetez que des services d'inférence, demandez-leur comment ils peuvent prendre en compte tout l'impact en amont », conseille Tate Cantrell, directeur technique de Verne, une société basée au Royaume-Uni spécialiste de la colocation. « La sortie de l'inférence prend une fraction de seconde. Mais la seule raison pour laquelle les poids à l'intérieur du réseau neuronal sont tels qu'ils sont, c'est qu'il a fallu un entraînement massif - potentiellement un ou deux mois d'entraînement à quelque chose comme 100 à 400 mégawatts - pour que l'infrastructure soit en mesure de produire ces réponses si rapidement. Alors, quelle est la part de cet entraînement qui doit vous échoir, en termes de bilan carbone ? »
Tate Cantrell, directeur technique de Verne : « quelle est la part de l'entraînement d'un modèle d'IA qui doit vous échoir, en termes de bilan carbone ? » (Photo : Verne)
Tate Cantrell conseille vivement aux DSI d'interroger les fournisseurs sur leurs propres rapports. « Font-ils des rapports ouverts sur l'impact complet en amont que leurs services engendrent du point de vue de la durabilité ? Quelle est la durée du processus d'entraînement, pendant combien de temps reste-t-il pertinent et entre combien de clients cet impact est-il mutualisé ? »
Selon Niklas Sundberg (Kuehne+Nagel), la solution idéale consisterait à faire en sorte que chaque modèle d'IA vous indique son empreinte carbone. « Vous devriez pouvoir demander à Copilot ou à ChatGPT quelle est l'empreinte carbone de votre dernière requête, dit-il. Pour autant que je sache, aucun de ces outils ne vous donnera une réponse à cette question pour le moment. »
2. Utiliser le modèle le plus approprié à chaque partie du problème
Lorsque Klarna a créé son assistant d'IA, la société n'a pas utilisé un seul modèle d'IA pour tout faire. Au lieu de cela, elle a évalué chaque étape du service pour voir ce qui était vraiment nécessaire sur chacune de ces étapes. « Nous nous sommes efforcés d'être efficaces en termes d'utilisation de ressources, résume Martin Elwin. Nous nous sommes assurés que nous utilisions un modèle aussi petit que possible fournissant la capacité nécessaire pour mener à bien chaque étape du processus. »
Klarna a généralisé cette idée en publiant des lignes directrices pour s'assurer que les équipes suivent cette même démarche lorsqu'elles élaborent d'autres solutions. Une étape peut nécessiter un modèle complet, comme GPT-4, alors qu'une autre partie du service fonctionne bien avec un modèle plus léger comme le GPT-35 Turbo.
Les modèles plus petits nécessitent moins d'électricité, non seulement pendant la phase d'apprentissage, mais aussi pour l'inférence. En fin de compte, les entreprises devront, à un moment ou un autre, mesurer la consommation d'énergie issue de leurs usages de l'IA - probablement sur la base de chaque requête. Un critère sur lequel les modèles plus petits sont beaucoup plus performants. « Vous n'avez pas besoin de GPT-4 pour traiter les demandes d'indemnisation dans un contexte d'assurance, illustre Srini Koushik. Vous avez besoin d'un modèle plus petit et formé sur des données plus spécifiques à un domaine, qui est plus précis pour répondre aux questions dans ce domaine précis que GPT-4 ».
Même si les grandes entreprises travaillent depuis longtemps avec l'apprentissage automatique, leurs modèles ne sont pas aussi sophistiqués que les grands modèles open-source, explique Sundberg. « Mais ils parviennent mieux à résoudre des problèmes d'entreprise très spécifiques tels que la fixation des prix et la prévision de l'attrition de la clientèle.
3. Hiérarchiser les cas d'usage
Un DSI peut avoir une vision équilibrée des cas d'usage et les classer par ordre de priorité. « La plupart des gens n'ont pas besoin de Copilot, souligne Srini Koushik. Les avantages liés à la rédaction de meilleurs courriels ne justifient pas le coût de l'abonnement et les émissions de CO2. En revanche, notre service juridique tire de Copilot des avantages qui compensent son coût, c'est pourquoi nous l'avons déployé dans ce service. »
La hiérarchisation des cas d'usage signifie que les DSI devront dire à certains utilisateurs que l'IA n'est pas une solution appropriée à leur problème. Le meilleur moyen d'éviter de froisser les susceptibilités est d'établir des lignes directrices claires dès le départ. Commencez par trouver des moyens de mesurer l'empreinte carbone des outils d'IA, puis, pour chaque cas d'utilisation, comparez-la aux avantages potentiels. « Il est important que les DSI disposent de données sur les émissions de CO2 d'une application donnée, souligne Niklas Sundberg. Cela permet de soupeser les coûts et les avantages. Si vous ne parvenez pas à déterminer vous-même l'empreinte carbone, essayez de poser la question à votre fournisseur de logiciels. »
Sauf que ces derniers ne font pas toujours preuve d'une grande transparence. « Si l'IA générative peut débloquer de nombreuses opportunités en matière de développement durable, elle présente aussi un côté sombre qui n'est pas abordé, en tout cas pas par les fournisseurs », regrette le CDO de Kuehne+Nagel. « Ils sont trop concentrés sur la course technologique pour devenir le fournisseur n°1 dans leur domaine. »