Dans une interview sur le site de Goldman Sachs, le DSI de la banque américaine, Marco Argenti, livre son analyse de l'évolution des usages de l'IA générative par les entreprises. Soulignant combien l'approche de ces dernières a largement évolué au fil de mois : « Au début, tout le monde voulait entraîner son propre modèle, construire son modèle propriétaire avec ses données propriétaires, en gardant les données largement on-premise pour assurer un contrôle étroit. Puis, les gens ont commencé à réaliser que, pour obtenir le niveau de performances des grands modèles, il faut répliquer une infrastructure qui est tout simplement trop chère - de l'ordre de centaines de millions de dollars. »
GPT-4, le dernier des grands modèles de langage (LLM) d'OpenAI, a probablement été entraîné en utilisant des milliers de milliards de mots de textes et en mobilisant des milliers de processeurs. Un processus dont le coût est estimé justement à plus de 100 millions de dollars.
Le LLM ? « Un cerveau pour interpréter le prompt »
D'où la réflexion de Marco Argenti en faveur d'une architecture hybride, associant des LLM préentraînés - « appréciés pour certaines de leurs capacités, dans le raisonnement, la résolution de problèmes et la logique » - et des modèles plus petits, souvent Open Source et spécialisés sur des tâches spécifiques, via un entraînement à partir de données propriétaires. Autrement dit l'association de modèles de fondation disponibles sur le cloud, exploités pour dissocier des problèmes complexes en une somme de problèmes plus élémentaires, et de modèles plus spécialisés, hébergés sur des infrastructures on-premise ou sur des clouds privés et prenant en charge ces tâches spécialisées. « L'IA générative hybride consiste à utiliser les grands modèles comme une sorte de cerveau chargé d'interpréter le prompt », dit le DSI. Et de préciser : « les secteurs qui s'appuient beaucoup sur des données propriétaires et qui sont soumis à une réglementation très stricte seront très probablement les premiers à adopter cette architecture. » Une remarque qui vaut évidemment pour la banque.
RAG, vectorisation et prompt engineering
« Au début, tout le monde pensait que sans son propre modèle préentraîné, il serait impossible d'exploiter la puissance de l'IA en entreprise, reprend Marco Argenti. Aujourd'hui, des techniques appropriées telles que le RAG (Retrieval-augmented generation), la vectorisation du contenu et le prompt engineering offrent des performances comparables, voire supérieures, à celles des modèles préentraînés dans quelque 95 % des cas d'utilisation, et ce pour une fraction du coût. »
Marco Argenti, le DSI de Goldman Sachs, dessine une architecture associant un ou plusieurs LLM du marché et des modèles d'IA spécialisés et entraînés sur les données internes. (Photo : D.R.)
Si, pour le DSI, 2024 sera fortement axé sur la recherche de cas d'usage de l'IA apportant un ROI, il s'attend également à l'émergence d'un écosystème d'outils complémentaires, assurant la sécurité, la conformité ou la protection des données pour les applications d'IA, « à mesure que technologie va s'imposer dans les tâches critiques ». Et de prévoir encore l'apparition de modèles multimodaux, adaptés par exemple à l'interprétation de séries temporelles. « C'est peut-être là que nous verrons la prochaine course [entre les acteurs du secteur, NDLR] pour saisir une variété de cas d'utilisation encore inexploités à ce jour », dit Marco Argenti.
En mars dernier, le DSI, qui a rejoint Goldman Sachs en 2019 en provenance d'Amazon, expliquait que les équipes de développeurs de la banque utilisaient l'IA générative pour générer du code informatique et le tester. Tout en présentant ces premiers usages comme des expérimentations. En novembre 2023, un responsable de l'innovation au sein de The Firm - le surnom de Goldman Sachs - indiquait que l'établissement travaille sur une douzaine de projets incorporant l'IA générative, présentant alors les usages autour du développement IT (génération de code et écriture de documentation) parmi les plus avancés. Aucun de ces projets n'est toutefois associé à une application directement liée à la clientèle, en raison de la régulation, avait alors souligné le responsable de Goldman Sachs.
À lire également :
- Hugues Even, BNP Paribas : « Nous aurons 1000 cas d'usage d'IA en production en 2025 »