L'entreprise de gestion des dépenses de voyage Emburse, née en 2014 à San Francisco, a identifié de multiples opportunités liées à l'usage de l'IA générative dans ses activités. Elle pourrait être utilisée pour améliorer l'expérience des utilisateurs, par exemple grâce à une analyse plus intelligente des reçus et factures, ou aider les entreprises clientes à repérer les cas de fraude.
Prenons l'exemple de la simple lecture d'un reçu et de la classification précise des dépenses. Comme les reçus peuvent revêtir des formes très diverses, toute forme d'automatisation peut s'avérer complexe. Pour résoudre ce problème, l'entreprise s'est tournée vers l'IA générative et a décidé d'utiliser des modèles propriétaires et open source. Les deux approches ont leurs avantages, explique Ken Ringdahl, directeur technique de l'entreprise. Le principal modèle propriétaire, celui d'OpenAI, était plus rapide, plus facile à déployer et plus précis dès sa mise en oeuvre, mais les alternatives open source offraient sécurité, flexibilité, et réduction des coûts et, avec un entraînement supplémentaire, une précision encore meilleure.
En ce qui concerne la sécurité, de nombreux fournisseurs de solutions propriétaires utilisent les données de leurs clients pour entraîner leurs modèles, explique le CTO. Il est possible de se désengager de ce mécanisme, mais sous certaines conditions. Par exemple, accepter de payer davantage pour s'assurer que ses données ne sont pas utilisées à des fins d'entrainement et ne seront ainsi pas exposées à des tiers. « C'est l'un des pièges des modèles propriétaires, explique-t-il. Les contrats renferment beaucoup de petits caractères et les choses ne sont pas toujours très transparentes. »
Emburse réentraîne Mistral
S'y ajoute la question géographique. Emburse est disponible dans 120 pays différents, ce qui n'est pas le cas d'OpenAI. De plus, certaines régions ont des exigences réglementaires en matière de stockage des données notamment. « C'est pourquoi nous avons recours à des logiciels libres, explique Ken Ringdahl. Cela nous permet de fournir des services dans des régions qui ne sont pas couvertes [par les offres propriétaires, NDLR] et de cocher les cases relatives à la sécurité, à la confidentialité et à la conformité. »
Pour l'instant, l'entreprise utilise le modèle open source du Français Mistral AI. « Nous avons évalué tous les grands modèles de langage open source et avons constaté que Mistral est le meilleur pour notre cas d'utilisation une fois qu'il a été entraîné, reprend le CTO. Une autre considération que nous avons examinée est la taille du LLM, qui peut avoir un impact sur le temps d'inférence. » Par exemple, souligne le CTO, la taille importante de Llama de Meta a un impact sur le temps d'inférence.
« Notre sélection de LLM open source pourrait certainement changer car ce domaine évolue rapidement, ajoute-t-il. Nous avons développé notre logiciel de manière à ce que le LLM - qu'il soit open source ou propriétaire - puisse être remplacé par un simple changement de configuration. »
Contrôler les mises à jour
Autre avantage de l'open source : l'entraînement supplémentaire des modèles. Emburse dispose d'exemples de reçus, déjà étiquetés et catégorisés, dans de nombreux formats et langues. « Nous avons adapté le modèle à notre propre cas d'usage, de sorte que le taux de réussite est extrêmement élevé », explique Ken Ringdahl. En d'autres termes, pour les cas d'usage autres que l'anglais, les modèles open source passés par une étape de fuine-tuning peuvent être plus précis que les grands modèles propriétaires.
Les modèles open source offrent également aux entreprises une plus grande flexibilité quant à leur mise à jour. « Le modèle actuel d'OpenAI est GPT 4-o, mais ils sortiront la version cinq et la version quatre finira par disparaître - selon leur calendrier, pas le mien », illustre Ken Ringdahl. Pour de nombreuses entreprises, ce cimple constat masque une problématique à part entière, car la création de produits ou d'offres intégrant l'IA nécessite de nombreux tests et optimisations. « Avec l'open source, vous avez le contrôle de l'endroit où vous utilisez la technologie et du moment où elle disparaîtra », ajoute le CTO.
Une approche moins coûteuse
Enfin, il y a la question du prix. L'open source n'est évidemment pas totalement gratuit, les coûts d'infrastructure, de développement et d'exploitation subsistent. « Dans notre cas, nous exécutons notre modèle sur AWS dans notre propre cloud privé, explique le CTO d'Embruse. Nous payons donc toujours pour l'usage de la technologie. Cela peut entraîner une envolée des dépenses si vous ne comprenez pas les schémas d'utilisation et leur impact sur les coûts. »
Mais dans l'ensemble, le fait de ne pas avoir à payer les frais d'API d'OpenAI permet de réaliser des économies. « C'est probablement l'une des deux ou trois principales raisons justifiant l'usage d'un modèle open source : vous maîtrisez mieux vos coûts », souligne le CTO. D'autres entreprises constatent également que les modèles d'IA générative open source peuvent offrir davantage de flexibilité, de sécurité et de contrôle des coûts, bien qu'ils présentent des risques.
Une (sur)abondance de choix ?
Dans sa définition la plus générale, le terme open source fait référence à la disponibilité du code source et au fait que le modèle peut être modifié et utilisé gratuitement dans divers contextes. Il existe un grand nombre de modèles de ce type. Le site de référence en la matière, Hugging Face, suit actuellement plus de 150 000 LLM pour la seule génération de texte, contre 80 000 il y a six mois. Trop de choix ? Le système d'évaluation Chatbot Arena, créé par la Large Model Systems Organization (LMSYS), composée d'étudiants et de chercheurs américains, classe plus de 160 modèles de premier plan - propriétaires et open source - et détaille leurs licences.
Il existe également des milliers d'outils open source liés à l'IA, en plus des modèles eux-mêmes. GitHub recense désormais plus de 100 000 projets portant le nom LLM, contre 50 000 en mai. Mais la plupart des entreprises s'en tiennent aux grands acteurs. Selon Baris Sarer, qui dirige la division IA d e la branche du cabinet Deloitte spécialisé dans les technologies, les médias, le divertissement et les télécommunications, le modèle Llama de Meta est celui qui apparaît le plus dans les déploiements de ces secteurs, suivi par Mistral. Au classement de Chatbot Arena, le dernier Llama 3.1 arrive un peu en retrait du tout dernier modèle d'OpenAI, le GPT-4o sorti en septembre, mais reste devant la version d'août du même modèle.
« Meta s'est d'abord lancé sur le marché avec un certain nombre de modèles plus petits, explique Baris Sarer. Aujourd'hui, Meta dispose également d'un modèle 'frontière' [autrement dit, de très grande taille, NDLR] et se mesurent aux principaux acteurs du marché. » Les chiffres sur les parts de marché le confirment. Selon la plateforme de prévision des ventes Enlyft, après les 41 % de parts de marché de GPT-4, Llama arrive en deuxième position avec 16 %. Mistral figure également sur la liste, bien que sa part de marché soit inférieure à 5 %.
L'option SLM open source
La société Kong, qui étudie les usages des API par les développeurs, fait état d'un équilibre similaire : OpenAI ressort à 27 %, Llama à 8 % et Mistral à 4 %. Et, au-delà des grands modèles, on assiste également à une prolifération de modèles plus petits (SLM), conçus pour des cas d'utilisation de niche. « Des études ont montré que les petits modèles de langage, dont le nombre de paramètres varie entre des millions et des milliards, peuvent être plus performants que leurs homologues plus grands sur des tâches spécialisées », explique Anand Rao, professeur d'intelligence artificielle à l'université Carnegie Mellon. Ils nécessitent également moins de puissance de calcul et peuvent être ré-entraînés plus efficacement, ajoute-t-il. Ils sont donc mieux adaptés au déploiement dans des environnements où les ressources sont limitées.
Baris Sarer, de Deloitte, a récemment travaillé avec une entreprise de technologies pour datacenter qui cherchait une IA générative pour l'aider à transformer à la fois son front et son back-office. « Ils avaient une série de cas d'usage - ventes, opérations marketing, services sur le terrain. Nous avons choisi Llama de Meta comme modèle en raison de son coût, de ses fonctions de contrôle, de la simplicité de sa maintenance et de sa flexibilité. »
Au sein de cette société, pour la prospection commerciale par exemple, l'IA est utilisée pour extraire des informations de sources internes et externes afin de mieux préparer les vendeurs à présenter des produits et services aux clients, et effectuer des recommandations de vente adaptées. « Ils ont déployé la technologie il y a quelques mois aux États-Unis et en Europe, et apportent maintenant des améliorations basées sur les premiers retours, avec un déploiement à plus large échelle, explique Baris Sarer. Nous recevons de bons échos de la part des vendeurs qui l'utilisent. »
Davantage de flexibilité de déploiement
Si la GenAI propriétaire, OpenAI en tête, est la plus fréquemment adoptée, dans de nombreux cas, une alternative open source s'avère judicieuse, estime Baris Sarer. « Si le client préfère déployer l'IA on-premise, l'open source est vraiment la seule solution possible, explique-t-il. Et le déploiement sur site est encore très répandu dans certains secteurs. Sans oublier le fait que, comme Emburse, de nombreuses entreprises utilisent l'open source pour des raisons de couverture géographique. »
De nombreuses entreprises trouvent également des avantages à optimiser les modèles pour leurs besoins propres. « Vous pouvez prendre un modèle open source pré-entraîné et l'optimiser avec vos propres données, explique Baris Sarer. De plus, les logiciels libres offrent une plus grande souplesse de déploiement. Si vous souhaitez déployer un modèle plus petit en Edge, la plupart des modèles dans ce domaine sont open source. »
Même pris tel quel, certains modèles open source peuvent s'avérer meilleurs que leurs alternatives commerciales pour des tâches particulières. Agus Huerta, vice-président de l'innovation numérique et de la technologie chez Globant, affirme avoir constaté de meilleures performances en matière de génération de code avec Llama 3 qu'avec ChatGPT.
« Llama 3 s'avère performant pour comprendre la structure d'un logiciel et la façon dont il est corrélé avec d'autres lignes de code, explique-t-il. Il peut également aider au refactoring de code. Llama 3 s'est avéré très efficace dans ce domaine. » Selon Agus Huerta, le même modèle donne également de bons résultats lorsqu'un développeur doit monter en compétences sur un applicatif, pour des travaux d'intégration ou de maintenance.
Pourquoi l'IA open source reste-t-elle à la traîne ?
Coûts réduits, flexibilité accrue, sécurité renforcée : que manque-t-il encore à l'open source ? Un grand écart de performance existait encore il y a peu entre les modèles open source et propriétaires, mais les positions évoluent vite dans ce domaine en pleine effervescence qu'est la GenAI. « L'écart s'est considérablement réduit en 2024, estime Arun Chandrasekaran, analyste chez Gartner. Mais, même ainsi, nous ne voyons pas encore beaucoup de modèles open source en production. »
L'une des raisons est que les entreprises ont réalisé des investissements importants dans des modèles propriétaires et qu'elles ne voient pas l'urgence d'en changer, explique-t-il. Sans oublier la complexité opérationnelle de l'exploitation des modèles open source et les conséquences juridiques potentielles. L'indemnisation des ayants-droits est une caractéristique commune des contrats d'OpenAI, de Microsoft, d'Adobe et d'autres grands fournisseurs. Ce n'est évidemment pas le cas avec les logiciels libres.
Par ailleurs, si les modèles open source peuvent être plus facilement réentrainés ou personnalisés, ce processus demeure complexe et coûteux. « Et les modèles de base sous-jacents évoluent rapidement, souligne Arun Chandrasekaran. Si vous personnalisez la technologie et que le modèle sous-jacent change, vous devez réenclencher un cycle de personnalisation. »
Incertitudes sur la viabilité à long terme
Enfin, la question de la viabilité à long terme se pose. « Construire un modèle ouvert, le publier et le faire utiliser par des millions de personnes est très différent de la construction d'un business model autour de ce modèle et assurer sa monétisation », explique l'analyste. « La monétisation est difficile, alors qui va continuer à financer ces modèles ? C'est une chose de construire la première version, c'en est une autre de construire la cinquième ».
En fin de compte, nous nous dirigeons probablement vers un avenir hybride, estime Sreekanth Menon, responsable de l'IA au sein de la société de services Genpact. « Les modèles open source et propriétaires ont tous deux leur place, malgré le sentiment populaire de prise de contrôle de l'open source », déclare-t-il. Les entreprises ont tout intérêt à rester agnostiques en matière de modèles.
Attention aux mirages des LLM open source
0
Réaction
Plus facilement personnalisables, plus transparents, moins chers : les modèles d'IA générative open source ont des arguments pour convaincre les DSI. Mais attention aux chausse-trappes.
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire