Depuis vendredi dernier, le monde de l’IA a vécu à l’heure des différents soubresauts chez OpenAI après la décision du conseil d’administration de limoger son CEO, Sam Altman. Retour probable, regrets, menaces de la part des salariés, recrutements chez Microsoft, le feuilleton a alimenté les médias tout le week-end. Mais il a aussi soulevé des interrogations sur l’impact d’une telle affaire sur le développement de l’IA générative.
Une vie sans OpenAI est possible
Pour plusieurs experts, si OpenAI venait à imploser, cela n’aurait pas d’incidence notable sur le développement de l’IA. « Ce n’est plus un secret pour personne, les gens savent ce que ces modèles peuvent faire et les recettes pour y parvenir », a déclaré Braden Hancock, CTO et cofondateur de Snorkel AI, une startup qui aide les entreprises à développer de grands modèles de langage (LLM) pour un usage spécifique. « Open AI a réussi à commercialiser et à livrer le produit, mais au moins une douzaine de grandes entreprises IT, bien financées et dotées en personnel, développent simultanément la technologie de base, sans parler des laboratoires de recherche et des centaines de startups spécialisées dans l'IA », ajoute-t-il.
« Elles ont eu l'avantage d'être les premières à se lancer, mais l'IA générative est là pour durer, peu importe qui mène la course en tête à un moment ou à un autre », précise le dirigeant. Il conseille aux entreprises qui déploient ou envisagent de déployer des plateformes d'IA générative, d'élaborer leurs stratégies d'IA de manière responsable, c’est-à-dire de ne pas trop dépendre d'un seul fournisseur. « Tout comme le multi-cloud a été essentiel dans la gestion des risques pour les entreprises pendant des années, le multi-LLM devrait l'être également », déclare-t-il.
L’IA générative, un Far West à réguler
Selon Jack Gold, analyste principal chez J. Gold Associates, l'univers de l'IA est actuellement un véritable Far West. Et avec le changement de direction d'OpenAI, il est devenu encore plus sauvage. « Les deux créateurs, fondateurs et forces vives d'OpenAI ont été embauchés par Microsoft, qui est aujourd'hui un investisseur », observe le consultant. « Mais à l'avenir, Microsoft deviendra un concurrent direct. Le fait qu'ils dirigent le laboratoire d'IA avancée de Microsoft leur donne la possibilité de recréer et de surpasser ce qu'OpenAI a fait. Microsoft dispose d'une quantité massive de ressources qu'il peut mettre en œuvre ».
Avivah Litan, analyste distinguée et vice-présidente de Gartner, a déclaré que le conflit au sein d'OpenAI montre la nécessité d'une réglementation mondiale pour une IA sûre et sécurisée. « Notre sécurité future ne devrait pas dépendre des caprices des individus qui dirigent les entreprises d'IA vers une IA générative », constate la consultante, faisant référence à la marche vers la « singularité », c'est-à-dire le moment où l'IA n'aura plus besoin du contrôle de l'homme. « Le récent décret du Président Joe Biden, qui a mis en place des garde-fous autour de l'IA pour les agences fédérales, représente un bon début vers une réglementation substantielle significative, mais il faut aller plus loin », ajoute-t-elle. Avant de compléter, « la crise d’OpenAI devrait servir de signal d'alarme quant au besoin urgent d'action et de leadership ».
Un chaos où l’open source a sa carte à jouer
Selon Cliff Jurkiewicz, vice-président de la stratégie mondiale pour le service de recrutement basé sur l'IA Phenom, contrairement aux technologies de rupture précédentes, ChatGPT et d'autres outils d’IA génératives innovent à un rythme beaucoup plus rapide. Il pense que ce qui se joue publiquement dans l’affaire OpenAI, c’est la capacité de suivre ce rythme tout en maintenant la stabilité et la confiance dans leur prise de décision. « Le conseil d'administration d'OpenAI a adopté l'approche « fail fast » de l'innovation et l'a appliquée à la gestion d'une entreprise. Mais ce n'est pas de l'innovation. C'est le chaos », estime Cliff Jurkiewicz. « La monétisation de la technologie n'était pas conforme à la mission et aux valeurs du conseil d'administration. Nous vivons dans un monde capitaliste. Les entreprises peuvent être à la fois rentables et éthiques. La confiance dans une entreprise dépendra du niveau d’éthique auquel elle se situe quant à l’usage de l'intelligence artificielle, si, en particulier, elle fait passer l’humain au premier plan ».
« En tant que start-up, OpenAI dépend presque entièrement d'investisseurs en capital-risque, et ceux-ci, sont souvent impatients d'obtenir un retour rapide sur leurs investissements », analyse Jon Gold. C'est peut-être ce qui a conduit au licenciement de Sam Altman. Bizarrement, celui-ci a fait partie des 33 700 personnes qui ont signé une lettre ouverte, avec des personnalités du monde de la technologie comme le cofondateur d'Apple Steve Wozniak, appelant à une pause dans le développement du LLM GPT d'OpenAI. Les experts du secteur ont estimé que la prochaine itération du LLM, GPT-5, pourrait se réaliser et ouvrir la porte à l'inconnu en matière d'IA. « Même si quelques startups d'IA pourraient pâtir de cette situation, elles ne sont pas les seules sur le marché », a déclaré Luis Ceze, CEO de la plateforme de déploiement de modèles d'IA OctoML, professeur à l'université de Washington et investisseur en capital-risque chez Madrona Ventures. « Par exemple, l'open source offre aujourd'hui un tas de modèles qui permettent aux entreprises de se diversifier. Ce faisant, ces startups peuvent se transformer rapidement et minimiser les risques ». Selon lui, l’affaire OpenAI pourrait avoir un « effet positif majeur » dans la mesure où de nombreux modèles open source surpassent déjà GPT-4 en termes de prix, de performances et de rapidité. Ils ne sont tout simplement pas encore reconnus.
Commentaire