Les risques des IA génératives, ce sont leurs concepteurs qui en parlent le mieux. A l'heure où de nombreuses grandes entreprises s'interrogent sur les politiques à déployer en interne pour encadrer les usages de LLM, dont le ChatGPT d'OpenAI, Google livre de précieuses indications sur les risques inhérents à l'utilisation de ces outils. Concepteur de Bard, un chatbot basé sur le modèle de fondation PaLM 2, le géant interdit l'usage de cet outil... à ses propres développeurs internes. Dans une note, le firme proscrit également à ses employés toute saisie d'informations confidentielles au sein du chatbot.
L'avertissement adressé par Google à ses propres employés de ne pas utiliser directement le code généré par Bard sape les affirmations de Google selon lesquelles son chatbot peut aider les développeurs à devenir plus productifs. A nos confrères de Reuters, le géant de la recherche explique que l'interdiction a été édictée parce que Bard pouvait potentiellement générer des « codes indésirables », conduisant à des bugs ou à des applications complexes et boursouflées qui coûteront aux développeurs plus de temps à réparer que s'ils n'utilisaient pas du tout l'IA pour coder.
Dette technique exponentielle
Une assertion qui rejoint le constat de plusieurs DSI, pour qui l'IA générative, en accélérant la production de code peu optimisé et peu (ou pas) maîtrisé, risque de générer une nouvelle dette technique. Dans un récent billet de blog, Yves Caseau, le Chief Digital and Information Officer (CDIO) de Michelin, mettait également en garde contre ce risque, parlant même de « dette exponentielle ». « La dette exponentielle signifie que, lorsque les capacités de l'IA augmentent à un rythme exponentiel, tout morceau de code statique a une performance relative (par rapport à l'état de l'art) qui décroît de manière exponentielle », écrivait-il.