L’intelligence artificielle rassemble. Ce 5 décembre, à l’Ecole Normale Supérieure dans le 5e arrondissement de Paris, étaient rassemblés un certain nombre d’acteurs de l’écosystème IA afin de débattre des récents développements de l’intelligence artificielle et de ses implications éthiques. « Quels sont les risques que soulèvent les dernières avancées de l’IA ? À quel point l’IA s’inscrit-elle dans la rivalité technologique et industrielle entre grandes puissances ? Comment l’Union européenne peut-elle entrer dans la course à l’IA sans pour autant faire l’impasse sur une régulation permettant de protéger les sociétés, notamment face au risque de la désinformation ? ». Autant de questions auxquelles un panel de chercheurs, professeurs et personnalités gravitant autour de l’écosystème IA a tenté d’apporter une première réponse.
Pour l’occasion, Anne Bouverot, présidente du Conseil d'administration de l'ENS & Fondation Abeona, Marc Mézard, professeur à l'Université de Bocconi (basée à Milan) ainsi que Jamal Atif, professeur en IA à l'Université Paris-Dauphine étaient présents. Yann Le Cun, chercheur en IA chez Meta ainsi que Martin Tisné, directeur de AI Collaborative, Fondation Omidyar Group ont également participé. Au cours de l’événement, une annonce phare a ainsi été faite : la création d’un institut IA et Société. Fruit d’un rapprochement entre la Fondation Abeona, l'École Normale Supérieure-PSL et l'Université Paris-Dauphine-PSL, cet institut doit « aider à créer un environnement propice à l'innovation responsable ».
« Rechercher, former, informer et influer »
La mission de l’institut sera de « rechercher, former, informer et influer sur le développement d’une IA responsable » affirme Anne Bouverot, notamment à travers les points suivants : la recherche sur les impacts sociétaux et économiques de l’IA, la réflexion sur les politiques publiques et la géopolitique de l’IA, l’engagement et la participation au débat public, ainsi que la sensibilisation et la formation. Quatre grands axes de recherche sur l’impact de l’IA ont par ailleurs été définis à ce stade : « l’IA et la justice sociale », « l’IA et l’avenir du travail », « robustesse et sécurité de l’IA », « langage, images et désinformation à l’ère de l’IA générative ». Pour s’ancrer de manière forte dans l’écosystème IA, et de manière plus générale, dans la sphère technologique, l’institut prévoit de réunir des acteurs du monde de la technologie, des affaires, de la société civile et du monde universitaire. Se faisant, les membres de cet institut veulent construire un espace unique permettant une meilleure appréhension des risques et opportunités de l’IA. « Ce que je vois, c’est l’arrivée de l’IA comme une extension du numérique mais qui se développe à une vitesse jamais vue jusqu’à présent. C’est un phénomène radicalement nouveau » précise Marc Mézard.
« Nous nous posons tous des questions sur les risques à court comme à long terme de cette technologie et de la multitude de cas d’usages possibles » rappelle Anne Bouverot. « L’IA en elle-même n’est pas porteuse d’un malheur, c’est l’usage qui questionne. Il faut règlementer les usages » ajoute Jamal Atif. Et Yann Le Cun de poursuivre : « Certaines personnes craignent que l’IA ne pose un risque trop grand au regard des bénéfices potentiels ». Interrogé sur ce qu’est une IA responsable, le directeur de la recherche fondamentale sur l'intelligence artificielle du groupe Meta ironise : « Qu’est-ce que c’est qu’une IA irresponsable ? ». Selon lui, toute technologie est un compromis entre ses bons et ses mauvais côtés. Pour imager ses propos, il n’hésite pas à multiplier les analogies, prenant l’exemple de la voiture, mais aussi de l’aviation ou encore de l’imprimerie. « Comment faire la part des choses ? Qui doit décider ? C’est le rôle des politiques et des gouvernements. C’est au processus démocratique de le faire, d’en décider » poursuit Yann Le Cun. Il n’hésite pas non plus à mettre en avant les avantages de l’open source pour l’intelligence artificielle. « A l’avenir, nous aurons des assistants intelligents qui seront même plus intelligents que les gens dans certains domaines. Il faut se faire à cette idée, cela va amplifier l’intelligence de tout le monde ». Cependant, ces interactions avec ces systèmes ne doivent pas se retrouver entre les mains de « deux ou trois entreprises sur la côte ouest, ce n’est pas bon pour la démocratie. Il faut que ces plateformes soient ouvertes » insiste-t-il.
Une technologie qui mérite un cadre de réflexion
Il va sans dire que le nom de l’institut – IA et société – montre une réelle volonté de rassembler cette technologie de notre société. « C’est à la fois une technologie multi-usage et en même temps il y a cette interface et cette capacité à générer du texte de manière statistique. C’est très spécifique. Il y a donc besoin d’un cadre de réflexion » estime Anne Bouverot. Pour diriger cet institut, un comité de pilotage – co-présidé par Anne Bouverot et Marc Mézard – a été mis en place. Des personnalités de l’écosystème ont d’ores et déjà intégré l’organisation, à l’instar de Jamal Atif (professeur, vice-président de l’Université Paris Dauphine – PSL), Laurent Daudet (co-CEO et co-fondateur de LightOn), Carly Kind (directrice du Ada Lovelace Institute), Xavier Lazarus - managing partner et co-fondateur d’Elaia, Yann Le Cun (chercheur en IA chez Meta), Tanya Perelmuter (co-fondatrice, Fondation Abeona), Gabriel Peyré (directeur du Centre de Data Science de l’ENS), Isabelle Ryl (directrice, PRAIRIE / Paris School of AI), ainsi que Martin Tisné (directeur AI Collaborative, Fondation Omidyar Group). Enfin, sans plus donner de détails, il a été précisé que l’institut sera financé à la fois par des fonds publics et privés.
Commentaire