Alors que l’IA Act doit bientôt être soumis au vote du Parlement européen, au cours de la session du 12 au 15 juin, OpenAI fait la moue. Son agent conversationnel, ChatGPT, pourrait en effet être visé par le règlement à venir. Sam Altman, fondateur d’OpenAI, a fait part de sa vision de l’IA pour les prochaines années dans un billet de blog publié cette semaine et également signé par Greg Brockman (président et co-fondateur d’OpenAI) et Ilya Sutskever (co-fondateur et chief scientist de la société). « Dans l'état actuel des choses, il est concevable que dans les dix prochaines années, les systèmes d'IA dépassent le niveau de compétence des experts dans la plupart des domaines et qu'ils soient aussi productifs que l'une des plus grandes entreprises d'aujourd'hui » affirment-ils.
Employant le terme de super-intelligence pour parler du développement de solutions comme ChatGPT, ils indiquent qu’ « en termes d'avantages et d'inconvénients potentiels, la super-intelligence sera plus puissante que les autres technologies auxquelles l'humanité a dû faire face dans le passé. Nous pouvons avoir un avenir beaucoup plus prospère, mais nous devons gérer les risques pour y parvenir. Face à la possibilité d'un risque existentiel, nous ne pouvons pas nous contenter de réagir ». Les fondateurs présentent ainsi leur réflexion initiale portant sur trois points clés. Et on peut dire que Sam Altman a le sens du timing. Le même jour, il a profité d’un déplacement à Londres pour prêcher la bonne parole sur l’IA. Un déplacement qui s’inscrit dans le cadre de sa tournée mondiale, l’homme d’affaires ayant déjà rencontré plusieurs dirigeants, incluant le président français Emmanuel Macron, le Premier ministre polonais Mateusz Morawiecki et le Premier ministre espagnol Pedro Sánchez.
Un peu de régulation, mais pas trop
Craignant une régulation trop exigeante, Sam Altman a repris certains des arguments familiers, notant que les gens ont raison de s'inquiéter des effets de l'IA mais que ses avantages potentiels, à son avis, sont bien plus importants. Se félicitant d’une réglementation à venir, il a dit qu'il voulait voir « quelque chose entre l'approche traditionnelle européenne et l'approche traditionnelle américaine ». En clair : un peu de réglementation mais pas trop. Selon lui, trop de règles pourraient nuire au développement de l’IA et à sa démocratisation auprès de petites entreprises. « D'un autre côté », a-t-il dit, « je pense que la plupart des gens seraient d'accord pour dire que si quelqu'un déchiffre le code et construit une super-intelligence - quelle que soit la façon dont vous voulez définir cela - [alors] certaines règles mondiales à ce sujet sont appropriées... Je voudrais m'assurer que nous traitons cela au moins aussi sérieusement que nous traitons, disons, les matières nucléaires ; pour les systèmes à grande échelle qui pourraient donner naissance à une super-intelligence ».
Une phrase qu’il ne cesse de répéter en boucle depuis qu’il a écrit ces mots dans un billet de blog : « Compte tenu de la possibilité d'un risque existentiel, nous ne pouvons pas simplement être réactifs. L'énergie nucléaire est un exemple historique couramment utilisé d'une technologie dotée de cette propriété ; la biologie synthétique est un autre exemple. […] Nous devons également atténuer les risques de la technologie actuelle de l'IA, mais la super-intelligence nécessitera un traitement et une coordination particuliers ». Reste que ce terme répété à l'envie n'emporte pas l'adhésion des experts qui y voient une feinte rhétorique pour minimiser la régulation.
Un rétropédalage après une menace de retrait du marché européen
Le CEO d'OpenAI, a ainsi déclaré qu'il avait « de nombreuses inquiétudes » concernant le réglement européen sur l'IA. Les termes de ce cadre réglementaire ont été élargis ces derniers mois pour inclure de nouvelles obligations pour les éditeurs de « modèles de fondation » – des systèmes d'IA à grande échelle, par exemple les LLM qui alimentent des services comme ChatGPT et DALL-E d'OpenAI. Un détail qui a toute son importance puisque des systèmes comme ChatGPT pourraient être désignés comme « à haut risque » en vertu de la législation de l’UE. En clair, la firme devrait répondre à un certain nombre d'exigences de sécurité et de transparence. En réponse, Sam Altman a déclaré au Financial Times : « Nous essaierons de nous conformer, mais si nous ne pouvons pas nous y conformer, nous cesserons nos activités ».
Un point qu’il avait d’ores et déjà évoqué dans son billet de blog : « Nous pensons qu'il est important de permettre aux entreprises et aux projets open source de développer des modèles en dessous d'un seuil de capacité significatif, sans le type de réglementation que nous décrivons ici (y compris des mécanismes contraignants tels que des licences ou des audits) […] En revanche, les systèmes qui nous préoccupent auront un pouvoir au-delà de toute technologie encore créée, et nous devons veiller à ne pas diluer l'attention sur eux en appliquant des normes similaires à une technologie bien en dessous de cette barre ». La menace de retirer ses services du marché européen plane donc et c’est une manœuvre délicate que l’UE n’apprécie guère. Thierry Breton, commissaire européen au marché intérieur s’est empressé de répondre sur Twitter : « Il ne sert à rien de tenter de faire du chantage — prétendant qu'en élaborant un cadre clair, l'Europe retarde le déploiement de l’IA générative. Au contraire ! Avec le "Pacte IA" que j'ai proposé, nous visons à aider les entreprises dans leur préparation à la loi européenne sur l'IA ». Un message bien entendu par Sam Altman qui a fait machine arrière en annonçant que la société n'avait bien sûr aucun projet de quitter l'Europe. Une sortie qui intervient au moment où Google essaie de reprendre la main. Preuve en est la visite de Sundar Pichai à Thierry Breton pour parler justement de la régulation autour de l'IA.
Commentaire