L'arrivée de Donald Trump à la présidence des États-Unis a été marquée par la suppression de plusieurs décisions ou réglementations de son prédécesseur. C'est le cas en matière d'IA où Joe Biden avait signé un executive order en 2023 sur ce sujet. La nouvelle administration repart donc d'une feuille blanche et a soumis son futur "plan d'action sur l'IA" à commentaires. Dans sa contribution à la consultation gouvernementale, OpenAI soutient que la régulation fédérale (plus libérale) doit prévaloir sur les cadres plus restrictifs adoptés par certains Etats (comme en Californie). De plus, l'entreprise dirigée par Sam Altman alerte sur les efforts de régulation de l’IA en Chine, qu’elle considère comme un défi pour les développeurs américains, et propose que les États-Unis adoptent un modèle similaire, fondé sur une coopération étroite entre le gouvernement et les entreprises d'IA.
La société a recommandé au gouvernement de collaborer avec le secteur privé pour éviter que des règles trop strictes ne désavantagent les entreprises américaines d’IA face à la Chine. Dans son rapport de 15 pages, il propose de créer un espace d’expérimentation pour les start-ups, où elles bénéficieraient de protections juridiques et seraient exemptées de certaines réglementations sur la sécurité des modèles d’IA avancés. Par ailleurs, le fournisseur souhaite obtenir des informations classifiées et des outils de threat intelligence sur les menaces potentielles pour mieux gérer les risques liés à la sécurité nationale. Dans une note de bas de page, il est rappelé que ces modifications nécessitent l'approbation du Congrès : "La préemption fédérale sur les lois étatiques existantes ou potentielles nécessitera un acte du Congrès".
Un accès aux contenus sous copyright et une limitation des exportations
La contribution précise qu’OpenAI souhaite s'entraîner sur des données protégées par le droit d'auteur. Un moyen pour la société d'éviter les procès des ayants droits réclamant leur dû. Là encore, elle met en avant le risque d'être en retard par rapport à la Chine. L'administration semble entériner la doctrine du fair use, en permettant aux entreprises américaines d'avoir des exemptions dans l'usage des données pour entraîner leurs modèles d'IA. Parmi les autres points soulevés par le fournisseur de LLM, il milite pour un soutien à l'innovation en IA en collaborant avec les entreprises de toutes tailles. Cela implique des tests dans des zones sécurisées et une coopération pour protéger la sécurité nationale tout en évitant des régulations trop strictes.
Il est aussi proposé de limiter l'exportation des technologies d'IA vers la Chine, tout en soutenant le développement des systèmes compatibles avec les valeurs démocratiques. Enfin, il est essentiel de moderniser les processus gouvernementaux pour intégrer l'IA rapidement, notamment en renforçant la cybersécurité de ces outils et en facilitant les expérimentations dans les agences fédérales.
Des propositions dans le sens de la Maison Blanche
L’analyste senior de Forrester, Alla Valente, estime que la plateforme cherche avant tout à dire « ce que tout le monde veut entendre ». Selon elle, l’entreprise s’aligne clairement sur les attentes de la Maison Blanche : « Si vous êtes développeur, nous voulons que vous innoviez en toute liberté et que vous vous débarrassiez de toutes ces réglementations étatiques encombrantes. » D’autres analystes partagent cet avis et soulignent que les réglementations des États sur l’IA sont susceptibles d'être plus rigoureuses, en particulier en ce qui concerne la protection des droits, de la vie privée et de la sécurité. Du point de vue des entreprises IT, la proposition d'OpenAI pourrait être intéressante car elle simplifierait les réglementations à suivre et éviterait les contradictions entre différentes lois. Toutefois, de nombreux DSI de grands comptes doivent déjà gérer des règles de conformité sur l'IA, notamment en Australie, dans l'UE, au Royaume-Uni, au Canada et au Japon, où certaines sont contradictoires. Malgré la déclaration d’OpenAI soulignant la simplicité, « cela pourrait créer plus de complexité. La véritable simplicité serait une coopération mondiale », ajoute Alla Valente.
Par ailleurs, Reece Hayden, analyste principal de l’IA chez ABI Research, a salué l’approche d’OpenAI sur les enjeux d’infrastructure, notamment la modernisation des réseaux énergétiques américains, souvent négligée au profit des questions d’efficacité et de sécurité. Dave Schubmehl, vice-président de la recherche chez IDC, reste néanmoins sceptique sur la portée de cette initiative. Selon lui, « la réglementation de l’IA au niveau de l’État est probablement une évidence », mais il reconnaît « qu'OpenAI tente de centraliser la réglementation. »