Plusieurs des principales entreprises américaines développant l'IA ont accepté de collaborer avec le gouvernement américain et de s'engager à respecter plusieurs principes visant à garantir la confiance du public dans l'IA, a déclaré la Maison Blanche vendredi. Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont tous signé les engagements visant à rendre l'IA sûre, sécurisée et digne de confiance. En mai dernier, déjà, l'administration Biden avait déclaré qu'elle rencontrerait les principaux fournisseurs d'IA pour s'assurer qu'ils étaient en accord avec la politique des États-Unis.
Les garanties ne sont pas contraignantes et aucune sanction n'est prévue en cas de non-respect. Les politiques ne peuvent pas non plus affecter rétroactivement les systèmes d'IA qui ont déjà été déployés - l'une des dispositions stipule que les entreprises s'engagent à tester l'IA pour détecter les failles de sécurité, à la fois en interne et en externe, avant de la mettre sur le marché. Néanmoins, ces promesses visent à rassurer le public (et, dans une certaine mesure, les législateurs) sur le fait que l'IA peut être déployée de manière responsable. L'administration Biden avait déjà proposé d'utiliser l'IA au sein du gouvernement pour rationaliser les tâches.
Un filigrane numérique pour les contenus basés sur l’IA générative
Les effets les plus immédiats se feront peut-être sentir sur la mis en place d'un filigrane numérique (watermark) pour identifier une œuvre comme étant générée par l'IA. Certains services, comme Image Creator de Bing, le font déjà. Cette marque accessible aux lecteurs, auditeurs et spectateurs (pour toucher l’ensemble du spectre des images générées par IA) doit aider à freiner la désinformation qui peut découler de certains de ces contenus. Chacun pourra donc retracer l’origine de tout contenu si besoin.
Tous les signataires ont promis d'utiliser l'IA pour le bien public, comme la recherche sur le cancer, et à identifier les domaines d'utilisation appropriée et inappropriée. Ces domaines n'ont pas été définis, mais ils pourraient inclure les garanties existantes qui empêchent ChatGPT, par exemple, d'aider à planifier un attentat terroriste. Les entreprises spécialisées dans l'IA vont promouvoir la préservation de la confidentialité des données, une priorité que Microsoft a défendue avec les versions professionnelles de Bing Chat et de Microsoft 365 Copilot. Par ailleurs, les acteurs vont tester la sécurité interne et externe de leurs systèmes d'IA avant leur mise en service et à partager des informations avec l'industrie, les gouvernements, le public et les universités sur la gestion des risques liés à l'IA. Enfin, ils assurent l'accès aux chercheurs tiers d'accéder à leurs systèmes pour en découvrir et en signaler les vulnérabilités.
Contenir les risques de dérives de l’IA
Le président de Microsoft, Brad Smith, a approuvé ces engagements, notant que Microsoft a plaidé en faveur de l'établissement d'un registre national des systèmes d'IA à haut risque. (Google a également dévoilé sa propre « red team » de hackers qui tentent de casser l'IA en utilisant des attaques telles que les attaques rapides, l'empoisonnement des données, etc. « Dans le cadre de notre mission de construction d'une IA sûre et bénéfique, nous continuerons à piloter et à affiner des pratiques de gouvernance spécifiquement adaptées à des modèles de fondation comme ceux que nous produisons », a déclaré OpenAI dans un communiqué. « Nous poursuivrons également nos investissements dans la recherche pour adapter la réglementation, tels que les techniques d'évaluation des capacités potentiellement dangereuses dans les modèles d'IA ».