Tout commence en 2019 où le ministère de l’Économie et des Finances et huit industriels français ont signé un manifeste pour développer une intelligence artificielle (IA) au service de l’industrie. Le programme Confiance.ai est le premier aboutissement de ce manifeste, propulsé par un collectif de 13 industriels et académiques français ainsi que plusieurs start-ups et PME. Air Liquide, Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales, Valeo, ainsi que le CEA, Inria, l’IRT Saint Exupéry et l’IRT SystemX conjuguent donc leurs efforts derrière ce projet, afin de soutenir le déploiement de l’intelligence artificielle en France. Leur objectif : créer une plateforme d’outils logiciels permettant l’intégration d’IA dans des produits ou services critiques. Soucieux des interrogations du public, de son acceptation et des conséquences graves que la technologie pourrait engendrer sur les personnes et les biens, ce collectif se mobilise aujourd’hui pour une IA de confiance.
Doté d’un budget de 45 millions d’euros, ce projet d’une durée de quatre ans, vise à proposer une plateforme d’outils logiciels aux entreprises françaises, dans des secteurs d’application variés. On peut citer l’automobile, l’aéronautique, l’énergie, le numérique, l’industrie 4.0, la défense et le maritime, avec des cas d’applications variés comme le contrôle industriel en ligne, la mobilité autonome ou les systèmes d’aide à la décision. La plateforme devrait fournir des méthodes et des logiciels au service de la conception, de la validation, de la qualification, du déploiement et de la maintenance de produits et services basés sur l’intelligence artificielle.
Interrogé sur l'utilisation des frameworks, Confiance.ai a précisé que « la mise en œuvre de l'environnement de confiance intégrera les frameworks existants pour le développement d'IA issus des GAFAM tels que Tensorflow et/ou Pytorch, mais aussi des environnements issus de l'écosystème français tels que Scikit-Learn ou N2D2. L’exécution de l'environnement lui-même reposera sur le cloud via Kubernetes ou la plateforme ML flow. Une attention particulière sera donnée à l'interopérabilité entre les outils sélectionnés. Des échanges ont été initiés avec le projet Gaia-X et ses évolutions attendues vers l'IA ».
Une feuille de route en accéléré
Lors de l’événement de lancement du programme qui s’est tenu le 1er juillet dans le centre de R&D de Valeo dédié au véhicule autonome « Valeo Mobility Tech Center », Cédric O, secrétaire d’Etat chargé de la Transition numérique et des Communications électroniques, a salué « l’investissement public dans les technologies de pointe » et souhaite arriver à la standardisation et à la définition d’un cadre pour l’IA de confiance. Pour lui, « c’est absolument indispensable en matière d’acceptabilité de la technologie ». Jean-Baptiste Djebbari, Ministre délégué chargé des transports, a pour sa part, déclaré que « la France se dote aujourd'hui d'un cadre réglementaire complet pour la circulation des véhicules autonomes, une première en Europe. Nous avons plus que jamais besoin d'une IA sûre, performante et homologable ». Pour la bonne réalisation de ce projet, ce sont environ 150 équivalents temps plein (ETP) qui se voient mobilisés sur deux plateaux à Saclay et à Toulouse avec cinq principaux axes de recherche : la caractérisation de l’intelligence artificielle, l’IA de confiance by design, l’ingénierie de la donnée et des connaissances, la maîtrise de l’ingénierie système fondée sur l’IA, et l’IA de confiance pour l’embarqué.
Présentation du programme de recherche #ConfianceAI au Valeo Mobility Tech Center à Créteil.
— Cédric O (@cedric_o) July 1, 2021
13 industriels et académiques 🇫🇷 s’unissent pour relever le défi de l’industrialisation de l’#IA pour les systèmes critiques. Objectif : innover en toute sécurité #FranceRelance pic.twitter.com/qHLbLBS9FF
Cédric O, secrétaire d’Etat chargé de la Transition numérique et des Communications électroniques, était présent ce 1er juillet pour saluer l'initiative.
« Les enjeux de l'intégration de l'intelligence artificielle dans les systèmes critiques sont immenses et les attentes des industriels français sont à prendre en compte dès maintenant », commente Emmanuelle Escorihuela, présidente du comité de pilotage du programme Confiance.ai. Le calendrier du programme prévoit la livraison de briques technologiques intégrées chaque année, et s’appuie sur son appel à manifestation d’intérêt à destination des start-ups et PME. En participant au programme, celles-ci ont la possibilité de tester directement leurs technologies et suivre leur progression dans les cas d’usage couvrant la plupart des thématiques de l’intelligence artificielle de confiance pour les systèmes critiques. On retrouve bien évidemment la reconnaissance d’image et vocale, le traitement du langage naturel, le traitement de séries temporelles, la supervision et l’optimisation de processus ainsi que l’intégration sur des systèmes embarqués. Les réponses sont attendues d’ici le 3 septembre prochain. A l’issue du processus de sélection, les start-ups et PME retenues pourront démarrer leurs travaux au 4ème trimestre 2021.
Une visée internationale
Derrière cette union, les industriels cherchent notamment à atteindre l’Europe et son marché afin de se faire valoir comme des acteurs prioritaires. Viser un « écosystème large pour peser au niveau national et international » explique Mohammed Sijelmassi, directeur technique chez Sopra Steria. « Ce programme est le résultat de neuf mois de travail intense pour présenter une stratégie commune » ajoute-t-il. Le programme Confiance.ai a d’ores et déjà noué un lien avec le Québec où un programme complémentaire est en cours d’élaboration, ainsi que l’Allemagne pour une coopération renforcée sur les normes. Le collectif souhaite in fine répondre à la future réglementation sur l’IA pour l’Europe.
Fin avril 2021, la Commission européenne avait élaboré une combinaison du tout premier cadre juridique sur l'IA et d'un plan coordonné avec les États membres. « Le nouveau règlement sur l'IA garantira aux Européens qu'ils peuvent faire confiance à l'IA. Des règles proportionnées et souples, prévues pour faire face aux risques spécifiques liés aux systèmes d'IA constitueront l'ensemble de normes le plus strict au monde ». Dans un communiqué, la Commission européenne précise que ce plan coordonné décrit « les réorientations et les investissements qui seront nécessaires au niveau des États membres pour renforcer la position de premier plan de l'Europe dans le développement d'une IA centrée sur l'humain, durable, sûre, inclusive et digne de confiance ». Le Parlement européen et les Etats membres doivent ainsi valider ou non l’ensemble des propositions faites par la Commission dans les mois à venir.