Le développement des technologies de machine learning (ML) ou apprentissage machine a donné un nouvel élan à l'intelligence artificielle (IA). De la médecine aux véhicules autonomes, de la logistique à la cybersécurité, en passant par le monde militaire et policier, la finance, le marketing ou encore le recrutement : ces technologies d'IA sont aujourd'hui présentes dans tous les domaines. Selon les cas, elles servent à aider la prise de décisions d'un humain ou à déclencher des actions automatiques. Mais cet essor nécessite des garde-fous, en particulier quand les décisions prises ou guidées par l'IA ont des conséquences importantes sur les individus. Face à l'opacité de certains algorithmes, les individus ont en effet des droits, dont celui d'avoir une explication et de pouvoir contester les décisions les concernant. Mais cela suppose de comprendre comment un modèle d'IA fonctionne et comment il est arrivé à son résultat. Ce constat alimente un champ de recherche particulièrement dynamique à l'heure actuelle, celui de l'IA explicable, souvent abrégé en XAI (eXplainable AI).
L'explicabilité de l'IA en question
0
Réaction
Pratiquement tous les domaines et secteurs d'activité déploient aujourd'hui des cas d'usage basés sur des technologies d'intelligence artificielle. Mais la fréquente opacité des algorithmes utilisés, en particulier quand il s'agit d'apprentissage machine, soulève en retour un besoin accru de transparence et d'explicabilité, surtout quand ces technologies ont un impact sur l'individu.
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire