L’intelligence artificielle influe déjà sur de nombreux aspects de notre vie quotidienne. Pour les entreprises, les gains que peuvent apporter les algorithmes en termes d’efficacité et de rapidité dans la prise de décision sont importants. Mais cela n’est pas sans risques. En effet, les biais – conscients ou inconscients – peuvent influencer la qualité des résultats produits par les algorithmes, mais également amplifier les discriminations sociales et économiques inhérentes à nos sociétés. Ne pas les anticiper revient à compromettre les bénéfices de l’IA et à ralentir l’adoption de technologies à haut potentiel pour les individus et la société dans son ensemble.
Alors, comment les identifier et les combattre ? Pour cela, on peut trouver l’inspiration dans le livre de Sun Tzu, « L’Art de la Guerre », une référence de la stratégie militaire depuis plus de 25 siècles où l’auteur explique comment surpasser son adversaire sans forcément s’engager dans un combat physique. Cette analogie est la bienvenue car pour combattre les biais, le talent stratégique – la manière d’utiliser la technologie – prime sur l’arsenal utilisé – la technologie elle-même. Une leçon pour ceux qui tentent de résoudre des problèmes métiers uniquement à travers le prisme de la technologie et des outils. Se doter d’un arsenal est bien évidemment nécessaire, encore faut-il apprendre à s’en servir. Explications.
Les multiples visages des biais et la nature envahissante de « l’ennemi »
Pour vaincre son ennemi, il est d’abord essentiel de bien le connaître. Car les données, les algorithmes et les décisions ne sont jamais neutres ! Tout commence dans le cerveau humain qui utilise les biais cognitifs pour trouver les raccourcis nécessaires au traitement quasi-instantané de l’information et donc pour la prise de décision [1]. Le problème, c’est que les biais sont semblables à des virus qui voyagent et qui se répliquent : des humains aux données, des données à l’apprentissage algorithmique, des algorithmes aux décisions. Les biais se propagent par l’IA et impactent le monde réel de multiples façons.
Une partie du problème réside dans la grande diversité des biais cognitifs et la difficulté pour les comprendre et les identifier, car on ne dénombre pas moins de 180 types de biais [2]. Avec de si nombreux visages, traquer ces biais n’est pas chose aisée, mais il existe des biais plus récurrents que d’autres dans le domaine de l’IA, notamment :
- Les biais historiques qui se contentent de reproduire les inégalités du monde réel ;
- Les biais liés à la sélection ou l’agrégation des données d’entrainement qui ne reflètent pas toujours la complexité et la variabilité du monde réel ;
- Les biais algorithmiques qui reflètent les biais des personnes impliquées dans le développement de l’algorithme et du système de décision ;
- Les biais de confirmation qui nous poussent à croire une information lorsqu’elle corrobore nos croyances existantes.
Le rôle joué par les données d’entrainement mérite que l’on y attache une attention particulière. Ces données doivent produire une description représentative du monde réel, ou du moins, de la population-cible du système basé sur l’IA. Sans cela, le risque que représente l’utilisation de données non représentatives est clair : l’amplification des maux de nos sociétés – racisme et sexisme en tête.
Les biais algorithmiques posent le risque d’une simplification excessive de la réalité car ils ignorent la complexité réelle du monde. Mais dans le même temps, construire un algorithme trop sensible aux fluctuations des données n’est pas une solution pour autant car cela compromettrait sa capacité à identifier les tendances sous-jacentes. C’est là tout l’art du combat contre les biais qui consiste à trouver un juste milieu pour éviter ces deux écueils.
Les stratégies et les tactiques à adopter pour mener une « guerre totale » contre les biais
Pour mieux combattre les biais, il faut d’abord comprendre l’économie de la guerre à mener : les coûts liés à l’absence de traitement des biais, les investissements à réaliser pour mieux s’armer et mieux se préparer, mais également les bénéfices liés au traitement proactif des biais. C’est un préalable à l’élaboration d’une stratégie adaptée.
Pour cela, l’entreprise doit premièrement définir ses priorités en matière d’éthique. Celles-ci diffèrent en fonction de la culture, du pays d’origine ou de la cible de l’algorithme développé. Ensuite, le cycle de développement analytique doit être supervisé dans son entièreté - des données à la prise de décision. Sans cette vision holistique, les efforts fournis dans la lutte contre les biais sont vains. C’est pourquoi il est essentiel d’établir une gouvernance autour de la collecte des données qui puisse faire la part entre le laissez-faire – s’appuyer sur les données disponibles telles quelles, au risque qu’elles reflètent les biais de la société – et un interventionnisme plus appuyé – c’est-à-dire sélectionner les données en amont, une action qui peut elle-même être biaisée.
Concrètement, les tactiques à adopter pour créer des garde-fous sur l’ensemble de la chaine de production des systèmes d’IA reviennent à :
- Évaluer les risques liés aux variables d’entrées des algorithmes ;
- Monitorer les biais possibles dans les données d’apprentissage ;
- Monitorer les résultats des algorithmes, c’est-à-dire la justesse des prédictions effectuées.
Aussi, les entreprises ne doivent pas hésiter à solliciter « l’artillerie lourde » quand cela est nécessaire, c’est-à-dire utiliser des systèmes automatisés qui facilitent la détection des biais. Mais un tel combat ne se mène pas uniquement avec des armes : pour gagner la guerre, il faut pouvoir s’appuyer sur des soldats aguerris, formés, motivés et qui se distinguent par leur capacité à travailler ensemble.
Vaincre les biais : un combat collectif qui appelle des investissements humains conséquents
Pour créer les conditions de la victoire, Sun Tzu estime que la force ne vient pas de la taille mais de l’unité des troupes. Equipes métiers, ingénieurs des données, data scientists, DevOps travaillent ensemble à la création et au déploiement d’un algorithme. Et si chacun a son mot à dire pour définir ce qui est acceptable ou pas, tous doivent s’accorder sur l’impact potentiel des risques liés aux biais. Collaborer est un impératif pour mettre en place des mesures de mitigation appropriées.
A ce titre, la formation est un élément essentiel parmi les moyens humains à déployer : non seulement pour être capable d’identifier les biais et d’en évaluer les impacts, mais aussi pour mieux connaître le rôle de chacun des acteurs impliqués dans la chaine de production d’un algorithme. Identifier les leviers d’action de chacun permet d’agir de manière plus efficace. Et cela ne concerne pas uniquement les data scientists qui, malgré leur expertise en programmation et en statistiques, doivent acquérir une certaine connaissance de l’humain, de la sociologie et de la philosophie pour mieux appréhender les risques liés aux biais et leurs impacts potentiels.
Par ailleurs, les acteurs de la chaîne de production des algorithmes doivent mettre en place une instance de supervision et de contrôle des décisions. Cette instance doit refléter la diversité des origines et des profils au sein de l’entreprise et dans la société. Et si cela peut aller à rebours des objectifs métier et des objectifs de temps ou de coût, les investissements à consentir sont néanmoins nécessaires pour créer les conditions de la confiance envers les systèmes d’IA et in fine, faciliter leur adoption.
Enfin, il est nécessaire d’adopter une approche proactive en formalisant les processus et les garde-fous mis en place. Il ne faut pas attendre que les biais se manifestent pour élaborer la stratégie qui sera à même de les combattre. Toutefois, tout n'est pas que coûts et complexité. Car se donner les moyens de ses ambitions, c’est la clé de la victoire dans la lutte contre les biais.
[1] Voir l’article de blog de Buster Benson à ce sujet : https://betterhumans.pub/cognitive-bias-cheat-sheet-55a472476b18
[2] Voir le Codex des biais cognitifs de John Manoogian : https://fr.wikipedia.org/wiki/Fichier:The_Cognitive_Bias_Codex_(French)_-_John_Manoogian_III_(jm3).svg