L'IA sous toutes ses formes mobilise aujourd'hui de nombreuses entreprises, éditrices ou utilisatrices. Elle a également fait une entrée fracassante dans les usages grand public avec les LLM (large language models) emmenés par ChatGPT, Midjourney, Dall-E puis Copilot, Gemini et autres Mistral. Mais en cette journée internationale des droits des femmes, on peut s'interroger : quid de la place des femmes dans cette évolution majeure ? Selon une des rares mesures réalisées sur le sujet dans le cadre du Gender gap report du World Economic fForum, elles ne sont que 30% à exercer dans ces métiers. C'est à peine plus que la proportion de femmes travaillant dans l'IT dans le monde, qui oscille entre 26 et 28% dans le monde depuis 2020. Et c'est bien loin de l'égalité.
« Il semble qu'en Europe, l'IA séduise davantage les femmes que d'autres domaines de l'IT, confirme Isabelle Collet, professeure à l'université de Genève (genre et IT, co-éducation, genre à l'école, genre et formation des enseignants). Difficile cependant de savoir exactement pour quelle raison. Une des hypothèses que l'on peut faire, c'est que par rapport au développement ou à l'infrastructure, l'IA ne souffre pas encore trop des stéréotypes associés au geek et censés faire fuir les femmes. »
La faute de la data
Les femmes comptent pour la moitié de la population de la planète (49,6% en 2021 d'après le rapport World population prospects 2021 de l'ONU). Comment leur sous-représentation dans l'IA influe-t-elle sur cette technologie, sur les résultats qu'elle génère et plus largement sur la société ? Si l'on en croit Isabelle Collet, davantage que dans le développement des solutions, l'écriture des algorithmes, le problème se trouve en réalité dans la data d'entraînement. « Il y a tout simplement des trous dans les ensembles de données recueillies pour nourrir les IA, rappelle-t-elle. Certaines n'existent même pas. » Olivier Martinez, fondateur de 255Hex.ai, société de conseil en IA générative confirme : « Un LLM de type GPT est entraîné avec ce qui se trouve sur internet. Autrement dit, le point de vue de mâles blancs de plus de 50 ans d'Amérique du Nord ou d'Europe de l'Ouest. Ces IA sont à notre image. »
« Un autre enjeu fort pour les femmes avec l'IA, c'est qu'elle menace beaucoup de métiers très féminisés, qui n'ont pas les moyens de se faire entendre, comme l'aide sociale », insiste Isabelle Collet, professeure à l'université de Genève (Photo DR)
Un déséquilibre qui paraît difficile, voire impossible à rétablir. Isabelle Collet évoque par exemple une conversation avec un chercheur en reconnaissance vocale. « Il est extrêmement complexe de combler les lacunes des ensembles de données pour ce type de travaux. Ces chercheurs disposent de datasets qui contiennent principalement des enregistrements de locuteurs spontanés masculins, venant des médias, raconte-t-elle. Soit des décennies d'entraînement de solutions avec des voix dans les fréquences basses... » Et donc une sous-représentation chronique des voix de femmes. « Donc, même avec la volonté d'obtenir davantage de mixité dans la donnée, il serait extrêmement long d'arriver à compenser ce déficit puisqu'il faudrait réentraîner. »
Les inévitables biais conscients ou inconscients
Par ailleurs, la présence grandement majoritaire d'hommes dans les équipes de conception, de développement et d'entraînement des IA introduit bien entendu des biais dans les résultats. Certains sont volontaires, mais beaucoup d'autres sont inconscients. « Tout simplement, les hommes n'ont pas d'expérience située en tant que femme, rappelle Isabelle Collet. Sans même parler d'IA, pendant longtemps, aucune app mobile n'a traité de sujets spécifiques aux femmes comme le suivi des cycles menstruels, par exemple. Les développeurs majoritairement masculins n'y pensaient tout simplement pas. »
Elle ajoute que la présence de femmes ne garantit d'ailleurs pas non plus que cela change, car elles adoptent pour beaucoup les mêmes habitudes. Olivier Martinez, rappelle par ailleurs que « tenter de corriger ces biais revient à en créer d'autres. La contreproposition est un autre biais. L'IA reflète la société, avec ses biais. Mais pas davantage que la télévision et les mass medias dans les années 80 et 90. Ils avaient la même puissance de frappe. »
Seule solution, l'éthique by design ?
Pour Isabelle Collet, il existe effectivement une forme de mise en concurrence entre les biais et les discriminations. Une plus grande proportion de femmes dans l'IA n'est donc finalement pas forcément la seule clé. « Pour le développement de solutions avec un impact fort sur la société, il faut une éthique et une égalité by design, estime la professeure de l'université de Genève. Il faut en particulier des représentants des sciences sociales et humaines dans les équipes. »
Enfin, un autre enjeu important ne doit pas être oublié, pour Isabelle Collet. « On évoque la façon dont l'IA générative menace les emplois des avocats, des médecins ou des journalistes, par exemple. Ce sont des professions qui se défendent haut et fort. Mais l'IA va aussi s'attaquer à beaucoup de métiers très féminisés qui n'ont pas les moyens de se faire entendre, comme l'aide sociale. L'Autriche teste déjà des IA pour remplacer les conseillers d'orientation, qui sont pour la plupart des conseillères. » Autant dire que, pour l'instant, l'IA n'est pas une bonne nouvelle pour les femmes.
Commentaire