L'une des forces des IA génératives est leur capacité à intégrer, traiter et donner du sens à un grand nombre de données. Elles sont capables de détecter des modèles et des tendances parmi celles-ci, puis de les formaliser dans des rapports, assimilables pour les humains. Cela accélère l'analyse des données, et raccourcit le temps pour prendre des décisions éclairées. On voit aussi de plus en plus d'entreprises utiliser cette technologie pour générer du code, pour tester des études de cas, valider des scénarios et hypothèses. On le voit notamment avec les applications d'IA générative visant à créer des visuels, des vidéos ou des documents audio. Même les artistes peuvent dorénavant utiliser ces outils pour pousser leur processus de création vers des horizons insoupçonnés.
Les IA génératives facilitent également l'exécution de certaines étapes du processus de recrutement. Elles peuvent seconder les recruteurs dès le départ du processus lorsqu'ils doivent rédiger une fiche de poste ou une annonce d'offre d'emploi, ou encore sélectionner les meilleurs profils, à partir des données accessibles au public telles que le parcours professionnel des personnes présentes sur LinkedIn.
Les IA génératives sont ainsi d'excellents outils d'assistance pour les humains, en leur permettant d'économiser du temps et des ressources. Plus que les remplacer, elles étendent leurs capacités.
Pures inventions et réponses biaisées
Mais, comme les humains, les IA génératives peuvent se tromper et mettre ainsi en difficulté leurs utilisateurs. Le dernier exemple en date est celui de l'avocat américain Steven Schwartz qui a construit, en mai 2023, l'une de ses plaidoiries avec des jurisprudences récoltées sur ChatGPT... qui se sont révélées être de pures inventions (Lire « Un avocat américain a utilisé ChatGPT pour préparer un procès... et n'a cité que des faux arrêts », France Inter, mardi 30 mai 2023).
Dans son rapport, le Comité consultatif national d'éthique (CCNE) alerte sur l'utilisation de l'IA pour écrire des articles de presse, ce qui pourrait « créer de la désinformation à grande échelle ». « Notamment, les modèles génératifs pourraient être utilisés pour obtenir un classement souhaité des contenus mal intentionnés dans les algorithmes de recommandation sur les réseaux sociaux ou les moteurs de recherche, en privilégiant des opinions politiques spécifiques ».
De même, les informations obtenues peuvent être biaisées. En effet, ChatGPT et les autres IA génératives s'entraînent sur des milliards de données qui peuvent contenir des biais que l'on peut retrouver dans leurs réponses. En outre, une IA mal entraînée peut créer des discriminations préjudiciables aux entreprises, les rendant moins compétitives.
Usages sur des données d'entreprise : attention aux infos confidentielles
Les IA génératives peuvent également provoquer la divulgation de données. En avril 2023, Samsung a découvert une fuite de données qui a révélé des informations confidentielles, notamment des comptes rendus de réunions et des données sur les performances et la productivité de ses installations de production. Les ingénieurs de Samsung utilisaient le chatbot pour corriger rapidement les erreurs dans leur code source, transmettant ainsi des données qui n'étaient pas censées être publiées. Bien que cette violation n'ait pas été intentionnelle, elle soulève des préoccupations quant aux risques du travail alimenté par l'IA.
Les IA génératives peuvent aussi plagier une source protégée. L'agence de photos Getty Images a ainsi porté plainte contre Stable Diffusion, n'ayant pas donné son autorisation pour que l'IA s'entraîne sur ses images. À ce sujet, la Commission européenne dans ses lignes directrices appellerait son personnel à « ne jamais reproduire directement les résultats d'un modèle d'IA générative dans des documents publics, comme lors de la création de textes de la Commission, notamment ceux qui sont juridiquement contraignants » . La Commission envisagerait donc une utilisation uniquement à des fins internes, sans communication au public.
Encadrer les usages, déconstruire les idées reçues
Face à ces risques bien réels, les entreprises doivent prendre des dispositions afin de surveiller et de réguler les contenus générés.
Cette vigilance passe notamment par :
- La collecte des commentaires des employés par le biais d'enquête ;
- La formation d'une équipe dédiée et des salariés ;
- La comparaison des contenus produits par les humains avec ceux de l'IA générative ;
- La mise en place des indicateurs clés de performance ;
- La restriction de l'accès des salariés aux IA génératives dans le cadre de leur travail ; Apple, Verizon ou encore JPMorgan ont ainsi fait le choix d'interdire purement et simplement l'utilisation de ChatGPT à leurs employés afin d'éviter toute fuite d'informations. De son côté, Samsung développe une alternative à ChatGPT.
- Le respect d'une éthique commune dans la conception. Le Comité consultatif national d'éthique rappelle que l'IA ne doit pas remplacer l'humain. Par ailleurs, les concepteurs d'un système d'IA générative doivent analyser, en phase de conception, chacun des choix technologiques susceptibles de provoquer des tensions éthiques. Se pose ainsi la question de la vérité car « le manque d'évaluation de la valeur de vérité (...) peut mener à la production de désinformation. Elle interroge la responsabilité des concepteurs et notre rapport à l'éthique de la vérité ». Une proposition de règlement initiée en 2021 par la Commission européenne, puis amendée et votée par le Parlement européen en juin 2023, veut justement « faire peser une importante responsabilité sur tous les fabricants de modèles de fondation qui les mettent sur le marché ou qui les publient en libre accès ». Si l'IA Act * est définitivement adopté, il sera une première réponse aux questions éthiques qui se posent depuis le développement des logiciels accessibles à tous.
En bref, 3 idées reçues à déconstruire quand on utilise l'IA générative en entreprise :
1 - Les contenus générés sont systématiquement corrects : il arrive plus souvent qu'on ne le croit que les outils d'IA générative apportent des réponses inexactes. L'essentiel est alors de penser à évaluer l'exactitude et la pertinence des résultats obtenus avant d'utiliser ces informations comme références et de les partager en interne ou en externe.
2 - Les contenus générés font toujours preuve de logique : la génération de contenus par l'IA peut parfois se révéler imprévisible, et sa prise de décision ou sa logique ne sont pas toujours intelligibles. Il faut donc veiller à comprendre le raisonnement du résultat obtenu et apporter les modifications nécessaires.
3 - Les contenus générés ne comportent aucun biais : les outils d'IA générative ingèrent parfois des données subjectives qui peuvent fausser les résultats obtenus. Il est alors primordial de mettre en place des réglementations pour détecter tous les résultats biaisés et les rendre conformes à la loi et aux politiques de l'entreprise.
* : Proposition de règlement du Parlement européen et du conseil établissant des règles harmonisées concernant l'intelligence artificielle (législation sur l'intelligence artificielle) et modifiant certains actes législatifs de l'Union.
De ChatGPT à Midjourney : limiter les risques des IA génératives en entreprise
Si les IA génératives étendent les capacités des collaborateurs sur certaines tâches, elles soulèvent un certain nombre de risques. D'où l'importance de bien encadrer leurs usages et de souligner leurs limites auprès des utilisateurs.