Que pensent les employés français utilisant ChatGPT dans leur travail ? La société de conseil en logiciels GetApp (groupe Gartner) s'est penchée sur la question en interrogeant 536 employés d'entreprises françaises utilisant systématiquement un ordinateur dans leurs tâches et recourant à l'IA générative d'OpenAI. « Les résultats de notre étude tendent à démontrer que, malgré des avantages notables, la plupart des employés associent à ChatGPT et aux outils d’IA générative dans leur ensemble des inconvénients, dont des problèmes éthiques majeurs », indique GetApp. Parmi les principales préoccupations éthiques : 44 % d'entre eux pointent un risque en termes de remplacement d'emploi, de dépendance excessive (38 %), de non-respect de la vie privée et de la confidentialité des données (37 %), ou encore du mauvais usage du contenu généré (32 %) et d'un manque de transparence dans l'utilisation des données (32 %).
« Mettre en place des règlements internes, former les équipes aux évolutions de l’IA, vérifier systématiquement les contenus générés, les corriger, les personnaliser et les considérer comme un complément à la réflexion (et non un substitut) sont autant de bonnes pratiques qui peuvent aider les organisations à les relever », poursuit la société d'études. Concernant les inquiétudes liées à l'usage de ChatGPT au travail, les participants à l'enquête sont 36 % à considérer une dépendance excessive, 31 % une automatisation et déshumanisation des modes de communication, 30 % du piratage possible de ChatGPT, ou encore 26 % d'informations potentiellement biaisées et non-objectives.
Des risques pour l'entreprise en cas de non-vérification des données générées par ChatGPT
A la question de savoir si les utilisateurs français de ChatGPT vérifient les contenus générés par l'IA générative d'OpenAI pour identifier des erreurs ou des incohérences, du chemin reste manifestement encore à faire... Ainsi, seulement 47 % indiquent relire et vérifier soigneusement chaque réponse avant de s'en servir, 48 % ne les vérifiant pas tous. Pire : 5 % ne vérifient pas - ou de façon ponctuelle - les contenus générés par ChatGPT. « Si le contenu généré par ChatGPT n’est pas soigneusement vérifié, une entreprise peut être susceptible de partager en externe et en interne des écrits dont la qualité est discutable. Ce qui peut non seulement nuire à sa crédibilité, mais aussi lui faire prendre de mauvaises décisions », prévient GetApp. Et d'avancer les risques potentiels encourus : contenu fondé sur des données obsolètes, délesté de sources, peu cohérent, voire erroné, et superficiel.