Les chefs d'entreprise semblent avoir perdu le contrôle du déploiement, de la supervision et des objectifs de l'IA générative au sein de leurs organisations, selon une nouvelle étude de Kaspersky. Or, d'après l'Isaca, association professionnelle internationale dont l'objectif est d'améliorer la gouvernance des systèmes d'information, 28 % seulement des organisations autorisent expressément l'usage de l'IA générative, et un nombre encore plus faible (10 %) ont mis en place une politique formelle encadrant cette utilisation. Une enquête récente menée par la société de marketing Add People a d'ailleurs révélé qu'un travailleur britannique sur trois utilise des outils d'IA générative à l'insu de son patron.
Les cadres profondément préoccupés par les risques de sécurité
La quasi-totalité (95 %) des 1 863 cadres dirigeants européens interrogés par Kaspersky pensent que l'IA générative est régulièrement utilisée par les employés, et plus de la moitié d'entre eux (53 %) déclarent même qu'elle pilote désormais certains départements de l'entreprise. L'ampleur de cette prise de contrôle est telle que la plupart des cadres (59 %) expriment de vives inquiétudes quant aux risques de sécurité potentiels liés à l'usage de la technologie, risques qui pourraient mettre en péril des informations sensibles de l'entreprise et entraîner une perte totale de contrôle des fonctions essentielles de l'entreprise.
Seulement 22% des répondants expliquent que leur organisation discute de l'établissement de règles encadrant les usages en interne, alors que 91% d'entre eux estiment avoir besoin de mieux comprendre comment les données internes sont utilisées par les employés, afin de se protéger des risques de sécurité critiques ou des fuites de données.
Des politiques insuffisantes, une gestion des risques défaillante
L'enquête de l'Isaca menée auprès de 2 300 professionnels dans le monde révèle que si l'utilisation de l'IA générative s'intensifie, la plupart des organisations n'ont pas mis en place des politiques suffisantes ou une gestion efficace des risques. Pour 40 % des entreprises, les employés utilisent l'IA générative malgré tout, sans se soucier de ces faiblesses, un pourcentage probablement sous-estimé étant donné que 35 % des répondants ne se prononcent pas quant à l'attitude des collaborateurs.
Les employés utilisent l'IA générative de plusieurs façons, notamment pour créer du contenu écrit (65%), augmenter la productivité (44%), automatiser les tâches répétitives (32%), fournir un service à la clientèle (29%) ou encore améliorer la prise de décision (27%), selon l'étude de l'Isaca.
Alors que 41% des répondants à l'enquête estiment que les normes éthiques relatives à l'IA ne font pas l'objet d'une attention suffisante, moins d'un tiers des organisations considèrent la gestion des risques liés à la technologie comme une priorité immédiate. Et ce, bien que les personnes interrogées associent plusieurs risques à la technologie : la désinformation (77 %), les violations de la vie privée (68 %), l'ingénierie sociale (63), la perte de propriété intellectuelle (58 %) ou encore le déplacement des emplois et l'élargissement du fossé des compétences (35 % pour chaque item).
Une formation encore lacunaire
« Si l'enquête de l'Isaca montre que l'IA générative est largement utilisée à diverses fins, elle met également en évidence une lacune flagrante en matière de considérations éthiques et de mesures de sécurité », écrit Raef Meeuwisse, auteur de Artificial Intelligence for Beginners. « Seulement 6 % des organisations dispensent une formation complète à l'IA à l'ensemble de leur personnel, et 54 % d'entre elles n'offrent tout simplement aucune formation sur le sujet. »
Ce manque de formation, associé à une attention insuffisante aux normes éthiques, peut entraîner des risques accrus, notamment l'exploitation par des acteurs malveillants, estime Raef Meeuwisse : « il n'est peut-être pas surprenant que 57 % des personnes interrogées soient très ou extrêmement préoccupées par l'exploitation de l'IA générative par des acteurs malveillants. »