Dans les équipes de développement, l'usage de l'IA n'est pas encore la norme, mais il semble appelé à le devenir. Selon une étude de GitLab, menée après de 1 000 professionnels du développement, décideurs IT et spécialistes de la cyber en juin dernier, 23% des équipes DevSecOps ont déjà recours à l'IA à un moment ou un autre du cycle de développement du logiciel. Surtout, deux-tiers des professionnels interrogés envisagent un usage de l'IA pour ces pratiques, soit à court terme (moins d'un an pour 19% des sondés, moins de deux pour 22% supplémentaires), soit à plus long terme ou sans se fixer d'échéance précise (26%). A contrario, 9% des développeurs excluent à ce stade tout emploi de l'IA au sein de leur collectif de développement. Seules 1% des organisations ont toutefois formellement interdit l'utilisation de l'IA dans leurs activités de développement logiciel.
83% des professionnels interrogés pensent d'ailleurs qu'il est essentiel d'implémenter l'IA dans leurs processus de développement - qu'il s'agisse de production de code, de revue de code, de tests ou de procédures de sécurité - pour ne pas être dépassé par la concurrence. Un niveau homogène « quel que soit le domaine fonctionnel des répondants (développement, opérations, sécurité), le niveau hiérarchique ou les années d'expérience », souligne GitLab. Et, chez les professionnels qui exploitent déjà l'IA, six sur dix l'emploient au minimum une fois par jour. Par ailleurs, les équipes de devs qui utilisent déjà ces capacités les déploient assez largement : dans les trois quarts des cas, au moins un quart de l'équipe DevSecOps a accès aux fonctionnalités d'IA. Conclusion logique de ces tendances : les entreprises qui utilisent l'IA ou prévoient de le faire vont consacrer un budget spécifique à l'introduction de l'IA dans le processus de développement.
Interroger la documentation, créer des scénarios de tests
L'étude de GitLab permet aussi de souligner combien la production de code n'est qu'un des aspects de l'usage de l'IA dans le développement. D'abord, en moyenne, les développeurs ne consacrent qu'un quart de leur temps à cette activité. Par ailleurs, les trois usages les plus courants actuellement - les chatbots permettant d'interroger en langage naturel la documentation, la création de tests automatisés et les résumés automatiques des changements apportés au code - montrent bien que l'IA n'est pas vouée à être cantonnée à la seule écriture de code. Pour les professionnels interrogés, la technologie leur permet ou doit leur permettre d'améliorer leur productivité (cité par 51%), d'accélérer les déploiements (44%), de réduire les erreurs (40%), d'améliorer le monitoring (40%) ou encore de prédire de potentiels problèmes (40%).
L'arrivée de l'IA n'est toutefois pas sans soulever certaines inquiétudes dans les équipes de développement. A commencer par les interrogations sur le droit d'auteur associé au code généré par l'IA, mises en avant par 48% des répondants à l'enquête. L'item devance la nécessaire adaptation des compétences et la crainte de voir l'IA introduire des failles de sécurité dans le code. GitLab souligne d'ailleurs que 40% des professionnels de la sécurité s'attendent à ce que l'arrivée de la technologie alourdissent leur travail. Notons encore que, cet été, des chercheurs de l'université américaine de Purdue ont publié une étude confirmant ces craintes.
Si les inquiétudes concernant l'emploi ne figurent pas dans le top 3 des réponses citées par les professionnels, elles apparaissent néanmoins clairement dans l'étude. 37% des répondants expliquent ainsi que l'IA va rendre plus difficile la recherche d'un nouvel emploi dans leur spécialité et 36% pensent que cette technologie va remplacer ou éliminer leur fonction actuelle.
Le respect de la confidentialité des données
Au-delà de ces inquiétudes sur leur carrière, les répondants à l'enquête soulignent également les risques liés à l'accès de l'IA à des données confidentielles. 72% des professionnels se disent ainsi inquiets de voir des outils d'IA accéder à des données sensibles, comme des données de clients. Tandis que 48% affirment être préoccupés par les risques d'exposition de secrets commerciaux (comme des plans de produit ou du code source). D'ailleurs, 37% des entreprises disent avoir rencontré ou pensent rencontrer des difficultés avec la confidentialité des données dans leurs usages de l'IA au cours du cycle de développement logiciel.
L'arrivée inéluctable de l'IA dans les processus de développement que dessine l'étude de GitLab va obliger les organisations à adapter les compétences des équipes spécialisées. 81 % des répondants s'accordent à dire qu'ils ont besoin de davantage de formation pour utiliser l'IA au quotidien, et 87 % affirment que leur entreprise devra adapter les compétences de leurs employés pour encaisser les changements qu'apportera l'IA.
Commentaire