Comment percevez-vous l’évolution de l’IA dans la sphère professionnelle ?
Camille Le Maux, Director Device Sales Lead chez Microsoft : L’adoption de l’IA s’accélère de manière significative. Le mouvement est dû en grande partie à une prise de conscience de son potentiel par les collaborateurs. Aux États-Unis, l'une des questions les plus courantes lors des entretiens d'embauche est désormais : "Pourrai-je utiliser l’IA dans mon travail ?". Ce n'est plus seulement un sujet qui concerne les DSI, mais également les directions générales, car l'IA impacte à la fois la productivité et le bien-être des salariés. Elle devient un levier stratégique essentiel.
Face à cette évolution, les entreprises adoptent différentes attitudes : certaines sont plutôt attentistes face à une technologie qu’elles maîtrisent encore peu, tandis que d'autres embrassent pleinement l'innovation. C’est le cas d’Econocom, qui a lancé plusieurs projets spécifiques pour offrir aux collaborateurs des solutions d’IA validées, adaptées à leurs besoins et respectant les exigences de sécurité.
Comment Microsoft fait-il évoluer ses offres d’IA pour répondre à cette réalité ?
Camille Le Maux : Microsoft a noué un partenariat stratégique avec OpenAI. Aujourd’hui, le moteur de ChatGPT alimente Copilot, que nous avons déployé rapidement à travers l’ensemble de nos produits, avec pour objectif d’améliorer l’expérience utilisateur tout en rendant les environnements de travail plus productifs et sécurisés. Nous avons d’abord intégré Copilot dans Windows, puis nous l’avons étendu aux devices avec le lancement des Copilot+ PCs équipés de Windows 11 le 18 juin, intégrant l’IA directement dans les appareils eux-mêmes.
Nous nous dirigeons vers une hybridation de l’IA. Certaines tâches seront traitées dans le cloud, comme la gestion des données massives ou les traitements complexes, tandis que d’autres, seront réalisées localement sur les appareils pour bénéficier du contexte de l’utilisateur et éviter toute latence.
Cette approche hybride combine les forces du cloud et des appareils locaux pour offrir une IA performante, flexible et adaptée aux besoins spécifiques des utilisateurs. Elle permet non seulement de maximiser les performances, mais aussi d’optimiser les ressources de manière intelligente.
Quels types d’outils avez-vous mis en place chez Econocom sur la base des technologies d’IA Microsoft ? Avez-vous des exemples concrets ?
Quentin Bouchard - Global Tech manager chez Econocom : Un premier exemple concerne l'utilisation de l'IA pour la reconnaissance d’image. Dans le cadre d’un projet avec un partenaire du secteur public, nous avons mis en place un outil basé sur Document Intelligence d'Azure pour traiter des PV de réception rédigés manuellement par les clients lors de la livraison d’équipements. Ces documents contiennent des informations importantes (numéro de série, adresse de réception, etc.) qu’il nous faut intégrer dans notre système pour assurer la gestion du service après-vente. Plutôt que de saisir manuellement les données de plus de 18.000 formulaires, nous utilisons Document Intelligence, qui automatise cette extraction en préservant la qualité des données dans plus de 90% des cas, selon nos derniers tests.
Un autre exemple touche aux collaborateurs commerciaux, qui expriment souvent le besoin de se délester des tâches administratives chronophages, comme par exemple remplir et mettre à jour les informations d’un CRM. Pour cela, nous avons déployé Microsoft Sales Copilot, qui assiste les vendeurs dans la rédaction d’offres commerciales et la création automatique d'opportunités basées sur les échanges par e-mail.
Enfin, je citerais l’exemple de « l’email to tickets » dans le cadre des services de support IT. L’IA permet de créer automatiquement des incidents à partir des courriers électroniques entrants. Ces derniers sont catégorisés, complétés avec des informations de qualité, puis directement adressés aux équipes compétentes pour traitement.
L’exploitation de l’IA soulève d’importants enjeux de sécurité. Comment s’adapter ?
Quentin Bouchard : L’ engouement pour l’IA générative a rapidement posé la question de l’utilisation non autorisée de l’IA, le « Shadow IA ». Cet usage incontrôlé de l’IA par les collaborateurs entraîne un manque de visibilité des équipes informatiques sur les risques cyber associés, exposant les organisations à des vulnérabilités importantes.
Pour y répondre, nous avons mis en place une charte qui prévoit à la fois des aspects techniques relatifs à la sécurisation des données qui transitent dans les outils d’IA mais également des aspects « humains » relatifs à la bonne exploitation de l’IA. Cette charte se matérialise par une politique de sécurité en six points, que nous avons partagée avec tous nos collaborateurs et que nous détaillerons lors de l'Innovation Day.
Au-delà des solutions techniques, il est essentiel de sensibiliser et former les employés à une utilisation éthique et régulée de l'IA dans un cadre professionnel. La sécurisation passe aussi par l’adoption de bonnes pratiques et une compréhension des risques.