Basé dans le Michigan (États-Unis), Dow est l'un des plus grands producteurs de produits chimiques au monde, avec plus de 37 000 employés dans quelque 160 pays dans le monde. Pourtant, jusqu'en 2022, il ne disposait pas d'architecture data lui permettant d'exploiter efficacement des outils d'analytics et surtout la GenAI. Des solutions pourtant désormais indispensables dans un secteur aussi concurrentiel.

« Nous avions de nombreux Data Scientists, mais aussi des problèmes métiers qui auraient été plus facilement résolus avec les données adéquates », rappelle ainsi Brandon Schroeder, directeur IT, plateformes data et analytics de Dow Chemical. « Mais nous ne disposions pas d'espace data centralisé et étions très loin de l'excellence en matière de gouvernance. Nous nous sommes en réalité beaucoup concentrés sur la sécurité de nos data, alors que nous aurions aussi dû passer du temps pour rendre les data simples d'utilisation. »

Un potentiel inexploité

Dans une entreprise de la taille de Dow, une telle situation se traduit par un volumineux ensemble de données disparates, silotées et encombrantes. Il était difficile, par exemple, de combiner les données de fabrication, les données commerciales et les données d'innovation dans des applications analytiques. Qui plus est, en l'absence de tout modèle de gouvernance, même lorsqu'il était possible de combiner ces data, la fiabilité des résultats restait discutable.

« Nous ne pouvions que constater tout le potentiel inexploité et le temps beaucoup trop long passé à trouver des solutions aux problèmes métiers », poursuit Brandon Schroeder. C'est pourquoi en 2022, l'entreprise a mise sur pied un data hub intégré. L'idée clef : améliorer considérablement l'identification, l'accessibilité, la qualité et la capacité d'usage des données. Mais Dow ne s'est pas contenté d'un référentiel de données centralisé. L'objectif consistait bel et bien à transformer la façon dont ses employés interagiraient avec les données et s'y rapporteraient, en intégrant les data et l'analytique dans leur mode de travail.

Acculturation data pour toute l'entreprise

Avec son projet, Dow attend quatre résultats principaux : un accès à la data et une culture data améliorés ; des données et des analytics exploitables par tous ; une expérience employé améliorée et une facilité d'utilisation grâce à la suppression des verrous techniques ; une culture et une communauté data qui encouragent la transparence et la réutilisabilité.

Pour Brandon Schroeder, l'entreprise aurait pu déployer toute la technologie et les données dans le but que ses 200 data scientist les exploitent. « Mais une autre façon d'aborder le sujet consistait à former chaque personne à chaque niveau de l'entreprise pour en tirer parti », insiste de son côté Nathan Wilmot, directeur IT, partenariats clients, enterprise data et analytique. Le programme d'acculturation conçu spécifiquement s'étend de l'utilisation de la GenAI et de la création de dataviz jusqu'aux méthodes de gestion des data et à la prise de décisions avec celles-ci. « Que vous soyez producteur ou consommateur de données, data analyst ou encore décideur, vous aurez toutes les compétences nécessaires pour utiliser les technologies les plus modernes et exploiter les data efficacement dans le cadre votre quotidien. »

127 ans de connaissances

La première étape a cependant consisté à obtenir l'adhésion de tous à ce projet. L'accès à des données de qualité et propres étant essentiel pour tirer parti de l'IA, Brandon Schroeder explique qu'il n'a pas été difficile de convaincre la direction générale de l'impérieuse nécessité de déployer un data hub. « Pourtant il est difficile de faire quoi que ce soit seul dans une entreprise de la taille de Dow, rappelle-t-il. Il était donc essentiel de rechercher des partenariats entre les différentes activités de l'entreprise, au sein de l'IT et des autres fonctions de Dow. L'équipe RSSI a été un partenaire particulièrement précieux. »

« Lorsque vous prenez l'ensemble des 127 années de connaissances de Dow sous la forme de données structurées et non structurées et que vous les placez dans un endroit censé faciliter l'accès et la recherche, cela peut effrayer », reprend Brandon Schroeder. « Il faut se conformer aux lois sur la confidentialité, aux réglementations et aux contrôles de sécurité. Le fait d'avoir un partenariat solide avec le RSSI a été un véritable catalyseur pour nous engager dans cette voie. Nous avons, par exemple, dû repenser certains de nos principes cloud et data. »

Erreurs de jugement et faux départs

Au début du projet, cependant, l'équipe a fait quelques erreurs, comme le reconnaît Brandon Schroeder. Il se souvient avoir voulu aller trop vite et résoudre trop de problèmes difficiles dès le départ. « Nous avons essayé de passer outre une partie des aspects gouvernance de la data avec l'idée d'y revenir plus tard. Nous avons immédiatement vu les difficultés que cela engendre. Et quand nous avons extrapolé ce que cela donnerait pour l'ensemble de l'entreprise si nous poursuivions, nous sommes tout de suite revenus en arrière. »

« Si vous ne savez pas à qui appartiennent les données, comment elles sont classifiées, où elles se trouvent, et que vous n'obtenez pas l'adhésion des personnes qui les possèdent, tout le reste n'est que perte de temps », ajoute-t-il. « Il s'agit d'un processus qui prend du temps, insiste de son côté Nathan Wilmot. Et plus vous êtes une entreprise ancienne, plus c'est difficile. Mais vous devez le faire pour réussir dans le monde émergent de l'analytique, de l'IA, de l'IA générative et de tout ce qui suivra. »

L'indispensable adhésion de la direction

Une fois le sujet de la gouvernance pris en compte, il restait néanmoins d'autres obstacles. C'est le cas notamment du nombre de changements que le projet a introduits dans l'organisation et l'ampleur de ces transformations. En termes d'opérations sur les données, l'équipe de Brandon Schroeder a adopté un modèle en étoile, ce qui requiert une responsabilité et une appropriation partagées avec les métiers, des compétences techniques modernes et un haut degré de maîtrise des données. L'adhésion des dirigeants business et fonctionnels était également essentielle.

« Le défi se situe principalement du côté culturel, poursuit le directeur IT. La technologie est simple. En tant que propriétaires de données, nous demandons des comptes concernant l'usage de ces données, et parfois cela s'accompagne de tâches supplémentaires à accomplir au quotidien. Et il faut convaincre tout le monde que c'est une bonne idée et qu'il est important de prendre en charge ce travail supplémentaire. Fondamentalement, il s'agit de gérer le changement. »

Une certification interne

L'équipe a travaillé en étroite collaboration avec des experts dans l'ensemble de l'organisation pour s'assurer que l'integrated data hub répondrait à leurs besoins à long terme. Il s'agissait notamment de choisir une plateforme technologique capable de s'intégrer aux capacités d'analyse aval utilisées dans l'ensemble de l'organisation, et de développer un modèle de gouvernance garantissant une propriété et une gestion des données côté métiers, sans les surcharger. L'équipe s'est également concentrée sur des cas d'utilisation alignés sur la stratégie du groupe pour hiérarchiser le travail, ce qui selon Brandon Schroeder, a permis de s'assurer que les données entrant dans l'integrated data hub étaient correctement gouvernées et fournissaient une valeur réelle.

L'équipe a associé ce travail à un modèle de formation et d'assistance, qui comprend un processus de certification sur l'integrated data hub basé sur une approche par rôles, afin de donner une formation adaptée aux métiers des data scientists, data engineers, data analysts et data owners. L'équipe IT a commencé à charger des données dans le hub en 2023 et une forte demande s'est presque immédiatement exprimée pour en ajouter d'autres. « Nous constatons une précision des data désormais constamment supérieure à 90 %, note Nathan Wilmot. C'est considérablement plus élevé qu'au moment où nous avons commencé ».

En outre, Brandon Schroeder affirme que le temps d'obtention des ressources s'est considérablement amélioré. Un des objectifs qu'il vise désormais est ce qu'il appelle la « datascience en un jour », qui se traduirait par la capacité pour un data scientist d'avoir accès à toutes les données, plateformes et environnements dont il a besoin pour commencer à travailler sur un problème donné sous 24 heures. « Nous n'en sommes pas encore là, précise-t-il. Mais c'est vraiment l'objectif ».