Pour son Grand Théma CIO et Le Monde Informatique consacré à la data, la rédaction de notre confrère CIO a reçu des représentants de Renault Group, et des filières tourisme et construction. Au programme, la digitalisation des process et la collecte de la data, mais aussi sa structuration, son organisation, y compris sur le plan sémantique avec des définitions et un langage commun.
Ainsi, comme la plupart des industriels, Renault group fait face, depuis 2020, à des ruptures soudaines et imprévisibles de plus en plus fréquentes de sa supply chain. Qu'il s'agisse du covid, de catastrophes climatiques, de conflits géopolitiques, de blocages de ports ou de routes maritimes, de flambée des prix de matières premières, de pénurie de composants, elles sont difficiles à anticiper. Or, avec 6000 camions mobilisés par jour, 300 000 références traitées, 15 plates-formes logistiques et une trentaine de sites industriels dans le monde entier, la supply chain du constructeur automobile est particulièrement complexe. Pour la rendre plus résiliente face aux ruptures fréquentes, il a lancé un programme de transformation des processus concernés, par le digital, la data et l'IA. Avec pour objectif ultime d'arriver à une plus grande intelligence de la décision, comme est venu nous l'expliquer Ludovic Doudard, general manager process engineering au sein de l'organisation Supply Chain du groupe, entité process et digital hébergée au sein même du métier supply chain.
Pour Ludovic Doudard, general manager process engineering Supply Chain chez Renault Group, le datalake était la solution idéale, mais « il n'a pour autant pas vocation à devenir la Mer Morte ».
Après avoir complété la digitalisation des processus concernés, l'entreprise a opté dès 2018 pour un datalake, construit durant 3 à 4 ans, et aujourd'hui installé dans GCP. Comme le rappelle Ludovic Doudard, un datalake n'a pour autant pas vocation à devenir la Mer Morte. Autrement dit, il ne suffit pas de le remplir de data. Celles-ci doivent être structurées, organisées, et surtout il faut en donner l'accès à tous. Raison pour laquelle l'entité supply chain a rapidement réservé 10% de ses équipes digitales à l'ingestion des données par le datalake. Et à la définition d'une ontologie au travers de couches sémantiques.
Regardez notre Grand Théma consacré à la data
En parallèle, Renault a développé des plates-formes collaboratives pour montrer aux métiers le potentiel de la data lorsqu'elle est partagée avec le plus grand nombre. C'est le cas d'une première control tower, partagée avec les usines, la supply chain, les transporteurs, voire les fournisseurs. Enfin, le constructeur étudie le potentiel de l'IA, toujours au service d'une intelligence de la décision au quotidien. Il s'intéresse par exemple à la genAI pour questionner le datalake en langage naturel, sans forcément d'expertise sur la data.
Un dataspace partagé par la filière tourisme
Notre second invité, David Krieff, est quant à lui DSI d'ADP, mais également président d'Eona-X, le dataspace du transport, du tourisme et de la mobilité. Il a partagé avec nous, la mise à l'épreuve de la réalité de ce concept dans le cadre des JOP 2024 à Paris. « Le dataspace permet des échanges de données en confiance grâce à un langage commun et au respect de conditions préalablement établies pour ces échanges », précise-t-il. Là encore, il est d'abord question de définitions communes. Mais entre acteurs d'une filière cette fois. « Quand on échange des informations sur le nombre de passagers qui utilisent les aéroports, les avions, les bus, les taxis, les trains, il faut que tous les acteurs concernés s'accordent sur ce qu'est un passager, insiste-t-il. Est-ce juste un nombre ? Est-ce aussi une nationalité ? Une destination ? » Or, lors d'un échange avec un tiers ou via une plate-forme, une entreprise ne sait pas toujours de façon certaine à qui elle a affaire ni ce que cette personne ou organisation va faire de la donnée.
Pour David Krieff, DSI d'ADP et président d'Eona-X, on identifie trois types de dataspaces. « ceux qui visent l'efficacité opérationnelle ; ceux qui visent le bien commun ; ceux qui visent la partage de la connaissance client et de nouveaux services ».
L'objectif des dataspaces, promus par l'Union européenne depuis 2020 sous l'impulsion du couple franco-allemand, répond à l'omniprésence américaine en matière de stockage de données dans le cloud, qui leur donne un avantage de taille lorsqu'il s'agit d'entraîner les IA. Le dataspace a ainsi également pour vocation de donner aux pure players européens un accès à la data équivalent pour entraîner leurs modèles. David Krieff rappelle que l'on peut identifier trois types de dataspaces. Ceux qui ont un objectif d'efficacité opérationnelle, comme Catena-X centré sur la supply chain automobile, l'opendata avec un objectif de bien commun et enfin, les équivalents d'Eona-X qui visent à partager la connaissance sur les clients communs d'une filière, et à créer de nouveaux services.
Eona-X, en piste pour Paris 2024
Eona-X se lance dans le grand bain pour les JOP 2024, afin de tester la pertinence du modèle dans un contexte concret et contraignant. Il va servir au suivi des délégations entre leur arrivée à l'aéroport et leur logement. L'idée étant en particulier de les diriger de façon fluide à leur sortie de l'avion jusqu'à un bus avec un départ immédiat vers leurs logements. Les informations de géolocalisation des bus transportant les délégations seront également partagées avec le QG de sécurité des JOP. « Compagnies aériennes, ADP, Paris 2024, bus, tout le monde a intérêt à ce partage de donnée », insiste David Krieff. Cet événement exceptionnel permettra de dégager les pistes de mise en qualité des data de la filière tourisme, et les travaux menés lors des JO seront également directement transposables. La métropole de Nice compte déjà s'en inspirer pour le sommet de la mer prévu en 2025.
En matière de gouvernance, Eona-X est une association; dont ADP est membre, avec Renault Group, Air France-KLM, Accor, SNCF, Aéroport Marseille Provence et Amadeus. C'est ce dernier qui opère la plate-forme technique pour Paris 2024. Eona-X définit par ailleurs l'ontologie des data de la filière pour le dataspace. Pour David Krieff, les prochains enjeux résident dans l'identification d'un plus grand nombre de cas d'usage rentables économiquement. Un sujet qui fait l'objet de travaux de recherche avec l'Université Paris Dauphine ou la Toulouse School of Economics afin de mieux cerner les mécanismes économiques qui se jouent lors de la création d'un dataspace. Enfin, Eona-X collabore avec Capgemini, Linagora ou encore Mistral pour identifier le rôle que le dataspace peut jouer dans l'alimentation de futurs champions européens de l'IA.
Harmoniser la data au sein d'un BIM pour la construction
La filière de la construction, elle aussi, travaille sur le sujet des données communes et partagées entre ses parties prenantes, avec en tête un outil digital : le modèle BIM (building information modeling) censé décrire l'ensemble du projet. Mais la question n'est pas tout à fait la même que dans le tourisme. Les acteurs variés qui interviennent à une étape de la chaîne de construction d'un ouvrage arrivent en général avec leur propre référentiel métier, leur propre connaissance. Pour cette raison, difficile d'obtenir un BIM exploitable efficacement par tous. L'enjeu est pourtant de « réussir à travailler, développer, concevoir, construire, exploiter des ouvrages à partir d'une masse d'information contenue dans la data à partir d'environnements numériques partagés », comme l'a rappelé notre dernier invité, Rémi Lannoy, responsable du département construction numérique et BIM du Cerib (centre d'excellence en recherche et innovation pour l'industrie du béton).
En conséquence - comme chez Renault ou dans le tourisme -, le premier enjeu réside dans la constitution d'un langage commun. La filière a besoin de modèles de définition qui s'appuient sur des listes de propriétés et des référentiels permettant une compréhension par tous. Ces dictionnaires de données existent déjà dans la filière, et plutôt que de viser un dictionnaire universel qui relève davantage du fantasme selon Rémi Lannoy, mieux vaut s'organiser en réseau et proposer des définitions harmonisées. Ces modèles doivent bien entendu être utilisables dans le contexte de projets. Ce qui implique de définir des occurrences spécifiques pour chaque objet : « un objet, c'est de la sémantique, un conteneur et une occurrence du modèle », résume notre invité.
Pour Rémi Lannoy, responsable du département construction numérique et BIM du CERIB, « l'IA sera forcément une bonne réponse à la complexité du métier de la construction, qui présente tellement de contraintes techniques ».
Reste enfin, la question du format de définition de données. Les pistes naturelles sont celles des standards de type XML ou JSON, mais les acteurs de la filière regardent aussi des formats propres à la construction comme IFC (Industry Foundation Classes), qui intègre entre autres des paramètres de géométrie dans l'espace. Sans oublier les formats propriétaires, mais néanmoins indispensables, qui devront interopérer avec les formats standards choisis. Deux leviers pourraient doper la progression vers une data efficacement partageable via le BIM dans la construction. D'une part, les exigences des donneurs d'ordre et, d'autre part, de futures réglementations.
Si le BIM n'est pas une obligation en France, « un carnet numérique du bâtiment pourrait cependant voir le jour pour contribuer aux analyses de cycle de vie », comme le précise Rémi Lannoy. L'Union européenne demande déjà des digital product passports, qui intégreront par exemple des données de performance environnementale pour des comparaisons ou analyses. Et cela concerne directement les fabricants de produits pour la construction. Enfin, ce travail de standardisation et de partage de la data vise aussi à offrir à la filière construction un accès à l'IA. « L'IA sera forcément une bonne réponse à la complexité de notre métier, qui présente tellement de contraintes techniques », espère ainsi Rémi Lannoy.
Commentaire