La data, pétrole du XXIème siècle ? Encore faut-il savoir l'extraire, le raffiner, bref, l'utiliser au profit du business. Or les bonnes pratiques en la matière ne sont pas si couramment appliquées qu'il le faudrait comme l'a révélé l'étude CIO « Comment exploiter au mieux les données au service du business ? ». Celle-ci a été présentée en ouverture de la conférence « IT et métiers : front commun sur la data », organisée par CIO au Centre d'Affaires Paris-Trocadéro le 16 avril 2019 en partenariat avec Alteryx, Antemeta, Denodo, Indexima, Purestorage, Snowflake, Tableau et Trifacta.
Gabriel Ferreira, directeur technique de Pure Storage, a expliqué comment « Créer une plateforme de données performante et évolutive pour les applications métiers présentes et à venir »
Avant d'envisager de traiter les données, encore faut-il les acquérir et les stocker. Si les terminaux grand public ont popularisé la mémoire flash, Purestorage l'a fait pour le stockage d'entreprise. « Ce type de stockage remplace les disques mécaniques à chaque renouvellement » a avancé Gabriel Ferreira, Directeur Technique Pure Storage. Le coût n'est en effet plus un frein, l'écart étant désormais négligeable.
Mais la différence n'est pas seulement de prix du matériel ou de performance. Il l'est aussi sur la difficulté d'administration et sur le coût total de possession, cette fois nettement en faveur du flash, car comme Gabriel Ferreira l'explique : « les temps ont changé et si, avant, on achetait du matériel avec un administrateur qui le gérait, aujourd'hui, tout doit être automatisé et les équipes IT se consacrent donc à l'ingénierie. » Ce type de stockage pouvant être universel, il n'est plus nécessaire de multiplier les types de support, avec des recopies, permettant ainsi une disponibilité de l'ensemble du patrimoine data.
« Exploiter la data au bénéfice du business » : c'était le témoignage de Angélique Bidault-Verliac, Directrice Démocratisation et Gouvernance de la Data de Oui.SNCF.
Si la donnée en elle-même est une ressource, encore fait-il qu'elle ne soit pas polluée. C'est la raison pour laquelle la qualité des données est une question prioritaire entre les mains des métiers comme l'a décrit Angélique Bidault-Verliac, Directrice Démocratisation et Gouvernance de la Data de Oui.SNCF. Durant son témoignage, elle a ainsi expliqué comment le patrimoine data est exploité au sein de l'agence de voyage du groupe SNCF et les conditions de la réussite de l'emploi de l'intelligence artificielle. En effet, plusieurs écueils ont dû être surmontés.
Ivan Smets, Regional Vice President Southern Europe de Snowflake, a plaidé : « Démocratisez et accélérez l'analyse de données pour les utilisateurs métiers avec un entrepôt de données 100% Cloud ».
« Le futur est un déferlement de dates et il faut s'y préparer » a averti Ivan Smets, Regional Vice President Southern Europe de Snowflake. Les volumes s'accroissent, bien sûr, mais le nombre de gens accédant aux données également et, enfin, la fréquence de renouvellement elle aussi s'accroît. Et, à l'heure du RGPD, pour courronner le tout la réglementation aussi s'accroît.
Du SGBD-R on premise aux clusters Hadoop, les technologies classiques ne sont plus adaptées. 70 % des projets qui franchissent le stade des tests échouent lors de leur passage en production. C'est pourquoi Snowflake a conçu une base de données nativement cloud et permettant aisément sa mise à l'échelle pour faciliter l'industrialisation des projets.
« Industrialiser l'exploitation de la data », c'est le coeur de l'action de Nicolas Simon, Directeur de la Transformation Digitale au GIP-MDS / Net-entreprises.fr
Ce besoin d'industrialisation est particulièrement criant dans certaines organisations. Ainsi, le GIP-MDS (Groupement d'Intérêt Public Modernisation des Déclarations Sociales, plus connu par son portail Net-entreprises.fr) a pour objet de traiter des flux de données importants entre les entreprises et les organismes sociaux. Les mises en oeuvre de la Déclaration Sociale Nominative (DSN) puis du prélèvement à la source de l'impôt sur le revenu ont été avant tout des défis IT. La DSN a impliqué notamment un important chantier sur la qualité des données dans les entreprises. Nicolas Simon, Directeur de la Transformation Digitale, GIP-MDS / Net-entreprises.fr, a ainsi détaillé les étapes des chantiers et les bonnes pratiques mises en oeuvre pour que le succès soit au rendez-vous.
Yahya Jarraya, Senior Account Manager de Denodo, a détaillé : « La data virtualization : la plateforme de gestion et mise à disposition des données distribuées »
La multiplicité des sources primaires de données comme le silotage (pas toujours évitable) du patrimoine data est un obstacle majeur à son exploitation. A cela s'ajoute le désir de recopier les données à chaque besoin d'utilisation. Les conséquences peuvent être lourdes en occupation d'espace mais aussi en failles de sécurité. « Qui a des droits d'accès, qui a fait quoi ? » a interrogé Yahya Jarraya, Senior Account Manager chez Denodo. Pour lui, « en comptant la réplication de confort, 75 % du volume de données stockées est inutile. Il faut simplement rendre toute l'information disponible avec un strict respect des droits d'accès. La data virtualisation permet d'atteindre ces objectifs en garantissant une accessibilité temps réel à l'ensemble du patrimoine data, la réplication n'étant plus réalisée que pour de justes motifs (par exemple sur un site distant) et avec maîtrise.
Frédéric Abitan, Directeur Commercial de Tableau, a expliqué « How to become a data driven Company »
Une fois les données stockées et rendues accessibles, encore faut-il les exploiter, notamment via une bonne visualisation. « Notre sujet, c'est comment utiliser au mieux les données en entreprise pour prendre de bonnes décisions » a ainsi expliqué Frédéric Abitan, Directeur Commercial de Tableau. Cela implique de pouvoir voir et comprendre les données. Pour cela, trois conditions doivent être réunies. Tout d'abord il faut établir un équilibre entre gouvernance et self-service. Ensuite, l'accès aux données doit être généralisé. Enfin, établir une communauté interne pouvant prospérer autour des données achèvera de faire de l'organisation une firmr « data driven ». Cela dit, l'adoption de la démarche reste le point le plus délicat.
Hugues de Maussion, Directeur Innovation, Projets et SI de Chronopost, a été le Grand Témoin de la matinée.
Mettre les données au service du business, Chronopost en est un très bon exemple. Transporter des colis suppose de transporter aussi des données. Et ces données sont, à leur tour, une source de services, autrement dit de business. Hugues de Maussion, Directeur Innovation, Projets et SI de Chronopost a été le Grand Témoin de la matinée et il a su, au delà du cas de son entreprise, bien expliciter les enjeux comme les bonnes pratiques sur ce sujet.
« Alteryx, le lien entre l'IT et les métiers lors de votre transformation digitale » a relaté Raphaël Savy, Directeur Régional d'Alteryx.
Pouvoir collecter la data, la combiner, la nettoyer, la présenter... voilà le coeur du problème. « Nous venons casser les silos dans l'entreprise et permettre à tous de travailler sur les datas » a ainsi explicité Raphaël Savy, Directeur Régional d'Alteryx. Cette plate-forme comprend 250 composants pré-codés pour effectuer chacun une tâche et pouvant être assemblés en mode low code même si du code peut tout de même être ajouté si c'est nécessaire. La philosophie de la démarche est de développer l'appétence des métiers avec les données.
Emmanuel Dubois, co-fondateur et directeur commercial et Marketing d'Indexima, a expliqué « Quel(s) avenir(s) pour l'analytique ? Tendances, technologies, bénéfices attendus et bonnes pratiques ».
Parmi les freins à une bonne utilisation des données par les métiers, il faut bien sûr citer le manque de performance des outils. « Qui n'a jamais été énervé par le temps de réponse d'un décisionnel ? » s'est ainsi offusqué Emmanuel Dubois, Co-fondateur et Directeur Commercial et Marketing d'Indexima. L'utilité de cet outil peut être résumé en un seul terme : la performance. S'il est agnostique du point de vue des solutions BI comme des cas métiers, Indexima vise à développer l'accès aux données à coût faible.
La table ronde « Développer les exploitations de la donnée » a réuni (de droite à gauche) Jean Dumas (Responsable des Données Clients Professionnels chez Renault) et Arnaud Maton (Responsable Data Factory, Urbanisation Fonctionnelle IT chez Kiloutou).
La table ronde « Développer les exploitations de la donnée » a ensuite réuni Arnaud Maton (responsable Data Factory, urbanisation fonctionnelle IT chez Kiloutou) et Jean Dumas (responsable des données clients professionnels chez Renault). Dans le cadre de la recherche d'une solution pour moderniser le traitement et l'analyse des données, le spécialiste de la location de matériel de BTP et d'outillage Kiloutou a ainsi déployé une base de données dans le cloud avec Snowflake. Quant à Renault, pour développer les usages des données disponibles par les équipes commerciales dédiées au marché des professionnels, le constructeur a déployé une visualisation piloté par un agent conversationnel avec Askr.ai.
Raphaël Feddawi, Head of Architects and Data solutions specialists d'AntemetA (à droite), a averti : « La gestion et la protection des données : des préalables incontournables à leur exploitation ». Il était accompagné de Gautier Leblanc, expert avant-vente de Veritas (à gauche).
Pour exploiter les données, la première action à mener, c'est un inventaire du patrimoine data. Difficile, en effet, d'exploiter des données dont on ignore l'existence. Mais ce n'est pas suffisant. Raphaël Feddawi, Head of Architects and Data solutions specialists de la société de services accompagnant la transformation numérique des entreprises AntemetA, a ainsi appelé à « lutter contre les dark datas et surtout la multiplication des copies de données avec des droits d'accès non-entretenus. » Il peut ainsi y avoir des quantités de données aux droits orphelins (correspondant à des profils supprimés), ce qui représente à la fois un gachis de place et un risque de sécurité. Si la protection des données est malheureusement toujours vue comme un mal nécessaire, il faudrait plutôt la voir comme un service qui est d'autant plus utile que l'inventaire est bien fait.
Alain Dalmau, Regional Sales Manager, France and Southern Europe pour Trifacta, a décrit comment « Préparation de données en mode agile pour les métiers ».
L'unicité des sources de données a aussi été le sujet d'Alain Dalmau, Regional Sales Manager, France and Southern Europe, chez Trifacta. Bien préparer les données est ainsi une nécessité pour garantir cette unicité de source. Certaines tendances se constatent dans la manière de gérer les données : le recours à Hadoop et au cloud pour stocker de grosses quantités de données, le développement des data-sciences, le renforcement de l'approche data driven, le self-service BI... Mais deux défis restent à relever : d'un côté préparer les données alors que c'est une tâche sans valeur directe et coûteuse en ressources, de l'autre trouver les ressources humaines nécessaires. La solution de Trifacta contribue à relever ces deux défis en permettant de préparer les données en mode agile, de façon simple et intuitive, avec des ressources humaines aux compétences moins pointues. Les outils plus sophistiqués restent parfois nécessaires mais sont à réserver aux quelques cas résiduels.