La véritable richesse que l'on peut tirer des données, c'est la valeur apportée aux métiers, au business de l'entreprise. Pour montrer les pratiques exemplaires en la matière, CIO a organisé une webconférence « Data Analytics : l'heure du pouvoir aux utilisateurs » diffusée le 13 avril 2021. Vous pouvez retrouver le replay intégral de la webconférence ici. Elle a permis de retrouver Frédéric Brochard, directeur des technologies et des systèmes d'information du groupe France Télévisions, grand témoin de la matinée. En tant que Grand Témoin, outre son témoignage sur ses propres pratiques, il a commenté l'étude Applications analytiques : comment apporter de l'autonomie aux utilisateurs ? et conclu la matinée. Les autres témoins ont été : Abdo Berberry (Head of IT 3D -Digital / Data / Dissemination- de CACEIS), le lieutenant-colonel Marc Dumas (Chef du pôle de l'action et de l'anticipation du SDIS 13), Cédric Grenet (Directeur du numérique de Caux Seine Agglo) et Tony Guilmin (Directeur de la comptabilité du Groupe Manitou). Enfin, en partenariat avec MyFrenchStartUp, Matthieu Chabeaud, Président d'Askr.ai, a présenté cette start-up. Les experts des partenaires de l'événement se sont également exprimés tout au long de la matinée : Boomi / Dell, Dataiku, Denodo, Indexima, Pitney Bowes, SAP et Tibco. Les contenus associés à la CIO.expériences Data Analytics : l'heure du pouvoir aux utilisateurs (mis à jour régulièrement) se retrouvent ici.
Quelques résultats de l'étude Applications analytiques : comment apporter de l'autonomie aux utilisateurs ? ont été présentés et commentés lors de la diffusion. Les résultats de cette enquête sont assez contrastés : d'un côté, les organisations semblent avoir progressé rapidement sur certains sujets liés à la valorisation des données, comme en témoigne par exemple la montée en puissance de l'intelligence artificielle ou le partage de données avec des acteurs externes à l'organisation. De l'autre, force est de constater que les entreprises peinent à s'emparer de certains enjeux pourtant essentiels pour pouvoir exploiter les données, notamment les sujets de conformité et de qualité.
« Faciliter l'accès aux données pour l'analytique » a été expliqué par Bruno Labidoire, Senior manager EMEA presales Southern and Benelux de Boomi.
Premier expert à s'exprimer durant la matinée, Bruno Labidoire, Senior manager EMEA presales Southern and Benelux de Boomi, est revenu sur les conditions pour « Faciliter l'accès aux données pour l'analytique ». « Au delà de la solution data analytics qui va être finalement choisie, plusieurs défis sont à relever en amont » a-t-il commencé par rappeler. Le recensement, la collecte et le rapprochement de toutes ces données va être la première étape. Une fois les cycles de vie des données compris, il va ensuite falloir nettoyer celles-ci, ce qui accroîtra d'autant le niveau de confiance dans ces données. Ce n'est qu'ensuite que la véritable analyse va pouvoir démarrer.
Or cette phase amont consomme du temps qui ne sera pas consacré aux analyses, seules porteuses de valeur business. Il est donc nécessaire de réduire ce temps de préparation, notamment en réutilisant au maximum le travail déjà fait pour d'autres usages des mêmes données. Bruno Labidoire a fait le comparatif en termes de coûts et de durées entre trois approches : un projet purement IT systématique mais « manuel », un usage des outils décisionnels par les métiers en se limitant aux cas d'usages identifiés et, enfin, l'outillage adéquat. Cette dernière solution est bien sûr nettement moins longue et coûteuse. C'est ce que propose Boomi. Pour terminer, Bruno Labidoire a présenté le cas d'application du Groupement des Mousquetaires (Intermarché, Bricomarché...). Plusieurs erreurs sont à éviter : négliger la difficulté du temps réel, sous-estimer la difficulté de la découverte des données et ne pas intégrer l'enrichissement des données dans le projet global.
« Comment apporter de l'autonomie aux utilisateurs ? L'intégrité des données au coeur de votre stratégie d'entreprise » s'est interrogé Charles Trawinski, Sales engineer 'intégrité des données et intelligence géospatiale' de Precisely.
Charles Trawinski, Sales engineer 'intégrité des données et intelligence géospatiale' de Precisely, est ensuite revenu sur l'enjeu de l'intégrité des données. « Selon Forbes, 84 % des PDG sont préoccupés par l'intégrité des données sur lesquelles ils basent leurs décisions » a-t-il rappelé. Une étude HBR mentionne que 47 % des données nouvellement créées comportent au moins une erreur critique et une autre, la Data Trends Survey 2019, que 68 % des organisations estiment que la disparité des données a un impact négatif. Precisely a identifié quatre grands défis autour de l'intégrité des données : l'intégration, la qualité, l'enrichissement et la localisation.
L'enjeu, c'est bien de fournir des données fiables et riches en contexte. La 'Data Integrity Suite' de Precisely accompagne les entreprises pour relever les quatre grands défis mentionnés. Charles Trawinski a cependant insisté sur l efait qu'il n'existe pas de parcours unique, uniforme, universel, pour atteindre cette intégrité des données. Pour terminer son intervention, il est revenu sur l'expérience vécue par L'Occitane en Provence qui visait à disposer des données de qualité pour disposer d'une vraie vision 360° des clients pour remplacer des données dispersées dans 19 systèmes. Ce projet a facilité la mise en conformité RGPD.
Tony Guilmin, directeur de la comptabilité du Groupe Manitou, a expliqué comment exploiter des données comptables éclatées.
Tony Guilmin, directeur de la comptabilité du Groupe Manitou, a ensuite témoigné des projets menés pour mieux consolider les données avec un objectif clairement d'analyse financière. Manitou est un groupe international de trente sociétés spécialisées dans le matériel de manutention tous terrains, 4400 collaborateurs lui permettant de dépasser 1,6 milliards d'euros de chiffre d'affaires annuel. « Groupe coté, nous avons des obligations de publication de comptes » a rappelé Tony Guilmin. Certes, le groupe disposait d'un outil de consolidation statutaire mais l'élaboration budgétaire, et son suivi, se déroulait sous Excel. Tony Guilmin relève : « la principale difficulté était le processus budgétaire avec beaucoup d'informations à collecter dans les filiales et une demande de la direction d'avoir des informations très fines par marques, types de produits, zones géographiques, etc. » Les informations devaient être fiables dans des délais de collecte courts.
Acquérir la maturité nécessaire pour comprendre comment aborder le sujet n'a pas été une évidence. Plusieurs années de réflexions et de difficultés ont été nécessaires. Finalement, c'est CCH Tagetik qui a été choisi alors que cette solution n'était pas du tout prévue au départ de la démarche. Cette solution n'est apparue comme pertinente qu'à l'issue des soutenances. Le bon partenariat entre l'éditeur et son intégrateur et l'approche pragmatique ont su séduire au-delà des fonctionnalités (notamment au niveau des clés de réallocations) et de l'ergonomie. Le fait que l'outil soit disponible sous forme de SaaS a également joué car cela permettait une implémentation rapide et des mises à jour régulières automatiques. L'ensemble du projet a duré un an et demi.
« Analytique et data management : pourquoi et comment faire fonctionner ce binôme ? » a questionné Mathieu Guillot, solution engineer de Tibco Software France.
Ce genre de projets est une bonne illustration de l'intervention suivante, celle de Mathieu Guillot, solution engineer de Tibco Software France. Comme celui-ci l'a souligné : « la manière de consommer la data a beaucoup changé au cours de la dernière décennie ». Plusieurs facteurs y ont contribué, les premiers étant bien sûr le coût de stockage qui s'est effondré et la bande passante réseau qui s'est fortement accrue, facilitant les flux. Il en a résulté un changement dans les usages : les utilisateurs retournent chercher la donnée à la source à chaque fois au lieu de compter sur des stockages intermédiaires. Alors que jadis on manquait plutôt de données, aujourd'hui les entreprises croulent plutôt sous les données et la difficulté est d'analyser des données pertinentes alors que les demandes en analyses s'accroissent. Les outils d'analyse et de visualisation comme les profils d'utilisateurs se multiplient autant que les sources de données.
Pour gérer cette complexité, Mathieu Guillot estime qu'il faut ajouter une plate-forme par dessus les systèmes proposant des données pour offrir une vision unifiée, de qualité et de confiance. Toutes les sources de données sont ainsi dessilotées au sein de l'entreprise, permettant ainsi un traitement transversal. Les usages des différents outils sont également de ce fait dynamisés. Qualité, fiabilité et agilité caractérisent les usages avec une telle plate-forme de data management. Une fois la problématique de l'accès aux données réglée, il est temps de s'intéresser à l'analytique augmentée. Dans cette approche, l'intelligence artificielle va être utilisée pour aider les utilisateurs métiers à proposer des visualisations les plus pertinentes possibles. Certains outils peuvent aussi permettre d'interroger les données en langage naturel. Comme les data scientists sont des profils rares et chers, il est impossible d'en placer partout dans l'entreprise. Le but des outils modernes est de bien de donner les clés aux métiers pour réaliser l'analyse des données le plus en temps réel possible.
Abdo Berberry, head of IT 3D (Digital / Data / Dissemination) de Caceis, a détaillé comment Caceis offre un accès data à ses clients.
Faciliter l'accès à la donnée fiable en agilité, c'est précisément ce qu'a mis en oeuvre Caceis. Cette entreprise est présente dans une quinzaine de pays avec 3600 collaborateurs, en Europe, en Asie et dans les Amériques. Ce groupe bancaire propose l'ensemble des prestations post-marché (exécution, compensation, conservation, banque dépositaire, administration de fonds, services de middle office, services aux émetteurs etc) aux sociétés de gestion, compagnies d'assurance, fonds de pensions, banques, fonds de private equity et real estate, brokers et grandes entreprises. Les actifs conservés pour le compte de ses clients fonds de pension, banques, etc. représentent environ 4000 milliards d'euros. Filiale à 69,5 % du Crédit Agricole et à 30,5 % de la Banque Santander, sa DSI est organisée essentiellement par lignes métiers. Pour porter la transformation digitale a été ainsi créée la filière 3D (Digital / Data / Dissemination) sous la responsabilité de Abdo Berberry. Expérience client, efficacité opérationnelle interne et nouveaux produits sont les trois piliers de cette transformation. Les grandes quantités de datas disponibles sont des socles de ces piliers.
L'architecture mise en place repose sur trois couches successives. La première est la collecte des données qui s'effectue avec Qlik Replicate. La transformation et la mise en qualité avant de mettre à disposition les données s'appuie sur les solutions Talend. Enfin, reste la visualisation. Un stockage, soit en base de données orientée colonnes Vertica soit sous Hadoop où l'alimentation peut être opérée en mode continu ou bien en mode batch selon la fraîcheur requise, facilite l'usage avec les différents outils de visualisation disponibles dans le groupe, notamment Dig Dash. C'est notamment le cas avec le portail Olis destiné aux clients finaux. Ce portail, selon Abdo Berberry, vise « à réinventer l'expérience client en offrant à chacun un accès plus aisé à tous les services et toutes les données, avec plus de clarté et de fluidité ainsi qu'un contrôle total de leur environnement ». Olis a d'ailleurs été créé en co-construction et méthode agile avec les clients afin de s'assurer de la pertinence des choix opérés. Ce portail est le point d'entrée unique des 15 000 clients de Caceis.
« L'importance d'une approche holistique dans la gestion de la donnée décisionnelle » a été défendue par Florian Hamon, business development manager chez SAP.
Cet exemple confirme le constat fait juste après par Florian Hamon, business development manager chez SAP : « les entreprises doivent gérer de plus en plus de données, plus de sources, plus de variété. Selon une étude interne, les clients doivent intégrer en moyenne plus de cinq sources de données pour du reporting ». La multiplication des sources et des natures de données (y compris, par exemple, de la vidéo) induit un fréquent silotage. Pour éviter cela, il faut donc avoir une approche holistique du patrimoine data. A cette fin, SAP propose différentes solutions rassemblées dans une offre intégrée, SAP Datawarehouse Cloud associée à SAP Data-analytics Cloud, qui vont couvrir tout le cycle de vie de la donnée (gouvernance, accès, stockage, qualité, visualisation...).
Trop souvent, les utilisateurs en entreprises prennent des extractions fournies par la DSI, en général sous forme de fichier plat, avant de les analyser avec un tableur ou, au mieux, un outil de BI. Le résultat va être partagé par mail avec d'autres utilisateurs qui vont éventuellement poursuivre le travail de traitement. Il en résulte que la data n'est plus du tout contrôlée et sécurisée, sa qualité et sa fraîcheur ne sont plus garanties. SAP propose donc dans ses solutions des « espaces » hermétiques, définis par la DSI, pour des usages (projets, métiers, etc.) avec les outils appropriés pour que les utilisateurs soient autonomes jusqu'à la visualisation finale.
Frédéric Brochard, directeur des technologies et des systèmes d'information du groupe France Télévisions, a été le Grand Témoin de la matinée.
Le grand témoin de la matinée a été Frédéric Brochard, directeur des technologies et des systèmes d'information de France Télévisions. Celui-ci est un groupe audiovisuel public français. Il propose notamment un bouquet de quatre chaînes nationales (France 2, France 3, France 4, France 5), un réseau régional et outre-mer et une offre d'information sur tous les supports, Franceinfo, ainsi que des plateformes numériques pour tous les âges. En 2020, France Télévisions a atteint 28,8% de part d'audience et 1,3 milliard de vidéos ont été vues sur sa plateforme France.tv. En tout, le groupe représente plus de 8700 collaborateurs et environ 2,5 milliards d'euros de budget global. La tendance, renforcée par la crise sanitaire, est au développement des offres non-linéaires. « Nous avons voulu faire du digital l'affaire de tous » a affirmé Frédéric Brochard. Au delà de l'IT habituelle de toute entreprise (infrastructures, applicatifs de gestion...), France Télévisions possède une IT dédiée à la production de contenus, notamment les données utilisées par les journalistes, et à la diffusion de contenus propres ou issus de tiers.
Un département spécifique « Data et Intelligence Artificielle » a été récemment créé. Frédéric Brochard explique : « nous savons depuis longtemps que les vidéos sont des datas mais deux besoins étaient mal couverts. Le premier relève des métadonnées descriptives, par exemple pour faire des recherches en ligne. Le deuxième concerne le contenu lui-même. L'amélioration de ces deux points permet de nouveaux services. » Typiquement, une bonne analyse de contenus par IA permet de positionner au mieux la publicité dans une fiction, de créer des sous-titres automatiquement, de retrouver une séquence avec Emmanuel Macron et Angela Merkel... Les datas sont stockées sur AWS (en attendant que France Télévision soit agnostique sur le fournisseur cloud) et visualisées sous Perfect Memory et PowerBI. Le témoignage complet de Frédéric Brochard peut être retrouvé dans le replay intégral de la webconférence.
« La résilience de vos initiatives analytiques : la clé de votre patrimoine et de la valeur générée » a plaidé Alexis Fournier, vice-président EMEA AI Strategy de Dataiku.
Si les données génèrent ainsi une grande valeur métier, il vaut mieux s'assurer de leur résilience et de celle des projets associés. C'était le sens de l'intervention d'Alexis Fournier, vice-président EMEA AI Strategy de Dataiku. « Tout le monde est bien conscient des potentialités de l'IA pour traiter les données en entreprise mais, trop souvent, on se limite à quelques cas d'usage au lieu de passer à l'échelle et de gagner par-ci par-là, partout, en temps ou en efficacité » a-t-il d'abord souligné. Générer de la valeur autour de multiples cas d'usages avec de très nombreux intervenants, c'est tentant, mais, au centre, il y a la problématique de la résilience qui doit être la base de tout projet de transformation par la data. Typiquement, les crises économiques ou sanitaires peuvent avoir des impacts sur la résilience des entreprises mais aussi, en premier lieu, sur la pérennité des projets data ou la valeur à long terme de ces projets. La valeur est aussi soumise à des préoccupations de validité des datas : la mode peut être d'abord celle des T-shirts bleus et demain celle des T-shirts rouges sans que les données de vente ne permettent d'anticiper un tel changement. Un changement de technologie dominante sur le marché peut aussi amener à une perte de valeur sur le long terme des projets datas menés.
Pour construire des projets datas capables de produire de la valeur sur le long terme, Alexis Fournier estime ainsi qu'il faut une plate-forme centralisée pour gouverner toute la donnée. Il s'agit ainsi de maîtriser qui a fait quoi, sur quelles données, comment, etc. Auditabilité et traçabilité sont intrinsèques à l'existence d'une plate-forme centralisée. La multiplication de plates-formes ne permet pas une telle maîtrise. De plus, en centralisant, on capitalise sur les initiatives des uns et des autres pour créer de nouveaux projets. Et, bien entendu, une telle centralisation garantit aussi la maîtrise de la couche technologique sous-jacente qui peut être plus facilement remplacée en cas de nécessité. Enfin, la centralisation facilite le contrôle de la conformité réglementaire (comme le RGPD).
Cédric Grenet, directeur du numérique de Caux Seine Agglo, a détaillé « le rôle des SIG pour une collectivité telle que Caux Seine Agglo ».
Parmi les données qui peuvent générer beaucoup de valeur sur le long terme, il ne faut pas oublier les données cartographiques. Cédric Grenet, directeur du numérique de Caux Seine Agglo, a ainsi témoigné des projets menés au sein de cette collectivité de Seine Maritime, située entre les agglomérations du Havre et de Rouen et comprenant notamment la zone industrielle et portuaire de Port-Jérôme avec ses sept sites classés Seveso seuil haut. 78 000 habitants répartis dans une cinquantaine de communes habitent cette agglomération. Les compétences d'une telle structure relèvent avant tout de l'aménagement du territoire, du cadre de vie, du développement économique, de la gestion des déchets... « Le premier rôle de la cartographie est de nous permettre de connaître notre territoire en termes de réseau de voirie, d'habitats, de biodiversité, etc. » explique Cédric Grenet.
Le travail cartographique dans le système d'information géographique (SIG) a réellement débuté au début des années 2000 en commençant par la zone de Port-Jérôme où les différentes industries et les bassins de rétention d'eau devaient être clairement positionnés. Le premier calque implémenté a été celui du cadastre puis sont venues des couches supplémentaires en fonction des besoins métiers. Cédric Grenet insiste : « 90 % des missions que nous menons sont liées à de la géolocalisation. » L'agglomération a fait participer la population sur certains projets comme la géolocalisation de l'intégralité des places de stationnement pour personnes handicapées grâce à une application pour smartphones connectée au SIG. Certains des calques font l'objet de partages avec des partenaires ou d'ouverture dans le cadre d'une démarche d'open-data.
« Nouvelles exigences de l'analytique : Faster, Better, Bigger, Cheaper » a martelé Emmanuel Dubois, Directeur général et co-fondateur d'Indexima.
Pour tirer toute la valeur métier des données, il faut se conformer aux nouvelles exigences. Celles-ci ont été explicitées par Emmanuel Dubois, Directeur général et co-fondateur d'Indexima. « La transformation digitale, souvent cosmétique au départ, doit désormais produire des résultats et, au coeur de celle-ci, il y a les données » a rappelé Emmanuel Dubois. Tirer profit des données est le pilier central de la transformation. Mais la « BI de Papa » a cédé la place à de l'interrogation par langage naturel, à de la BI embarquée dans des applications, à du data story telling, etc. De plus, la data étant devenue de plus en plus massive, le stockage est devenu un problème auquel le cloud a été une réponse. Mais des limitations sont également apparues avec des données trop lourdes, mal maîtrisées, silotées...
Le coeur de l'action d'Indexima, c'est d'être capable d'offrir une porte de sortie des tableaux statiques et de mettre l'exploitation de la donnée à la portée des utilisateurs. Indexima se propose en fait de réduire le temps d'accès à la donnée pour tous les utilisateurs métiers, y compris au niveau de la préparation après l'extraction. Et ces apports doivent être mis à l'échelle de l'entreprise, même quand les volumes traités s'expriment en téraoctets. Enfin, il s'agit d'accompagner les évolutions technologiques telles que les migrations dans le cloud.
Le lieutenant-colonel Marc Dumas, chef du pôle de l'action et de l'anticipation du SDIS 13, a exposé « comment le SDIS13 anticipe ses interventions en utilisant des données des téléphones mobiles ».
Les données peuvent être liées à des questions de vie et de mort au sens premier du mot. C'est ce qu'est venu rappeler le lieutenant-colonel Marc Dumas, chef du pôle de l'action et de l'anticipation du SDIS 13 (Service départemental d'incendie et de secours du département des Bouches-du-Rhône). Comme dans tous les SDIS, les pompiers du SDIS 13 assurent des missions de secours aussi bien aux personnes qu'aux biens (incendies, accidents, etc.) à l'exception de la ville de Marseille où le SDIS laisse la place aux marins-pompiers. A côté d'interventions courantes sans difficulté particulière, le SDIS peut intervenir dans des cas importants pouvant impliquer un grand nombre de personnes. Le lieutenant-colonel Marc Dumas précise : « ce sont des sinistres peu fréquents mais graves. » L'anticipation d'une intervention mais aussi la conception des plans de traitement des risques supposent d'avoir une bonne idée de la population concernée.
« Nous avons une population dans le département qui est de l'ordre de deux millions de personnes mais, parfois, ce chiffre peut monter à quatre millions, ce qui influence nos réponses opérationnelles » pointe ainsi le lieutenant-colonel Marc Dumas. Connaître la population sur une zone d'intervention est en effet essentielle, par exemple pour définir les moyens engagés s'il faut porter secours à des vacanciers sur une plage. C'est aussi vrai dans des cas plus fréquents comme un accident de la route avec l'anticipation des flux de population en cours. A l'occasion de la création d'un schéma département de prévention des risques, un projet a donc été mené pour mieux connaître ces flux de population et le SDIS en a profité pour anticiper en cas de réponse opérationnelle instantanée. Désormais, le SDIS reçoit d'Orange les données issues des bornages de téléphones mobiles, pondérées par algorithmes, avec un décalage d'une trentaine de minutes pour en déduire les populations par zones pré-définies par le SDIS. Ces données sont projetées sur le SIG de la salle opérationnelle avec des alertes si la population est anormale en regard du lieu et de l'heure. En six mois d'usages, le système a donné satisfaction sauf que la constitution de données de référence n'est pas évidente en pleine crise sanitaire.
« Collecter la donnée : un enjeu au-delà de la technique » a noté Géraud Rosenkranz, sales director France de Denodo Technologies.
La collecte de la donnée est, on le voit, un véritable enjeu. Mais cet enjeu, selon Géraud Rosenkranz, sales director France de Denodo Technologies, va bien au-delà de la technique. « Les données sont nécessaires pour prendre les bonnes décisions » a-t-il ainsi rappelé. Les typologies de données comme d'usages mais aussi de stockage sont de plus en plus variées. Pour lui, « comme pour tout patrimoine, il faut faire vivre le patrimoine de données et pas en être un simple possédant. » Pour faire abstraction des complexités, unifier les formats et fédérer les données, le recours à la virtualisation des données s'impose.
Les entreprises ont depuis toujours voulu centraliser les données pour mieux les gouverner. Denodo propose de fédérer les données quelqu'en soient les sources et les localisations avant de les exposer de manière adaptée à chacun. Il ne sera donc plus nécessaire de déplacer les données pour y accéder de façon centralisée. Et Denodo va mettre à disposition des utilisateurs un catalogue opérationnel des données fédérées afin de faciliter les usages. Il s'agit en quelque sorte d'une place de marché des données disponibles dans l'entreprise.
Pour terminer la matinée, Matthieu Chabeaud, président de Askr.ai, a présenté cette start-up en partenariat avec MyFrenchStartUp. Avec Askr.ai, l'intelligence artificielle permet aux collaborateurs d'agir plus tôt grâce aux données. Il s'agit d'un « data-assistant ». « 87 % des organisations échouent à identifier les problèmes de performance avant qu'ils n'aient des impacts financiers sur l'entreprise » a souligné Matthieu Chabeaud. L'apport de la solution est de ressortir les données pertinentes pour prendre les décisions qui s'imposent à temps par une détection des faits inhabituels. Pour affiner sa compréhension, l'utilisateur pourra également interroger les données en langage naturel en mode conversationnel. De plus, chaque utilisateur pourra, sans compétence technique, de mettre en place en langage naturel une surveillance de chiffres qu'il aura identifiés comme importants. Enfin, le « data assistant » pourra être interrogé via le web mais aussi via des outils tels que Teams.