Il n’empêche que la BI, qui regorge encore et toujours de potentiel d’innovation, subit un bouleversement profond dans la forme que nous lui connaissons. En effet, par le passé, elle fut principalement descriptive : c’est-à-dire qu’en s’appuyant sur les corpus de données auxquels ils étaient rattachés, les outils de BI venaient clarifier les données de l’échantillon qui leur était soumis en les regroupant logiquement et synthétiquement. Pour un usage majeur : le reporting. Or, le marché, colossal (à la louche une centaine de milliards), de l’analyse descriptive est aujourd’hui menacé d’obsolescence par une vague d’un nouveau genre : celui des acteurs qui s’appuient sur le triptyque gagnant :
- D’un cloud computing incontournable devenu une utilité comme l’électricité ou les autoroutes, la révolution étant ici que des startups disposent dès leur création d’une puissance de calcul illimitée. Ces startups inventent la manipulation de volumes gigantesques de données, auparavant accessibles uniquement à des mastodontes par trop sclérosés pour innover en quoi que ce soit ;
- De la mouvance de l’Open Data ou plutôt de « l’exposition de données tierces », qui dépasse l’Open Gov pour toucher les entreprises et même la société civile. Tous ensemble redécouvrent la notion d’écosystème au travers la mise à disposition de microservices exposant des données à des tiers, moyennant finances ou non : c’est l’économie de l’API et les réseaux sociaux, ou plutôt les GAFA, y tiennent un rôle prépondérant ;
- De l’intelligence artificielle, qui revisite des algorithmes statistiques trentenaires, comme les forêts d’arbres aléatoires ou les réseaux de neurones, en s’appuyant sur les capacités de calcul du cloud devenues abordables, mais aussi sur ces fameuses données tierces, et enfin sur la réalisation du dessein cartésien d’arraisonner le monde par la mesure, car en mettant des capteurs partout (smartphones, tablettes, IoT,...) on permet à la machine d’apprendre plus vite, ou encore d’améliorer en continu sa pertinence.
Le minotaure Hadoop démantelé
On peut dire sans prétention que l'assemblage de ce triptyque dessine ce qu'est le Big Data. Et comme on a fini par réussir à démanteler le minotaure Hadoop, les prétendants à la réinvention de la BI ont pu s’appuyer sur les composants de la bête défunte pour reprendre la marche en avant en inventant l’analyse prédictive. Cette dernière consiste tout simplement à faire anticiper par les outils ce que seront les données dans quelques secondes, dans quelques minutes, dans quelques heures, dans quelques jours, dans quelques mois. C’est le mythe du prince troyen Hélénos, mais en vrai : à partir du croisement de signaux internes avec des signaux externes passés et présents, la machine arrive à s’approcher de ce que sera l’avenir avec un risque d’erreur inférieur à ce que serait capable de calculer un individu. L’analyse prédictive succède à l’analyse descriptive en lui faisant faire un pas de géant !
Restons dans le business : l’analyse prédictive rend possible à un gestionnaire de point de vente d’anticiper le trafic dans son magasin, pour ajuster ses besoins en conseillers ; l’analyse prédictive permet de connaître le nombre de salariés qui seront en arrêt maladie le lendemain, en analysant l’historique, le calendrier, la data sur la propagation des épidémies sur les territoires d’intérêt, etc. ; bref l’analyse prédictive sera bientôt partout, et c’est tant mieux, car elle vient déjà titiller notre intuition, sans pouvoir, par construction des lois de la Nature, garantir le résultat : l’analyse prédictive nous fait grandir dans nos fonctions décisionnaires.
L'analyse prescriptive plus loin que l'analyse prédictive
L’analyse prescriptive va plus loin que l’analyse prédictive : elle n’éclaire pas seulement la prise de décision, elle va jusqu’à automatiser. Ainsi, le restaurateur dont l’intelligence artificielle prédit cent couverts verra sa livraison de produits frais ajustée automatiquement pour minimiser les déchets alimentaires et ainsi préserver les ressources naturelles en même temps que ses marges d’exploitation. Ou encore, l’intelligence artificielle chapeaute les réseaux de capteurs dans les bâtiments pour en piloter automatiquement les équipements afin de maximiser le confort des usagers tout en optimisant les dépenses en énergie et en fluides. L’analyse prescriptive, c’est aujourd’hui : tous les ingrédients sont présents sur le plan de travail et des milliers, des millions d’organisations en écrivent les recettes au quotidien. Ceux qui les écrivent ? Ce sont les data scientists, vous savez, ceux que nos entreprises s’arrachent car ils sont de meilleurs codeurs que les statisticiens, et de meilleurs matheux que les développeurs.
L’analyse cognitive symbolise quant à elle la destination où les machines et les humains interagissent en symbiose. Pour l’illustrer, prenons le cas des passages de relais entre un véhicule autonome et son conducteur : la recherche montre que cette phase est complexe, par exemple parce que les sens et les muscles du conducteur sont engourdis, que ce retour de boucle fait donc subir un risque à l’équipage et aux véhicules alentours en cas de nécessité de manœuvre d’urgence, par exemple. Disons-le clairement : nous n’y sommes pas encore, à l’intelligence cognitive. Rappelons cependant que l’analyse cognitive vise à rendre la machine capable de comprendre et d’adapter - dans notre cas - sa conduite, non plus seulement au comportement, mais également aux sentiments, aux ressentis, aux émotions humaines. Et en France, nous avons l’écosystème et la dynamique économique, politique et technologique qu’il faut pour faire passer le futur de la BI, c’est-à-dire l’analyse cognitive, du roman de science-fiction au grand reportage du journal de vingt heures. Nous l’avions fait pour l’analyse descriptive.
Article très instructif, merci.
Signaler un abusFoued