Pour lire la première partie de cet article, cliquez sur ce lien.
L'entreprise utilise également l'analyse pour résoudre un autre problème persistant et potentiellement invalidant : les erreurs de données, lesquelles proviennent souvent de la saisie manuelle des informations par le fournisseur de services. Des erreurs, mêmes simples en apparence, peuvent entraver le travail des équipes d'intervention d'urgence et d'intervention en cas de panne, avec un impact négatif sur l'expérience générale du service et la satisfaction de la clientèle. Pour parer à ce problème, GE Power a développé des algorithmes intégrant des systèmes d'information géographique (SIG) et d'autres formes de données opérationnelles pour détecter, recommander et corriger ces erreurs récurrentes. Cette meilleure qualité des données permet aux services publics de mieux répartir les équipes, de réduire le temps de rétablissement du réseau après une panne et d'éviter l'annonce de pannes liées à ces erreurs de données aux clients.
« Les services publics génèrent en permanence des données précieuses à partir de leurs actifs, mais ils ont besoin d'une expertise très spécifique en matière de hardware et de software pour libérer leur potentiel et en tirer des informations exploitables », a encore déclaré Farnaz Amin. « Les approches actuelles pour résoudre ces problèmes, comme l'intégrité des données du modèle de réseau, la prévision des pannes et l'optimisation de la main-d'oeuvre, sont manuelles, gourmandes en personnel et souvent imprécises », a-t-elle ajouté. « Une approche analytique avancée permet de tirer des enseignements des données historiques et faire des prédictions qui offriront une meilleure visibilité sur les actifs réseau et aideront les entreprises à prendre des décisions plus économiques ».
Défis liés à l'adoption de l'analyse prédictive
Malgré un intérêt croissant, l'analyse prédictive reste une technologie émergente, et son adoption pose de nombreux défis. « Le principal inconvénient, c'est que ces approches d'analyse prédictive conviennent bien aux environnements dont la mise à l'échelle est progressive, mais pas à ceux en évolution très rapide », a mis en garde Gadi Oren. Dans les environnements en évolution rapide, les signaux changent trop rapidement, avant que le système d'analyse ne parvienne à détecter les tendances lentes. « Il est difficile de prédire quand quelque chose va arriver sur une base de résultats inexacts ».
Par ailleurs, pour garantir l'exactitude des prévisions, il est essentiel d'obtenir et d'utiliser des données de très bonne qualité. « Globalement, le secteur de l'énergie n'utilise qu'une petite fraction des données qu'il collecte », a fait remarquer Farnaz Amin. « Ces données proviennent de capteurs, de recommandations envoyées par les directeurs d'usine, mais aussi d'informations dynamiques provenant d'une multitude d'actifs et de réseaux », a-t-elle expliqué. « Les données sont clairement disponibles, mais de nombreux services publics se noient dans cette masse sans avoir une idée claire sur la façon de les exploiter, ce qui signifie qu'ils sont incapables de tirer pleinement parti de l'analyse prédictive ».
Au-delà de la question de la collecte des données, le service public doit impérativement mettre en place un système de collecte et d'enregistrement des différentes alertes et rapports générés dans le temps par l'équipe d'exploitation réseau pour atteindre une capacité prédictive optimale. Les détails contenus dans ces informations améliorent la capacité de l'outil d'analyse prédictive à détecter les anomalies cachées du réseau. « De plus, l'équipe doit se concentrer sur le traitement des données et l'analyse des informations », a aussi expliqué M. Rasool. « Seule une équipe ayant une expertise dans le domaine pourra comprendre l'ensemble du processus ».
Enfin, il faut aussi convaincre les équipes réseau à adopter et à utiliser régulièrement les outils d'analyse prédictive. « Les équipes IT et de data scientists peuvent trouver des solutions, mais si elles ne sont pas adoptées par les groupes opérationnels, cet investissement ne sert à rien », a encore déclaré Farnaz Amin. « Par conséquent, la compréhension des processus actuels et l'intégration d'analyses avancées dans ces processus sont la clé du succès ».
Par où commencer ?
Pour les entreprises qui débutent dans l'analyse prédictive appliquée aux réseaux, elles doivent bien réfléchir aux types de données à capturer et aux types de problèmes réseau à résoudre. « A partir du moment où elles auront une image claire des cas d'usage, elles pourront ajouter de la valeur à leur entreprise », a encore déclaré Farnaz Amin. Elles doivent également se souvenir que trop de données est aussi néfaste que trop peu de données. « Si une entreprise ne réduit pas la taille des données qu'elle analyse, elle risque d'envoyer une quantité impossible à traiter d'informations de télémétrie vers le cloud », a prévenu John Smith, directeur technique et co-fondateur de LiveAction, fournisseur de technologie de performance réseau. Il est également important de réfléchir à l'aspect pratique de la gestion des données : en particulier, comment et où stocker les données pertinentes. « La conteneurisation, du fait de sa fonctionnalité et de son applicabilité à divers cas d'usage, est également intéressante, car elle offre beaucoup d'options », a déclaré Farnaz Amin. « La technologie progresse rapidement. Inutile donc pour les entreprises de remettre à plus tard cette exploration. C'est prendre le risque de rester sur le chemin ».
L'analyse prédictive s'invite sur les réseaux (2e partie)
L'analyse prédictive peut révéler des problèmes de réseau avant qu'ils n'affectent la fiabilité ou la performance. Considérée à l'origine comme une technologie futuriste, l'analyse prédictive est en passe de devenir un outil courant de diagnostic et de gestion des réseaux.