La semaine dernière, lors de la conférence .conf19 organisée par Splunk à Las Vegas, Doug Merritt, son CEO, a déclaré à la presse qu’il fallait cesser de penser que les silos de données étaient un handicap pour les entreprises. « Il faut dépasser l’idée qu’il est indispensable de schématiser les données pour les utiliser. Splunk Enterprise a fait voler en éclat cette croyance. Les silos ne sont pas forcément néfastes pour l’entreprise ». Pour le spécialiste des données machine, les silos de données ne sont pas l’épouvantail que l’on agite en permanence. Le CEO a rappelé que Splunk était une plate-forme agnostique pour collecter et donner du sens aux données machine, que ces données résident sur site, dans le cloud et dans des environnements SaaS. Au départ, Splunk était une plateforme d'analyse big data pour les professionnels de l’IT qui voulaient indexer et donner un sens à leurs logs et à leurs données machine. Mais depuis, elle s’est orientée vers la sécurité et vers d'autres domaines d’activité.
L’hybridation implique le silotage des données
Même si l’on dit souvent qu’il faut lutter contre les silos de données - ces poches de données éparpillées dans l’entreprise - Doug Merritt est parfaitement conscient que la plupart de ses clients vivront dans un monde hybride, que certaines de leurs données résident sur site, d’autres dans le cloud et d’autres, de plus en plus nombreuses, dans des outils SaaS comme Salesforce, Workday et ServiceNow. « Il y a un tas de composants distribués qui ont besoin de communiquer efficacement entre eux, et ils auront tous leurs propres sources de données. Il n’est pas question de tout regrouper dans un lac de données », a-t-il déclaré. Une grande partie de la feuille de route des produits Splunk a donc été axée sur le fait de « permettre l'existence de silos, parce que tous les départements ne réaliseront pas leur transformation numérique au même moment et que chacun en attend quelque chose de différent ».
Dans la foulée de cette déclaration, Tim Tully, le CTO de Splunk, a ajouté qu'il s’était concentré sur le développement d’outils de surveillance et d'alerte agnostiques pour l'infrastructure. « Au cours des derniers mois, mon point de vue a évolué : je ne fais plus vraiment de différence entre l'informatique sur site, dans le cloud, ou hybride. Pour nous, il s’agit tout simplement du même logiciel », a-t-il déclaré. Par exemple, Splunk Data Stream Processor, le dernier outil d'analyse des données en continu, annoncé récemment, a été construit sur une base de conteneurs Docker de façon à ce que le client puisse le déployer où il veut. « Il est totalement agnostique du lieu où il est exécuté. Nous faisons tourner cet outil dans notre propre plate-forme Splunk Cloud, mais actuellement, nous ciblons d'abord les clients sur site, donc l’outil est livré en code brut via des conteneurs Docker », a-t-il expliqué.
Des produits et des fonctionnalité résolument orientés multicloud
Le fournisseur a profité de l’évènement .conf19, la plus grande conférence annuelle de Splunk, pour annoncer plusieurs produits et fonctionnalités, avec le multicloud comme thème récurrent. Le fournisseur a ainsi annoncé qu'il ajoutait vSphere de VMware et la surveillance multi-cloud (en version bêta) à son outil ITSI (IT Service Intelligence).
Splunk a également annoncé des améliorations pour la surveillance Windows, Unix et Linux, que ces systèmes d'exploitation résident ou non dans des environnements physiques ou virtualisés. Cette orientation se reflète dans les récentes fusions/acquisitions de Splunk : c’est le cas notamment du rachat pour 1,05 milliard de dollars, plus tôt cette année, de SignalFx, une entreprise spécialisée dans l’analyse de l'infrastructure cloud en temps réel, les microservices et la surveillance des applications. SignalFx a depuis été intégré à l'outil de monitoring Splunk Cloud. La société a également fait l'acquisition d'Omnition afin d'accroître sa présence dans le domaine des microservices et de l'open source.
Commentaire