Qu’ils soient éditeurs ou fabricants de matériels, les approches du SDDC (Software Defined Datacenter)ne sont pas identiques même si l’objectif final l’est. Ainsi, chez Lenovo, un fournisseur avec un catalogue complet (serveurs, stockage (avec NetApp), stations de travail, et réseau) leur approche SDDC se veut agnostique et ouvert à un large écosystème de partenaires comme VMware, Microsoft ou Nutanix. Bien sûr, pour obtenir le meilleur support auprès de son écosystème, Lenovo s’assure d’une parfaite compatibilité de son architecture matérielle avec les solutions logicielles de ses partenaires. Cela dit, le chinois apporte aussi sa valeur ajoutée au SDDC en fournissant des solutions et services dédiés comme XClarity Administrator qui fournit toute l’agilité du Software Defined Datacenter sur les couches basses, mais aussi avec Think Agile CP, une plate-forme qui offre tous les avantages et la simplicité d’un environnement cloud public sécurisé derrière le pare-feu du datacenter du client.
Dell Technologies a, de son côté, créé l’approche MAT (Modernize, Automate and Transform) dans la transformation du centre de données dont l’objectif, comme son nom l’indique, est de disposer d’une infrastructure agile, automatisée et gérable par logiciel. « MAT est une méthodologie d’approche du SDDC qui progresse dans le temps, l’entreprise peut notamment débuter sa transformation avec de l’hyperconvergence, du SDN (Software Defined Network) l’année d’après, puis par la suite un renouvellement de ses postes de travail », donne en exemple Vincent Barbelin, account executive & CTO chez Dell Technologies. Dans cette approche MAT, Dell y répond avec une multitude de solutions, des baies 100 % flash Dell-EMC sur les couches basses jusqu’à l’hyperconvergence avec les offres vSAN, VxRAIL, etc., en passant par le SDN avec les appliances SD-WAN Embbeded Solutions (sur du VMware by Velocloud) pour faciliter le multicloud ou encore par PKS (Pivotal Contenair Service) pour exécuter et gérer Kubernetes en production. Si les liens entre Dell et VMware sont bien sûr privilégiés, Vincent Barbelin l’assure : Dell Technologies dispose de partenariats forts avec d’autres éditeurs comme Microsoft, Nutanix ou encore Red Hat. « Nous répondons d’abord aux usages des entreprises et pour cela, Dell Technologies peut revendiquer d’être un acteur agnostique », tient-il à affirmer.
La simplicité de l'hyperconvergence
Chez Nutanix, l’approche SDDC passe avant tout par l’hyperconvergence à l’instar d’un Simplivity (groupe HPE). Nutanix parle même désormais d’un véritable cloud OS qui tourne sur tout type d’environnement et qui apporte des services : des VM (premier service lancé il y a 8 ans, deux ans après la création de Nutanix) aux déploiements de conteneurs aujourd’hui en passant par le stockage bloc, fichier, objet, etc., ou encore la gestion de l’IoT ou l’intégration au cloud public. « L’infrastructure doit être invisible (https://www.lemondeinformatique.fr/actualites/lire-nutanix-fete-ses-10-ans-avec-un-modele-renouvele-76713.html), juste une commodité. Nous donnons le choix aux entreprises de leur infrastructure matérielle en architecture X86 tout comme de leur hyperviseur (VMware, Hyper-V et d’autres), nous supportons aussi les différents clouds du marché, à savoir le cloud de Google, AWS et Azure, nous avons même lancé récemment un stack natif on premise chez AWS », résume Yassine Malki.
Chez NetApp, la modernisation des datacenters passe aussi par l’hyperconvergence pour bâtir des clouds privés de type webscale sur un mode consommation à l’usage. Le fournisseur américain dispose également d’une multitude de services cloud de datamanagement, certains intégrés dans HCI depuis peu, permettant de l’hybridation en natif pour aller chercher des backups et du PRA (tiering automatique entre les baies flash en interne et S3 d’AWS), sans oublier les NetApp kubernetes Service (NKS) qui autorisent une gestion kubernetes en multicloud ou encore les Cloud Volumes Service disponibles pour Amazon Web Services (AWS) et Google Cloud Platform (GCP). A noter que pour Microsoft Azure, NetApp et Microsoft ont créé le service Azure NetApp Files. En parallèle, pour plus de performances, NetApp insiste aussi sur la nécessité de migrer vers des baies de stockage full flash avec l’intégration du protocole NVMe et la technologie Optane (mémoire persistance). Pour les entreprises souhaitant conserver leur SAN traditionnel, des blocs NVMe over Fibre Channel sont proposés par NetApp.
Le multicloud s'impose partout
VMware, l’un des leaders du SDDC, se démarque déjà avec Cloud Foundation qui simplifie le déploiement et l’exécution d’un cloud hybride (privé et public). A ce titre, le fournisseur facilite l’accès à certains services natifs d’AWS (IA, blockchain, etc.) via VMware Cloud on AWS, l’éditeur le fait également pour d’autres fournisseurs comme OVH, Azure, Google, IBM ou plus récemment Oracle et Alibaba Cloud. Sur la partie applicative, VMware porte sa solution vRealize qui permet de modéliser les applications et de les déployer vers les principaux clouds du marché. N’oublions pas VMware CloudHealth (offre issue du rachat de la société éponyme en 2018) qui apporte de la visibilité aux entreprises, sous la forme de dashboards, dans la gestion de tous les clouds. Enfin, VMware s’implique de plus en plus sur les environnements conteneurisés. « Moderniser son datacenter, c’est aussi la capacité à pouvoir répondre aux besoins des développeurs, ce qui n’était pas le cas auparavant », précise Eric Marin, CTO de VMware. En termes de solutions, VMware, propose PKS (Pivotal Contenair Service) et tous les services autour de Tanzu dont les dernières annonces en novembre dernier comme la prise en compte des conteneurs et des clusters Kubernetes dans vSphere, en plus des VM bien sûr. Enfin, Eric Marin n’oublie pas de mentionner ce que l’IA apportera au SDDC dans un proche avenir : « Le datacenter deviendra de plus en plus autonome grâce à son intelligence embarquée comme le prédictif ou le self-driving. »
Dans cette modernisation, la stratégie de Microsoft avec Azure s’inscrit aussi dans cette approche hybride voulue aujourd’hui par de nombreuses entreprises. « Déjà, nous mettons à la disposition de nos clients une multitude d’outils et de méthodologies, via Azure Migration Program, pour accompagner les entreprises dans leur migration vers Azure », commence d’ailleurs par signaler Xavier Perret, directeur Azure chez Microsoft France. Côté technologie, n’oublions pas que Microsoft propose les services Azure Stack Family qui permettent aux entreprises d’exécuter des applications cloud utilisant des services IaaS et PaaS dans des environnements de cloud public, locaux et déconnectés. Les services Azure Stack Family (qui fonctionnent sur du matériel provenant de plusieurs fournisseurs comme HPE, Dell EMC, Cisco, Huawei et Lenovo) regroupent entre autres Azure Stack Edge pour exécuter des modèles de machine learning, Azure Stack Hub pour exécuter des applications cloud sur site et depuis mars 2019 Azure Stack HCI (nouveau nom du programme WSSD-Windows Server Software Defined) pour exécuter des applications virtualisées sur une infrastructure hyperconvergée. Enfin, lors de son événement Ignite en novembre dernier, Microsoft s’ouvre désormais davantage au multicloud avec Azure Arc (https://www.lemondeinformatique.fr/actualites/lire-avec-arc-microsoft-ajoute-une-corde-multicloud-a-azure-76991.html).
Enfin, chez HPE, de par son large portfolio, les entreprises bénéficient de solutions et de services à tous les niveaux dans la modernisation du système d’information : de l’architecture de serveurs standardisée et ouverte (gamme Proliant) à l’hyperconvergence (HPE Simplivity) en passant par les solutions de stockage flash et hybride, de réseaux (commutateurs, routeurs, etc.) sans oublier le Cloud et l’Edge Computing. l’edge computing est clairement la tendance montante pour les prochaines années. « Il s’agit de la rencontre du monde physique et du monde digital », a constaté Alain Melon, DG de HPE France lors de l'événement Discover Paris, tout en soulignant que « cela pose de nouvelles questions : combien de données doivent être traitées en local ou dans le cloud ? quelles données doit-on analyser ? etc… ». Des interrogations légitimes au regard des 55 milliards d’objets connectés et aux 75% des données qui seront créés en dehors des datacenters traditionnels d’ici 2022. Sur ce point, HPE dispose de solutions techniques à travers son offre EdgeLine qui s’est étoffée pour adopter différents facteurs de formes et s’adapter à une variété d’environnement, comme le montre la gamme EL 8000. Au menu, performance avec des processeurs Intel Xeon et du réseau poussé par Aruba (gestion multi-accés).
Si l’edge représente l’avenir de HPE, le modèle as a service pour l’infrastructure IT s’installe tranquillement dans le paysage. Et il est rémunérateur pour la firme, lors des derniers résultats financiers, l’offre Green Lake a progressé de 326% avec plus de 740 contrats. Antonio Neri, CEO de HPE, résume cette offre, « alléger le fardeau de la gestion de l'infrastructure pour les DSI ». Si l’ensemble du portefeuille de la société n’est actuellement pas encore éligible à ce modèle par abonnement, la société prévoit cette bascule au début décembre. Un moyen aussi d’impliquer un peu plus les partenaires, souligne-t-on chez HPE. En dégageant du temps sur l’infrastructure IT, les DSI et les partenaires vont pouvoir se concentrer sur un autre chantier : la migration des applications dans le cloud. « Il y a eu une première vague de migration qui était relativement facile ou cloud native. Aujourd’hui, les entreprises regardent pour déplacer leurs applications historiques ce qui entraînent quelques blocages », analyse Gilles Thiebaut,, senior vice-président et managing director pour HPE Northern Western Europe. Pour franchir ces barrières, HPE dispose de plusieurs atouts. Par exemple, le service Right Mix Advisor propose de réaliser une cartographie des applications et de conseiller les différentes options de migration : replatforming, refactoring, cloud privé, public, co-location, ainsi que les coûts associés.
Commentaire