À l'instar de Satya Nadella, le PDG de HPE, Antonio Neri, est à la base un technicien sous la houlette duquel ont été menées de nombreuses initiatives majeures au sein de l'entreprise. L'homme a fait montre d'une perspicacité appréciée par Meg Whitman, son ancienne patronne chez HPE, qui l'a promu au poste de vice-président exécutif en 2015. Elle lui a donné son feu vert pour acquérir Aruba, SimpliVity, Nimble Storage et Plexxi, dont les rachats ont permis a HPE d'ajouter des technologies clés à son portefeuille de produits.
Antonio Neri a succédé à Meg Whitman au poste de PDG il y a tout juste 16 mois. Lors d'une récente interview accordée à nos homologues de Network World, le dirigeant encore une fois fait la preuve de son expérience en ingénierie en détaillant la feuille de route technologique de HPE. En premier lieu, il voit une énorme opportunité dans l'Edge Computing, un domaine dans lequel le constructeur est en train d'investir 4 Md$ sur quatre ans pour développer davantage la connectivité, la sécurité, le cloud et les analyses de pointe.
Bien que HPE ait abandonné ses efforts dans le cloud public en 2015, Antonio Neri est également optimiste quant à « l'expérience du cloud » en libre-service, que HPE implémente déjà en mode on-premise aujourd'hui, avec un modèle défini par logiciel et basé sur l'abonnement.
Plus fondamentalement, il croit que nous sommes au début d'une révolution informatique, où la mémoire et le stockage ne feront plus qu'un, et où, en fonction des cas d'usage, divers moteurs de calcul seront mis en oeuvre sur des zettaoctets de données.
Network World : Jusqu'à présent, votre investissement le plus important et le plus visible a porté sur l'informatique de pointe. D'après ce que je comprends de l'informatique de pointe, il s'agit en fait de mini-centres de données, définis par IDC comme ayant une superficie inférieure à 10 m². Pourquoi investir 4 Md$ dans ce domaine ?
Antonio Neri : L'intérêt est double. Nous nous concentrons d'abord sur la connectivité. Pensez à Aruba en tant qu'entreprise fournisseur de plates-formes, une entreprise qui exploite le cloud computing. Nous offrons maintenant des solutions pour les succursales et des solutions de centres de données de pointe qui incluent la connectivité sans fil, le LAN, le WAN et bientôt la 5G.
Nous donnons aux clients un plan de contrôle afin que l'expérience de la connectivité puisse être systématiquement vécue de la même façon. Nous leur fournissons toute les outils pour mettre en oeuvre leur politique de gestion, le provisionnement et la sécurité.
La 5G est-elle une priorité de premier plan pour HPE ?
C'est effectivement une grande priorité pour nous. Ce que les clients nous disent, c'est qu'il est difficile d'accéder aux réseaux 5G à l'intérieur d'un bâtiment. Nous devons donc leur proposer des solutions qui leur permettent de permuter d'un accès Wifi à un accès 5G sans détériorer l'expérience utilisateur. Le problème est que si nous intégrons déjà du LAN, du WLAN et du WAN dans le plan de contrôle de nos routeurs, la 5G, elle, n'en fait pas partie. Si vous êtes une entreprise, vous devez gérer ces deux tuyaux indépendamment. Les clients nous demandent pourquoi ne pas leur donner une expérience unifiée, avec toute la gestion des politiques et l'activation du cloud, pour qu'ils puissent obtenir la bonne connectivité en fonction de l'utilisation ?
Un capteur peut utiliser un simple accès radio, du Bluetooth ou un autre type de connectivité parce qu'un flux persistant n'est pas nécessaire et que vous n'avez pas la puissance pour le faire. Dans certains cas, il suffit de mettre une carte SIM pour obtenir la 5G. Mais dans un autre cas, il s'agit simplement d'une connexion sans fil. La connectivité Wi-Fi est nettement moins chère que la 5G.
Les usages dicteront le type de connectivité dont une entreprise a besoin. Mais dans tous les cas, elle veut que cela soit transparent en termes d'expérience utilisateur. HPE est en mesure de le faire car nous disposons d'une excellente plate-forme et d'un excellent partenariat avec les fournisseurs de services mobiles et les opérateurs télécoms.
Il semble donc qu'une grande partie de votre investissement soit consacrée à cette intégration entre les différentes technologies sans fil ?
L'autre intérêt de nos 4 Md$ d'investissements est de travailler sur la manière dont nous fournissons la capacité de provisionner le bon cloud à la périphérie pour les cas d'utilisation appropriés. Pensez, par exemple, à un fabricant de planchers. Pour ce type d'acteurs, nous pouvons faire converger leurs systèmes d'information industriel et leurs systèmes d'information d'entreprise par le biais d'une infrastructure convergente qui transforme les processus analogiques en un processus numériques.
Pour proposer cette convergence, nous amenons un traitement dans le cloud qui est entièrement virtualisé et conteneurisé. Nous exploitons également la connectivité Wi-Fi ou la connectivité LAN, et nous éliminons tous ces processus analogiques qui représentent des points de défaillances multiples du fait de devoir réunir plusieurs sources de données.
C'est un bel exemple de cloud de pointe. Et on peut imaginer que ce « petit cloud » soit connecté à un cloud plus puissant installé dans le grand centre de calcul que le client opère ou dans celui d'un fournisseur de cloud public.
Il est difficile de parler de centre de données défini par logiciel et de cloud privé sans parler de VMware. Où vos solutions logicielles s'arrêtent-elles et où commencent celles de VMware ?
Nous nous cantonnons à tout ce qui se trouve sous l'hyperviseur, ce qui inclut notamment le stockage défini par le logiciel et les technologies de SimpliVity. Ce sont les avantages que nous retirons de HPE OneView, ce qui nous permet de dimensionner et de gérer les aspects liés au cycle de vie de l'infrastructure et à ceux défini par logiciel au niveau de l'infrastructure. Et n'oublions pas la sécurité, parce que nous avons intégré des protections au niveau-même des puces qui hébergent les firmwares de nos serveurs.
Ensuite, nous continuons de développer nos capacités. Les clients veulent avoir le choix. C'est pourquoi le partenariat avec Nutanix était important. Nous offrons une alternative à vSphere et vCloud Foundation avec Nutanix Prism et Acropolis.
VMware est cependant devenu la solution par défaut pour le cloud privé.
Évidemment, VMware possède 60 % de l'environnement virtualisé on-premise, mais, les conteneurs deviennent de plus en plus la voie à suivre dans une approche « cloud-native ».
De notre point de vue, nous possédons la pile complète de conteneurs, car nous basons notre solution sur Kubernetes. C'est pourquoi le partenariat avec Nutanix est important. Avec Nutanix, nous offrons KVM et la pile Prism, puis nous sommes entièrement intégrés avec HPE OneView pour le reste de l'infrastructure.
Vous offrez aussi Google Kubernetes Engine sur site
C'est exact. Nous travaillons avec Google sur la prochaine version de Kubernetes.
Combien de temps pensez-vous qu'il vous faudra avant de commencer à voir Kubernetes et des conteneurs sur des serveurs nus ?
C'est une question intéressante. De nombreux clients nous disent que c'est comme retourner vers l'avenir. Ils ont l'impression de payer une taxe sur la couche de virtualisation.
Exactement
Antonio Neri :On peut opter pour les serveurs nus et conteneurs et être beaucoup plus efficaces. C'est un peu retour vers le futur, mais un futur différent.
Et cela rend la promesse du cloud hybride un peu plus réelle. HPE a fondé beaucoup d'espoir sur le cloud hybride.
Nous sommes ceux qui ont dit que le monde serait hybride.
Mais aujourd'hui, à quel point l'hybride est-il vraiment hybride ? Dit autrement, vous placez des charges de travail dans le cloud public, d'autres dans le cloud privé. Pouvez-vous vraiment tout assembler en hybride ?
Antonio Neri : Je pense qu'il faut qu'il y ait un jour ou l'autre une portabilité.
Ce n'est pas vraiment le cas maintenant.
Antonio Neri : Non, pas encore. Si on le considère sous l'angle du courtage logiciel, l'hybride est très petit. Nous savons que tout cela doit éventuellement être relié, mais ce n'est pas encore le cas. De plus en plus de ces charges de travail doivent faire des allers-retours.
Craignez-vous les incursions du cloud public dans le data center ?
Antonio Neri : C'est en train d'arriver. Bien sûr que je suis inquiet. Mais ce qui me réconforte est que les clients veulent avoir le choix. Ils ne veulent pas être enfermés. Par ailleurs, les clients se posent la question de savoir qui va entretenir leurs systèmes d'information pour eux ? Qui va le gérer pour eux ? Même si vous avez tous les outils d'automatisation du monde, quelqu'un doit faire de la surveillance. Notre travail est d'apporter l'expérience du cloud public sur site, afin que le client ait le choix.
C'est en partie dû aux coûts.
Antonio Neri : Quand on se penche sur les coûts induits, on ne prend plus uniquement en compte le prix de la puissance de calcul. Ce que nous constatons de plus en plus, c'est le renchérissement du prix de la bande passante. C'est pourquoi la première question qu'un client se pose est : Où dois-je héberger mes données ? Et cela dicte beaucoup de choix, parce qu'aujourd'hui la facture de transfert de données est beaucoup plus élevée que le coût de location d'une machine virtuelle.
Par ailleurs, lorsqu'un client va dans le cloud public, il peut faire tourner une machine virtuelle. Le problème est que s'il ne l'arrête pas, la facture continue de s'alourdir. Nous avons apporté, dans le contexte des infrastructures composables, la possibilité de l'éteindre automatiquement.
C'est pourquoi la « composabilité » est importante, car nous pouvons tout d'abord exécuter plusieurs charges de travail dans la même infrastructure, qu'elle soit sur serveur nu, virtualisée ou conteneurisée. C'est ce qu'on appelle composable parce que les couches logicielles de l'intelligence du système composent les bonnes solutions à partir de la puissance de calcul, du stockage, et de la mémoire jusqu'à cette charge de travail. Quand cette puissance n'est plus nécessaire, elle est rendue.
Est-il encore possible d'innover au niveau matériel ?
Antonio Neri : Oui, c'est pourquoi nous pensons à l'informatique centrée sur la mémoire. Aujourd'hui, nous avons une approche très centrée sur le CPU. C'est un facteur limitatif, et la réalité est que si vous croyez que les données seront le coeur de l'architecture à l'avenir, alors le CPU ne peut plus être le coeur de l'architecture.
Il y a beaucoup d'inefficacité à déplacer les données d'un bout à l'autre du système, ce qui crée également un gaspillage d'énergie et ainsi de suite. Ce que nous sommes en train de faire, c'est de réorganiser la situation pour la première fois depuis 70 ans.
Nous prenons la mémoire et le stockage et les regroupons en un, de sorte que cela devienne un pool central, non volatil et qui devient le noyau. Ensuite, nous apportons la bonne capacité de calcul aux données.
Dans un cas d'utilisation de solutions basée sur l'AI, vous ne déplacez pas les données. Vous apportez des accélérateurs ou des GPU aux données. Pour un usage général, vous pouvez utiliser un X86, et dans le transcodage vidéo vous utiliserez peut-être une architecture basée sur ARM. La magie est la suivante : Vous pouvez le faire sur des zettaoctets de données et l'avantage est qu'il n'y a pas de gaspillage, très peu d'utilisation d'énergie et de la persistance.
C'est ce que nous appelons le tissu Génération Z, qui est basé sur une data fabric et sur la photonique au silicium. Aujourd'hui, nous passons du cuivre, qui génère beaucoup de déchets, de chaleur et de consommation d'énergie, à la photonique au silicium.
Nous pouvons donc non seulement mettre à l'échelle ces données en zettaoctets, mais nous pouvons également effectuer des calculs massifs en apportant le bon calcul à la vitesse nécessaire aux données - et nous résolvons également un problème de coût et d'échelle, car le cuivre coûte aujourd'hui beaucoup d'argent, et les connecteurs plaqués or coûtent plusieurs centaines de dollars.
Nous allons mettre en oeuvre cette capacité en photonique au silicium dans nos architectures actuelles d'ici la fin de l'année. Dans Synergy, par exemple, qui est un système de lames composables, vous pouvez passer d'Ethernet à la photonique silicium à l'arrière du rack.
Il a été conçu de cette façon. Nous l'avons déjà prototypé dans un simple châssis 2U avec 160 To de mémoire et 2000 coeurs. Nous avons pu traiter une base de données d'un milliard d'enregistrements avec 55 millions de combinaisons d'algorithmes en moins d'une minute.
Donc vous ne vous concentrez pas seulement sur le bord, mais aussi sur le coeur ?
Antonio Neri : Au fur et à mesure que vous descendez du cloud jusqu'à la périphérie, cette architecture s'étend jusqu'aux plus petites choses. Vous pouvez le faire à grande échelle ou à petite échelle. Nous allons maintenant déployer ces technologies dans les architectures de nos systèmes. Nous avons aussi besoin d'un écosystème d'ISV qui peut coder des applications dans ce nouveau monde ou les entreprises n'en tireront pas profit. De plus, le noyau Linux actuel ne peut gérer qu'une quantité limitée de mémoire, il faut donc réécrire le noyau. Nous travaillons avec deux universités à cette fin.
Le matériel continuera d'évoluer et de se développer, mais il y a encore beaucoup d'innovations à faire. Ce qui nous retient, honnêtement, c'est le logiciel.
Et c'est là qu'est dirigée une grande partie de votre investissement ?
Antonio Neri : Oui, et plus précisément vers les logiciels systèmes, pas vers les applications. C'est le logiciel système qui rend cette infrastructure orientée solution, optimisée en termes de charge de travail, autonome et efficace.