La consommation « payée à l’usage » du stockage sur site, des serveurs et des équipements réseau peut apporter une plus grande agilité, mais l'évaluation du coût demande certaines compétences financières. Les contrats peuvent impliquer des engagements à long terme et des paiements minimums, et le matériel peut finalement revenir plus cher que s’il avait été acheté. Les modèles de consommation de hardware en « pay-per-use », comme les offres Evergreen de Pure Storage, GreenLake de HPE et Apex de Dell, ont été conçus pour que les datacenters sur site puissent avoir accès à des structures tarifaires comparables à celles du cloud et disposer d’une capacité flexible. Parce que les entreprises cherchent des alternatives à l'achat d'équipements pour les charges de travail qui ne sont pas adaptées aux environnements de cloud public, ce modèle suscite de plus en plus d'intérêt. « Le concept de matériel à la carte existe depuis plus de dix ans, mais il intéresse de plus en plus les entreprises », a déclaré Daniel Bowers, ancien directeur de recherche senior chez Gartner. « Ce regain d'intérêt date d’il y a environ quatre ans, et il faut dire que HPE et son programme GreenLake y ont joué un rôle moteur ». En effet, HPE s'est engagé à transformer l'ensemble de son portefeuille en offres de paiement à l'usage et en offres en tant que service d'ici à 2022.
Mais ce n’est pas le seul fournisseur. Parmi les autres programmes de pay-per-use on peut également citer Apex de Dell, qui a dévoilé plus tôt cette année les premiers produits de son portefeuille de stockage managé, de serveurs et d'infrastructure hyperconvergée, ou Cisco Plus network-as-a-service (NaaS) de Cisco, qui prévoit de fournir progressivement la majorité de son portefeuille sous forme de service, ou encore Lenovo TruScale Infrastructure Services et l'offre de stockage en tant que service Keystone Flex Subscription de NetApp. Tous ces modèles de paiement à l'usage permettent de déployer le hardware dans le propre datacenter de l’entreprise, sur des sites périphériques ou dans des installations de colocation. Sur le plan de l'adoption, c'est dans le domaine du stockage que l'engouement est le plus fort. Gartner prévoit qu'en 2024, la moitié de la capacité de stockage nouvellement déployée sera consommée en tant que service. Du côté des serveurs, 5,6 % des dépenses en serveurs x86 sur site seront consommées en tant que service en 2024.
Cependant, ce modèle n'est pas sans poser de problèmes. Voici cinq facteurs particuliers à prendre en compte.
Un coût en hardware potentiellement plus élevé
Selon M. Bowers, il est faux de croire que les modèles basés sur la consommation permettent aux entreprises d'acquérir le même matériel à un coût inférieur à celui d'un achat direct. « Trop de gens pensent que ce modèle permet simplement d'obtenir du matériel moins cher, qu'ils peuvent en quelque sorte jouer avec le système. Et ils sont donc enthousiastes. Mais ce n'est pas le cas. Inutile de perdre son temps ». En réalité, le modèle de paiement à l'usage est généralement plus coûteux que l'achat direct de matériel, notamment si l'entreprise est capable d’évaluer la capacité dont elle a besoin. Par exemple, si une entreprise sait qu'elle a besoin de 100 serveurs pour les trois prochaines années, l’achat de ces serveurs lui coûtera moins cher que le modèle de consommation à l’usage.
Plus de flexibilité pour plus d'agilité opérationnelle
L'intérêt de la tarification basée sur la consommation réside dans l'alignement des coûts d'infrastructure sur l'utilisation. Les programmes sont conçus pour permettre aux entreprises d'augmenter et de réduire facilement les ressources et ils transfèrent le risque de surdimensionnement au fournisseur. La valeur vient du fait que l'on gagne en agilité opérationnelle. Un modèle basé sur la consommation peut également rationaliser de manière significative le cycle d'approvisionnement. « Les fournisseurs donnent ce qu'ils appellent un stock tampon. Ce qui signifie que l’entreprise dispose d'un équipement supplémentaire inutilisé, prêt à être utilisé. Si elle a besoin de quelque chose, il lui suffit de l’activer », a expliqué M. Bowers. « Ainsi, au lieu d'attendre une semaine, deux semaines ou trois mois pour commander un nouvel équipement, le faire venir et l’installer, il est déjà là, dans ses locaux, prêt à fonctionner. Il suffit de l'allumer », a-t-il ajouté.
Les inconvénients : Engagements à long terme et paiements minimums
« Aujourd'hui, la plupart des programmes ne sont pas strictement basés sur le paiement à l’usage », a encore expliqué M. Bowers. Ils combinent des paiements fixes avec certains éléments variables basés sur une mesure de l’usage. Dans un véritable modèle de paiement à l’usage, le client ne devrait rien payer s’il n’utilise aucune ressource pendant un mois donné. « Or ces programmes impliquent presque toujours un engagement à long terme, de trois ou quatre ans, et ils impliquent toujours un certain niveau de paiement minimum, qui est substantiel », a ajouté M. Bowers. « Ce n'est pas comme si l’on pouvait réduire ce genre de dépenses à zéro et ne rien payer pendant un mois ».
La tarification : Des compétences financières nécessaires
Quand les équipes IT des entreprises obtiennent un devis pour une infrastructure basée sur la consommation, beaucoup d'entre elles se retrouvent en terrain inconnu, car elles n’ont jamais eu à évaluer ce type de tarification. « Il est facile pour HP ou Dell de dire ce que devra payer telle ou telle entreprise, mais il est difficile pour les équipes de savoir si ce prix est juste. Ce n'est pas comme ça qu’elles calculent les coûts dans leurs propres installations, et par rapport aux coûts du cloud public, c'est comme si l’on devait additionner des pommes et des oranges », a déclaré M. Bowers. « Dès que les entreprises reçoivent un devis, elles s’embarquent, souvent pendant des mois, dans l'enfer des feuilles de calcul pour essayer de déterminer si ce devis est juste. Il leur faut parfois trois, quatre, cinq mois pour négocier un premier accord », a-t-il expliqué.
« Les entreprises ont du mal à évaluer les propositions basées sur la consommation, et elles manquent de confiance dans leurs prévisions d’usage », a encore déclaré M. Bowers. « Il faut beaucoup de perspicacité financière pour adopter l'un de ces programmes », a-t-il estimé. L'expérience peut aider. « Les entreprises qui ont beaucoup pratiqué le leasing sont celles qui prennent les décisions les plus sûres. Non pas parce qu'il s'agit d'un crédit-bail, mais parce qu’elles ont les compétences intellectuelles pour évaluer les aspects financiers du temps, de la valeur, des paiements variables et des risques d'écarts de paiement », a déclaré M. Bowers. La grande différence entre un programme comme HPE GreenLake ou Dell Apex et le leasing, c’est que les coûts fluctuent d'un mois à l'autre, en fonction de la quantité utilisée, avec un modèle basé sur la consommation. Le leasing est un programme de financement, et la capacité ne change pas dans un programme de leasing typique. L'expérience du cloud public, qui implique également des dépenses variables, peut également avoir son utilité. « Le simple fait de passer d'un budget annuel à un mode de consommation pour lequel « on ne sait pas combien on va dépenser » représente un changement important. Une certaine pratique du cloud peut avoir son intérêt », a déclaré M. Bowers.
Dans le même temps, la tarification basée sur la consommation exige une gouvernance des coûts similaire à celle du cloud public, pour que l’entreprise ne soit pas prise au dépourvu par des dépenses incontrôlées. « Il est indispensable de mettre en place des contrôles de coûts pour s’assurer que l’on ne se contente pas d'ouvrir les robinets et de laisset les gens déverser des ressources de manière sauvage, ce qui correspond exactement aux contrôles que l’on met en place pour l’usage du cloud public », a déclaré M. Bowers. En général, les entreprises les mieux placées pour évaluer un modèle d'infrastructure basé sur la consommation sont celles qui disposent de grands groupes IT centralisés et qui ont l'habitude de facturer les services IT par projet ou par département. « Les entreprises de cette taille et de cette échelle l'ont fait et bien fait. En interne, elles agissent en quelque sorte comme un mini-fournisseur de services et elles sont donc habituées à essayer d'aligner leurs coûts », a encore expliqué M. Bowers.
Un modèle de datacenter encore jeune
Les charges de travail envisagées pour un modèle basé sur la consommation sont généralement celles qui existent déjà sur site et ne peuvent pas être déplacées vers le cloud public pour des raisons de latence ou de souveraineté des données. Cela ne signifie pas pour autant qu'il s'agit d'un petit marché. « Il y a des tonnes de choses qui ne peuvent pas aller dans le cloud, ce n'est donc pas marginal », a déclaré M. Bowers. La croissance spectaculaire de 30 à 40 % des dépenses liées au cloud public, comparée à la stagnation du marché du stockage et des serveurs, pourrait faire croire que les dépenses liées aux infrastructures sur site sont en baisse. Mais selon M. Bowers, ce n'est pas le cas. « Beaucoup d'utilisateurs finaux imaginent à tort que le cloud augmente et que l'infrastructure sur site diminue. En réalité, les gens achètent autant de matériel sur site (serveurs et stockage) qu'auparavant ».
Sur le marché de l'infrastructure basée sur la consommation, le stockage est le domaine qui, jusqu'à présent, a le plus progressé. L'une des raisons de cette progression, c’est que le stockage est plus facile à évaluer et à comprendre. « Dans le cadre de ces programmes, la seule chose que fait réellement le fournisseur, c’est de donner accès à un distributeur automatique qui crache des téraoctets de stockage. Il suffit d’appuyer sur le bouton. Mais on comprend ce qu’on achète », a encore expliqué M. Bowers. « C'est facile à évaluer, facile à comprendre et facile à adopter ». La mesure en serveurs est plus difficile. Les fournisseurs peuvent facturer par nœud, par cœur, par Go de mémoire ou par machine virtuelle, par exemple.
Le marché des équipements de réseau basés sur la consommation dans les datacenters est le plus récent. « Le problème de la tarification basée sur la consommation pour la mise en réseau des datacenters, c’est que les gens n'ont pas encore trouvé ce qu’il faut mesurer pour facturer cette mise en réseau », a expliqué M. Bowers. « Faut-il facturer au mégaoctet transféré, ou au nombre de ports déployés ? Ou alors au nombre de commutateurs déployés ? » Alors que les acteurs cherchent comment facturer les options de réseau en tant que service, le marché plus large des modèles de tarification basés sur la consommation continue de croître à un rythme soutenu, avec des taux d'adoption qui grimpent de 30 %, d'une année sur l'autre.