Combien de machines virtuelles sur un serveur, les avis d'experts ne concordent pas
Savoir combien de machines virtuelles peuvent être installées sur un serveur a toujours été un défi difficile à relever. Plusieurs experts nous apportent un début de réponse.
Exécuter un ensemble de serveurs virtuels - et les applications associées - sur un serveur physique animé par un seul système d'exploitation (VDC-OS ou autre) semble assez facile au premier abord. Il est toutefois nécessaire de s'assurer que le matériel peut supporter cette charge supplémentaire, ce qui peut devenir un véritable casse-tête en raison de la variété presque infinie de logiciels qui peuvent s'exécuter dans un environnement virtuel. Chaque demande entraîne un ensemble de requêtes légèrement différentes sur le matériel et le système d'exploitation hôte, explique Chris Wolf, analyste chez Burton Group. La consolidation de serveurs physiques en machines virtuelles devrait permettre de réaliser de substantielles économies, mais il est fortement déconseillé de lésiner sur la partie matérielle pour éviter de tirer vers le bas les performances des applications et même, au final, d'aggraver les risques de non-disponibilité pour les utilisateurs finaux, indique Ian Scanlon, directeur des opérations pour ComputaCenter, un centre de données et de services informatiques basé à Londres, mais couvrant la majeure partie de l'Europe.
«Si vous mettez cinq machines virtuelles sur un serveur, vous avez au final six systèmes d'exploitation en fonction et toutes les applications associées. Et vous devez garder la main pour gérer au mieux les niveaux de services pour garantir les meilleures performances aux applications les plus importantes", précise Ian Scanlon. "Nous avons fini par installer beaucoup plus de mémoire vive que ce qui avait été défini lors de nos tests de qualifications ». Obtenir des estimations précises et détaillées sur la façon dont un serveur va fonctionner comme un hôte VM est également compliqué par les capacités inégales des jeux de composants des cartes mères chipsets qui supportent les charges de travail virtuelles et les hyperviseurs, indique Gordon Haff, analyste en informatique de haute performance chez Illuminata. Les machines virtuelles exploitent beaucoup plus intensivement qu'un serveur physique la mémoire cache des processeurs et les puces ne réagissent pas toutes de la même façon aux requêtes des applications et des hyperviseurs, rappelle-t-il.
Intel et AMD ont conçu des processeurs adaptés aux besoins de la virtualisation et de la migration des serveurs virtuels et leurs prochaines générations de puces - Nehalem-EX avec huit coeurs chez le premier et Magny-Cours avec 12 coeurs chez le second - feront encore mieux. Un serveur donné peut ainsi avoir aujourd'hui entre deux et huit processeurs, chacun ayant entre deux et huit coeurs de traitement. Dans quelle mesure la configuration d'un serveur répondra à la charge idiosyncrasique d'un logiciel est une variable presque impossible à prédire sans une étude précise et minutieuse, commente Andi Mann, analyste chez Enterprise Management Associates (EMA).
[[page]]
Même en demandant des informations techniques à un commercial avant-vente ou directement aux constructeurs, vous n'obtiendrez pas de réponse précise sans une évaluation détaillée de la charge de travail que vous envisagez de mettre sur le serveur. Bien qu'il n'y ait pas vraiment de règles rapides au sujet de la question matérielle, une démarche peut vous aider à obtenir des réponses suffisamment proches pour déceler les points faibles d'une offre et savoir ainsi comment la renforcer, explique Massimo Re Ferre, architecte IT senior chez IBM.
Premièrement, sur chaque coeur issu d'un nouveau processeur Intel ou AMD, vous pouvez associer trois à cinq machines virtuelles, dit-il. C'est une vision plus optimiste que celle de Ian Scanlon, qui estime qu'il est préférable de se limiter à cinq ou six machines virtuelles sur un serveur unique. Si les applications exigent des ressources intenses comme avec les bases de données ou les ERP, il même recommandé, selon lui, de se limiter à deux VM.
Trop se concentrer sur la consolidation conduit inévitablement à tirer les performances vers le bas et entraine l'insatisfaction des utilisateurs. Deuxième règle de Massimo Re Ferre : pour chaque coeur sur un processeur récent, ajouter sans hésiter de deux à quatre Go de mémoire vive. Un point qui coïncide avec l'évaluation de Ian Scanlon : 48 Go de Ram recommandés sur chaque serveur lame. "Une fois la mémoire vive en place, nous n'avons pas connu de problèmes de performance à proprement parler », précise-t-il.
Les autres points à suivre de près
Premièrement: ne pas oublier la tuyauterie. Avec plusieurs serveurs en action, les exigences en terme d'entrées/sorties deviennent beaucoup plus importantes. Assurez-vous d'avoir suffisamment de liens entre les baies de stockage et le réseau pour supporter la charge, explique Gordon Haff, de la société de conseil Illuminata. Cisco répond d'ailleurs à ce problème avec ses serveurs maison ESX équipés d'une intergace 10 Gigabit Ethernet.
Deuxièmement: construire une clôture. Les machines virtuelles (VM) sont devenues très faciles à lancer et difficiles à suivre ensuite avec la prolifération des serveurs. Un grand nombre de VM finissent par fonctionner dans leur coin sans être réellement utilisées. C'est un élément qui est devenu très courant avec la multiplication des machines virtuelles. Tuer tous les serveurs non utilisés et réallouer l'espace disque réservé a ainsi permis à ComputaCenter de récupérer de nombreuses ressources qui ont ensuite pu être utilisé pour d'autre tâche en attendant de nouveaux investissements, indique Ian Scanlon.
Troisième: Utilisez les outils qui sont disponibles sur le marché pour obtenir une cartographie détaillée de votre installation, conseille Chris Wolf. VMware commercialise vCenter VMware CapacityIQ 1.0, et Microsoft propose ses outils d'évaluation et de planification pour Hyper-V pour guider les clients. Des solutions particulièrement intéressantes quand on dispose d'environnements qui incluent VMware et Hyper-V. De nombreux outils tiers ne couvrent pas les deux versions - HP dispose par exemple d'un outil de calibrage spécialement conçu pour VMware et d'un autre pour Hyper-V. Ceux qui sont plus ou moins affiliés à VMware ou Microsoft ne peuvent pas fournir une évaluation indépendante explique encore Andi Mann d'Enterprise Management Associates. Parmi les outils recommandés citons toutefois, PowerRecon de Novell, Data Center Intelligence de Cirba, Balance Point d'Akorri et Capacity Modeler de Vkernel.
En fin de compte, il est possible de construire un profil détaillé pour bien déployer ses machines virtuelles. Mais vu la quantité de temps et d'argent nécessaire pour une évaluation professionnelle, il est quelquefois plus intéressant de rester sur des serveurs qui ne fonctionnent qu'à 70% de leurs capacités plutôt que de chercher à atteindre à tout prix les 95% de taux d'utilisation conclut Massimo Re Ferre.