Quarante pages de conseils Microsoft pour un SI durable
L'éditeur relate notamment dans un numéro spécial Green Computing de son Architecture Journal la façon dont il a mis en oeuvre des senseurs sans fil pour optimiser la climatisation des datacenters, ou dont il a consolidé, pour son SI interne, ses 100 000 bases de données.
La dernière édition de The Architecture Journal, publication éditée par Microsoft, est entièrement consacrée au Green IT. Ou, plus exactement, aux systèmes d'information durables et compatibles avec les bonnes pratiques en matière de préservation de l'environnement et de réduction des émissions de CO2. Comme l'écrit le rédacteur en chef dans son édito, « alors que l'informatique devient omniprésente, que la consommation d'énergie due à l'informatique grimpe, [...] que dans le même temps les coûts de l'énergie augmentent - tant à cause des réglementations que de la rareté des stocks d'énergies naturelles qui vont en s'épuisant - les dirigeants IT doivent se focaliser sur l'efficacité énergétique et le coût total d'exploitation, particulièrement dans un contexte de crise financière mondiale ».
Le numéro 18 de ce trimestriel, disponible gratuitement en PDF, explore donc en une quarantaine de pages tout ce qui contribue à une architecture de SI éco-compatible, des techniques de climatisation des datacenters à la conception des applications, en passant par la consolidation et la virtualisation.
Des bonnes pratiques de gouvernance... aux références aux produits maison
Le premier chapitre, consacré à la conception d'un système d'information durable d'un point de vue environnemental, est écrit par Lewis Curtis, architecte principal chez Microsoft. Il pose les bases d'une réflexion d'ordre général pour quiconque souhaite concilier des impératifs écologiques et économiques avec les impératifs de performance attendus d'un système d'information. A ce titre, son analyse n'a rien à envier à celle d'un cabinet d'études qui la vendrait plusieurs milliers de dollars. En revanche, les réponses de Lewis Curtis sont bien évidemment orientées, puisqu'elles impliquent les produits qu'il représente. Au lecteur de conserver les réponses architecturales et d'appliquer ce modèle de réflexion avec ses propres références ; en matière de gouvernance, les bonnes pratiques ne dépendent pas d'un éditeur ou d'une technologie.
Le deuxième chapitre rappelle quelques évidences en ce qui concerne le déploiement d'applications. Les auteurs expliquent ainsi qu'une application mal conçue - qui exige un serveur à elle seule, ou n'utilise qu'un coeur d'un processeur multicoeur - a un impact négatif sur la consommation énergétique. De même, il ne faut pas, indique l'article, omettre de recourir aux modes d'économies d'énergie lorsqu'une application, un disque ou un processeur est inactif, ou oublier d'alléger les bases de données de production en recourant à des systèmes d'archivage. A l'inverse, le fait de consolider des applications, ou mieux de recourir à la virtualisation conduit à des gains importants. L'étape ultime étant le 'cloud computing'. Dans tous les cas, les auteurs donnent des critères à observer et des métriques pour évaluer l'impact en matière de réduction de la consommation d'énergie (et, partant, de la facture d'électricité).
Les composants applicatifs et architectures distribuées pour un impact minimal sur l'environnement
[[page]]
Le troisième chapitre s'attaque aux architectures applicatives. Fini le temps où on pouvait se permettre de dimensionner une solution en prenant comme critère de base son niveau de pic de charge plus 20 à 50%, histoire d'être tranquille. L'article donne donc moult conseils pour optimiser les applications, l'idée étant qu'elles aient un impact minimal en termes de consommation de ressources. Cela passe par le recours à des composants applicatifs, à des architectures orientées services (SOA), de l'instrumentation et de la supervision, de la virtualisation, de l'équilibrage de charges...Là encore, et d'ailleurs les auteurs prennent soin de le préciser, « si la taxonomie peut apparaître spécifique à Microsoft et à Windows, cela fonctionne aussi bien avec d'autres OS et applications ».
Un chapitre entier est consacré à la façon dont on peut calculer la consommation d'énergie d'un serveur, d'un disque dur, d'une application, d'une base de données, etc. Avec cette abaque, il devient beaucoup plus simple de traduire en termes monétaires les gains apportés par telle ou telle bonne pratique. Les auteurs de ce chapitre en profitent pour rappeler qu'un certain nombre de services sont totalement inutiles pour faire tourner une machine virtuelle. Cela tombe bien, Windows Server 2008 ayant appris d'autres OS et proposant un mode d'installation minimal.
Le DC Genome, ou comment évaluer la climatisation d'un datacenter avec des capteurs sans fil
Plus surprenant, l'avant dernier chapitre détaille la mise en oeuvre de capteurs sans-fil dans le datacenter de Microsoft conçu à cet effet, le DC Genome. Plutôt que d'ajouter de la complexité avec des composants matériels ajoutés aux différents éléments du datacenter, Microsoft a conçu un réseau d'environ 700 senseurs ('genomotes') permettant de mesurer la température et l'humidité partout dans la salle, afin d'ajuster au mieux les paramètres du système de climatisation en quasi-temps réel. Les genomotes eux-mêmes communiquent en IEEE 802.15.4, car, indique Microsoft, il s'agit d'un réseau radio moins gourmand en énergie et en ressources processeur que le WiFi.
Le dernier chapitre, pour le coup, ne s'applique qu'aux technologies Microsoft, puisqu'il traite de la consolidation de bases SQL Server telle qu'elle a été pratiquée chez Microsoft, pour son propre système d'information. Et cela pourrait intéresser des clients grands comptes de l'éditeur. En effet, comme n'importe quelle entreprise, Microsoft a dû affronter un tableau peu reluisant : 100 000 bases de données réparties dans 5 000 instances de SQL Server, la plupart sur des serveurs dédiés, chacun présentant un taux d'utilisation moyen des ressources processeur en deçà de 10%.