Depuis près de 18 mois, la consommation énergétique des systèmes informatiques est devenue l'un des grands sujets de préoccupation des constructeurs, notamment dans le monde des serveurs x86. Jusqu'alors largement alignés sur le discours d'Intel, les constructeurs s'étaient très peu préoccupés de la question de la consommation énergétique, préférant mettre l'accent sur l'argument très simple à comprendre de la puissance. A force d'ignorer le problème, le monde des serveurs x86 a buté sur une impasse vers la fin 2005, lorsqu'on a vu arriver des systèmes à haute densité, notamment des serveurs lames, capables de consommer jusqu'à 25 à 30 KW par rack, dans des datacenters le plus souvent conçus pour des puissances cinq à six fois inférieures (un datacenter moyen est calibré pour fournir une puissance au m2 de l'ordre de 1 à 2 KVA). Pour certains, le réveil a été douloureux avec des problèmes de mise en production des nouvelles architectures, une multiplication des défaillances électriques ou, plus prosaïquement, des défaillances de serveur pour cause de surchauffe. Surchauffe dans les datacenters Car, si la course à la puissance a effectivement apporté des MIPS additionnels, elle a aussi apporté avec elle de biens indésirables effets secondaires dont le premier a été l'accroissement de la dissipation thermique. Lorsqu'on visite un datacenter, il n'est pas rare que la salle hébergeant des serveurs Unix soit 5 à 6° plus froide que celle qui héberge les serveurs lames x86. Nombre des salles informatiques modernes ne sont en effet pas capables de faire face aux besoins de refroidissement prodigieux des nouvelles architectures. Certains ont pourtant vu venir le problème, très en amont, même si cela ne leur a pas profité. L'exemple emblématique est celui de RLX, le pionnier des serveurs lames, qui avait conçu ses premières architectures denses autour des puces à basse consommation Crusoe de Transmeta. RLX et Transmeta ont été emportés par le rouleau compresseur Intel, pour avoir eu raison un peu trop tôt... Un autre pionnier de l'économie d'énergie a curieusement été IBM. Big Blue, dont l'une des spécialités est la conception de grands clusters de calcul, a perçu très tôt les problèmes liés à la dissipation thermique et a développé un puce à basse consommation, le PowerPC 440, pour ses supercalculateurs BlueGene, dont le plus puissant est aujourd'hui classé n°1 au Top 500 des calculateurs scientifiques. La course au rapport performance par watt succède à la course aux MHz Mais la vraie raison du virage en masse vers les économies d'énergie est sans aucun doute l'irruption d'AMD sur le marché des serveurs de volume. Dès 2004, l'Opteron a montré le chemin en proposant des performances supérieures à celles des Xeon d'Intel, dans une enveloppe de consommation environ deux fois moindre. AMD a alors chanté les louanges d'un nouveau concept : le rapport performance par Watt. Il est vrai qu'en 2005, un Opteron ne consommait que 65 W contre près de 120 W pour un Xeon à performances similaires... Certains constructeurs comme Sun ont largement axé leur discours d'efficacité énergétique sur les performances de l'Opteron - à la décharge de Sun, la firme a aussi développé le Sparc T1 "Niagara", l'une des puces offrant le rapport performance le plus élevé du marché. Dans les deux cas, le discours a payé en 2006 puisque les ventes de serveurs x86 de Sun sont passées de près de rien à environ 600 M$ par an et que les ventes de serveurs Sparc T1 atteignent désormais 100 M$ par trimestre. Ce n'est qu'en septembre 2005 qu'Intel a officiellement commencé à changer son discours marketing pour s'attaquer à la réduction de la consommation de ses puces. Lors de l'Intel Developer Forum de septembre 2005, Paul Otellini, a pour la première fois annoncé l'évolution des priorités de développement de la firme pour mettre l'accent sur le rapport performance par watt. Cette nouvelle stratégie s'est traduite par l'apparition au premier semestre 2006 des puces Xeon "WoodCrest", des puces capables pour la première fois de rivaliser avec les Opteron en termes de rapport performance par Watt. Pour donner une idée du virage pris par Intel, le Xeon WoodCrest lancé à l'été 2006 a un ratio performances/Watt environ trois fois meilleur que celui des Xeon de 2005. Et sa déclinaison à bas voltage, utilisée dans certains serveurs lames, est encore deux fois plus économe (au détriment toutefois de la performance pure). Les progrès en la matière n'en sont sans doute qu'à leur début. Intel, comme AMD ou Sun, avec ses puces Sparc, misent pour les années à venir sur des puces massivement parallèles dont le nombre de coeur devrait croître fortement sans augmentation de la consommation énergétique. Objectif : délivrer une puissance croissante tout en stabilisant ou en réduisant l'enveloppe énergétique des serveurs. A l'ère de la chasse au gaspi énergétique, la bataille du rapport performance par watt des processeurs et serveurs ne fait que commencer.
2006 : l'année écolo pour les processeurs serveurs
0
Réaction
Alors que l'énergie représente déjà près de la moitié des coûts d'exploitation d'un serveur dans les datacenters, les fondeurs se concentrent enfin sur la réduction d'énergie de leurs processeurs, et plus généralement des serveurs. En la matière 2006 a été une année tournant.
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Suivre toute l'actualité
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
Je m'abonne
Commentaire