Pour conserver sa domination sur le marché des serveurs et garder à distance son concurrent AMD, Intel remanie sa famille Xeon avec l’arrivée de l'architecture Cascade Lake, toujours gravée en 14 nm, qui vient remplacer la vieillissante Skylake. La plateforme suivante Cooper Lake n’est pas attendue avant 2020 et sera d’ailleurs toujours fabriquée en 14 nm. Il faudra attendre les cœurs Ice Lake pour descendre à 10 nm, alors qu’AMD compte lancer cette année sa plate-forme Rome (Zen 2) gravée en 7 nm par GlobalFoundries en 2019. La finesse de gravure n’est pas qu’un exploit technique en lithographie avec une augmentation considérable du nombre de transistors (rappelons qu’Intel refuse désormais de donner le nombre de transistors dans ses puces). Elle permet de réduire la consommation électrique des processeurs tout en augmentant la taille des caches et le nombre de cœurs afin d’apporter encore plus de parallélisme. Les nouvelles architectures apportent également de meilleures performances pour les tâches spécialisées grâce à des instructions supplémentaires qui améliorent la vitesse du chiffrement, de l'intelligence artificielle et de l'apprentissage machine.
Une cinquantaine de produits ont donc été présentés mardi dernier par le fondeur de Santa Clara pour introduire la deuxième génération de son processeur Xeon et de sa mémoire persistance Optane. La gamme premium se compose des Xeon Platinium 9200 de type Cascade Lake AP (AP pour Advanced Performance). La ligne 9200 accueille quatre processeurs allant de 32 cœurs (64 threads) avec une fréquence de base de 2,1 GHz (3,7 GHz en mode Boost), une mémoire cache L3 de 71,5 Mo et une enveloppe thermique de 250 W pour le Xeon 9221, à 56 cœurs (112 threads) à 2,6 GHz (3,8 GHz en mode Boost), avec un cache L3 à 77 Mo et 400 W de TDP pour le Xeon 9282. Intel a réussi à augmenter le nombre de cœurs (48 cœurs précédemment) sans améliorer la gravure, ce qui entraîne un TPD très élevée même pour une puce serveur. Le Xeon 9200 consomme plus du double de ce que les Xeon haut de gamme consomment habituellement. L’explication est très simple : pour repousser les limites de son architecture, Intel combine deux die de 28 cœurs (48 threads) sur le même package, grâce à la technologie MCP (Multi-Chip Package).
Caractéristiques et prix de la gamme D-1600 de processeur Xeon. (Crédit : Intel)
Ces Xeon sont dotés de correctifs intégrés pour contrer les vulnérabilités Meltdown et Spectre. Il existe des correctifs pour ces exploits, mais ils ont pour effet de réduire les performances, qui varient en fonction de la charge de travail. Aujourd’hui, Intel utilise une combinaison de firmware et d'atténuation logicielle. Le fondeur a également revu la gestion de la mémoire cache, étendu le jeu d’instructions AVX-512 avec VNNI (Vector Neural Network Instructions) pour accélérer les charges d’apprentissage machine grâce à la technologie Deep Learning Boost (DL Boost) qui vient accélérer le calcul vectoriel, ce qui fait de cette puce le premier processeur avec accélération d'inférence intégrée pour les charges de travail AI. Une combinaison idéale pour les scénarios d'apprentissage machine. Signalons encore que chaque CPU gère 40 lignes PCIe 3.0 et supporte douze canaux de mémoire DDR4-2933 (la mémoire Optane persistante n’est pas supportée). La capacité mémoire a été doublée, passant de 768 Go à 1,5 To de mémoire par socket.
Enfin, la génération Cascade Lake prend aussi en charge l’interconnexion haute vitesse UPI (Ultraplats Interface), qui vient remplacer OmniPath. Pour rappel chez la concurrence, les processeurs serveur Epyc d'AMD sont aujourd’hui dotés d’un maximum de 32 cœurs (64 threads) et 128 voies PCIe 3.0. Les prix de cette gamme premium n’ont pas encore été communiqués. Mais une famille plus abordable, déclinée sous la dénomination Xeon 8200 est aussi proposée. Elle repose sur l’architecture Cascade Lake SP (Standard Performance). Le Platinum 8180M offre par exemple jusqu'à 28 cœurs (56 cœurs) avec une fréquence de base de 2,5 GHz (3,8 GHz en Boost) et un TDP de 205 W. Les puces Xeon Cascade lake-SP sont toutes compatibles avec les composants Optane (3D Xpoint) mémoire persistante (128, 256 et 512 Go) et stockage. Les modules de mémoire persistante Optane DC boostent la mémoire jusqu’à 4,5 To par socket CPU, ou 36 To dans un système de huit sockets. La capacité de mémoire système est trois fois supérieure à celle du Xeon Scalable première génération (1,5 To). Et pour accélérer les transferts de données, Intel étoffe sa gamme de contrôleurs Ethernet avec la série 800 supportant le 100G et compatible avec la technologie ADQ (Application Device Queues) et ses pipelines sont totalement programmables.
Intel étend la spécialisation de ses puces Xeon, épaulées par des FPGA, aux principales charges de travail (Crédit : Intel)
Quatre ans après le rachat d’Altera pour un montant de 9,5 milliards de dollars, Intel lance sa première gamme FPGA nommée Agile, pour améliorer les performances de calcul sur les serveurs. Ces processeurs reprogrammables gravés en 10 nm sont intégrables à n’importe quelle carte mère. Trois séries composent la famille Agilex. La série F qui offre une liaison jusqu’à 58 Git/s en émission-réception, sous standard PCIe Gen4 et DDR4, et aussi équipée d’un processeur ARM Cortex-A53 quatre cœurs. La série I et M offriront quant à elle jusqu’à 112 Gbit/s en émission-réception sous standard PCIe Gen5. Pour répondre aux exigences de performance des charges de travail des environnements informatiques intensifs, les FPGA sont donc désormais proposés en option dans les serveurs Xeon.
Des livraisons prévues tout au long de l'année
Le Xeon Scalable D-1600 et la mémoire persistante Optane DC sont disponibles dès maintenant. L’Ethernet série 800 sera livrable au cours du troisième trimestre 2019. Les FPGA Agilex arriveront au cours du second semestre. Les premières livraisons de Xeon 9200 commenceront bientôt pour prendre de l’ampleur tout au long de l’année. De nombreux partenaires Intel – HPE, Lenovo, Dell, Cray, Cisco ou encore Supermicro – entendent lancer plus de 100 machines reposants sur Cascade Lake.