Avec 18 mois de retard, la quatrième génération de processeurs Xeon Scalable, alias Sapphire Rapids, sort en volume des ateliers de fabrication d’Intel. Les principaux fournisseurs proposent désormais des serveurs x86 dotés de ces puces. Dans les faits, Intel avait déjà commencé à livrer ses clients hyperscalers, qui conçoivent en interne leurs plateformes serveur. Mais les volumes de production n’étaient pas suffisants pour fournir tous les acteurs du marché. Le Xeon Scalable de 4e génération est remarquable, car il contient plusieurs accélérateurs spécialisés en plus de ses cœurs x86, qui montent jusqu’à 60. L’un des moteurs dédiés est destiné à l’accélération des traitements IA, car Intel est déterminé à rendre sa plateforme CPU compétitive face aux GPU d’AMD et Nvidia. Il n’est donc pas surprenant que bon nombre des serveurs annoncés en janvier soient conçus pour le traitement de l’IA.

Toutes ces machines prennent en charge les dernières technologies du Xeon Scalable de 4e génération : DDR5, interconnexions PCI Express 5 et support du protocole CXL 1.1 pour étendre les capacités mémoire et l’informatique composable, et certaines les accélérateurs matériels dédiés. Depuis l’abandon des composants mémoire Optane (3D XPoint), les producteurs de NAND Flash comme Micron ou Kioxia misent désormais sur le CXL (Compute Express Link) pour étendre les capacités mémoire - avec des composants à faible latence et haute bande passante – et mieux servir les processeurs pour serveur dotés d’un grand nombre de cœurs, jusqu’à 60 chez Intel et 96 chez AMD. Si une capacité mémoire DRAM de 512 Go est possible en DDR5, la bande passante disponible est vite saturée et nécessaire une soupape de décharge dans le serveur : c’est là qu’entre en jeu la mémoire persistante CXL qui permet à un système hôte de l'utiliser comme s'il s'agissait de sa propre DDR5, gérée par le contrôleur du CPU. Et grâce à la mémoire persistante, lorsqu’un serveur hébergeant une base de données est obligé de redémarrer, le chargement de la base est beaucoup plus rapide. Le CXL apporte également la gestion de pool de mémoire au sein de clusters où différents serveurs et composants peuvent partager leur mémoire via le réseau. Des start-ups, comme Liqid dont nous vous avons déjà parlé, travaillent activement sur ces sujets. Si CXL est actuellement disponible dans sa version 1.1, les spécifications 2.0 et 3.0 ont déjà été annoncées. Étant donné que CXL est associé au bus PCIe, les prochaines versions de CXL dépendent de celles de PCIe. Il y a un écart d’environ deux ans entre les versions de PCIe, puis un intervalle encore plus long entre la sortie d’une spécification et la mise sur le marché de produits. À l’heure actuelle, les composants CXL 1.1 et 2.0 sont dans la phase échantillons d’ingénierie à tester. Nous reviendrons un peu plus tard, dans un autre article, sur la révolution CXL.

Dell affute ses châssis pour les Sapphire Rapids

Le texan a présenté un total de 13 serveurs PowerEdge, couvrant les besoins des centres de données d'entreprise et de fournisseurs de services cloud, ainsi que les usages spécifiques en mode edge. Pour accueillir les Xeon Sapphire Rapids, Dell révise ses châssis rack, tour et multi-nœuds, bénéficiant de la fonctionnalité Smart Flow, au sein de la suite Smart Cooling, qui permet d'augmenter le débit d'air et de réduire de 52% la vitesse des ventilateurs par rapport aux serveurs de la génération précédente. Grâce aux processeurs Xeon Scalable, le fournisseur texan affirme que son PowerEdge R760 offre une capacité d'inférence IA jusqu'à 2,9 fois supérieure, tandis que le PowerEdge R760 supporte jusqu’à 20% de postes VDI supplémentaires et plus de 50 % d’utilisateurs sur SAP Sales & Distribution, par rapport à la génération précédente. En plus de la mise à jour des gammes existantes, Dell introduit les serveurs PowerEdge HS5610 et HS5620 (bisockets au format 1U et 2U) qui répondent aux exigences des fournisseurs de services cloud.

Tous ces serveurs sont dotés de la version actualisée de CloudIQ, qui combine la surveillance proactive, l'apprentissage automatique et l'analyse prédictive tout en offrant une vue complète de l’activité des serveurs, où qu'ils se trouvent. Ils sont également fournis avec les services ProDeploy pour un déploiement rapide du matériel et iDRAC9 pour réaliser des diagnostics simplifiés. 

HPE simplifie ses gammes avec Alletra

Pour la commercialisation de ses serveurs de stockage reposant sur la plateforme Xeon Sapphire Rapids, HPE a fait le choix de réutiliser l’appellation Alletra, avec la série 4000. Lancée il y a près de deux ans, cette famille de stockage de type Unified DataOps, qui comprend les Alletra 6000 (ex-Nimble) en milieu de gamme et les Alletra 9000 (ex-Primera) en haut de gamme, intègre des fonctionnalités de contrôle cloud native et de l'intelligence artificielle pour suivre l’activité des baies. HPE s’appuie également sur sa plateforme GreenLake pour proposer des services additionnels en en tant que service. Les Alletra 4110 et 4120, qui sont en fait un rebranding des Apollo 4000, viennent compléter le portfolio avec cette mise à jour Xeon SP Sapphire Rapids. L'Alletra 4110 est un serveur 1U bisocket  avec jusqu'à 3 To de mémoire DDR5 et une capacité maximale de 307,2 To (20 SSD de 15,36 To). L'Alletra 4120 est un châssis 2U hybride NVMe/HDD de plus grande capacité avec jusqu'à 6 To de mémoire DDR5. Il prend en charge une combinaison de SSD NVMe et de disques durs SAS ou SATA. 

Les baies de stockage Alletra 4000 reposent sur des contrôleurs Intel Xeon Sapphire Rapids sans Asic supplémentaire.  (Crédit HPE)

Les deux systèmes sont destinés aux grandes entreprises avec des cas d'usage centrés sur les données, allant des data lakes à l’archivage en passant par les traitements analytiques et à l'IA/ML, sans oublier le HCI et les charges de travail à forte intensité de cache comme les bases de données.

Lenovo lance 25 serveurs Sapphire Rapids

Suite au lancement des Xeon Sapphire Rapids, Lenovo a décidé de faire les choses en grand avec la commercialisation de 25 serveurs ThinkSystem, ThinkAgile et HCI équipés des dernières puces d’Intel. Ils sont vendus sous la bannière Lenovo Infrastructure Solutions V3 et couvrent des utilisations telles que les databases in memory, les applications transactionnelles, l'analyse en temps réel, l'ERP, le CRM et les charges de travail virtualisées et conteneurisées.

Certains systèmes sont des mises à jour de gammes existantes, tandis que d'autres sont inédits, comme le ThinkSystem SR850 V3, un châssis 2U à quatre sockets pour les charges de travail à haute intensité. Les produits d'infrastructure hyperconvergée ThinkAgile V3 HX, MX et VX sont livrés avec les logiciels Microsoft, Nutanix et VMware préinstallés pour déployer rapidement un environnement de type cloud privé.

La gamme ThinkSystem V3 de Lenovo se compose de modèles tour et rack 1 et 2U. (Crédit Lenovo)

Certains systèmes sont refroidis à l’eau (un fluide caloporteur en fait) avec la cinquième génération de la technologie maison Neptune, qui, selon le fournisseur chinois, peut réduire la consommation d'énergie jusqu'à 40 % par rapport à l'utilisation de ventilateurs. Lenovo a également déclaré que certains modèles prennent en charge le refroidissement liquide de la mémoire à large bande passante (HBM), une première dans l'industrie. Situés très près du CPU ou du GPU, le refroidissement par air des composants HBM était devenu un vrai défi. Mais Lenovo affirme qu'il prendra en charge le refroidissement liquide des processeurs Xeon Max et le GPU Max Ponte Vecchio d'Intel ( tous les deux avec mémoire HBM), qui ne sont pas encore commercialisés.

Supermicro prêt à livrer en OEM

Le taïwanais Supermicro a lancé plus de 50 serveurs et systèmes de stockage à travers 15 familles collectivement connues sous le nom de X13. Reposants sur la dernière génération de puces Intel Xeon, ils couvrent toute la gamme d’usages et services : charges de travail IA, HPC, cloud computing, traitements pour les médias, applications d’entreprise et 5G/telco/edge. Ils vont des modèles monosocket aux châssis octoprocesseurs avec complément GPU ou DPU. 

Les SuperBlade de Supermicro accueillent jusqu'à 48 slots DD5. (Crédit Supermicro)

Dans la gamme Supermicro, on retrouve : Les SuperBlade (lames hautes performances optimisées pour la densité), les Hyper (serveurs rackables haute performance), les BigTwin (pour les charges de travail liées au cloud, au stockage et aux médias), les GrandTwin (une toute nouvelle architecture pour les performances monoprocesseur), les SuperEdge (nœuds à processeur unique dans un facteur de forme 2U à faible profondeur pour l’edge), les CloudDC (destiné aux hyperscalers), et les Petascale Storage (systèmes de stockage NVMe full-flash).

Inspur mise sur les économies d’énergie

L'ODM (Original Design Manufacturers) chinois Inspur, très populaire auprès des fournisseurs de services cloud, a annoncé que sa plateforme de serveurs G7 prendrait en charge les processeurs Xeon Scalable avec un total de 16 types de modèles différents. Inspur a déclaré que les performances sont jusqu'à 61% plus rapides et que la consommation d'énergie est jusqu'à 30% inférieure par rapport à la génération précédente de produits basés sur les Intel Xeon. 

Les serveurs sont conçus autour de divers cas d'utilisation, tels que l'informatique générale, l'informatique critique et l'IA. La conception du G7 est axée sur l'énergie verte, avec des schémas de refroidissement par plaque froide et par immersion. Le chinois affirme également que son diagnostic automatique des pannes a un taux de précision allant jusqu'à 95 %.

Les serveurs d'Inspur sont particulièrement appréciés par les hyperscalers. (Crédit Inspur)

La gamme de serveurs G7 s'étend du TS860G7 haut de gamme, doté de huit sockets dans un châssis 6U et de 128 emplacements DDR5, au rack 1U polyvalent NF5180G7, qui prend en charge l'immersion. D'autres serveurs sont proposés dans des déclinaisons à deux et quatre sockets. Citons également la baie de stockage haute densité NF5266G7 avec une architecture trois-tiers dans un châssis 2U. Inspur affirme que ses performances de calcul sont jusqu'à 60 % plus rapides que celles de la génération précédente. 

Giga Computing, le spin-off serveur de Gigabyte

L’activité serveur de Gygabyte, Giga Computing, a présenté ses serveurs et cartes mères basés sur le processeur Intel Xeon Scalable de 4e génération ainsi que sur la série Xeon Max avec HBM pour le HPC. Giga cible les marchés de l'IA, du cloud computing, de l'analytique avancée, du HPC et des réseaux, ainsi que celui des applications de stockage (SDS). Giga Computing propose 14 séries de serveurs avec un total de 78 configurations parmi lesquelles les clients peuvent choisir.

La famille H de Giga Computing accueille 4 serveurs Xeon Sapphire Rapids dans son châssis 2U. (Crédit Gigabyte)

Ces gammes comprennent : les cartes mères M-Series à mono et bisocket, les serveurs en rack 1U et 2U de la série R ; les châssis G-Series dédiés à l’accélération GPU avec un refroidissement adapté pour le HPC, l'IA et le traitement parallèle haute performance ; les modèles 2U haute densité (4 nœuds dans le châssis) de la série H ; et enfin les serveurs edge de la série E avec des facteurs de forme courts pour les environnements contraints.