Dell, Cisco, HPE, Lenovo, Nvidia et d’autres ont commencé à présenter leurs équipements exploitant les derniers processeurs Xeon (Sapphire Rapids) d’Intel. Ce dernier a officiellement présenté ses processeurs pour serveurs de 4e génération ainsi que les GPU de la série Max. Il n’y avait plus vraiment de secrets puisque le fondeur distillait à la presse des informations – sous embargo - depuis plusieurs semaines. Parmi les fonctionnalités mises en avant par Intel, revenons sur l’isolation des machines virtuelles (VM) avec un service de contrôle de leur intégrité. Baptisé Intel Trust Domain Extension (TDX), ce service vient protéger les données à l'intérieur d'un environnement d'exécution de confiance (TEE) dans la VM. Reposant sur le moteur Software Guard Extensions (SGX) d'Intel, il concurrence la virtualisation chiffrée d'AMD dans la mesure où il assure le cryptage et la protection en temps réel du contenu d'une VM. En complément, Intel met également en avant son Project Amber, un service de vérification multicloud en mode SaaS pour aider les entreprises à vérifier les TEE, les appareils et les liens de confiance. Le projet Amber sera lancé un peu plus tard cette année. 

Des accélérateurs activés à la demande 

Le fondeur de Santa Clara a également fourni plus d'informations concernant son service Intel On Demand. Les derniers Xeon Scalable sont livrés avec des moteurs de traitement spécialisés, mais qui nécessitent une licence optionnelle pour être activés. Le service comprend une API pour la commande de licences et un agent logiciel pour le provisionnement des licences et l'activation des fonctionnalités sur le CPU. Les clients ont la possibilité d'acheter les fonctions à la demande au moment de l'achat ou après en tant que mise à niveau. Intel travaille avec quelques partenaires pour mettre en œuvre un modèle à la carte dans lequel les fonctions à la demande peuvent être activées et désactivées selon les besoins. Le paiement étant basé sur le temps d’utilisation plutôt que sur un modèle de licence perpétuelle.

Une IA désormais omniprésente

Il est depuis longtemps admis que les charges de travail d'IA et d'apprentissage automatique sont mieux exécutées sur un GPU, mais Intel veut faire du CPU un égal du GPU, même s'il commercialise son propre GPU pour centre de données. Les processeurs Xeon Sapphire Rapids sont livrés avec un certain nombre d’accélérateurs, et Intel lance une boîte à outils logiciels appelée AI Software Suite qui fournit des outils commerciaux et open source pour aider à construire, déployer et optimiser les charges de travail IA. Un élément clé de ces Xeon est l'intégration du jeu d’instructions Advanced Matrix Extensions (AMX), qui, selon Intel, peut décupler les performances en matière d'inférence IA par rapport aux Xeon de troisième génération (Ice Lake). Le fondeur a par exemple précisé que les performances d'inférence et d'entraînement en temps réel de PyTorch étaient nettement améliorées avec les derniers Xeon.

Les systèmes DGX H100 peuvent s'assembler pour constituer un SuperPod DGX prêt à l'emploi, qui offre jusqu’à un exaflop de performances pour les traitements IA. (Crédit Nvidia)

Les DGX reviennent dans la course HPC avec Intel

Si des fournisseurs comme Dell, HPE, Lenovo ou Supermicro ont sans surprise annoncé le renouvellement de leurs gammes de serveurs avec les dernières puces Xeon de 4e génération, le retour de Nvidia est une belle revanche pour Intel. Les relations sont définitivement plus cordiales entre les deux entreprises : rappelons que pour sa précédente génération de serveurs DGX A100, Nvidia avait préféré travailler avec les puces Epyc 7742 Rome (128 cœurs Zen 3) d’AMD pour épauler ses quatre accélérateurs A100. Le DGX H100 repose donc sur une paire de processeurs Xeon Sapphire Rapids (56 coeurs) avec jusqu’à huit cartes Tensor Core H100. Nvidia et ses partenaires (chez Asus, Atos, Cisco, Dell, Fujitsu, Gigabyte, HPE, Lenovo, QCT et Supermicro) ont prévu de commercialiser une soixantaine de modèles équipés de Xeon Scalable et de GPU H100 avec différentes options pour le stockage flash (Pure Storage, DDN ou encore Panasas) . 

Selon Nvidia, ces systèmes exécuteront les charges de travail en moyenne 25 fois plus efficacement que les serveurs traditionnels uniquement équipés de CPU. Par rapport aux systèmes accélérés de précédente génération, les DGX H100 accélèrent l'apprentissage et l'inférence afin de multiplier par 3,5 l'efficacité énergétique. Ces serveurs sont également équipés de cartes réseau ConnectX-7 de Nvidia. Au total, cette architecture offre des performances jusqu'à neuf fois supérieures à celles de la génération précédente et des performances 20 à 40 fois plus élevées pour l'apprentissage machine et les charges de travail HPC que les serveurs x86 bi-socket sans accélérateurs.