Si nous vous parlons depuis plusieurs mois de la quatrième génération de puces Xeon Scalable reposant sur l’architecture Sapphire Rapids, leur lancement officiel a été acté hier 10 janvier à Santa Clara en présence de Pat Gelsinger, le CEO d’Intel, Sandra Rivera, vice-présidente en charge de l’entité Data Center et IA, et Lisa Spelman vice-présidente responsable de l’activité Xeon. Un lancement retardé pour cause de production plus difficile à mettre en place avec le passage à la gravure Intel10 (équivalente au 7 nm de TSMC). Les principaux partenaires du fondeur ont suivi le mouvement et présenté leurs dernières machines animées par ces puces : Dell bien sûr avec ses PowerEdge, Lenovo avec ses ThinkServer, Nvidia avec ses DGX Superpod, Asrock avec ses racks, mais également Microsoft pour ses datacenters Azure. Le porte-parole d’un fournisseur californien nous a d’ailleurs confié que des clients français attendaient justement l’arrivée de ces puces pour renouveler certaines machines.

Pat Gelsinger, le CEO d’Intel, Sandra Rivera, vice-présidente en charge de l’entité Data Center et IA, et Lisa Spelman vice-présidente responsable de l’activité Xeon au lancement des Sapphire Rapids. (Crédit Intel)

Il s’agit d’une annonce particulièrement importante pour toute l’industrie avec près de 52 processeurs Xeon Sapphire Rapids (serveurs, stations de travail, HPC, contrôleurs pour baies de stockage et châssis réseau…) avec leur chipset C740 associé au socket LGA 4677 (voir tableau ci-dessus) avec des prix allant de 415 à 17 000$HT.

 

Pour cette 4e génération Xeon Scalable Sapphire Rapids, Intel commercialise 52 puces poru serveurs et stations de travail. (Crédit Intel)

Concurrencé sur le haut de gamme par AMD qui a multiplié les cœurs sur ses processeurs serveurs Epyc Genoa (jusqu’à 96 cœurs) et en entrée de gamme – notamment chez les fournisseurs cloud – par Ampere, qui monte à 120 cœurs sur ses puces Alta Max, Intel porte aujourd’hui le fer sur l’accélération avec des transistors et des instructions dédiées à savoir DLB (Dynamic Load Balancer) pour la gestion du trafic IP, DSA (Data Streaming Accelerator) pour la , IAA (In-Memory Analytics Accelerator) pour les traitements analytiques, et QAT (QuickAssist Technology) pour la compression de paquets. L’idée est qu'en intégrant au sein de certains de ses processeurs Sapphire Rapids (voir tableau ci-dessous pour les détails) des capacités de traitement pour l’AI ou la sécurité, le gain de performances serait au final plus important qu’en simplement multipliant les cœurs (jusqu’à 60 sur le Xeon Platinium 8490H) et augmentant les fréquences d’horloge. Le pari est toutefois risqué pour Intel, car l’exploitation de ces jeux d’instructions supplémentaires exige un peu plus de travail chez les éditeurs et les fournisseurs de services cloud. Intel accompagne toutefois très bien les développeurs avec ses SDK et ses compilateurs. D’un autre côté, les licences logicielles étant toujours facturées au nombre de cœurs - même si VMware tente régulièrement de taxer la RAM – la recette d’Intel (les accélérateurs) pourrait bien satisfaire un grand nombre de client, même si un moteur supplémentaire comme QAT ne peut pas rivaliser avec un véritable DPU.

Des transistors dédiés sont associés aux quatre accélérateurs inaugurés avec Sapphire Rapids. (Crédit Intel)

Lors des prébriefing presse en décembre dernier, Intel a détaillé les bénéfices attendus avec ses quatre accélérateurs DLB (Dynamic Load Balancer), DSA (Data Streaming Accelerator), IAA (In-Memory Analytics Accelerator), QAT (QuickAssist Technology), qui seront proposés à l’activation sur certaines de ses puces Xeon Sapphire Rapids. Comme nous l’a expliqué un porte-parole d’Intel, les fournisseurs et les hyperscalers recevront des puces complètes et pourront activer avec une licence perpétuelle ou à la demande les accélérateurs. Les utilisateurs des processeurs Xeon Scalable pourront donc débloquer ces moteurs de traitement spécialisés moyennant des frais d’usage. L’activation des fonctions On Demand passera par le Software Defined Silicon (SDSi) du fondeur, une nouvelle capacité d’activation par clés d'authentification. Pour l’instant, Intel n'a pas indiqué le coût d’accès à ces fonctions.

Quatre jeux d'instructeurs optionnelles arrivent sur les Xeon Sapphire Rapids. (Crédit Intel)

Voici la liste des jeux d’instructions – anciens et nouveaux – intégrés à ces puces Sapphire Rapids :

- Dynamic Load Balancer (DLB)

- Data Streaming Accelerator (DSA)

- QuickAssist Technology (QAT)

- IAA (In-Memory Analytics Accelerator)

et 

- Advanced Matrix Extensions (AMX)

- Advanced Vector Extensions 512 (AVX-512)

- Advanced Vector Extensions 512 (AVX-512) for vRAN

- Control-Flow Enforcement Technology (CET)

- Crypto Acceleration

- Data Direct I/O Technology (DDIO)

- Software Guard Extensions (SGX)

- TrustDomain Extension (TDX)

- Speed Select Technology (SST)

Avec ces quatre nouveaux accélérateurs, le fondeur annonce un gain de performance moyen de 53 % en informatique générale, 10x plus pour les traitements IA (apprentissage et inférence), 2 fois plus de capacité pour les charges de travail vRAN (Network 5G vRAN) avec la même enveloppe thermique, jusqu’à 2 fois plus de compression de données avec 95 % de cœurs en moins (pour le réseau et le stockage), jusqu'à 3x plus de performance en analytique, et enfin jusqu'à 3,7 fois plus pour les charges de travail liées à la mémoire dans le domaine du HPC (avec les Xeon Max). 

Des tests indépendants sont attendus pour valider les chiffres d'Intel. (Crédit Intel)

L'une des parties les plus intéressantes de ce lancement reste toutefois la plate-forme Sapphire Rapids globale. Avec cette génération, Intel apporte le support de la DDR5, du PCIe Gen5, du CXL 1.1. Si la gamme Sapphire Rapids reprend les appellations habituelles Platinium, Gold, Silver et Bronze, la dénomination Xeon HBM disparaît au profit de Xeon Max Series, toujours pour augmenter la bande passante mémoire (HBM 2e) pour les déploiements HPC. La puissance d'un processeur est souvent limitée par l'acheminement des données vers les cœurs, plutôt que par les performances de chaque cœur. Par conséquent, il est possible d'obtenir des performances plus rapides en utilisant une mémoire plus rapide (HBM) avec un bande passante de 1 To/s. Le fleuron de la gamme Sapphire Rapids est représenté par le Xeon Platinum 8490H (17 000$HT) qui offre 60 cœurs Golden Cove à 2,9 GHz, 120 threads, 112,5 Mo de cache L3, un mode turbo monocoeur montant à 3,5 GHz et un TDP de 350 watts. Cette puce sera proposée en mode multi-sockets (2, 4 et 8) chez certains fournisseurs, ce qui permet de monter jusqu'à 480 cœurs, 960 threads et une capacité globale de 900 Mo en mémoire cache. Chez la concurrence, AMD avec ses Epyc Genoa (Zen 4), le nombre de cœurs par CPU reste supérieur avec un maximum de 96 (l’Epyc 9664 facturé 12 000$HT), et même 128 avec le Genoa X (Bergamo) attendu en 2023. Mais à la différence d’Intel, AMD ne propose toutefois que des serveurs mono et bi-sockets ce qui donne un maximum de 192 cœurs aujourd’hui contre 480 pour Intel. 

Avec cette génération Xeon Sapphire Rapids, Intel prend une nouvelle direction sur le marché des serveurs avec l’intégration de transistors spécialisés associés à des jeux d’instructions supplémentaires facturées en sus. Si ces accélérateurs optionnels ne sont pas souscrits par les clients, le fondeur sera bien obligé de les activer par défaut pour encourager leurs adoptions par les fournisseurs de services et de logiciels et, au final, par les clients. Bien conscient du risque encouru, Intel estime que les avantages l'emportent sur les coûts pour reprendre la main sur le marché des serveurs. Rappelons poru conclure qu'Intel avait déjà tenté de proposer des fonctionnalités activables à l'aide d'un code sur ses processeurs grand public : un cache supplémentaire et la mise en route de l'hyper-threading sur les Pentium. Mal accueilli, ce service avait été abandonné en 2011. Les 52 références de la famille Xeon de quatrième génération sont disponibles en précommande à partir du 15 février.