En direct de Las Vegas. L'événement re:Invent 2022 d’AWS (du 28 novembre au 2 décembre à Las Vegas) promet d'être riche en annonces. Peter DeSantis, senior vice president of AWS Utility Computing, a ouvert le bal et fait étalage des (nombreux) talents du fournisseur de services cloud. « Performance » pourrait résumer la keynote de Peter DeSantis. « Avec le système de cloud computing, nous devons trouver un équilibre entre des éléments tels que la sécurité et le coût, ainsi que l'absence de performances de pointe. Il existe généralement des moyens faciles d'obtenir de bonnes performances si vous êtes prêt à faire des compromis sur la sécurité ou à faire exploser votre structure de coûts. Mais chez AWS, nous ne faisons jamais de compromis sur la sécurité. Et nous sommes concentrés sur les coûts ». Le message est, on ne peut plus clair, et sa première annonce en est le parfait exemple.

Le fournisseur de services cloud a en effet annoncé Nitro v5 : « Chaque nouvelle instance EC2, introduite depuis la version 1.42 a un contrôleur Nitro ; ce contrôleur exécute tout le code AWS que nous utilisons pour gérer et sécuriser les instances Situ et pour virtualiser notre réseau et notre stockage » rappelle Peter DeSantis. Il affirme qu’ « en effectuant toute la virtualisation de la mémoire et du stockage sur le contrôleur Nitro, AWS réduit très faiblement les performances ». Après quatre générations de puces Nitro, la firme lance aujourd’hui la dernière génération avec des gains de performance de 60 % et une réduction de la latence de l’ordre de 30 %.

Avec Nitro v5, AWS annonce des instances avec deux fois plus de transistors, un PCIe et une DRAM plus rapides. (Crédit : C.S.) 

Graviton 3E, une variante ARM qui alimente les instances C7gn et Hpc7g

Une autre annonce ravira les clients d’AWS. Lors de re:Invent 2021, Adam Selipsky a présenté les dernières puces serveurs ARM Graviton 3. Il vantait alors un rapport prix-performance bien meilleur que celui de la Graviton 2. Plus rapide, ce processeur se destine aux charges de travail à forte intensité de calcul. Aujourd’hui, la firme lance une variante de Graviton 3, baptisée 3E, spécifiquement optimisée pour « effectuer davantage de calculs mathématiques en virgule flottante et vectorielles ». Ce processeur offrira des performances de traitement des instructions vectorielles jusqu'à 35 % supérieures à celles du Graviton 3. « Il s’agit des types de calculs qui sont très courants sur les ordinateurs à haute performance par rapport aux bases du Graviton 3 », précise Peter DeSantis. 

Dans le même temps, des instances EC2 d’un nouveau type sont en préparation : les instances C7gn, R7iz et Hpc7g. Les C7gn sont conçues pour les charges de travail gourmandes en réseau (appliances virtuelles réseau, analyses de données notamment). Les Hpc7g s'adressent - comme leur nom l'indique - aux charges de travail HPC. Alimentées par les fameux processeurs Graviton 3E, les C7gn et Hpc7g prendront en charge jusqu'à 200 Gbit/s de bande passante réseau, avec des performances de traitement des paquets 50 % supérieures. Elles seront disponibles en plusieurs tailles avec jusqu'à 64 vCPU et 128 Gio de mémoire. AWS précise que davantage de détails seront donnés sur ces instances début 2023.

Les instances C7gn et Hpc7g seront alimentées par les fameux processeurs Graviton 3E. (Crédit : C.S.)

Quant aux instances R7iz, celles-ci sont alimentées par les derniers processeurs Intel Xeon Scalable de 4e génération (Sapphire Rapids) et fonctionnent à une fréquence turbo soutenue sur tous les cœurs de 3,9 GHz. Avec des performances élevées et une mémoire DDR5, ces instances ciblent les charges de travail d'automatisation de la conception électronique (EDA), financières, actuarielles et de simulation. Les instances r7iz seront disponibles en plusieurs tailles avec jusqu'à 128 vCPU et 1 Tio de mémoire. A noter que ces trois instances sont aujourd’hui disponibles en preview et peuvent donc être testées. Notons qu’une autre instance dédiée aux workloads HPC fait son apparition : Hpc6id. Disponible pour tous dès aujourd’hui, cette instance s’attaque aux charges de travail HPC gourmandes en données et en mémoire.

SRD, le protocole révolutionnaire ?

En 2020, AWS a construit son protocole de transport réseau, un datagramme fiable évolutif (scalable reliable datagram noté SRD), conçu pour utiliser des réseaux de datacenters multilocataires modernes tout en gérant leurs limites (déséquilibre de charge et latence incohérente lorsque des flux non liés entrent en collision). Aujourd’hui, ce SRD implémenté dans la carte réseau Nitro personnalisée d'AWS est au cœur des discussions puisque le fournisseur annonce que « tous les nouveaux volumes EBS io2 seront exécutés sur SRD à l’avenir ». Cela devrait améliorer par quatre le débit.

Pour accompagner ce paquet technologique, AWS lance deux autres fonctions pour booster les fonctions de mise en réseau introduites ces dernières années (la mise en réseau améliorée , les adaptateurs réseau élastiques (ENA) et les adaptateurs de tissu élastique (EFA). La première de ces innovations est Lambda SnapStart avec une prise en charge des fonctions Java. Elle permet de faire démarrer les fonctions Lambda (serverless) jusqu'à 10 fois plus rapidement, sans frais supplémentaires, précise la firme. Pour l’instant, Lambda SnapStart est disponible dans les régions USA, Asie-Pacifique et Europe (Francfort, Irlande, Stockholm).

Lambda SnapStart promet de réduire la latence liée au démarrage des instances serverless. (Crédit : AWS)

L’autre innovation concerne l’amélioration de la latence du réseau et des performances par flux sur EC2. Baptisée ENA Express, cette fonction – disponible dès aujourd’hui pour tous – s’appuie sur SRD. AWS annonce une réduction de la latence des flux de trafic jusqu'à 50 % pour 99 % des requêtes [...] tout en augmentant la bande passante maximum mono-flux de 5 Gbps à 25 Gbps. En bout de ligne, l'utilisateur obtient donc beaucoup plus de bande passante par flux et beaucoup moins de variabilité. Peter DeSantis ajoute que le protocole SRD s’applique à tout : EFA pour le calcul intensif (HPC), EBS pour le stockage et ENA pour le réseau, une petite révolution qui permet aux applications HPC/ML de s'exécuter sur le cloud public AWS à grande échelle.