Les deux entreprises se connaissent bien depuis plus de treize ans et viennent d’annoncer un renforcement de leurs liens. AWS et Nvidia veulent en effet fournir l'infrastructure, les logiciels et les services les plus avancés pour alimenter les projets d'intelligence artificielle (IA), générative et autres, de leurs clients. Bien évidemment, les deux géants entendent mettre en oeuvre le meilleur de leurs technologies, notamment les derniers serveurs HPC de Nvidia dotés de GPU, CPU et logiciels d'IA, et de la virtualisation et la sécurité avancées d'AWS Nitro System, de l'interconnexion Elastic Fabric Adapter (EFA) et de l'évolutivité UltraCluster. Dans le cadre de cette collaboration, les deux géants ont annoncé qu'AWS sera le premier fournisseur de cloud à adopter les accélérateurs GH200 NVL32 Grace Hopper.

« Le partenariat ouvre AWS à des millions de développeurs et aux près de 40 000 entreprises qui utilisent ces bibliothèques, a déclaré Jensen Huang, ajoutant qu'il était formidable de voir AWS étendre ses offres d'instances cloud pour inclure les accélérateurs GPU L4, L40S et, bientôt, H200 de Nvidia. Le patron de Nvidia a ensuite expliqué que le GH200 connecte le processeur Grace (avec un CPU basé sur ARM) de la firme à son GPU H200 à l'aide d'une interconnexion puce à puce appelée NVLink, avec un débit d'un téraoctet par seconde. Pour entrer dans le détail, AWS et Nvidia connectent 32 superpuces Grace Hopper dans chaque rack à l'aide d'un commutateur NVLink. Chaque nœud connecté à 32 GH200 NVLink peut être exploité sur une seule instance Amazon EC2. Lorsque ceux-ci sont intégrés aux réseaux AWS Nitro et EFA, les clients peuvent connecter des instances GH200 NVL32 pour évoluer vers des milliers de superpuces GH200. « Avec AWS Nitro, cela devient essentiellement une instance GPU virtuelle géante », a ajouté Jensen Huang.

Nvidia et AWS ont annoncé une salve de produits et solutions qui sont le fruit de leur partenariat. (Crédit : Nvidia)

Une plateforme de formation à l’IA as-a-service

S’appuyant sur cette plateforme offrant « les plus hautes performances pour les charges de travail complexes d'IA générative » selon les mots du patron de Nvidia, les deux entreprises ont ensuite dévoilé DGX Cloud sur AWS. Présentée comme une plateforme de formation à l'IA as-a-service, elle offre aux développeurs une expérience serverless optimisée pour l'IA générative. « Il s'agira du premier DGX Cloud doté du GH200 NVL32, offrant aux développeurs la plus grande mémoire partagée dans une seule instance. DGX Cloud sur AWS accélérera la formation d'IA générative de pointe et de grands modèles de langage pouvant aller au-delà de 1 000 milliards de paramètres » précise Nvidia.

Un supercalculateur baptisé Project Ceiba

Un rapprochement qui donne naissance au système DGX Cloud AI. Au nom de code Project Ceiba (en référence à l’arbre amazonien Ceiba), ce supercalculateur, décrit comme le premier du genre, sera équipé de 16 384 accélérateurs GH200 et capable de traiter 65 exaflops. Le Project Ceiba sera intégré aux services AWS, tels que le réseau chiffré Virtual Private Cloud (VPC) et le stockage bloc haute performance Elastic Block Store. « AWS et Nvidia collaborent depuis plus de 13 ans, en commençant par la première instance cloud GPU au monde. Aujourd'hui, nous proposons la plus large gamme de solutions GPU Nvidia pour les charges de travail telles que le graphisme, le jeu, le calcul de haute performance, l'apprentissage automatique et maintenant l'IA générative », a annoncé fièrement Adam Selipsky, CEO d'AWS.

Précisons que les instances AWS avec les circuits GH200 NVL32 (CPU et GPU) seront la première infrastructure HPC sur AWS à être dotée d'un système de refroidissement liquide afin de garantir que les racks de serveurs densément peuplés puissent fonctionner efficacement et au maximum de leurs performances. Les deux firmes pourront ainsi répondre à une forte demande en hautes performances, notamment pour les charges de travail d'IA générative complexes - couvrant les FM, les systèmes de recommandation et les bases de données vectorielles. Jensen Huang a qualifié le supercalculateur du projet Ceiba de « tout à fait incroyable », affirmant qu'il sera capable de réduire de moitié le temps de formation des plus grands modèles de langage. Et Nvidia compte bien exploiter ce supercalculateur pour sa propre R&D en matière d’IA, notamment afin « de faire progresser l'IA pour les LLM, le graphisme et la simulation, la biologie numérique, la robotique, les voitures auto-conduites, la prédiction du climat de Earth-2 ».