Pour accompagner les entreprises dans leurs projets d'infrastructures IA, Lenovo associe ses systèmes refroidis par liquide aux plateformes Nvidia pour apporter ce que l’entreprise appelle des « AI Cloud Gigafactories », et réduire ainsi les délais de déploiement de plusieurs mois à quelques semaines. Cette annonce, faite à Las Vegas lors du CES 2026 reflète la pression croissante exercée sur les entreprises pour qu'elles déploient plus rapidement des infrastructures IA dans les centres de données, alors même que les contraintes de réseau, d'alimentation et de refroidissement continuent de ralentir ces déploiements. Dans un communiqué, Lenovo a déclaré que le programme vise à accélérer le délai de mise en service pour les fournisseurs de cloud IA en simplifiant le déploiement d'infrastructures IA à grande échelle grâce à des systèmes préintégrés et à une assistance au déploiement.
Des progrès dans les systèmes préintégrés
Selon les analystes, la promesse de déployer une infrastructure cloud IA en quelques semaines témoigne des progrès réalisés dans les systèmes préintégrés, mais ils soulignent que la plupart des déploiements dans les centres de données des entreprises se heurtent encore à des contraintes pratiques. « Le déploiement des datacenters IA a été entravé par l'absence d'analyse de rentabilité claire, les défis liés à la chaîne d'approvisionnement et l'insuffisance des capacités d'intégration et d'ingénierie des systèmes en interne », a pointé Lian Jye Su, analyste en chef chez Omdia. Celui-ci estime plausible l’annonce de Lenovo en raison de son partenariat avec Nvidia et de l'utilisation d'une solution d'infrastructure modulaire prévalidée. D'autres ont souligné que ces délais dépendaient fortement des conditions d'exploitation. Franco Chiam, vice-président chez IDC Asia Pacific, a rappelé que les déploiements étaient rarement limités par la seule livraison du matériel. « Les racks IA peuvent consommer entre 30 et 100 kilowatts ou plus par armoire, et de nombreuses installations existantes ne disposent pas de la capacité électrique, de la redondance ou des autorisations nécessaires pour prendre en charge cette densité sans mises à niveau importantes », a-t-il mis en garde. Jaishiv Prakash, directeur analyste chez Gartner, pense que le délai de « mise en service » de quelques semaines annoncé par Lenovo est réaliste quand les installations disposent déjà d'une alimentation électrique bien dimensionnée, d'une connexion fibre optique et d'un système de refroidissement liquide. « Dans la pratique, cependant, les retards sont souvent dus aux délais d'approvisionnement en électricité et en matériel électrique, à l'intégration du refroidissement liquide direct sur puce et au transport par fibre optique à haute capacité », a-t-il déclaré. « Sans cette base, la mise en service peut prendre plusieurs mois, voire plusieurs trimestres. »
Une approche différenciée
En combinant du matériel pré-intégré avec des services destinés aux environnements réglementés, Lenovo vise à établir un juste milieu entre les hyperscalers et les fournisseurs traditionnels destinés aux entreprises. Selon M. Su, cette approche se distingue par le fait qu'elle combine les technologies de refroidissement et d'alimentation propres à Lenovo, notamment le système Neptune, avec les serveurs Blackwell Ultra GB300 NVL72 (72 GPU Blackwell Ultra, 36 CPU Grace, switch Quantum-X800 InfiniBand ou Spectrum-X Ethernet, SmartNIC ConnectX-8) et les derniers Vera Rubin NVL 72 (72 GPU Rubin, 36 CPU Vera, cartes SmartNIC ConnectX-9, DPU BlueField-4, et switch Spectrum-X Ethernet) tout en associant le matériel à des services de conseil et d'intégration. M. Chiam pense pour sa part que l'un des principaux facteurs de différenciation des « AI cloud Gigafactories » réside dans la capacité de Lenovo à associer son ADN centré sur le matériel à une flexibilité de déploiement hybride, un avantage stratégique à une époque de plus en plus marquée par les préoccupations liées à la souveraineté des données. « Contrairement aux hyperscalers ou aux fournisseurs de cloud purs qui privilégient les piles d'IA entièrement gérées et centralisées, l'approche de Lenovo intègre une infrastructure hautement optimisée, sur site et compatible avec la périphérie, avec une évolutivité de type cloud », a ajouté M. Chiam. « Cette approche est particulièrement intéressante pour les entreprises et les entreprises souveraines qui ont besoin d'un traitement IA localisé sans sacrifier les performances. »
Conséquences pour les réseaux d'entreprise
Selon les analystes, le partenariat entre Lenovo et Nvidia montre comment l'infrastructure IA remodèle le rôle du réseau d'entreprise, le poussant au-delà de la connectivité traditionnelle vers une couche de contrôle critique pour les performances. Selon Shriya Mehrotra, directrice analyste chez Gartner, ce partenariat transforme le réseau en un control plane hautes performances utilisant des structures 800GbE et la télémétrie en temps réel pour maintenir les GPU saturés et éviter les échecs de formation IA. « Pour éviter l’inutilisation de GPU coûteux, les équipes doivent optimiser les structures back-end en adoptant le 400/800 GbE ou l'InfiniBand afin de gérer le trafic est-ouest massif, courant dans la formation de l’IA », a ajouté Mme Mehrotra. Cependant, la vitesse promise par le partenariat entre Lenovo et Nvidia a un coût stratégique : la rigidité architecturale. « La vitesse vient de l'alignement, pas de l'optionalité », a fait remarquer Manish Rawat, analyste chez TechInsights. « Les piles préintégrées réduisent le délai de rentabilisation, mais elles renforcent également la dépendance vis-à-vis des fournisseurs au niveau des couches réseau, d’interconnexion et logicielle. » M. Rawat conseille aux entreprises de segmenter soigneusement les charges de travail, en utilisant des conceptions d'IA d'usine étroitement intégrées pour la formation qui nécessitent des performances critiques, tout en conservant des architectures plus ouvertes pour l'inférence et les charges de travail générales de l'entreprise.

Commentaire