Nvidia continue de miser sur les Intel Xeon 6 comme processeurs hôtes pour ses serveurs DGX (voir encadré sur l'unique modèle sur base AMD Epyc), avec la commercialisation du DGX Rubin NVL8, annoncé en janvier dernier au CES 2026. Ce DGX fait partie de la prochaine gamme de systèmes IA phares du fournisseur de Santa Clara, taillés pour aider les entreprises à accélérer l'adoption de l'IA agentique. Rappelons que le DGX Rubin NVL8 embarque 8 GPU Rubin assurant 400 pétaflops en inférence NVFP4, 280 pétaflops en entraînement NVFP4 et 140 pétaflops en FP8/FP6. Il dispose de 2,3 To de mémoire GPU totale avec une bande passante HBM de 160 To/s, garantissant un transit des données ultra-rapide à travers l'infrastructure. Par rapport aux systèmes Blackwell, il offre 5,5x plus de flops en  NVFP4. Ces serveurs sont équipés d'Intel Xeon 6776P comme processeurs hôtes. La plateforme utilise également la technologie NVLink pour permettre une communication rapide entre les GPU en vue d'un traitement parallèle. La puce Xeon 6 assurera la continuité architecturale et l'évolutivité des systèmes IA accélérés par GPU à mesure que les charges de travail évoluent vers une inférence massive en temps réel, a déclaré Intel lors de la conférence d'ouverture de la GTC 2026 de Nvidia (du 16 au 19 mars à San José, en Californie).

Une architecture divisée

Selon les analystes, le choix de puces Intel est étroitement lié aux exigences de compatibilité et de déploiement des entreprises. « À mesure que l'IA évolue vers l'inférence en temps réel et les charges de travail agentiques, le rôle du processeur devient encore plus crucial, car la gestion de flux de travail complexes et l'alimentation continue des GPU en données peuvent constituer un goulot d'étranglement », a déclaré Pareekh Jain, CEO d'EIIRTrend & Pareekh Consulting. Nvidia optimise son offre pour le meilleur écosystème de processeurs hôtes — en termes de performances, de compatibilité, d'approvisionnement et d'adéquation aux besoins des entreprises — et l'architecture x86 continue de dominer l'infrastructure des centres de données. Le Xeon 6, avec sa bande passante mémoire élevée (MRDIMM) et sa forte compatibilité x86, contribue à garantir que les GPU restent pleinement utilisés sans retard de données, a-t-il ajouté.

Les infrastructures IT dans les entreprises s’appuient encore fortement sur les écosystèmes x86 pour les outils opérationnels, les cadres de sécurité et la gestion du cycle de vie. En plus de ses serveurs Arm (DGX sur base Grace/Blackwell et Vera/Rubin), « Nvidia choisit de conserver la compatibilité x86, ce qui permet aux entreprises d’intégrer ces systèmes dans leurs environnements existants sans avoir à repenser l’ensemble de leur infrastructure. Imposer aujourd’hui un nouveau paradigme de processeur entraînerait une adoption plus lente, des risques d’intégration plus élevés et des frictions opérationnelles », a déclaré Sanchit Vir Gogia, analyste en chef chez Greyhound Research.

Pas une alliance stratégique

Bien qu’elles collaborent au niveau des systèmes, la relation entre les deux entreprises ne constitue pas une alliance stratégique formelle. « La dynamique Intel-Nvidia s’apparente davantage à une coopétition au niveau des systèmes. Une collaboration de longue date persiste dans les écosystèmes des centres de données et des PC, les processeurs Intel associés aux GPU Nvidia formant des architectures de serveurs IA standardisées et permettant une intégration plus poussée », a déclaré Manish Rawat, analyste en semi-conducteurs chez TechInsights. Cependant, la concurrence s’intensifie sur le plan structurel. Même si Nvidia domine le marché des GPU, l’entreprise étend également sa présence à davantage de couches de la pile des centres de données. Elle a développé ses propres processeurs sur base Arm, tels que la puce Grace, visant une intégration plus étroite entre le calcul, la mémoire et l’interconnexion. La société a également lancé la génération suivante avec la puce Vera, spécialement conçue pour l’IA agentique lors de la GTC 2026.

Cela reflète l’approche plus large de Nvidia consistant à développer davantage le système en interne, couvrant à la fois le matériel et les logiciels, tout en continuant à intégrer des composants externes lorsque cela est nécessaire. « L'offensive de Nvidia dans le domaine des processeurs (Grace, Vera) et des systèmes étroitement intégrés basés sur NVLink marque un tournant vers la maîtrise de l'ensemble de la pile, couvrant le calcul, la mise en réseau et les logiciels. Cela remet en cause la domination traditionnelle d'Intel dans le domaine des processeurs et du contrôle des systèmes. En substance, Nvidia noue des partenariats de manière tactique pour soutenir l'adoption de son écosystème tout en se positionnant stratégiquement pour supplanter les acteurs en place et s'assurer un contrôle accru sur l'infrastructure IA de nouvelle génération », a ajouté M. Rawat.

D'autre part, Intel se lance également sur le marché des GPU et des accélérateurs IA avec des offres telles que ses GPU basés sur Xe et ses accélérateurs Gaudi. Mais l'entreprise reste à la traîne par rapport à Nvidia en termes d'adoption par le marché et de maturité de l'écosystème. L'utilisation de processeurs Intel dans le DGX Rubin NVL8 de Nvidia revêt une importance stratégique pour Intel. Même s’il est à la traîne dans le domaine des accélérateurs IA, la présence de Xeon dans les systèmes phares de Nvidia permet à Intel de rester ancré dans l’économie des infrastructures IA, lui permettant de tirer profit des couches de plan de contrôle et de transfert de données tout en évitant d’être totalement supplanté par des alternatives basées sur Arm comme Grace. Même si Intel est peut-être en train de perdre la bataille des GPU, il reste pertinent dans la pile système au sens large, a souligné M. Jain.

La participation de 5 Md$ d’Intel détenue par Nvidia

Cette évolution intervient également après que Nvidia a révélé avoir acheté pour 5 milliards de dollars d’actions Intel en décembre 2025. À l’époque, le fondateur et CEO de Nvidia, Jensen Huang, avait déclaré dans un communiqué de presse que cette collaboration historique associait étroitement la pile IA et de calcul accéléré de Nvidia aux processeurs d’Intel et au vaste écosystème x86. M. Rawat a expliqué que cet investissement apportait un soutien au bilan d’Intel et signalait sa confiance aux marchés. Mais l’intention sous-jacente était de tirer parti de l’architecture. En s’assurant un alignement plus étroit avec l’écosystème x86 d’Intel, Nvidia peut favoriser la co-conception CPU-GPU à travers l’infrastructure IA, les centres de données et les PC IA émergents. Cela agit comme une couverture sur plusieurs fronts, réduisant la dépendance vis-à-vis des plateformes basées sur Arm, contrant AMD dans le domaine x86 et limitant la fragmentation de l’écosystème.

Les experts considèrent également cela comme une manœuvre stratégique visant à garantir un contrôle à long terme. « Cet investissement doit être considéré comme une manœuvre stratégique ancrée dans la résilience de la chaîne d’approvisionnement, l’alignement de la fabrication et la stabilité à long terme de l’écosystème. La disponibilité de conditionnements avancés, l’accès aux capacités de fabrication et les considérations géopolitiques autour des chaînes d’approvisionnement en semi-conducteurs deviennent des facteurs décisifs. L’investissement de Nvidia dans Intel signale une intention de s’assurer des options dans ces domaines », a ajouté M. Gogia. M. Jain a qualifié cet investissement de tactique, visant à garantir une future collaboration au sein de la chaîne d'approvisionnement. Bien qu'il ne soit pas comparable à l'alliance stratégique profonde entre Nvidia et TSMC, il reflète une option stratégique, et non une intégration.