Bis repetita, Intel réaffirme de nouveau son ambition sur le segment des GPU pour les charges de travail HPC et IA dans les centres de données, sur un marché dominé par Nvidia. Selon un article de l'agence Reuters, le CEO d'Intel Lip-Bu Tan a déclaré qu'après avoir embauché un architecte GPU senior Eric Demers, la société travaille directement avec ses clients pour définir leurs besoins, ce qui témoigne d'une approche davantage axée sur la demande, alors que les entreprises et les fournisseurs de cloud évaluent leurs options en matière de calcul accéléré. L'offensive d'Intel intervient alors que la demande d'accélérateurs IA remodèle les dépenses des centres de données, laissant les entreprises et les fournisseurs cloud avec moins d'options en matière de GPU et des délais d'approvisionnement plus longs. Ce n'est pas la première incursion du fondeur dans le domaine des cartes graphiques et autres accélérateurs : Xeon Phi (co‑processeurs/manycore, ex‑Larrabee, utilisés en HPC avant l’arrivée de Xe), Xe‑HPC Ponte Vecchio devenu commercialement Data Center GPU Max Series (GPU Max 1100, 1350, 1550, etc.), Xe Rialto Bridge (successeur prévu de Ponte Vecchio pour le HPC, finalement abandonné), Iris Xe (DG1) en version carte PCIe pour certains usages professionnels/serveurs d’entrée de gamme, et enfin Data Center GPU Flex Series (Flex 140, Flex 170, etc.), GPU pour VDI, media offload et inference AI en data center. La différence aujourd'hui est que la société lie plus étroitement ses ambitions en matière de GPU à sa feuille de route pour les datacenters et à sa stratégie de fabrication plus large, en associant un engagement plus étroit avec ses clients à une technologie de processus avancée afin de gagner du terrain.
L'avantage d'Intel pour les entreprises
L'intégration étroite des processeurs, des GPU, des réseaux et de la cohérence de la mémoire par Intel lui confère un avantage dans les domaines de l'inférence d'entreprise, du cloud hybride et des environnements réglementés ou sur site, où le contrôle des coûts et la simplicité opérationnelle importent plus que les performances de pointe, a déclaré Manish Rawat, analyste en semi-conducteurs chez TechInsights. Dans ces segments, le fondeur de Santa Clara a la possibilité de limiter de manière significative l'expansion de Nvidia et de réduire la dépendance des clients au niveau de l'infrastructure. Ce dernier suit le même chemin avec ses développements dans les processeurs, le réseau et bientôt le stockage, en sus des traditionnels GPU.
La fiabilité de la chaîne d'approvisionnement est un autre avantage sous-estimé. Les hyperscalers veulent une deuxième source fiable, mais seulement si Intel peut offrir des feuilles de route stables et prévisibles sur plusieurs générations de produits. Cependant, l'entreprise se heurte à une contrainte majeure au niveau de la couche logicielle. « Le goulot d'étranglement décisif est le logiciel », a expliqué M. Rawat. « Cuda fonctionne comme une norme opérationnelle industrielle, intégrée dans les modèles, les pipelines et le devops. Le défi d'Intel consiste à prouver que les coûts de migration sont faibles et que l'optimisation continue ne devient pas une taxe d'ingénierie cachée. » Pour les entreprises, cette lacune logicielle se traduit directement par un risque de changement. Une intégration plus étroite des processeurs, des GPU et des réseaux Intel pourrait améliorer l'efficacité au niveau du système pour les entreprises et les fournisseurs de cloud, mais la domination de l'écosystème Cuda reste le principal obstacle au changement, a indiqué Charlie Dai, vice-président et analyste principal chez Forrester. « Même avec une forte intégration matérielle, les acheteurs hésiteront sans une compatibilité transparente avec les frameworks et les outils ML/DL courants », ajoute M. Dai.
Un retard logiciel à rattraper
Lian Jye Su, analyste en chef chez Omdia, estime qu'Intel devra se concentrer sur la fourniture de performances et de logiciels acceptés et certifiés par la communauté des développeurs. Bien que Cuda domine avec ses bibliothèques étendues, ses outils et sa notoriété auprès des développeurs, ces derniers pourraient être prêts à adopter les GPU d'Intel si la société « parvient à créer un GPU capable de proposer des outils et des SDK conviviaux pour les développeurs et adaptés aux applications IA de pointe », ajoute M. Su. Du point de vue des achats des entreprises, cela signifie que le défi d'Intel réside moins dans ses ambitions matérielles que dans sa capacité à surmonter un verrouillage de plateforme profondément ancré. « Les avantages en termes de performances et de prix ne suffiront pas sans des outils de développement transparents et une large compatibilité », a déclaré Prabhu Ram, vice-président du groupe de recherche industrielle chez Cybermedia Research. « Même si l'intégration étroite entre le GPU, le CPU et le réseau offre des gains d'efficacité, le verrouillage bien établi de Cuda reste le principal obstacle pour les entreprises qui cherchent à réduire leur dépendance vis-à-vis de Nvidia. »
Le défi croissant de la Chine
L'émergence d'alternatives chinoises rend d'autant plus urgent l'effort d'Intel pour se repositionner comme une deuxième source crédible pour les entreprises occidentales. Dans l'interview accordée à Reuters, M. Tan s'est dit surpris de voir Huawei embaucher des concepteurs de puces de haut niveau malgré les restrictions américaines sur l'accès aux outils avancés, et a averti que la Chine pourrait dépasser les acteurs établis si les entreprises occidentales ne faisaient pas attention. « L'importance de Huawei ne réside pas dans la parité à court terme, mais dans sa trajectoire », a déclaré M. Rawat. « Les progrès en matière d'indépendance EDA sont peut-être lents, mais ils vont dans la bonne direction. La forte densité de talents compense les lacunes en matière d'outils, tandis que les flux de conception parallèles « suffisamment bons » diluent progressivement l'efficacité des goulets d'étranglement américains. »
Selon les analystes, Huawei n'a pas besoin de surpasser Nvidia à l'échelle mondiale pour représenter un défi stratégique. Il suffirait de verrouiller la demande nationale chinoise en centres de données, de réduire la dépendance vis-à-vis des chaînes d'approvisionnement occidentales et de mettre en place des cycles d'apprentissage et d'optimisation en boucle fermée au niveau national pour remodeler la dynamique concurrentielle au fil du temps.