Pouvez-vous revenir sur les investissements HPC et AI annoncés par Intel en Europe le 15 mars ? Quels en sont les points-clés ?

Raja Koduri : L’élément essentiel, c’est qu’il s’agit de notre investissement le plus important en matière de recherche et développement dans le domaine du calcul haute performance et de l’intelligence artificielle en dehors de nos principaux sites de conception. C’est très important car ces deux domaines, le HPC et l’IA, se développent à un rythme très rapide. La taille de ce marché va atteindre 155 milliards de dollars d’ici 2026. C’est un marché qui croît très rapidement et pouvoir attirer des compétences très avancées en mathématiques, en physique et en sciences de l’informatique, et donc les meilleurs cerveaux en France et en Europe, est quelque chose de particulièrement enthousiasmant pour nous. Nous avons donc hâte de nous y lancer et de développer des produits et des technologies qui aideront Intel à être très fort, l’Europe à être très forte, parce que le HPC et l’AI ont un impact sur tous les domaines : automobile, agriculture, climat, découverte de médicaments, énergie, génomique, sciences de la vie, de même que les applications du metaverse.

Sur le HPC, quels sont les points forts d’Intel face aux accélérateurs Nvidia ?

Plus de 85% des systèmes de calcul haute performance dans le monde aujourd’hui sont basés sur des processeurs Xeon sur la partie CPU. Sur la partie accélération, les GPU de Nvidia se sont imposés comme les leaders. C’est vrai, Intel n’était pas sur ce marché sur les dix dernières années. Mais cette année, nous allons lancer Ponte Vecchio, notre premier GPU pour datacenter. Nous avons récemment démontré qu’il battait le GPU de Nvidia sur de très nombreuses charges de travail HPC. Intel entre donc sur ce marché. Et avec cet investissement en Europe, nous avons une feuille de route sur 5 ans, en augmentant tous les ans nos capacités dans ce domaine et en dépassant Nvidia sur ce terrain. C’est donc l’objectif du centre.

Face à AMD, qui a nettement renforcé sa position sur le marché ces dernières années, quels sont vos atouts ?

AMD a beaucoup mis l’accent sur la partie datacenter. Cette année, nous lançons notre CPU Xeon pour le HPC avec des capacités de mémoire à large bande passante. Nous sommes les seuls à avoir une mémoire à large bande passante [ndlr : HBM, high bandwidth memory] Et là aussi, au récent Investor Meeting, j’ai démontré que notre Xeon avec HBM [ndlr : Xeon Sapphire Rapids + HBM] est significativement plus rapide que le meilleur d’AMD [ndlr : Epyc Milan-X]. Donc, avec le Ponte Vecchio sur la partie GPU et le Xeon HBM sur la partie CPU, nous sommes très bien positionnés cette année pour reprendre notre leadership à la fois du côté des CPU et des GPU sur le marché HPC.

Comment Intel couple-t-il puces Xeon et GPU pour optimiser les performances ? 

Nos CPU, tels que nos prochains Sapphire Rapids, les Xeon HBM, disposent déjà d’une immense puissance de calcul. Et maintenant, quand nous faisons appel au GPU, le logiciel peut profiter des deux. Notre logiciel va utiliser les capacités d’opération en virgule flottante, les capacités d’opérations en nombres entiers et d’autres moteurs de mouvement de données sur le CPU aussi bien que sur le GPU, ce qui va apporter des bénéfices au logiciel de façon générale. Au-delà de cela, Intel a également piloté le standard CXL [ndlr : Compute Express Link]. Et dans les années à venir, nous ferons communiquer beaucoup plus étroitement le CPU et le GPU avec les accès à la mémoire persistante, etc. Nous avons également annoncé récemment une nouvelle architecture appelée Falcon Shores qui combine le CPU et le GPU sur le même socket. Tout cela va dans le sens d’une optimisation conjointe du CPU et du GPU par Intel.

Sur le versant logiciel, que propose Intel pour aider les développeurs à paralléliser leurs applications pour son GPU ?

Au fil des ans, Intel a fourni de nombreuses bibliothèques et outils pour paralléliser les applications pour les CPU, le multithreading, etc. Pendant 20 ans, Intel a été leader dans ce domaine. Pour les GPU, nous avons bâti cette technologie appelée oneAPI qui est ouverte, disponible pour tous et qui fonctionne même sur Nvidia et AMD. Ce que fait oneAPI, c’est prendre les 20 années de travail d’Intel sur les outils de parallélisation, programmation parallèle, profilage, débogage pour les apporter aux GPU afin de bénéficier de tout le travail déjà effectué pour les CPU. Donc oneAPI est là et gagne énormément en popularité. Et l’un de nos objectifs avec nos investissements en Europe est de faire progresser oneAPI, afin d’en augmenter l’adoption, de construire plus de bibliothèques pour en faciliter l’utilisation, et ainsi de suite.

Sur les technologies d’accélération du traitement de l’IA, qu’est-ce qui est déjà mis en oeuvre et qu’est-ce qui doit encore arriver ?

Sur l’IA, c’est au minimum un parcours de 20 ans qui s’engage et nous sommes sur les 5 premières années. Toutes les bases, comme l’apprentissage profond de petits réseaux au niveau d’un seul noeud ont eu lieu dans les 5 dernières années. Et l’étape suivante, qui est d’ailleurs également un domaine prioritaire de notre centre de R&D européen, est que les problèmes d’IA ne se limitent pas à un noeud, ni à 10 noeuds mais s’étendent sur des milliers de noeuds. C’est pourquoi nous avons besoin de traitements zettascale. Comment construire ces ordinateurs puissants pour ces grands réseaux IA de telle façon que l’on puisse les programmer de manière productive et très efficace ? Et c’est ce que nous attendons avec impatience avec ces nouvelles architectures comme Falcon Shores et autres initiatives zettascale que nous avons annoncées. Dans ce cadre, nous avons également mentionné la collaboration avec le Barcelona Supercomputing Center.

Concernant la réduction de la consommation énergétique des puces et les systèmes de refroidissement des serveurs, quels sont les avancées réalisées par Intel ?

Sur les aspects de la consommation d’énergie, dans la perspective du zettascale, nous avons fixé un objectif, très ardu, de multiplication par mille des performances sur les 5 prochaines années au même niveau de puissance électrique. Nous examinons 5 domaines. Le premier est l’architecture de l’ordinateur et la performance par watt. Le deuxième aspect concerne la mémoire et la façon dont nous déplaçons les données entre les différents éléments de calcul. Et de nos jours, la majeure partie de l’énergie est consommée pour déplacer les données et pas pour les traitements eux-mêmes. Donc, comment pouvons-nous réduire la quantité de données que nous déplaçons ? C’est une énorme opportunité. Le troisième aspect, que vous mentionnez, concerne le refroidissement thermique et la fourniture d’énergie. Nous examinons différentes initiatives. Et, de fait, il s’agit de domaines ciblés par nos centres de conception européens. Le 4ème aspect, c’est la prochaine génération de technologie de transistors qui va nous apporter de nombreux avantages. Et nous envisageons également un fonctionnement à très basse tension de ces transistors afin d’obtenir une efficacité énergétique ou une performance par watt très élevée. Toutes ces techniques vont faire l’objet d’une conception architecturale au cours des prochaines années.

Quelle place pour les accélérateurs réseaux ?

Sur les accélérateurs IPU [ndlr : Infrastructure processing unit] et SmartNIC, nous avons annoncé notre première génération dont nous avons détaillé l’architecture. Et nous avons une feuille de route sur plusieurs années complète sur notre IPU que nous voyons comme une catégorie très importante. Pas seulement pour le HPC mais aussi pour les data centers et pour l’informatique en périphérie.