Pour répondre à la plate-forme Xeon Phi d'Intel, Nvidia prévoit d'intégrer des coeurs ARM Tegra à ses cartes Tesla dédiées aux calculs scientifiques, ce qui est un changement de taille puisque ces dernières n'intégraient que des processeurs graphiques. Les cartes Tesla sont aujourd'hui destinées au calcul intensif et à l'accélération de certaines applications professionnelles. Les futures puces Tesla, combinant CPU et GPU pourraient ressembler aux processeurs Tegra de Nvidia pour smartphones et tablettes, qui combinent déjà une partie CPU ARM avec des processeurs graphiques GeForce mobiles. Mais les futures puces Tesla combineront des coeurs CPU avec des coeurs graphiques que l'on trouve généralement dans des cartes graphiques PCI.

«Dans un avenir pas si lointain, Tegra va devenir synonyme de GPU Computing. Au cours de cette décennie, nous allons ainsi commencer à intégrer CPU et GPU dans la ligne de Tesla», a déclaré Steve Scott, directeur de la technologie pour la ligne de produits Tesla chez Nvidia, dans une interview récente accordée à notre confrère Agam Shah d'IDG NS. Nvidia a refusé de préciser à quelle date les puces Tesla combineront CPU et GPU. Cependant le constructeur a licencié le design des puces ARMv8 reposant sur une architecture 64-bit, qui devraient être utilisées dans les serveurs, les smartphones et les tablettes. «Nous travaillons sur le projet Denver, qui vise à développer un noyau ARM très haute performance basé sur ARM64 qui pourra ensuite être utilisé dans la gamme des produits Nvidia », a déclaré un des porte-paroles de Nvidia, Hector Marinez, dans un courriel à notre confrère Agam Shah. ARM a annoncé mardi dernier ses premières puces 64 bits, les Cortex A57 et A53, qui équiperont des serveurs à partir de 2014. Ces noyaux processeurs ARM sont également issus de l'architecture ARMv8.

Des CPU déjà associés à des GPU

Certains des supercalculateurs parmi les plus performants au monde combinent déjà CPU et GPU pour des calculs scientifiques et mathématiques complexes. Le supercomputer Titan du laboratoire national d'Oak Ridge (ORNL) du ministère américain de l'Énergie associe 18 688 processeurs AMD Opteron 6274 avec 16 coeurs (épaulés par 700 To de RAM), et 18 688 puces graphiques Nvidia Tesla K20 pour livrer une puissance de calcul de 20 petaflops. Les GPU sont capables d'exécuter plus rapidement certaines applications scientifiques et mathématiques, tandis que les CPU sont meilleurs pour les traitements en série. En combinant sur une seule puce des CPU ARM économes en énergie et des GPU K20, Nvidia espère obtenir une meilleure intégration des composants pour offrir de meilleures performances  et réduire la consommation électrique des serveurs.

Les processeurs ARM de faible puissance sont aujourd'hui surtout présents dans les smartphones et les tablettes, mais il y a un intérêt croissant pour les serveurs ARM de la part des entreprises qui cherchent à réduire leur facture énergétique. L'an dernier, Nvidia avait indiqué qu'un supercalculateur prototype équipé de 1000 quad-core Tegra 3 était en construction au Supercomputing Center de Barcelone en Espagne. Les entreprises espèrent que les serveurs ARM à haut rendement énergétique pourront traiter de gros volumes de données liés aux requêtes web, à la recherche ou aux réseaux sociaux. Hewlett-Packard, Dell, Facebook et Amazon ont déjà exprimé leur intérêt et leur soutien aux serveurs ARM.

AMD propose déjà des puces intégrant CPU et GPU

AMD, cependant, a une longueur d'avance sur Nvidia, car il combine déjà des CPU et des GPU dans ses produits pour supercalculateurs. La carte graphique AMD FirePro A300 annoncée en août dernier associe processeurs x86 et GPU. Comme sur les puces Tegra, AMD combine également des puces x86 avec des noyaux graphiques Radeon dans ses processeurs des séries A-, C- et E- pour PC et Z-60 pour tablettes.

Assurer des performances satisfaisantes sur les supercalculateurs tout en gardant une faible consommation énergétique est un véritable défi, et à ce petit jeu les GPU sont plus rapides que les processeurs pour les applications complexes, a rappelé Steve Scott. «  Les CPU disposent d'un petit nombre de coeurs, ils sont grands, ils sont complexes et ils sont performants pour faire une seule tâche ou un petit nombre de tâches très rapidement. Les GPU possèdent des centaines de coeurs vraiment minuscules et économes en énergie », a déclaré Steve Scott. Une architecture informatique plus distribuée doit être adoptée pour améliorer les performances des transactions exécutées en parallèle sur des CPU et des GPU, a poursuivi le dirigeant. Environ 90% du travail du Titan sera réalisé sur les GPU et le code résiduel est exécuté sur les processeurs, a encore déclaré S. Scott. La facture d'énergie estimée pour Titan est de 10 millions de dollars par an, alors qu'une version pure CPU d'un Titan également à 20 pétaflops aurait été de 60 millions de dollars par an, selon les estimations de l'ORNL et de Nvidia.

[[page]]

Combiner le Tesla avec un processeur ARM 64 bits est une bonne idée, a déclaré Jim McGregor, analyste principal chez Tirias Research. Avec les processeurs ARM 64-bit, on adresse une plus grande quantité de mémoire qu'avec les puces ARM 32-bit actuelles (4 Go max), ce qui n'est pas suffisant pour les supercalculateurs. « La haute performance sur 32 bits, ce n'est tout simplement pas possible », a encore souligné M. McGregor. «C'est tout à fait logique si vous avez un 64-bit». Les futures puces Tesla pourraient être massivement parallèles avec un grand nombre de noyaux CPU et GPU. Ces processeurs pourraient être utiles dans les modèles de calcul hybride où certains traitements sont effectués localement et d'autres dans le cloud, a ajouté M. McGregor. Les coeurs ARM fournissent une combinaison efficace entre puissance et performance ; ils sont efficaces pour le traitement du trafic de données, et pourraient être utilisés pour des opérations de data mining  de données ou des transactions financières. Mais des processeurs x86 plus rapides - Intel ou AMD - pourront être toujours nécessaires pour des calculs scientifiques complexes, a dit l'analyse.

Les architectures de serveurs ont changé au fil des ans et la multiplication des coeurs a « répondu à la hausse de la quantité de données», selon M. McGregor qui conclut que le support logiciel est également important.