A la Supercomputing Conference 2011 (SC11) qui se tient à Seattle du 12 au 18 novembre, l'objectif de parvenir au calcul exaflopique (exascale en anglais) dans la décennie, semble presque obsessionnel. Cette puissance de calcul multiplie par 1000 tout ce qui existe dans ce domaine aujourd'hui. Pour la plupart d'entre nous, une perspective à huit ou neuf ans est de l'ordre du long terme. Mais à la SC11, l'horizon de la décennie est déjà en vu. Une partie de la pression vient du département Américain de l'Énergie (DOE), lequel s'est engagé à financer ces énormes systèmes. Cet été, le DOE avait déclaré aux industriels qu'il voulait disposer d'un système exaflopique autour de 2019-2020, et que celui-ci ne devait pas consommer plus de 20 MW. Depuis, le gouvernement étudie les propositions sur la manière d'y parvenir.

Pour ce qui est de l'exigence de consommation de 20 MW, il y a déjà le supercalculateur qu'IBM construit pour le Lawrence Livermore National Laboratory, un laboratoire du Département de l'Énergie. En terme de puissance, ce système sera capable d'atteindre les 20 pétaflops (20 millions de milliards d'opération par seconde). Ce sera l'un des plus grands supercalculateurs au monde, mais aussi l'un des plus économes en énergie. Sauf que l'année prochaine, date à laquelle il sera complètement achevé et opérationnel, il consommera toujours entre 7 à 8 MW, selon IBM. Comparativement, un système exaflopique fournit une puissance de calcul de 1 000 pétaflops (soit mille millions de milliards d'opérations en virgule flottante par seconde). « Le monde dans lequel nous vivons désormais nous impose des contraintes en terme d'énergie, » a déclaré Steve Scott, CTO en charge de l'activité Telsa au sein de Nvidia Corp. « Si bien que la performance que nous pouvons obtenir sur un puce est limitée, non pas par le nombre de transistors que nous pouvons y mettre, mais plutôt par sa consommation énergétique. »

Combiner CPU et GPU pour améliorer le rendement énergétique

Selon le CTO, l'informatique x86 est limitée par ses processus de traitement qui impliquent des surconsommations. Alors que les processeurs graphiques, GPU, peuvent fournir du débit avec très peu de surcharge, et en consommant moins d'énergie par opération. Nvidia a construit des systèmes de calcul haute performance HPC avec ses GPU et des CPU provenant souvent de chez AMD. Une autre approche hybride, impliquant un GPU et  un CPU, commence à se retrouver avec des processeurs ARM, un type de puce largement répandu dans les smartphones et les tablettes. Steve Scott pense que l'objectif de 20 MW demandé par le DOE peut être atteint en 2022. Mais si le programme exascale que veut lancer le gouvernement est accompagné par des financements, alors Nvidia pourrait mettre plus de ressources dans les circuits et les architectures. Dans ce cas, l'objectif pourrait être atteint en 2019. Selon le CTO de Nvidia, pour atteindre ce niveau d'efficacité, il faudra améliorer l'usage énergétique de 50 fois. Par ailleurs, si 20 MW semblent une puissance encore élevée, Steve Scott fait remarquer que les installations de cloud computing nécessitent jusqu'à 100 MW pour fonctionner.

Rajeeb Hazra, directeur général de l'activité Technical Computing chez Intel, avait déclaré que le fondeur comptait satisfaire aux exigences d'un exascale à 20 MW d'ici 2018, soit avec un an d'avance sur les attentes du gouvernement américain. Celui-ci avait apporté cette précision lors de l'annonce du processeur 50 coeurs Knights Corner, capable de fournir une puissance soutenue de 1 téraflop. Alors que les fabricants de matériel doivent résoudre des questions liées à la consommation d'énergie et à la performance, l'exaflopique, comme l'informatique pétaflopique, confronte les utilisateurs HPC à des défis de mise à l'échelle des codes, nécessaires pour utiliser ces systèmes à leur pleine capacité. Avant l'exascale, les fabricants vont produire des systèmes de l'ordre de la centaine de pétaflops, comme IBM, par exemple, qui affirme que son nouveau système Blue Gene/Q fournira une puissance de 100 pétaflops.

Pour l'heure, Kim Cupps, chef de la division informatique et directeur du projet Séquoia au Lawrence Livermore, se dit comblé, avec son système de 20 pétaflops à venir. « Nous sommes ravis d'avoir bientôt cette machine, » a t-il déclaré. « Grâce à ce système, nous allons résoudre de nombreux problèmes d'importance nationale, qui ce soit dans le domaine de la modélisation des matériaux, l'armement, le changement climatique et l'énergie.» Quant à l'annonce par IBM d'un système à 100 pétaflops. « C'est IBM qui le dit ! Je me porte garant pour 20 pétaflops ! » a t-il répondu.