Consacré aux technologies du calcul haute performance (HPC), le Forum Teratec s'installe chaque début d'été à Palaiseau, sur le campus de l'Ecole Polytechnique. Organisé cette année les 1er et 2 juillet, une semaine après l'International Supercomputing Conference (22-26 juin à Leipzig), le Forum s'est ouvert sur l'actualité française du monde HPC, en l'occurrence le Plan Supercalculateurs dont la feuille de route a été validée le 7 mai dernier par le comité de pilotage mis en place par l'Etat. C'est l'un des 34 plans de la « nouvelle France industrielle » annoncés il y a dix mois par le Président de la République. Gérard Roucairol, chef de projet de ce plan, et Hervé Mouren, directeur de l'association Teratec, en ont rappelé les objectifs (voir à ce sujet notre visite du Campus Teratec en juin).

Brièvement résumé, ce plan vise à renforcer les capacités du calcul intensif et de la simulation numérique pour ses utilisateurs traditionnels et pour les entreprises et à étendre plus largement l'accès à ces ressources, via le cloud. Trois directions ont été fixées. La première porte sur la maîtrise des technologies critiques : nouvelles architectures matériel/logiciel, prochaines générations de logiciels et futurs supercalculateurs exaflopiques. La deuxième concerne les initiatives sectorielles : développement de la simulation pour la santé, les systèmes urbains, le végétal, les matériaux, les industries manufacturières, l'énergie et le multimédia. Le troisième objectif vise à diffuser vers les PME et ETI ces capacités de simulation (voir le calendrier du plan).

Les thèmes de recherche au niveau européen

Les réflexions menées à l'échelle européenne ont également été exposées sur le Forum Teratec par Jean-François Lavignon, directeur chez Bull et président de l'organisation ETP4HPC (European Technology Platform for HPC) qui regroupe environ 60 membres en Europe. Celui-ci a évoqué plusieurs thèmes de recherche identifiés pour le HPC dans des secteurs d'application utilisant des systèmes complexes, comme les smart grids, ces réseaux connectés de distribution d'électricité. « Plus de 34 pays européens sont interconnectés entre eux, la France ayant plus d'une trentaine de points de connexions avec ses voisins », a-t-il décrit. Sur la partie distribution aussi, la complexité est énorme. En Europe, 530 millions d'habitants sont connectés au réseau électrique. « Dans les années à venir, pour contrôler l'ensemble de ce système, il faudra à la fois prendre en compte les données acquises en temps réel, des modèles -dérivés notamment de la météorologie-, et puis des modèles d'usage construits au fur et à mesure de l'expérience », a expliqué Jean-François Lavignon. « Et il y a beaucoup à gagner car aujourd'hui production et transport d'électricité ne sont pas si efficaces que cela, aux Etats-Unis, 2/3 de l'électricité produite est perdue ».

Pour que le calcul intensif puisse s'y atteler, les recherches doivent porter sur de nouveaux algorithmes et sur des architectures capables d'intégrer ces flux de données. Ces avancées peuvent avoir un fort impact sur l'utilisation du HPC avec des retombées économiques très importantes. Elles sont applicables à d'autres secteurs, par exemple au contrôle des feux de forêt, couplées avec des modèles de simulation de la propagation du feu et des modèles météorologiques.

Les approches adaptées au parallélisme massif

Jean-François Lavignon a également évoqué les recherches à mener dans l'algorithmique pour exploiter les architectures extrêmement parallèles. « On arrivera sans doute à avoir besoin d'exprimer des problématiques de l'ordre du milliard d'opérations indépendantes à exécuter à chaque instant. C'est vrai pour les très grands systèmes, mais il y a aussi un effort à faire sur l'ensemble du domaine HPC pour faire progresser le marché, à tous les niveaux ».  Dans le domaine de la chimie, par exemple, pour connaître les propriétés d'un composé complexe (plusieurs dizaines d'atomes, plusieurs centaines d'électrons), on utilise pour l'instant des méthodes (DFT, Post-HF) nécessitant beaucoup de communications et donc très consommatrices de puissance CPU. Sur les très grosses machines, le facteur d'accélération décroit fortement au bout de quelques milliers ou dizaines de milliers de coeurs. 

Pour résoudre ces problèmes, les chercheurs se sont penchés sur d'autres méthodes, adaptées au parallélisme massif, et ont développé l'approche Monte-Carlo quantique. « Il y a encore beaucoup de problématiques théoriques sur la validation de ces méthodes, néanmoins c'est une piste très intéressante pour être capable de résoudre de très grands problèmes sur des machines qui seront à disposition dans quelques années », a souligné Jean-François Lavignon. « Et bien sûr, dans ce secteur de l'extrême parallélisme, il y a des travaux sur les modèles de programmation à développer en plus de ces algorithmes ». 

Le défi de la consommation électrique des systèmes

Autre grand défi du HPC, celui de la consommation électrique des systèmes. On a accru les performances par la loi de Moore et en complexifiant les systèmes, mais on n'a pas réussi à être constant sur la consommation. La machine la plus puissante nécessite aujourd'hui 18 megawatts, ce qui représente 110 fois la consommation électrique nécessaire il y a 20 ans pour la CM5 au Los Alamos National Lab, machine la plus puissante alors, a remis en mémoire Jean-François Lavignon. Des progrès importants ont été faits ces dernières années, mais c'est insuffisant. « Auparavant, nous demandions 1,7 watt quand la machine en utilisait un, essentiellement pour des problèmes d'alimentation et de refroidissement. » L'industrie du HPC s'est mobilisée et on a maintenant des solutions de l'ordre de 1,1. « Il faut aller plus loin et bien comprendre où passe l'énergie pour une application donnée », explique le président de ETP4HPC, parce que l'on s'aperçoit que, théoriquement, il n'en faut pas autant. 

[[page]]
Un projet est actuellement mené en coopération entre l'Université de Dresde et Bull pour mieux comprendre le lien entre performances et consommation d'énergie. Une des voies explorée également, c'est de réduire à un instant donné la consommation de certains composants de la machine parce qu'on ne va pas les utiliser après. « Il y a aussi des recherches à mener sur l'optimisation de l'exécution des applications », a ajouté Jean-François Lavignon. « Et puis, on ne progressera pas sans l'aide de  ceux qui connaissent les applications et peuvent donner des informations cruciales sur la façon dont le calcul doit se dérouler. C'est pour cela qu'il faudra développer de nouvelles interfaces, des API, qui permettront de fournir des informations exploitées ensuite par le système pour limiter sa consommation électrique sans impacter l'exécution de l'application ».

S'investir là où l'on peut être leader mondial

L'un des éléments soulignés par les acteurs industriels de ETP4HPC, a par ailleurs rappelé son président, "c'est qu'il faut s'engager sur les voies où on a une possibilité de devenir des leaders mondiaux". Cela veut dire que sur d'autres secteurs, il faudra coopérer. « Il y a aussi beaucoup à faire pour que l'innovation arrive sur le marché très rapidement pour que des PME européennes puissent se développer ». 

La Commission européenne a publié en février 2012 sa position pour le développement du HPC en Europe, en parallèle avec la préparation du programme Horizon 2020. Cette vision s'appuie sur trois piliers repris par le Conseil européen : une infrastructure de machines en pointe avec le projet PRACE, le développement des technologies et la création de centres d'excellence. Le projet PRACE totalise aujourd'hui une puissance crête cumulée de 15 Petaflops répartie sur six supercalculateurs, entre l'Allemagne, l'Espagne, l'Italie et la France, avec le Curie du Genci installé au CEA. Sur ce premier pilier, un appel à propositions a par ailleurs été lancé fin 2013 par la Commission européenne. Il reprend les thématiques proposées par l'ETP4HPC sur les modèles de programmation, les API, les algorithmes mathématiques, etc. Il est toujours possible d'y participer en répondant avant le 25 novembre 2014. Le budget qui lui est consacré s'élève à 97,4 millions d'euros. Un 2ème appel à proposition a été par ailleurs lancé pour établir des centres d'excellence. Celui-là court jusqu'au 14 janvier 2015, avec un budget de 82 millions d'euros.