Consacré aux technologies du calcul haute performance (HPC), le Forum Teratec s'installe chaque début d'été à Palaiseau, sur le campus de l'Ecole Polytechnique. Organisé cette année les 1er et 2 juillet, une semaine après l'International Supercomputing Conference (22-26 juin à Leipzig), le Forum s'est ouvert sur l'actualité française du monde HPC, en l'occurrence le Plan Supercalculateurs dont la feuille de route a été validée le 7 mai dernier par le comité de pilotage mis en place par l'Etat. C'est l'un des 34 plans de la « nouvelle France industrielle » annoncés il y a dix mois par le Président de la République. Gérard Roucairol, chef de projet de ce plan, et Hervé Mouren, directeur de l'association Teratec, en ont rappelé les objectifs (voir à ce sujet notre visite du Campus Teratec en juin).

Brièvement résumé, ce plan vise à renforcer les capacités du calcul intensif et de la simulation numérique pour ses utilisateurs traditionnels et pour les entreprises et à étendre plus largement l'accès à ces ressources, via le cloud. Trois directions ont été fixées. La première porte sur la maîtrise des technologies critiques : nouvelles architectures matériel/logiciel, prochaines générations de logiciels et futurs supercalculateurs exaflopiques. La deuxième concerne les initiatives sectorielles : développement de la simulation pour la santé, les systèmes urbains, le végétal, les matériaux, les industries manufacturières, l'énergie et le multimédia. Le troisième objectif vise à diffuser vers les PME et ETI ces capacités de simulation (voir le calendrier du plan).

Les thèmes de recherche au niveau européen

Les réflexions menées à l'échelle européenne ont également été exposées sur le Forum Teratec par Jean-François Lavignon, directeur chez Bull et président de l'organisation ETP4HPC (European Technology Platform for HPC) qui regroupe environ 60 membres en Europe. Celui-ci a évoqué plusieurs thèmes de recherche identifiés pour le HPC dans des secteurs d'application utilisant des systèmes complexes, comme les smart grids, ces réseaux connectés de distribution d'électricité. « Plus de 34 pays européens sont interconnectés entre eux, la France ayant plus d'une trentaine de points de connexions avec ses voisins », a-t-il décrit. Sur la partie distribution aussi, la complexité est énorme. En Europe, 530 millions d'habitants sont connectés au réseau électrique. « Dans les années à venir, pour contrôler l'ensemble de ce système, il faudra à la fois prendre en compte les données acquises en temps réel, des modèles -dérivés notamment de la météorologie-, et puis des modèles d'usage construits au fur et à mesure de l'expérience », a expliqué Jean-François Lavignon. « Et il y a beaucoup à gagner car aujourd'hui production et transport d'électricité ne sont pas si efficaces que cela, aux Etats-Unis, 2/3 de l'électricité produite est perdue ».

Pour que le calcul intensif puisse s'y atteler, les recherches doivent porter sur de nouveaux algorithmes et sur des architectures capables d'intégrer ces flux de données. Ces avancées peuvent avoir un fort impact sur l'utilisation du HPC avec des retombées économiques très importantes. Elles sont applicables à d'autres secteurs, par exemple au contrôle des feux de forêt, couplées avec des modèles de simulation de la propagation du feu et des modèles météorologiques.

Les approches adaptées au parallélisme massif

Jean-François Lavignon a également évoqué les recherches à mener dans l'algorithmique pour exploiter les architectures extrêmement parallèles. « On arrivera sans doute à avoir besoin d'exprimer des problématiques de l'ordre du milliard d'opérations indépendantes à exécuter à chaque instant. C'est vrai pour les très grands systèmes, mais il y a aussi un effort à faire sur l'ensemble du domaine HPC pour faire progresser le marché, à tous les niveaux ».  Dans le domaine de la chimie, par exemple, pour connaître les propriétés d'un composé complexe (plusieurs dizaines d'atomes, plusieurs centaines d'électrons), on utilise pour l'instant des méthodes (DFT, Post-HF) nécessitant beaucoup de communications et donc très consommatrices de puissance CPU. Sur les très grosses machines, le facteur d'accélération décroit fortement au bout de quelques milliers ou dizaines de milliers de coeurs. 

Pour résoudre ces problèmes, les chercheurs se sont penchés sur d'autres méthodes, adaptées au parallélisme massif, et ont développé l'approche Monte-Carlo quantique. « Il y a encore beaucoup de problématiques théoriques sur la validation de ces méthodes, néanmoins c'est une piste très intéressante pour être capable de résoudre de très grands problèmes sur des machines qui seront à disposition dans quelques années », a souligné Jean-François Lavignon. « Et bien sûr, dans ce secteur de l'extrême parallélisme, il y a des travaux sur les modèles de programmation à développer en plus de ces algorithmes ». 

Le défi de la consommation électrique des systèmes

Autre grand défi du HPC, celui de la consommation électrique des systèmes. On a accru les performances par la loi de Moore et en complexifiant les systèmes, mais on n'a pas réussi à être constant sur la consommation. La machine la plus puissante nécessite aujourd'hui 18 megawatts, ce qui représente 110 fois la consommation électrique nécessaire il y a 20 ans pour la CM5 au Los Alamos National Lab, machine la plus puissante alors, a remis en mémoire Jean-François Lavignon. Des progrès importants ont été faits ces dernières années, mais c'est insuffisant. « Auparavant, nous demandions 1,7 watt quand la machine en utilisait un, essentiellement pour des problèmes d'alimentation et de refroidissement. » L'industrie du HPC s'est mobilisée et on a maintenant des solutions de l'ordre de 1,1. « Il faut aller plus loin et bien comprendre où passe l'énergie pour une application donnée », explique le président de ETP4HPC, parce que l'on s'aperçoit que, théoriquement, il n'en faut pas autant.