Pour augmenter leurs capacités de traitement, l’Institut de Physique du Globe de Paris (IPGP) et l’Université de Paris/APC (AstroParticule et Cosmologie) se sont associés pour mettre en place une plateforme de calcul intensif d’une capacité de 298 téraflops (en pic) avec le soutien financier de la région Île-de-France pour moitié (1 million d’euros demandés dans le cadre du programme Sésame). Le budget total serait donc de 2 millions d’euros, dont 813 000 euros pour les équipements livrés par Lenovo. Baptisé Dante (pour multi Data ANalysis and compuTing Environment for science), ce système HPC a été développé par Lenovo avec le concours de NetApp pour la partie stockage externe. Lors de l’inauguration du calculateur Dante, le 7 octobre dernier, Marc Chassidon, directeur de l’IPGP, a précisé les attentes des chercheurs : un soutien fort en calcul est nécessaire pour aider les disciplines et sciences de l’univers (géoscience, astrophysique, et particules) pour développement des méthodologies de recherche. Le calcul massivement parallèle et l’apprentissage machine, mis en œuvre sur des plateformes HPC, permettent désormais l’étude et l’analyse de très grands jeux de données, et ainsi que la modélisation de systèmes de plus en plus complexes. Parmi les champs investis, citons le modèle numérique de la dynamo terrestre, et les corrélations croisées entre paires de récepteurs pour l’analyse du bruit sismique au Piton de la Fournaise.    

Les 56 serveurs rack 1U SR645 du cluster de calcul de Lenovo sont refroidis par air dans le pod de l'IPGP. (Crédit S.L.)

Pour remplacer son précédent système HPC, le S-Capad (100 nœuds avec 1800 cœurs, 700 To de stockage parallèle et 250 To de stockage persistant) conçu par Dell et en service depuis 2013, l’IPGP et l’APC ont donc retenu la proposition de Lenovo et de l’intégrateur NeoTeckno, qui se compose d'un cluster de calcul exploitant des serveurs SR645 (7168 cœurs au total avec des puces AMD Epyc Rome) avec un espace de stockage interne de 1 Po et d’une baie NAS DM7100H reposant sur une solution NetApp (1 Po mais 700 To utiles avec deux contrôleurs). Pas de flash NAND pour la partie stockage mais des disques durs pour une question de prix et de performances suffisantes. “Nous avons augmenté d’un facteur cinq nos capacités de calcul” a expliqué le directeur de l’IPGP, lors de la présentation du système Dante. Une étudiante de l’IPGP en Master2 nous a expliqué lors d’un court entretien avant la présentation de la solution, que pour ses travaux de recherche des calculs plus rapides permettaient de tester plus de modèles. L’usage peut être, par exemple, “de déduire les propriétés de la lave fondue à partie de leur composition. Ce qui peut intéresser l’industrie de la fibre optique qui utilise beaucoup de silice”. Le cœur des fibres optiques en verre est en effet constitué de silice, qui propage le signal lumineux. D'autres usages sont également envisagés en vulcanologie pour une meilleure approche de la dynamique éruptive ou pour le traitement et l’analyse d’images satellitaires haute résolution. “Véritable banc d’essai d’hypothèses scientifiques, Dante permet de tester de très grands jeux de données, que ces dernières soient issues de l’observation ou de modélisations numériques”, assure l’IPGP. 

 

Le financement du projet Dante a été assuré par moitié par les fonds du programme Sésame de la région Ile de France. (crédit S.L.) 

L'analyse des données au coeur du projet

Une part importante du projet Dante est également consacré à l’analyse ds données dans le cadre d’un programme assurant la convergence du HPC et du HPDA (High Performance Data Analytics) pour entrer de plain-pied dans la science des données. « Extraire de l’information de ces données massives permet de tester des hypothèses et de construire et affiner nos modèles » souligne Alexandre Fournier, responsable scientifique de la plateforme à l’IPGP. « Cet équipement offre de nouvelles opportunités numériques aux communautés des sciences de la Terre et de l’Univers, qui doivent participer à l’essor de méthodologies nouvelles et l’avancée de nos connaissances dans ces domaines », explique le chercheur dans un communiqué. La partie HPDA repose sur trois serveurs équipés de cartes accélératrices Nvidia A100, un serveur GPU frontal pour la compilation des traitements et enfin d’un serveur graphique pour afficher les résultats. “Le calcul parallèle et l’apprentissage machine, mis en œuvre sur des équipements de calcul intensif, permettent désormais l’étude et l’analyse de très grands jeux de données, et ainsi la modélisation de systèmes de plus en plus complexes” précise l’IPGP.  

Le machine learning et ses entrainements sont devenus indispensables dans les instituts de recherche comme l'IPGP. (Crédit S.L.)