Lors de la conférence GTC 2018 organisée la semaine dernière (26-29 mars) par Nvidia dans la Silicon Valley, le Dr Paul Richmond, Software Research Engineer à l'Université de Sheffield, a expliqué à nos confrères de Computerworld UK que les chercheurs utilisaient de plus en plus les GPU pour effectuer des calculs plus complexes. « Nous pouvons simuler des systèmes immunitaires humains à l’échelle, les exécuter assez rapidement et explorer différents paramètres autour d’un type d'interventions pouvant produire des propriétés émergentes », a-t-il expliqué. « Dans le cas présent, il s’agissait d’identifier un résultat positif comme la rémission d’une maladie et autres ».

Des études de cas

Autre exemple, l'université du Yorkshire du Sud a engagé avec Siemens Rail Automotive un projet pour développer un simulateur multimodal avancé. Le Dr Richmond a expliqué que la simulation permettait de relier des modèles existants du réseau ferroviaire à un modèle plus complexe de systèmes qui analyse la circulation des piétons dans une gare, lequel sera par la suite relié aux modèles du réseau routier londonien Transport for London. Les chercheurs peuvent ainsi commencer à relier toutes ces voies de circulation entre elles. « Nous avons pu observer que lorsque les trains sont retardés à l'intérieur de la gare, il y a beaucoup de monde sur le quai. En intégrant directement cette donnée au modèle des horaires ferroviaires, on peut voir l’effet d'entraînement et les autres congestions que cela provoque », a expliqué M. Richmond.

« Ces évènements, très étroitement liés entre eux, n'ont jamais vraiment été associés dans le passé. C'est la même chose avec les routes et les simulations de la circulation des piétons. Nous cherchons actuellement avec Siemens comment exploiter plus avant ces modèles sur lesquels nous travaillons depuis environ un an », a-t-il ajouté. L'université de Sheffield travaille également avec le cabinet de consultants Atkins Global pour mieux simuler ce qui se passe dans les villes. En partenariat avec la Highways Agency, les chercheurs suivent le développement d’un logiciel utilisé pour la planification stratégique de l'infrastructure et voir sur quels trajets routiers il serait nécessaire d’investir. « Ce partenariat leur permet d’accéder à l'accélération GPU », a déclaré Paul Richmond. « À l’origine, il fallait 12 heures pour que le logiciel exécute ses séries, et avec les GPU, nous avons pu descendre à huit minutes. C’est donc une très grande satisfaction pour nous ».

Les GPU en action

En 2017, l'université a acheté un poste de travail DGX-1, considéré par Nvidia comme un supercalculateur personnel. Parallèlement, l’université s'est associée à la Joint Academic Data Science Endeavour (JADE) - la plus grande concentration de GPU du Royaume-Uni - et à d'autres universités pour augmenter ses capacités de deep learning et sa recherche en IA. Le Dr Richmond a commencé à développer son logiciel sur des GPU grand public, puis il l’a déployé sur des hardwares plus spécialisés de type P100, V100 et Titan V, avant d’arriver chez JADE, dont le système est composé de 23 DGX-1. L'université utilise principalement le DGX-1 pour ses recherches en intelligence artificielle, mais, pour 1/4 du temps environ, il sert à des simulations de calcul haute performance. Lors du dernier GTC, Nvidia a annoncé un nouveau système DGX-2, mais l'université devrait conserver sa configuration actuelle pour l’instant. « Nous étalons nos mises à jour matérielles sur des cycles de deux ou trois ans », a dit M. Richmond. « Nous venons de dépenser entre 3 et 4 millions de livres sterling pour acquérir le DGX-1. Compte tenu du prix, assez élevé, du DGX-2, il est peu probable dans l’immédiat que nous nous engagions dans une mise à niveau ».

Les avantages des puces Nvidia

La plupart des chercheurs britanniques font encore tourner leur code sur des systèmes basés sur des CPU. L’accès des chercheurs de l’Université de Sheffield à des systèmes GPU a eu un impact très profitable sur leurs recherches. « Aux États-Unis et en Chine, les grandes institutions tournent déjà sur des systèmes GPU », a déclaré M. Richmond. Ce qui n’est pas le cas au Royaume-Uni, où les chercheurs exécutent encore de vieux bits de code sur des processeurs classiques. « Nous avons investi dans ces boîtes de niveau Tier 2. C’est un peu expérimental. Si notre partenariat avec JADE donne de bons résultats, nous pourrons peut-être passer à un niveau supérieur. Il n’est donc pas impossible qu’à la prochaine mise à jour matérielle, notre superordinateur ARCHER tourne sous DGX-2 ou DGX-3 ! »