Le système HPC bullx annoncé aujourd'hui par Bull s'adresse à la clientèle bien particulière des entreprises friandes de simulation numérique. Ce type d'applications particulièrement complexe simule la réalité pour mieux la comprendre et est insatiable en ce qui concerne la puissance machine. Les utilisateurs potentiels sont aussi bien les industries automobile, l'aéronautique, l'exploration pétrolière, les finances, le nucléaire, les laboratoires scientifiques, la médecine, la climatologie, la défense, etc. La clientèle ne manque pas et son besoin en puissance est toujours croissant. « Un supercalculateur qui n'est pas utilisé aujourd'hui, ça n'existe pas, » insiste Fabio Gallo, responsable HPC de Bull. Après avoir examiné de près les besoins de ses clients, le constructeur français a opté pour des clusters Xeon 5500 qu'il a poussés dans leurs derniers retranchements. « Aucun compromis », selon Bull. Tous les moyens ont aussi été utilisés pour donner au système une performance énergétique optimale.

Bull a veillé aux exigences de ses clients HPC

Pour concevoir bullx en allant au-delà de la seule puissance, Bull a identifié une série de besoins auprès de ses clients. Pour commencer, ceux-ci veulent que le système soit capable d'une performance soutenue tout au long de l'exécution d'une application et pas uniquement d'une performance de crête, obtenue uniquement dans certaines conditions. Les entreprises sont aussi attachées à l'efficacité énergétique. Inutile de préciser que l'enveloppe énergétique d'un supercalculateur n'échappe pas à la forte croissance qui frappe toutes les infrastructures serveurs. De fait, pas question de gâcher le moindre watt.
Autre exigence des clients Bull dans le HPC, la protection de leur investissement. De telles infrastructures de supercalcul ne se changent pas tous les deux ans. Les technologies mises en place doivent donc être les plus avancées du moment. Les industriels et les laboratoires ont aussi interpellé le constructeur sur l'utilisation de technologies spécialisées pour l'accélération du calcul technico-scientifique. La performance des processeurs graphiques est ainsi désormais considérée comme intéressante d'autant qu'elle n'augmente que très peu la consommation électrique de l'ensemble du système. « Mais la facilité d'utilisation dans ces systèmes HPC n'était pas leur point fort, et nous devions travailler sur le sujet », précise Fabio Gallo. Enfin, tous les clients concernés ont exigé de Bull pour leur supercalculateur, la facilité d'installation, d'utilisation et de gestion, ainsi que la fiabilité.

Des lames purement Xeon 5500 et des lames avec GPU

« Nous avons donc tout simplement développé une nouvelle architecture, raconte Fabio Gallo. Elle est exclusivement conçue pour la simulation numérique, et de ce fait, elle est sans compromis. » Bull n'a pas souhaité faire de concession au supercalcul et à l'optimisation de la puissance pour garder une configuration qui pourrait servir à d'autres utilisations que la simulation. « Si on se frotte à l'optimisation de la performance, il faut une architecture idoine du système de mémoire, il faut utiliser le chipset le plus performant. A tout moment de la conception du système, nous avons gardé en tête la performance applicative et l'élimination de tous les goulets d'étranglement qu'elle implique. »

Les lames de bullx s'appuient sur l'architecture de processeur Xeon 5500 d'Intel (ex Nehalem). Mais Bull a donc choisi les puces les plus rapides de la gamme produites par Intel. « Nous avons aussi opté pour l'architecture mémoire la plus performante possible pour les noeuds, détaille Fabio Gallo. Nous installons des Xeon 5500 avec le nombre maximum de canaux de mémoire, c'est à dire 3 par processeur, et avec 2 barrettes par canal. » Mais l'innovation principale du système réside dans le mélange, dans les mêmes armoires, de lames traditionnelles contenant uniquement des Xeon 5500 avec des lames spécialisées intégrant à la fois le processeur d'Intel et un GPU (Graphical processor unit) Nvidia. « L'intégration des deux parties peut être le point qualifiant du système », insiste Fabio Gallo. Il s'agit en effet pour l'entreprise utilisatrice du système de trouver le bon point d'équilibre en fonction de ses applications. Les processeurs graphiques sont connectés via une interface PCI Express et l'architecture des lames est conçue pour que la bande passante entre les deux puces, standard et graphique, soit maximale. « Normalement, il n'y a qu'un chipset pour le serveur, et les deux processeurs bisockets utilisent le même, détaille Fabio Gallo. Pour nos lames spécialisées, nous utilisons deux chipsets pour que chaque processeur ait un accès dédié vers l'accélérateur. »

Le commutateur Infiniband directement dans le fond de panier

Comme toute médaille a son revers, ce type d'architecture totalement nouvelle implique pour être utilisé au mieux la mise au point de nouvelles applications spécifiques ou le portage des anciennes. « Sur les lames accélérées, nous travaillons depuis un an au portage et à l'optimisation des applications avec nos clients, confirme Fabio Gallo. Pour certaines applications bien structurées, nous pouvons obtenir un facteur d'accélération de 10. Il faut identifier les parties de code qui se prêtent à ce type d'accélération, ensuite il faut procéder à leur portage et à leur compilation avec des méthodes légèrement différentes sur l'accélérateur. »
[[page]]
Bull propose un système HPC conçu pour la simulation
Page précédente : 1/2

Le choix des processeurs n'est pas la seule amélioration du système. Ainsi, le commutateur Infiniband est-il intégré directement dans le fond de panier et non pas installé en tant qu'élément isolé. Un moyen évident d'économiser de l'espace et de limiter le câblage, mais pas seulement. Les performances devraient là encore être au rendez-vous, et également améliorées. Pour commencer, la distance entre le commutateur et les serveurs est réduite. « Les réseaux très haut débit sont aussi très sensibles au rayon de courbure des câbles, rappelle Fabio Gallo. Si une intervention doit avoir lieu sur le système, leur manipulation peut avoir un impact sur la fiabilité. » Le réseau Infiniband est utilisé en mode QDR (Quad Data Rate), le plus performant actuellement disponible.

La suite d'administration s'appuie sur des briques libres

Enfin, avec un système aussi complexe, une suite d'administration s'imposait. Bull en a mis une au point qui s'appuie en majorité sur des composants libres. Cet outil réduit la complexité du cluster en proposant un point de contrôle unique pour le matériel. La base d'inventaire Cluster DB recense tous les composants du cluster et identifie précisément, en cas de problème, quel câble ou quelle barrette mémoire sont concernés.

Au final, chaque châssis (7U) contenant 18 lames bullx peut atteindre près de 1,7 Tflops. Dans chaque châssis, on compte une rangée de 8 lames et une rangée de 10 dont les commutateurs, les écrans, les ventilateurs. « Le nombre de 18 n'a pas été choisi au hasard, précise d'ailleurs Fabrice Gallo. Le commutateur Infiniband QDR dispose de 36 ports, soit 18 entrées et 18 sorties. » Là encore, il s'git d'optimiser. Chaque armoire (42U) peut accueillir jusqu'à 6 châssis et représentera une puissance totale d'environ 10 Tflops.

Une porte de refroidissement à l'eau

Economie et écologie obligent, de telles configurations, aussi puissantes, ne se conçoivent plus sans optimiser la consommation électrique et la gestion thermique. Pour limiter à la fois la dissipation de chaleur et éviter les systèmes de climatisation chers et consommateurs d'énergie, Bull, comme IBM l'a déjà fait, remet au goût du jour les systèmes de refroidissement à eau. Il installe des portes à eau à l'arrière des armoires (qui consomment jusqu'à 40 kW). La chaleur est absorbée par ces portes et est transmise par un fluide. Ces cloisons intègrent par ailleurs des capteurs et des systèmes de contrôle qui permettent aux ventilateurs de marcher ou pas. Ce sont eux qui renvoient l'air dans la salle à la même température que lorsqu'il est entré. Les ventilateurs servent à garantir que le flux d'air ne soit pas interrompu. Selon le constructeur français, ces éléments installés directement sur les systèmes sont, par essence, bien plus ciblés que le refroidissement complet de la salle qui héberge l'infrastructure. Un ciblage qui se traduirait par une efficacité accrue de près de 75% et une économie d'énergie augmentée d'autant. Par ailleurs, le système devrait pouvoir supporter une température de ... 35°C. L'absence de panne reste à prouver, dans ce cas.

Survivre à des 'burn out'

Des dispositifs intégrés permettent aussi aux lames de survivre à des 'burn out' ce qui évite de faire appel à des onduleurs, appareils qui introduisent selon Bull entre 10 et 20% de perte de la puissance électrique. Les 'burn out' sont des interruptions d'alimentation de quelques fractions de secondes qui sont à l'origine des pannes non prévues les plus fréquentes des systèmes. Le dispositif qui pallie ce problème est un condensateur avec un système de contrôle qui intervient en cas de microcoupure. Les noeuds de calcul qui représentent 90% de la puissance électrique consommée par la configuration continuent de fonctionner, même sans onduleur. Seuls les noeuds destinés à l'administration restent équipés d'onduleurs, mais leur consommation représente un faible pourcentage.

Pour ce qui est du prix, les estimations sont toujours particulièrement difficiles avec ce style de configurations modulaires et haut de gamme. « Sur des systèmes départementaux, modestes, on peut démarrer en dessous de 100 000 euros, et pour les plus grands systèmes, on atteindra plusieurs dizaines de millions d'euros », précise néanmoins Fabio Gallo... Le premier client bullx est l'Université de Cologne en Allemagne.