Sur le terrain du calcul haute performance, Bull redouble d'efforts pour améliorer l'efficacité énergétique de ses supercalculateurs. Le constructeur national vient d'annoncer pour le deuxième trimestre 2012 le premier modèle de sa série bullx B700 DLC, pour Direct Liquid Cooling. Celui-ci recevra des lames double largeur équipées des futurs processeurs Xeon E5 (architecture Sandy Bridge) d'Intel. Bull indique que ce système est capable d'évacuer beaucoup plus de calories qu'un serveur lame classique (jusqu'à 80 kW par rack contre 40 kW actuellement), ce qui lui permettra aussi d'intégrer les prochaines générations d'accélérateurs de calcul (GPU) ou de processeurs MIC (many integrated core) d'Intel, multi coeur, ultra denses.

Le groupe français a par ailleurs annoncé sa série de lames de calcul bullx B510, destinée à des systèmes de quelques noeuds de calcul jusqu'aux HPC multi-pétaflopiques. Il indique que celles-ci ont déjà été retenues pour le supercalculateur Curie installé au centre TGCC, en France, ainsi que pour le système Helios pour F4E, à Rokkasho, au Japon, dans le cadre du projet ITER du CEA. Basée sur des noeuds de calcul bi-socket regroupés par paire sur une lame, la série bullx B510 offre une puissance en crête supérieure à 37 Tflops par rack. Elle s'appuie sur des processeurs Xeon E5 d'Intel, avec une capacité mémoire pouvant aller jusqu'à 256 Go par lame. L'interconnexion entre les noeuds est assurée par des liens InfiniBand QDR ou FDR. Les lames bullx B510 seront commercialisées de façon générale au premier trimestre 2012, lorsque les processeurs Xeon E5 seront disponibles.

Châssis bullx
Le châssis bullx 7U reçoit 9 lames doubles, soit 18 noeuds de calcul  (crédit photo : Bull)

Un circuit d'eau à température ambiante

Pour réduire l'énergie consommée par ses systèmes, Bull utilisait déjà la technologie de porte froide. Avec la technologie DLC, ses équipes de R&D ont tablé sur un principe de refroidissement qui évacue la chaleur par un liquide situé au plus près des composants qui la génèrent. « Le refroidissement s'effectue à l'intérieur de la lame, par contact direct entre les composants chauds (processeurs, mémoires...) et une plaque froide dans laquelle circule un liquide caloporteur », explique le constructeur dans un communiqué. Dans la mesure où les processeurs fonctionnent à plus de 50° et les disques SSD à plus de 40°, un circuit d'eau à température ambiante suffit pour assurer le refroidissement. Le système peut donc être raccordé au circuit d'eau du site. En évitant de devoir produire de l'eau froide, on réduit d'autant la consommation électrique.

Un indicateur PUE réduit à 1,1

L'ensemble de ces dispositifs permet d'atteindre pour le système un indicateur d'efficacité énergétique (PUE*) de 1,1 dans des conditions normales d'utilisation, contre 1,8 pour les datacenters qui doivent recourir à d'autres équipements électriques, en particulier des climatiseurs. Bull précise en outre que ces serveurs présentent un niveau sonore très inférieur à celui des systèmes refroidis par air.

L'armoire bullx DLC a une capacité de montage de 42U (202 x 60 x 120 cm). Ses châssis 7U peuvent contenir 9 lames doubles, soit 18 noeuds de calcul. Le bullx B710 DLC fonctionne sous Red Hat Enterprise Linux et la suite bullx supercomputer.

(*) Le PUE (power usage effectiveness) mesure le ratio entre l'énergie consommé par l'ensemble de l'installation et l'énergie réellement consommée par les serveurs, établie à 1.

Illustration : bullx (crédit : Bull)