Financé par les laboratoires Sandia, la US National Science Foundation, et réalisé en collaboration avec des chercheurs de Northwestern University d'Evanston, Illinois, et de l'Université du Nouveau-Mexique, ce projet a pour but « de créer avec les machines virtuelles un environnement plus souple pour les utilisateurs de super ordinateurs, sans sacrifier les performances ni l'évolutivité, »  comme l'a déclaré Kevin Pedretti, le chercheur qui dirige le projet chez Sandia. Ce n'est pas la première fois que Sandia teste la virtualisation de supercalculateur. L'été dernier, deux chercheurs de Sandia ont étudié l'utilisation de l'hyperviseur Linux Lguest pour lancer 1 million de noeuds sur un autre supercalculateur de Sandia, afin de reproduire un botnet massif, pour affiner certaines recherches. Mais jusqu'à présent, le supercomputing ne s'intéressait guère à la virtualisation. Selon Kevin Pedretti, il s'agirait même du premier essai systématique de virtualisation pour les plates-formes HPC (calcul haute performance). « La communauté HPC, dans sa sagesse très conventionnelle, jugeait le coût de la virtualisation trop important par rapport à son utilité», a convenu Kevin Pedretti, dans une interview par email. « Nous espérons montrer qu'il est possible d'obtenir des coûts raisonnables avec une machine virtuelle pour des applications scientifiques de toute nature, y compris celles nécessitant une exécution à grande échelle ». Kevin Pedretti soutient que la virtualisation pourrait s'avérer précieuse pour les chercheurs souhaitant faire des simulations à grande échelle ou des calculs intensifs, car ils ne seraient plus tenus d'utiliser uniquement les applications s'exécutant sur les systèmes des super ordinateurs. Les tests ont montré que les programmes virtualisés fonctionnaient à 95 pour cent de la vitesse du calculateur. [[page]] Pour réaliser ces essais, les chercheurs ont obtenu 12 heures de temps dédiées sur le super calculateur Red Storm de Sandia (248 Tflops). Construit sur une base Cray XT4 tournant sous Linux, Red Storm, classé 17ème supercalculateur le plus puissant du monde par Top500.org, est doté de 12 960 processeurs de type AMD Opteron (6720 double coeurs et 6240 quadri coeurs soit un total de 38 400 coeurs). Le système a été utilisé pour réaliser un calcul de 204 TFlops (mille milliards d'opérations en virgule flottante par seconde). Ici, les tests de virtualisation effectués sur les 6 240 noeuds de calcul quadri coeurs, ont consisté à faire tourner les applications en modes réels et virtuels. Le test de référence a été réalisé dans l'environnement Red Storm natif, lequel utilise un système d'exploitation allégé, Catamount Lightweight Kernel (LWK). Pour effectuer le test virtuel, les chercheurs ont démarré leur propre version de LWK - en fait la prochaine génération du système Catamount , prénommée Kitten - sur Red Storm. Pour exécuter la machine virtuelle, Kitten a été auparavant intégré à Palacios, la machine virtuelle développée par la Northwestern University, et l'Université du Nouveau-Mexique. Les machines virtuelles ont ensuite booté sur Catamount comme OS invités. Les applications de test ont été ensuite lancées depuis l'outil de démarrage des applications inclus dans Red Storm, conformément au protocole standard. « Du point de vue de l'utilisateur, il n'y a pas de différence visible par rapport à l'environnement logiciel habituel de Red Storm, » a indiqué Pedretti. Différents types de programmes ont été testés, y compris de simples opérations d'analyse comparative et deux applications opérationnelles, le code de simulation CTH propre à Sandia et un logiciel de simulation hydrodynamique, SAIC Adaptive Grid Eulerian (SAGE). Les programmes ont été progressivement exécutés sur deux et jusqu'à 6 240 noeuds, en fonction du programme. Les chercheurs ont décidé de tester uniquement la solution de virtualisation développée pour les environnements de calcul HPC parce que les logiciels de virtualisation ordinaire, tel que Xen, sont plus orientés vers la consolidation des serveurs plutôt que vers le calcul informatique à haute performance. L'utilisation du logiciel HPC permet aux chercheurs d'affiner leurs réglages à un degré que ne permettraient pas les hyperviseurs ordinaires.