Financé par les laboratoires Sandia, la US National Science Foundation, et réalisé en collaboration avec des chercheurs de Northwestern University d'Evanston, Illinois, et de l'Université du Nouveau-Mexique, ce projet a pour but « de créer avec les machines virtuelles un environnement plus souple pour les utilisateurs de super ordinateurs, sans sacrifier les performances ni l'évolutivité, »  comme l'a déclaré Kevin Pedretti, le chercheur qui dirige le projet chez Sandia. Ce n'est pas la première fois que Sandia teste la virtualisation de supercalculateur. L'été dernier, deux chercheurs de Sandia ont étudié l'utilisation de l'hyperviseur Linux Lguest pour lancer 1 million de noeuds sur un autre supercalculateur de Sandia, afin de reproduire un botnet massif, pour affiner certaines recherches. Mais jusqu'à présent, le supercomputing ne s'intéressait guère à la virtualisation. Selon Kevin Pedretti, il s'agirait même du premier essai systématique de virtualisation pour les plates-formes HPC (calcul haute performance). « La communauté HPC, dans sa sagesse très conventionnelle, jugeait le coût de la virtualisation trop important par rapport à son utilité», a convenu Kevin Pedretti, dans une interview par email. « Nous espérons montrer qu'il est possible d'obtenir des coûts raisonnables avec une machine virtuelle pour des applications scientifiques de toute nature, y compris celles nécessitant une exécution à grande échelle ». Kevin Pedretti soutient que la virtualisation pourrait s'avérer précieuse pour les chercheurs souhaitant faire des simulations à grande échelle ou des calculs intensifs, car ils ne seraient plus tenus d'utiliser uniquement les applications s'exécutant sur les systèmes des super ordinateurs. Les tests ont montré que les programmes virtualisés fonctionnaient à 95 pour cent de la vitesse du calculateur.