Pour être certifié, un prestataire de cloud doit utiliser une plate-forme de virtualisation basée sur l'hyperviseur VMware ESX, Microsoft Hyper-V ou le propre hyperviseur de Red Hat, basé pour sa part sur KVM (Kernel Virtual Machine). «  NTT et IBM ont allongé la liste des partenaires certifiés et d'autres sont sur le point de le faire, » a-t-il précisé.

Fédérer et simplifier les API

Pour être en mesure de déplacer une charge de travail d'un centre de calcul vers un service cloud, ou même entre deux clouds, il faut une API (interface de programmation d'application), si bien que, actuellement, une multitude d'APIs différentes sont en cours de développement. Mais, selon Jim Whitehurst, il serait préférable qu'il y en ait moins. « En effet, le véritable défi ne réside pas dans l'API, mais plutôt à veiller à ce que l'application s'exécute en gardant les mêmes performances une fois qu'elle a été déplacée. » C'est exactement ce sur quoi Red Hat se concentre. « Mettre en place une API qui permette de déplacer la charge de travail ne représente que 10 % du processus, » indique Jim Whitehurst. Ce dernier précise également que la prochaine étape consistera la possibilité de migrer les licences en même temps que les charges de travail. En avril, Red Hat avait annoncé Cloud Access, qui permet aux entreprises d'utiliser leurs abonnements soit sur leurs serveurs sur site traditionnels, soit en hébergement sur les serveurs Elastic Compute Cloud d'Amazon.

Red Hat n'est pas la seule entreprise à vouloir permettre aux entreprises de répartir leur charge de travail entre les centres de calcul et les clouds. VMware, par exemple, est en train de développer vCloud Service Director, préalablement connu sous le nom de code Project Redwood.« Le produit, encore en beta test, devrait être livré avant la fin de l'année,» a déclaré Richard Garsthagen, principal promoteur de VMware en Europe, au Moyen-Orient et en Afrique.