Même en demandant des informations techniques à un commercial avant-vente ou directement aux constructeurs, vous n'obtiendrez pas de réponse précise sans une évaluation détaillée de la charge de travail que vous envisagez de mettre sur le serveur. Bien qu'il n'y ait pas vraiment de règles rapides au sujet de la question matérielle, une démarche peut vous aider à obtenir des réponses suffisamment proches pour déceler les points faibles d'une offre et savoir ainsi comment la renforcer, explique Massimo Re Ferre, architecte IT senior chez IBM. Premièrement, sur chaque coeur issu d'un nouveau processeur Intel ou AMD, vous pouvez associer trois à cinq machines virtuelles, dit-il. C'est une vision plus optimiste que celle de Ian Scanlon, qui estime qu'il est préférable de se limiter à cinq ou six machines virtuelles sur un serveur unique. Si les applications exigent des ressources intenses comme avec les bases de données ou les ERP, il même recommandé, selon lui, de se limiter à deux VM. Trop se concentrer sur la consolidation conduit inévitablement à tirer les performances vers le bas et entraine l'insatisfaction des utilisateurs. Deuxième règle de Massimo Re Ferre : pour chaque coeur sur un processeur récent, ajouter sans hésiter de deux à quatre Go de mémoire vive. Un point qui coïncide avec l'évaluation de Ian Scanlon : 48 Go de Ram recommandés sur chaque serveur lame. "Une fois la mémoire vive en place, nous n'avons pas connu de problèmes de performance à proprement parler », précise-t-il. Les autres points à suivre de près Premièrement: ne pas oublier la tuyauterie. Avec plusieurs serveurs en action, les exigences en terme d'entrées/sorties deviennent beaucoup plus importantes. Assurez-vous d'avoir suffisamment de liens entre les baies de stockage et le réseau pour supporter la charge, explique Gordon Haff, de la société de conseil Illuminata. Cisco répond d'ailleurs à ce problème avec ses serveurs maison ESX équipés d'une intergace 10 Gigabit Ethernet. Deuxièmement: construire une clôture. Les machines virtuelles (VM) sont devenues très faciles à lancer et difficiles à suivre ensuite avec la prolifération des serveurs. Un grand nombre de VM finissent par fonctionner dans leur coin sans être réellement utilisées. C'est un élément qui est devenu très courant avec la multiplication des machines virtuelles. Tuer tous les serveurs non utilisés et réallouer l'espace disque réservé a ainsi permis à ComputaCenter de récupérer de nombreuses ressources qui ont ensuite pu être utilisé pour d'autre tâche en attendant de nouveaux investissements, indique Ian Scanlon. Troisième: Utilisez les outils qui sont disponibles sur le marché pour obtenir une cartographie détaillée de votre installation, conseille Chris Wolf. VMware commercialise vCenter VMware CapacityIQ 1.0, et Microsoft propose ses outils d'évaluation et de planification pour Hyper-V pour guider les clients. Des solutions particulièrement intéressantes quand on dispose d'environnements qui incluent VMware et Hyper-V. De nombreux outils tiers ne couvrent pas les deux versions - HP dispose par exemple d'un outil de calibrage spécialement conçu pour VMware et d'un autre pour Hyper-V. Ceux qui sont plus ou moins affiliés à VMware ou Microsoft ne peuvent pas fournir une évaluation indépendante explique encore Andi Mann d'Enterprise Management Associates. Parmi les outils recommandés citons toutefois, PowerRecon de Novell, Data Center Intelligence de Cirba, Balance Point d'Akorri et Capacity Modeler de Vkernel. En fin de compte, il est possible de construire un profil détaillé pour bien déployer ses machines virtuelles. Mais vu la quantité de temps et d'argent nécessaire pour une évaluation professionnelle, il est quelquefois plus intéressant de rester sur des serveurs qui ne fonctionnent qu'à 70% de leurs capacités plutôt que de chercher à atteindre à tout prix les 95% de taux d'utilisation conclut Massimo Re Ferre.