Le troisième chapitre s'attaque aux architectures applicatives. Fini le temps où on pouvait se permettre de dimensionner une solution en prenant comme critère de base son niveau de pic de charge plus 20 à 50%, histoire d'être tranquille. L'article donne donc moult conseils pour optimiser les applications, l'idée étant qu'elles aient un impact minimal en termes de consommation de ressources. Cela passe par le recours à des composants applicatifs, à des architectures orientées services (SOA), de l'instrumentation et de la supervision, de la virtualisation, de l'équilibrage de charges...Là encore, et d'ailleurs les auteurs prennent soin de le préciser, « si la taxonomie peut apparaître spécifique à Microsoft et à Windows, cela fonctionne aussi bien avec d'autres OS et applications ». Un chapitre entier est consacré à la façon dont on peut calculer la consommation d'énergie d'un serveur, d'un disque dur, d'une application, d'une base de données, etc. Avec cette abaque, il devient beaucoup plus simple de traduire en termes monétaires les gains apportés par telle ou telle bonne pratique. Les auteurs de ce chapitre en profitent pour rappeler qu'un certain nombre de services sont totalement inutiles pour faire tourner une machine virtuelle. Cela tombe bien, Windows Server 2008 ayant appris d'autres OS et proposant un mode d'installation minimal. Le DC Genome, ou comment évaluer la climatisation d'un datacenter avec des capteurs sans fil Plus surprenant, l'avant dernier chapitre détaille la mise en oeuvre de capteurs sans-fil dans le datacenter de Microsoft conçu à cet effet, le DC Genome. Plutôt que d'ajouter de la complexité avec des composants matériels ajoutés aux différents éléments du datacenter, Microsoft a conçu un réseau d'environ 700 senseurs ('genomotes') permettant de mesurer la température et l'humidité partout dans la salle, afin d'ajuster au mieux les paramètres du système de climatisation en quasi-temps réel. Les genomotes eux-mêmes communiquent en IEEE 802.15.4, car, indique Microsoft, il s'agit d'un réseau radio moins gourmand en énergie et en ressources processeur que le WiFi. Le dernier chapitre, pour le coup, ne s'applique qu'aux technologies Microsoft, puisqu'il traite de la consolidation de bases SQL Server telle qu'elle a été pratiquée chez Microsoft, pour son propre système d'information. Et cela pourrait intéresser des clients grands comptes de l'éditeur. En effet, comme n'importe quelle entreprise, Microsoft a dû affronter un tableau peu reluisant : 100 000 bases de données réparties dans 5 000 instances de SQL Server, la plupart sur des serveurs dédiés, chacun présentant un taux d'utilisation moyen des ressources processeur en deçà de 10%.