Dans le cadre du projet Open Compute (OCP), Facebook a comme mission d'améliorer l'efficacité des serveurs, des baies de stockage et plus généralement les datacenters utilisés pour son activité de réseau social. Chaque avancée est partagée au sein de la communauté OCP pour que les membres puissent améliorer leur efficacité et réduire leur empreinte environnementale. A l'occasion d'une conférence à Londres à laquelle nos confrères d'IDG NS ont assisté, Frank Frankovsky, vice-président du matériel et de la logistique chez Facebook a résumé son travail, « nous avons enlevé tout ce qui n'était pas utile ». Parmi ces orientations, il y avait la suppression du capot des serveurs, mais cela a abouti à un manque de flux d'air sur le CPU provoquant ainsi une surchauffe.

Facebook a donc essayé d'utiliser un capot en plastique pour rediriger le flux d'air sur le CPU, mais cela ne collait pas avec la vision de Frank Frankovsky. « C'était vraiment frustrant pour moi, car nous avions supprimé du matériel et nous en remettons un avec ce couvercle en plastique. C'est un élément de plus dans notre flux de déchet », concède le responsable. Le réseau social a ensuite étudié la possibilité de rendre ce capot plus écologique. Le dirigeant a avoué que ses équipes avaient utilisé une technique empruntée aux couverts de cuisine de la marque Spudware. Ces derniers sont composés de 80% d'amidon de pommes de terre et de 20% d'huile de soja. « Nous avons créé un capot à base de pomme de terre, mais nous avons constaté rapidement qu'en chauffant cela sentait comme des frites », admet Frank Frankovsky. Il ajoute « qu'en plus de donner faim aux équipes dans les datacenters, le matériau de Spudware devenait mou et visqueux ».

A la recherche de l'optimisation énergétique


Si le test n'a pas été concluant, Frank Frankvosky appelle les autres opérateurs de datacenter « à repousser les limites » pour stimuler l'innovation et améliorer l'efficience énergétique. Facebook affiche un PUE de 1,07 dépassant les 1,15 communément admis comme standard. Le PUE compare l'énergie totale consommée par un centre de calcul avec celle utilisée réellement par les équipements informatiques et celle nécessaire à d'autres éléments comme les systèmes de refroidissement. Les datacenters du réseau social gagnent en efficacité énergétique, car Facebook n'utilise pas de climatisation, mais s'appuie sur l'air extérieur pour refroidir ses serveurs. « Le résultat est une installation qui gagne 38% en efficacité pour un coût 24% moins cher », explique le dirigeant.

Les critiques soulignent que les datacenters de Facebook sont très efficients, car il s'agit de nouvelles créations. Habituellement, les entreprises disposent de centres de calcul depuis au moins 20 ans. Frank Frankosvky répond qu'il peut réaliser jusqu'à 30% de gains d'efficacité quand Facebook loue de l'espace dans le datacenter de quelqu'un d'autre ». Pour cela, « nous avons commencé par couper la climatisation de la salle informatique et nous avons distingué les allés chaudes et les allées froides », déclare le responsable. « Ce sont des choses simples que les propriétaires de datacenter n'ont pas fait ». Il admet cependant que dans certaines parties du monde, il soit difficile de se passer de climatisation. Pour autant, il estime que « supprimer les onduleurs est un moyen facile pour gagner en efficience. Cela coûte 2 dollars par watt, alors que les batteries pour les racks Open Compute ne coûtent que 0,25 dollars par watt. Elles sont plus efficaces, car il n'y a pas de basculement entre le courant alternatif et continu ». 

La vision environnementale de Facebook va même jusqu'à prendre des mesures pour réduire l'empreinte carbone des camions qui transportent des équipements depuis l'Allemagne jusqu'au datacenter de Lulea en Suède. « Nous avons conçu l'armoire et la palette de telle sorte que 100% de l'espace du camion soit occupé. Il n'y a pas de gaspillage d'espace et donc pas de frais de transport perdu », conclut Frank Frankosvky.