A l'occasion de la conférence OFC (Optical Fiber Communication) qui se déroule à San Francisco, Najam Ahmad, directeur technique de Facebook, a souligné : « Nous avons allumé notre propre fibre optique avec le déploiement de liens 100 Gbt dans ses datacenters et nous regardons vers la technologie photonique ». Les défis du réseau social sont identiques à ceux d'autres entreprises et opérateurs de datacenter confrontés à un trafic de données en pleine croissance et des besoins réseau évolutifs.  Mais avec 1,2 milliard d'utilisateurs actifs par mois, ces questions se posent de manière plus présentes et aussi sous des angles différents.

Najam Ahmad explique que « le plus grand trafic de Facebook ne se situe pas dans et hors des datacenters, mais entre les serveurs au sein des centres de calcul. A chaque fois qu'un abonné se connecte sur le site, des centaines ou des milliers de serveurs sont activés pour traiter le fil d'actualités de cet utilisateur à la volée. Ce trafic baptisé « Est-Ouest » va en s'accroissant au fur et à mesure que les applications deviennent plus complexes, les interactions avec les abonnés s'enrichissent ». Alors que de nombreuses entreprises déploient le 10 Gigabit Ethernet, il s'agit du strict minimum pour Facebook. « Nous n'avons rien déployé à moins de 10G depuis 2 ans », avoue le responsable. Il ajoute qu'il s'agit des liens entre les serveurs. Pour la partie amont, la firme de Menlo Park dispose de liens 40 G et quelques-uns en 100 G. Najam Ahmad admet que le 40 G est privilégié car la technologie 100 G est encore trop chère. « Mais dans un an ou deux, les besoins réseau de Facebook iront vers du 100 G ».

Développer la photonique sur silicium et l'achat de fibre optique


Le directeur technique explique aussi que les besoins de traitement augmentent très vite que la firme ne construit plus un seul datacenter à la fois. « Nous achetons des terrains et nous contruisons un bâtiment, puis un deuxième, un troisième et un quatrième », explique Najam Ahmad. Il poursuit, « au final, nous avons construit un campus et nos besoins en optique vont changer légèrement ». Pour créer un lien sur 4 datacenters répartis sur un campus de 10 à 20 hectares, il aimerait disposait d'une technologie fibre capable de porter sur 1 ou 2 kilomètres des trafics allant dans un premier temps à 100 Mbit/s, puis à 200 et 400 Mbit/s. Pour cela, il envisage une connexion utilisant une fibre monomode plutôt qu'une fibre multimode traditionnellement utilisée dans les datacenters, mais avec une portée plus courte.

L'autre axe de développement est la photonique sur silicium, une technologie émergente qui utilise des liaisons optiques en remplacement des liaisons électriques pour obtenir des gains en termes de bande passante, de consommation énergétique et de densité. Facebook étudie cette technologie pour l'intégrer dans ce que l'on nomme le compute au niveau du rack, au sein duquel le traitement, le stockage et la mémoire sont concentrés dans des racks séparés  et reliés en haut débit pour former une grappe de serveurs. Najam Ahmad penche aussi pour le PCIe comme option pour faire le lien entre les racks.

Sur la partie datacenter et les liaisons longues distances, le réseau social commence à acheter et à allumer sa propre « fibre noire ». Cela répond à deux exigences : une réduction des coûts en remplaçant les locations de liens qui peuvent devenir plus chères à l'usage et devenir plus agile face aux évolutions des besoins de trafic. « La location de liens prend trop de temps, environ 4 ou 6 semaines. Nous voulons être en mesure de proposer un lien en 4 à 6 minutes », conclut le dirigeant.