La question de la performance est devenue primordiale pour les équipes IT. D’abord, il y a bien évidemment la question de la performance brute du système d’information qui définit souvent la condition du succès des projets entamés par la direction informatique. C’est encore plus vrai dans le contexte actuel de la transformation digitale « qui touche aujourd’hui plus de 80 % des entreprises européennes », rappelait  Ludovic Levé, Managing Director France, Data Center Group. Avant, la technologie n’était qu’un support pour les métiers. Aujourd’hui, elle influe sur les stratégies, les modèles commerciaux, l’innovation et la performance générale de l’entreprise.

 Or les systèmes d’information sont aujourd'hui « un réseau complexe et interconnecté d’applications, d’interfaces et de base de données où de nombreux éléments doivent communiquer avec des systèmes externes et des API », détaille Matteo Pacca, Directeur Senior Associé du bureau parisien du cabinet d’étude McKinsey & Company. Les entreprises doivent trouver le moyen de rendre ces patchworks performants tout en gardant une grande maîtrise des coûts et en composant avec le legacy.

 Aucune ubiquité possible

 L’ancien DSI du cabinet d'études GFK, Fabrice Benaut, approuve. « J’ai passé 25 ans  dans l’entreprise, pour finir je gérais 60 pays avec des problématiques d’intégration à l’intérieur du groupe et beaucoup de rachats, des investissements importants sans être sûr que les métiers étaient impliqués », explique-t-il. D'après lui, les directeurs informatiques ne peuvent pas faire le choix de l'ubiquitaire entre des systèmes très différents. « Donc, comment faire ? Il faut voir, dans cette problématique, plus d'opportunités que de contraintes. C'est l'occasion de faire évoluer le système d'information. Mais il faut aussi faire preuve de bon sens en prenant en compte les usages. Aller vite dans le mur ne sert à rien », déclare Fabrice Benaut.

C’est ce qu’a bien compris Christophe Puzenat, Responsable de l’équipe architecture technique de Solvay, un grand groupe de chimie. Il faisait face à une infrastructure vieillissante en RAID 5 qui ne donnait plus satisfaction. Pire, les solutions EMC qu’il utilisait arrivaient en fin de support. Il a décidé de basculer sur une toute nouvelle infrastructure basée sur des environnements virtualisés avec Veam et VMware. Une fois mise en route, les tests de performance ont donné des résultats cent fois supérieurs à ce que permettait l’ancienne infrastructure. Par exemple, la latence maximale constatée est passée d'une fourchette 300 ms seconde à 6 ms. Cette transformation a permis aussi d’avoir plus de flexibilité dans la gestion de l’infrastructure. « Maintenant, les utilisateurs peuvent me réclamer quelques To pour le lendemain », se réjouit Christophe Puzenat.

L’hyper-convergence au secours de la performance

Mais tout le monde ne peut pas rebâtir une architecture depuis le début. Pour répondre à ces problématiques, l’usage de solutions hyper-convergées semble aussi se démocratiser. Les systèmes capables de concentrer en un seul point les problématiques de réseau, de stockage et de puissance de calcul sont de plus en plus mis en avant par les fournisseurs. C’est le cas de Lenovo qui a noué un partenariat avec Nutanix afin de fournir ses solutions hyper-convergées HX.

Chez Criteo, la société française spécialisée dans le web marketing, la question de la performance ne se pose pas, elle est impérative. « Criteo prédit l’avenir  dans un domaine bien précis. Nous tenons notre réussite des connaissances des probabilités d’achat que nous calculons avec les comportements antérieurs des internautes » a expliqué Nicolas Helleringer, Directeur engineering chez Criteo.  Il explique sa problématique : « Dans le cas d’enchères pour les espaces publicitaires d'un site média, lorsqu’un internaute va s'y connecter, le média va interroger un certain nombre de réseaux de diffusion de publicités, dont nous faisons partie. Nous avons 100 ms au maximum pour répondre et choisir quelle publicité afficher à cet internaute, en précisant le montant que nous sommes prêts à investir pour afficher une publicité à celui-ci ». À ces fins, la société traite chaque jour 150 milliards de requêtes avec une vitesse de réponse de l’ordre de 4,5 ms. La pression sur l'infrastructure est donc colossale.

 La performance au cœur de l’expérience utilisateur

 La performance joue aussi énormément sur la question de l’expérience utilisateur. Cette dernière est devenue un enjeu crucial pour les entreprises. C’est notamment le cas pour la plateforme de vidéos en ligne, Dailymotion, qui doit composer avec la concurrence directe du monstre YouTube. « Nous ne pouvons pas nous permettre d’avoir des vidéos qui rament », explique Magnus Näslund, directeur de programme pour l’entreprise. Il a choisi d’équiper ses infrastructures réseaux de CDN (Content Delivery Network) pour assurer une qualité de services optimale sur l’ensemble des supports à travers le monde.

« Nous pouvons maintenant déterminer la meilleure route et, en temps réel, basculer entre les différents chemins disponibles pour offrir la meilleure expérience possible » note le dirigeant. Il ajoute : « Nous avons aussi des gens qui nous appellent et beaucoup de supervision automatisée, plusieurs KPI (Key Performance Indicator) qui surveillent en temps réel l’utilisation de la plateforme et ses éventuels incidents de fonctionnement ».

Une mesure tout aussi importante

Car outre la performance elle-même, la question de sa mesure est tout aussi importante. «Que vous soyez à Paris, Singapour, Hong Kong ou Pretoria, il n’y a pas de variations, c’est la même expérience partout. On utilise des tests pour mesurer cette disponibilité, parfois avec des partenaires extérieurs, mais aussi avec des testeurs humains, ou des procédures automatisées», explique le directeur de programme de Dailymotion. L’enjeu est de toujours maîtriser cette performance à travers du monitoring et des outils de supervision en temps réel.

L’usage de ce type de solutions est d’ailleurs devenu indispensable pour le contrôle de la performance. Les outils type SDN (Software Defined Network) apportent déjà une bonne visualisation de l’état de l’infrastructure et sont aujourd’hui pris directement en charge par les fabricants, comme Lenovo. Mais l’usage d’outils de Monitoring comme Splunk est un atout à ne pas négliger. Lenovo a d’ailleurs développé son API Xclarity pour faciliter l'interconnexion de ses solutions d’infrastructure avec Splunk.

Les solutions sont là

En cette période ou le numérique est aujourd'hui la clé du succès des entreprises, la performance de l’infrastructure IT est primordiale, mais sa mesure également. « C'est notre métier de fournir des infrastructures performantes répondant aux besoins de nos clients. Pour ce qui est du monitoring, nous nouons des partenariats, comme avec Splunk, pour leur apporter la capacité de mesurer et de contrôler cette performance », déclare Ludovic Levé.