Sur la conférence Red Hat Summit, qui s’est tenue à Boston la semaine dernière - la 1ère édition depuis l’acquisition de la société par IBM en octobre 2018 - l’éditeur de solutions d’infrastructure en open source a procédé à deux annonces majeures, l’une portant sur RHEL version 8 et l’autre sur la version 4 de sa plateforme de containers OpenShift. Les deux bénéficient de fonctionnalités pour Kubernetes, Red Hat cherchant à créer une plateforme de traitement automatique, a expliqué son CTO Chris Wright à nos confrères de Computerworld UK. « Nous sommes en train de bâtir ce qu’il faut pour créer une plateforme de traitement automatique, pour des clouds autonomes », présente-t-il. « Nous essayons d’apporter les bons outils pour le faire, cela commence avec l’instrumentation et se construit avec le framework opérateur pour qu’une plateforme puisse s’auto-ajuster, s’auto-optimiser et se mettre à l’échelle au fur et à mesure des besoins ». Cela se traduit d’abord par un focus important sur l’interopérabilité et les opérations autour d’OpenShift 4.0 qui sera disponible pour les fournisseurs de clouds publics Alibaba, AWS, GCP, IBM Cloud, Azure et OpenStack, ainsi que sur les plateformes de virtualisation et les services bare metal - ce qui créera une plateforme auto-gérée pour le monde du multi-cloud. Cela inclut des fonctionnalités plus automatisées et cherche à résoudre les problèmes de complexité qui ont longtemps été associés aux déploiements de conteneurs. 

« Notre objectif avec RHEL 8, c’est de devenir le système d’exploitation du cloud hybride et de définir véritablement ce que cela signifie d’être un OS dans un paysage qui change singulièrement », décrit Chris Wright. « Historiquement, nous avons compris cela vraiment bien : on a des serveurs, on met en route le bare metal, on installe les applications au-dessus… tout cela reste vrai, mais quand on passe dans le cloud et que l’on se répartit entre plusieurs clouds publics, qu’il faut transporter les charges de travail d’un environnement à l’autre, il faut réimaginer un peu ce que doit être le système d’exploitation ». Cela se concrétise par une meilleure gestion et visibilité, ainsi que par une meilleure intégration avec la sécurité et avec la plateforme de gestion de la performance Red Hat Insights. « C’est une réactualisation de contenu. Nous avons tous les projets open source qui continuent à avancer et avec RHEL 8, nous apportons en amont une nouvelle base dans la même plateforme », indique-t-il en ajoutant que l’ensemble devrait conduire à une meilleure personnalisation de l’OS et une meilleure adaptation aux besoins des charges de travail, telles que la réduction de l’empreinte. 

2 audiences clés : développeurs et opérationnels

« Ce que nous essayons vraiment de faire, c’est de parler à deux audiences clés », expose Chris Wright. « L’une est celle des développeurs où nous avons des pipelines CI/CD et nous essayons de construire la plateforme qui facilitera le déploiement des applications indépendamment de l’infrastructure sous-jacente. De l’autre côté, notre plateforme de cloud hybride OpenShift permet d’aller sur différentes clouds et on-premise. Et nous nous concentrons aussi sur cette expérience opérationnelle en cherchant à rendre ces deux catégories de personas aussi satisfaites que possible ». Bien sûr, les différentes communautés open source, les fournisseurs, les entreprises et les fondations comptent sur le fait que leurs technologies vont fonctionner ensemble. C’est une tâche incroyablement complexe et de plus en plus de projets sont engagés. Pour Red Hat, l’interopérabilité signifie que l’on dispose d’une plateforme cohérente pour faire fonctionner les applications, souligne Chris Wright.

« Si vous considérez la proposition de valeur de RHEL, d’un côté il permet de mettre en place le matériel en proposant un large choix : vous bâtissez votre datacenter, choisissez votre fournisseur de serveurs, RHEL fournira un environnement d’exécution cohérent et indépendant sur ses serveurs physiques », rappelle-t-il. « Les applications peuvent être déployées sur n’importe quels serveurs… ». C’est l’un des types de portabilité sur lesquels Red Hat se concentre, explique son CTO. « Considérez ce concept : vous déployez RHEL sur un cluster, placez ce cluster sur un cloud public, un datacenter virtualisé, même sur du bare metal, et vous créer la même cohérence et interopérabilité indépendantes de l’infrastructure sous-jacente. La partie qui apporte la cohérence, c’est la plateforme ». 

Avec le edge computing, le bare metal reprend de la vigueur

Certains fournisseurs de services managés ont passé des années à dire que les datacenters, c’était terminé, et que le cloud public était le seul choix d’avenir pour la plupart des entreprises - en allant jusqu’à dire que même les institutions financières les plus prudentes s’y intéressaient. Ce qui s’est cristallisé au cours des dernières années est un peu différent. Le datacenter n’est pas mort du tout et, au contraire, avec l’arrivée du edge computing dans lequel les traitements distribués se font au plus près de l’endroit où ils doivent se faire, le provisionnement et la gestion de serveurs bare metal vont devenir encore plus importants. Si l’on combine cela avec le fait que la majorité des serveurs mondiaux tournent sous Linux, des fournisseurs comme Red Hat et son concurrent Ubuntu sont bien placés pour devenir des acteurs clés de l’infrastructure lorsque les traitements répartis deviendront une réalité, tout particulièrement avec l’accélération de l’intérêt pour les réseaux 5G à travers le monde. Chris Wright acquiesce. C’est pour lui très intéressant que l’on parle de nouveau de façon positive du bare metal pour un éditeur d’OS tel que Red Hat.

« En fin de compte, lorsque vous lancez une application dans un container, elle s’exécute directement sur le système d’exploitation : il n’y a rien de magique », rappelle-t-il. « L’hyperviseur fournit une couche d’abstraction de nature différente. Les containers apporte réellement l’application directement à l’OS et vous pouvez imaginer des environnements où on préférera que l’exécution se fasse directement sur du bare metal ». Actuellement, les fournisseurs de clouds ont également des variantes on-premise qu’ils mettent en avant. « Ce qui, de notre point de vue, valide ce dont nous parlons », ajoute Chris Wright. « Puisque l’on ne va pas se contenter du datacenter mais qu’il y aura aussi des sites en périphérie qui permettront de déployer directement sur du bare metal, c’est que à quoi on peut s’attendre ». 

Containers Linux et Kubernetes, standards de fait

Et les clients de Red Hat sont justement intéressés par l’exécution de Kubernetes sur des serveurs bare metal. Avec les facteurs de forme réduits qui sont utilisés en périphérie, les entreprises ont besoin d’obtenir le maximum de performance de leur matériel en tenant compte des contraintes inhérentes. Ce genre de traitements distribués devrait transformer la dynamique des traitements informatiques dans leur ensemble. « Nous avons eu de grands datacenters et de grands clouds publics. A mesure que nous nous déportons sur la périphérie, le paysage change », décrit Chris Wright. « Nous nous recentrons donc sur la donnée en étant entièrement distribué, et nous pensons que c’est ainsi que les choses évoluent au niveau mondial. Vous commencez déjà à la voir, ce n’est pas aussi lointain qu’on le croyait il y a encore quelques années ». 

Dans ce contexte, l’une des composantes les plus importantes selon M. Wright, ce sont les containers Linux et Kubernetes qui sont devenus des standards industriels de fait. « Cette expérimentation qui a créé le facteur de forme du container et Kubernetes en tant que couche d’orchestration clé, toute cette expérimentation, qui ressemble initialement à de la fragmentation et une consolidation, et avec la consolidation, nous avons un focus total de l’industrie autour d’une plateforme commune ». C’est ce qui a permis à Linux de survivre pendant des décennies, souligne le CTO de Red Hat. « Je pense donc que nous abordons la prochaine étape de concentration à long terme de notre industrie autour d’une plateforme principale. Celle-ci est distribuée, et pas seulement distribuée au sein d’un datacenter, ce sont de multiples clusters qui sont distribués un peu partout ». 

Quid des communautés open source avec les rachats

Chris Wright n’a pas commenté l’acquisition de Red Hat par IBM, trop récente. En revanche, nos confrères de Computerworld lui ont demandé si les différents rachats de grands noms de l’open source ayant eu lieu signalaient une tendance marquant une généralisation des communautés. Est-ce que finalement il est important de savoir qui dirige le navire si les communautés se sont constituées de façon naturelle et qu’elles sont actives ? « Il y assurément eu un mouvement autour d’entreprises qui s’étaient bâties sur les technologies open source. Ce qui me fait croire que cela ne représente pas une menace pour les communautés, ce sont les développeurs », pense le CTO de Red Hat.

« Je vais généraliser, mais ceux qui sont engagés dans les communautés sont généralement passionnés par les projets sur lesquels ils travaillent. Ils n’aiment pas qu’on leur dise ce qu’ils doivent faire, ou être simplement considérés comme de la main d’oeuvre gratuite, et c’est ce qui donne une résilience à la communauté open source au sens large », estime-t-il. « Je pense vraiment que ce qui se passe en ce moment et ce qui va continuer à se passer - c'est principalement une bonne chose et nous devons y prêter attention - c’est qu’il y a, de la part des entreprises, un intérêt continu pour les projets et le développement open source ». Dans les grandes lignes, on peut dire que l’open source a gagné, selon lui. « Nous devrions nous en réjouir. Mais il y a des responsabilités associées. Nous devons aussi protéger ce qui doit être open source : c’est ainsi que je le vois. Je n’appellerais pas cela exactement la « commoditisation » du développpeur parce que le développeur ne serait pas d’accord », conclut Chris Wright.