Le multi-Cloud représente l'avenir du Cloud Computing

Le temps des datacenters monolithiques, où toutes les applications étaient développées, testées et déployées entièrement sur site, n'est plus qu'un souvenir. Il en va de même pour l'idée selon laquelle l'hébergement d'une application sur site, dans un Cloud public ou privé hors site représente un choix mutuellement exclusif. Le terme « Cloud hybride », qui a connu son heure de gloire dans le secteur du Cloud Computing il y a quelques années seulement, a récemment été remplacé par « multi-Cloud » (voir définitions dans l'encadré).

Selon Datamation*, 58 % des entreprises du secteur privé font déjà appel à deux fournisseurs de services Cloud ou plus1. Et bien que l'adoption par le gouvernement d'environnements multi-Cloud ait pris du retard sur le secteur privé, un article de FedTech* rapporte qu'en 2018, 40 nouvelles agences fédérales américaines ont commencé à participer au programme FedRAMP (Federal Risk and Authorization Management Program), qui autorise et surveille les services Cloud fédéraux. L'article précise également que « les solutions de Cloud hybride et multi-Cloud gagneront certainement du terrain » et qu'environ 65 produits Cloud pourraient recevoir l'autorisation FedRAMP en 2019, y compris un mélange d'outils hybrides2.

Un Cloud hybride est un environnement informatique combinant des environnements de Cloud privé et de Cloud public. Comme les données et les applications peuvent être partagées entre les deux environnements, les entreprises font facilement évoluer l'infrastructure sur site vers une infrastructure hors site (et inversement).

Le multi-Cloud représente la prochaine étape. Il mélange des solutions et services de pointe provenant de différents fournisseurs de services Cloud, y compris de Cloud privé, afin de créer la solution la mieux adaptée à une entreprise ou un organisme gouvernemental.

Ils peuvent fonctionner ici, là … partout

Au-delà de la vague allusion au Dr. Seuss, les environnements hybrides et multi-Cloud soulèvent une question importante : comment les développeurs d'applications et les équipes opérationnelles s'assurent-ils qu'une application ou un service spécifique sera fiable indépendamment de l'hébergement (sur site, avec un fournisseur de services Cloud A ou B) ? Les applications non natives pour le Cloud dépendent souvent considérablement de l'accès à un matériel spécifique ou à d'autres ressources telles que des données ou un compilateur. Déplacer ce type d'application de son site vers une autre infrastructure présentant une pile différente peut aisément causer au mieux des problèmes de performances et au pire une défaillance totale de l'application. Un tel cas de figure nuirait aux activités, qu'il s'agisse du fonctionnement d'un site de e-commerce, de prestation de services bancaires, de l'enregistrement de nouveaux électeurs ou de la surveillance d'un lancement de satellite.

Et alors que les entreprises et les organismes gouvernementaux sont aux prises avec la portabilité et la fiabilité, ils doivent aussi se confronter à un autre obstacle : le besoin d'agilité. L'environnement commercial moderne, axé sur le numérique, signifie que les besoins et les attentes des consommateurs changent rapidement.

Les conteneurs représentent une solution potentielle à ces problématiques. Ils sont légers et plus rapides que les machines virtuelles (VM). De plus, étant donné qu'une application conteneurisée comprend toutes ses dépendances (fichiers exécutables, code binaire, bibliothèques et fichiers de configuration, soit tout ce qui peut être installé sur un serveur), elle a plus de chances de fonctionner sans problème sur plusieurs infrastructures.

La portabilité et la reproductibilité des conteneurs constituent un atout précieux pour l'avenir du multi-Cloud. Gartner* prévoit que d'ici 2022, plus de 75 % des entreprises mondiales exécuteront des applications conteneurisées en environnement de production, contre moins de 30 % aujourd'hui3. En outre, les conteneurs aident à gagner en agilité. Une enquête menée par Forrester* a révélé que 66 % des entreprises ayant adopté les conteneurs ont vu l'efficacité des développeurs s'accélérer, 75 % d'entre elles constatant une augmentation modérée à significative de la vitesse de déploiement des applications4.

Les applications modernes requièrent une infrastructure moderne

Si les conteneurs représentent un excellent moyen de migrer vers un environnement multi-Cloud, leur valeur dépend des ressources dont ils disposent. Par exemple, si une application (ou un microservice) doit traiter de gros volumes de données, l'espace de stockage et la bande passante réseau suffisent-ils ? Le conteneur a-t-il besoin de beaucoup de mémoire pour fonctionner correctement ? Est-il sécurisé ?

Le déploiement de conteneurs sur une plate-forme d'architecture Intel® peut résoudre tous ces problèmes et plus encore. Par exemple, la 2e génération de processeurs Intel® Xeon® Scalable peut renforcer les ressources de calcul, avec jusqu'à 56 cœurs par socket, une fréquence de mémoire et une capacité supérieures à la génération précédente, un nouveau contrôleur pouvant tirer profit de la mémoire persistante Intel® Optane DC et bien d'autres améliorations intégrées à l'architecture. Les nouveaux processeurs Intel® Xeon® Scalable de 2e génération offrent des performances de densité des MV jusqu'à 3,5 fois meilleures par rapport aux serveurs vieillissants, avec des économies allant jusqu'à 59 %5.

Les applications conteneurisées peuvent bénéficier de la faible latence et de la rentabilité des unités de stockage SSD Intel® Optane DC, ainsi que des produits Ethernet Intel® hautes performances. Pour d'excellentes performances de traitement en mémoire, l'ajout de modules de mémoire persistante Intel® Optane DC peut étendre le pool de mémoire système jusqu'au téraoctet, pour un coût nettement inférieur à la DRAM. De plus, cette technologie présente une faible latence similaire à la DRAM tout en offrant une persistance native capable de conserver un ensemble de données de travail pendant les cycles de mise sous tension.

Associé à des technologies de sécurité comme la technologie d'exécution fiabilisée (Intel® TXT) et la technologie de virtualisation Intel® (Intel® VT), Kata Containers* renforce la sécurité des conteneurs.

Le déploiement d'applications conteneurisées (et l'exécution de ces conteneurs sur la technologie Intel®) représente un excellent moyen de moderniser votre infrastructure et de vous préparer au multi-Cloud. Lisez cet article pour découvrir comment Intel peut vous aider à vous lancer dans l'utilisation des conteneurs ou, si vous en utilisez déjà, à augmenter leurs performances.

RÉCAPITULATIF
• Les applications conteneurisées conviennent bien aux déploiements hybride et multi-Cloud

• Les conteneurs sont légers et économes en ressources

• Une infrastructure moderne peut booster les performances des conteneurs

1Datamation, mai 2019, « Cloud Survey: The Rise of Multicloud Computing » (Enquête sur le Cloud : la montée de l'informatique multi-Cloud).
2FedTech, décembre 2018, « How Will Federal Cloud Use Evolve in 2019? » (Comment l'utilisation du Cloud va évoluer en 2019 ?).
3BetaNews, mai 2019, « What is fueling container and multicloud adoption » (Qu'est-ce qui alimente l'adoption des conteneurs et des multi-Cloud) ?.
4Container Journal, septembre 2018, « Automation and Orchestration in a Container World » (Automatisation et orchestration dans un monde de conteneurs).
5Jusqu'à 3,5 X plus de performances en matière de densité de machines virtuelles : test réalisé par Intel le 15/01/2019.
Ligne de référence : 1 nœud, 2 processeurs Intel® Xeon® E5-2697 v2 sur Canoe Pass avec 256 Go (16 emplacements / 16 Go / 1600) de mémoire totale, microcode 0x42c sur Red Hat Enterprise Linux* (RHEL*) v7.6, 3.10.0-957.el7.x86_64, 1 unité de stockage SSD Intel® de système d'exploitation de 400 Go, 2 unités de stockage PCIe* P4500 de 4 To, 2 doubles ports Ethernet 82599, référence de virtualisation, noyau de machine virtuelle 4.19, technologie Intel® Hyper-Threading activée, technologie Intel® Turbo Boost activée, résultat : densité de machine virtuelle = 21.
Configuration test : 1 nœud, 2 processeurs Intel® Xeon® 8280 Platinum sur Wolf Pass avec 768 Go (24 emplacements / 32 Go / 2666) de mémoire totale, microcode 0x2000056 sur RHEL7.6, 3.10.0-957.el7.x86_64, 1 unité de stockage SSD Intel® de système d'exploitation de 400 Go, 2 unités de stockage PCIe* P4500 de 4 To, 2 doubles ports Ethernet 82599, référence de virtualisation, noyau de machine virtuelle 4.19, technologie Intel® Hyper-Threading activée, technologie Intel® Turbo Boost activée, résultat : densité de machine virtuelle = 74.
Jusqu'à 59% d'économies sur le TCO avec un processeur Intel® Xeon® Scalable comparé à un système de 5 ans. Les scénarios de réduction de coûts décrits sont fournis à titre d'exemples montrant comment un produit basé sur Intel® donné, dans les circonstances et configurations spécifiées, peut affecter les coûts futurs et entraîner des économies de coûts. Les circonstances seront différentes. Intel ne garantit aucun coût ni réduction de coûts. Exemple basé sur les estimations de mars 2019 concernant des performances rack équivalentes sur une période de fonctionnement de 4 ans sur une charge de travail de virtualisation exécutant VMware vSphere Enterprise Plus* sur Red Hat Enterprise Linux* Server et comparant 20 serveurs 2 sockets installés, équipés de processeurs Intel® Xeon® v2 E5-2697 (anciennement « IvyBridge ») pour un coût total de 796 563 $ [coût par serveur de 39 800 $ : acquisition = 13 700, infrastructure et services = 4 200, système d'exploitation et logiciels = 12 200, entretien = 9 700] par rapport à 6 nouveaux processeurs Intel® Xeon® Platinum 8280 (coûts basés sur les estimations pour Platinum 8180) pour un coût total de 325 805 $ [coût par serveur de 54 300 $ : acquisition = 28 900, infrastructure et services = 3 500, système d'exploitation et logiciels = 12 200, entretien = 9 700]. Estimations basées sur le site https://xeonprocessoradvisor.intel.com, en date du 13 février 2019.