Si la « mort du mainframe » n'est pas pour demain, à supposer que cela se produise un jour, les entreprises cherchent actuellement des stratégies pour sortir de leurs grands systèmes. Récemment, la multinationale de la logistique FedEx a fait la une des journaux en annonçant qu'elle allait retirer tous ses mainframes d'ici à 2024 afin d'économiser 400 millions de dollars par an. Pour satisfaire son objectif de neutralité carbone à l'échelle mondiale d'ici à 2040, FedEx adopte un environnement « zéro datacenter/zéro mainframe », en exécutant la moitié de ses calculs dans des installations de colocation et l'autre moitié dans le cloud. Cette décision devrait aussi aider le fournisseur mondial de logistique à être plus flexible, plus sûr et plus rentable, selon Ken Spangler, vice-président exécutif des technologies de l'information mondiales chez FedEx. « Les mainframes ne faisaient pas partie de notre plan à long terme », relate-t-il. « Au cours des dix dernières années, nous nous sommes lentement éloignés de cette base mainframe en adoptant une stratégie de retrait, de remplacement et de réingénierie. Jusqu'à présent, nous avons pu retirer 90 % des applications de FedEx des mainframes de l'entreprise, mais il en reste 10 % dont nous n'arrivons pas à nous défaire en raison de problèmes d'intégration dus à des couches d'interdépendances », explique Ken Spangler, ajoutant que FedEx compte dans son portefeuille « quelques opérateurs uniques » avec leurs propres technologies qui ont beaucoup de dépendances.

La tâche est aussi considérable qu'elle en a l'air, et migrer des systèmes de calcul intensif sur des mainframes hors des datacenters vers le cloud n'est pas pour les âmes sensibles. Pourtant, des entreprises comme IBM cherchent à donner une seconde vie aux applications mainframe dans le cloud, et beaucoup d'entreprises commencent à moderniser leurs stratégies mainframe existantes pour l'ère numérique, y compris en investissant davantage dans de grands systèmes plus récents. Mais pour des entreprises comme FedEx, qui veulent se libérer de leur patrimoine de mainframes en faveur du cloud, une approche méthodique est essentielle. Selon Mike Chuba, vice-président directeur chez Gartner, différentes motivations poussent à franchir le pas. « Dans certains cas, c'est le vieillissement des compétences et dans d'autres, le vieillissement des équipements et des coûts », souligne-t-il. On pourrait comparer cette situation à celle du propriétaire d'une maison qui n'aurait pas fait de travaux d'entretien de base pendant dix à quinze ans. Si les choses tombent en ruine, il aura une décision très difficile à prendre : faire un investissement substantiel pour rattraper le retard... ou chercher à déménager ailleurs », illustre Mike Chuba. Pour les petites entités, « qui ont pris beaucoup de retard, et pour lesquels le mainframe n'a pas été un atout stratégique ni un facteur de différenciation concurrentiel », le choix peut être moins tranché, estime-t-il. « Elles peuvent fonctionner sur un matériel vieux de dix ans avec des logiciels non supportés, sans avoir à investir dans une modernisation qui pourrait s'avérer trop coûteuse ». Mais, pour les entités qui peuvent envisager un futur sans grands systèmes en interne, voici quelques précieux conseils de dirigeants IT déjà engagés dans cette migration.

Attention aux retards liés au big data

Pour le fabricant de câbles Southwire, c'est le vieillissement des équipements qui a motivé l'abandon des mainframes. « La question s'est alors posée de savoir si nous devions lorgner vers les datacenters ou s'il y avait des gens plus experts dans le traitement des données », se souvient Dan Stuart, vice-président senior de l'IT chez Southwire, qui fabrique des fils et des câbles pour la transmission et la distribution d'électricité. Une autre motivation était « d'éviter les coûts », ajoute Dan Stuart, car le cycle de renouvellement des équipements et des contrats de logiciels approchait. Au lieu de cela, l'entreprise a choisi de déplacer son environnement SAP principal et ses systèmes de Tier 1, y compris le système de gestion de la production de l'entreprise, vers Google Cloud Platform (GCP).

« La migration, qui a eu lieu en juillet 2020, en pleine pandémie, a été menée conjointement par du personnel interne, les services de Google et un fournisseur tiers », explique Dan Stuart, qui ajoute que le système SAP central de Southwire fonctionne toujours sur une base de données IBM DB2 dans GCP, tandis que ses autres applications de niveau 1 fonctionnent sur Google Cloud VMware. La migration a pris environ huit à neuf mois, et M. Stuart est satisfait des résultats. « Nous avons rencontré très peu de problèmes » en exécutant SAP dans le cloud, relate-t-il. « Je dirais même qu'il y en a eu moins que sur site ». Par contre, le fait de ne pas avoir de « plan de projet bien établi » autour des données a entraîné des problèmes. « Si c'était à refaire, j'examinerais la taille de nos bases de données et je les nettoierais avant de les réduire et de prendre beaucoup de données historiques et de les archiver », confie Dan Stuart. « Le vrai problème, c'est que nous avions besoin d'environ deux jours complets de temps d'arrêt pour procéder à la migration. Mais pour une entreprise qui fonctionne 24 heures sur 24, 7 jours sur 7, c'est déjà trop ».

La prochaine étape consistera à déplacer quelques autres systèmes de fabrication de niveau 1 qui, selon Dan Stuart, sont prêts pour le cloud depuis l'implémentation du SD-WAN par le service IT. « Nous savions que nous devions augmenter notre bande passante pour répondre à tous les besoins de performances », indique le vice-président senior de l'IT de Southwire. « Nous commençons tout juste à déployer le SD-WAN avec des liens redondants chez les fournisseurs de réseau pour réduire les temps d'arrêt et augmenter la quantité effective de bande passante », ajoute-t-il. Fort de son expérience, Dan Stuart conseille aux responsables IT de nettoyer et de purger les données avant de déplacer les applications mainframe vers le cloud. « Personne n'a envie de transporter des données excédentaires, parce qu'elles représentent un coût que l'on peut éviter. D'où l'intérêt de bien redimensionner les environnements. Après quoi, on sait exactement quelles données transférer », souligne le vice-président de l'IT. En passant au cloud, Southwire a également pu rationaliser son processus de reprise après sinistre. Et comme l'entreprise est « très attachée aux critères environnementaux, sociaux et de gouvernance (ESG) et au développement durable », le fait de ne plus avoir à faire fonctionner et à entretenir des ordinateurs centraux lui permet de réduire son empreinte carbone », fait valoir Dan Stuart.

Être stratégique et choisir la bonne architecture

Par contraste, l'approche de FedEx pour se débarrasser des mainframes sur site est très variée. Par exemple, dans le cadre de sa stratégie de « retrait, remplacement et réingénierie », l'environnement groupe de FedEx gérant le transport - l'une de ces 10 % d'applications mainframe difficiles à supprimer - sera mise à la retraite car « cela ne valait pas la peine de procéder à une réingénierie complète et d'investir beaucoup d'argent », indique Ken Spangler. « Nous voulons des solutions d'entreprise efficaces, c'est pourquoi, dans ce cas, nous sortons du mainframe parce qu'il disparaîtra dans deux ans et que d'ici là, de nouvelles solutions d'entreprise seront disponibles », poursuit-il. Il ajoute que « FedEx reste très prudent et ne se contente pas d'une transformation générique de la plateforme ». Dans l'ensemble, le travail de désinvestissement du mainframe de FedEx est réalisé par une combinaison d'équipes internes et externes. La « partie lourde » de son plan de retrait des ordinateurs centraux a débuté en 2021. L'objectif est d'avoir terminé en 2023.

Néanmoins, Ken Spangler conseille aux directions IT de de considérer les choses sous un angle économique pour savoir ce qu'il convient de migrer, étant donné que les capacités technologiques du mainframe restent encore énormes. « L'approche ne peut pas être théorique. Nous savons simplement ce qui convient pour notre environnement, parce que l'entreprise existe depuis plus de 40 ans... Nous avons de vieilles technologies que nous devions de toute façon remplacer, et compte tenu de notre stratégie d'entreprise, le choix était tout simplement logique ». Selon Ken Spangler, les dirigeants IT doivent également garder à l'esprit les principes d'ingénierie et d'architecture. « Beaucoup de gens cherchent tellement à se débarrasser de leur mainframe qu'ils finissent par tout désorganiser », constate-t-il, ajoutant qu'une ingénierie et une architecture solides dès le départ peuvent garantir quelque chose de moderne, de classe mondiale, extensible, sécurisé et modifiable. Enfin, Ken Spangler recommande aux responsables IT de « mettre à jour en permanence leur plan, car c'est une bataille. C'est difficile. Brutalement dur. Nous remettons littéralement à plat notre analyse de rentabilité sur le sujet chaque trimestre et nous construisons en partant de la base ». Pour ce faire, FedEx doit examiner tous les coûts et tous les éléments d'économie et regarder si les hypothèses se vérifient dans la réalité. « Cette méthode garantit que si quelque chose a changé, les responsables en sont conscients », explique le DSI. « Chaque semaine, chaque trimestre et chaque année, nous en savons davantage. À l'heure actuelle, nous sommes très stables. Nous sommes très confiants, avec une très grande visibilité et nous pouvons être très fermes dans notre stratégie ».

Ne pas nuire aux applications critiques

Selon Mike Chuba, au moment de décider s'il faut renoncer ou pas à l'hébergement de son propre grand système, il y a un certain nombre de variables à prendre en considération. Outre le coût de la modernisation des opérations et des applications du mainframe et la prise en compte des compétences internes nécessaires pour faire fonctionner un ordinateur central et ses applications, les entreprises doivent réfléchir à la valeur de la disponibilité, de la sécurité, de la résilience et de l'intégrité transactionnelle, souvent difficiles à quantifier. « Cela fait dix à quinze ans que l'on essaie d'abandonner le mainframe, et de nombreux DSI sont restés sur les bas-côtés. Ils sont arrivés avec une charte pour abandonner le mainframe et ils ont échoué », observe le vice-président directeur de Gartner. « Cet échec s'explique en partie par les trop grandes promesses des fournisseurs, mais la vérité, c'est que ce n'est pas facile. Ce qui était facile à migrer a quitté le mainframe, car il existe des endroits où ces applications peuvent être déplacées avec plus d'efficacité. Mais si une application critique est migrée et tombe en panne, une entreprise peut se retrouver en faillite », pointe Mike Chuba. « Au cours des dix dernières années, des fournisseurs de cloud, et en particulier les hyperscalers, ont consacré beaucoup de ressources et d'investissements pour faciliter la migration des applications hors des mainframes », note Mike Chuba. Et ces capacités vont continuer à s'améliorer. « Cela dit, pour la plupart des entreprises, et particulièrement pour les celles qui reposent fortement sur le mainframe, le mantra est le suivant : Ne nuisez pas à ces applications critiques pour l'entreprise », prévient Mike Chuba. « Ces organisations ont besoin d'une analyse de rentabilité solide, mais aussi de l'assurance que la transition sera transparente et que leurs applications fonctionneront avec le même niveau de performance, de résilience, d'intégrité transactionnelle et de sécurité dans le cloud que dans les mainframes ».

Pour répondre aux DSI qui se demandent ce qu'il faut faire de leurs mainframes, Mike Chuba dit que cela se résume à quelques critères essentiels : « Si vous avez un problème de compétences, il faut faire quelque chose, soit passer au cloud, soit passer chez un MSP », conseille-t-il. « Si vous n'avez pas les compétences en mainframe, vous n'avez pas beaucoup d'options. Vous ne pouvez pas simplement fermer la porte et éteindre les lumières en espérant et en priant pour que les choses fonctionnent ». Quant à ceux qui envisagent de déplacer leurs applications mainframe vers le cloud ou de les moderniser, « la discussion porte sur le niveau de risque qu'ils sont prêts à prendre », estime le vice-président directeur de Gartner, soulignant que si un projet de migration mainframe s'étend sur trois, six, neuf ou douze ans, les directions IT seront confrontées à des coûts importants en cours de route. FedEx s'est en quelque sorte assis à la table de poker en disant : « Nous sommes tous dans le coup ». « S'ils parviennent à mener à bien cette migration et s'ils le font en temps voulu, je n'ai pas de doute qu'ils pourront réussir », affirme Mike Chuba. « Mais pour les clients qui traînent les pieds ou perdent leur élan après avoir mangé leur pain blanc, leur projet risque fort de s'enliser. Et s'ils s'entichent pour le nouvel objet séduisant qui se présente... leurs coûts pourraient s'avérer assez importants ». Ken Spangler de FedEx convient que, quel que soit l'environnement dans lequel l'entreprise se reporte, l'IT - et l'entreprise - doivent rester mobilisées. « Il faut prendre les devants et mener son initiative à bien, car ce type de technologies est très intégré. Et il faut rester concentré. C'est la partie la plus difficile », prévient-il.