L’edge computing désigne une infrastructure localisée géographiquement à proximité de l’endroit où sont générées ou consommées les données. Au lieu de pousser ces données vers un datacenter, ou un cloud public ou privé pour le stockage et le calcul, elles sont traitées « à la périphérie », dans une infrastructure constituée de simples serveurs ou de plateformes sophistiquées comme AWS for the Edge, Azure Stack Edge, Google Distributed Cloud ou Nutanix Xi. L’informatique « de périphérie » fait aussi référence aux limites supérieures en matière de performance, de fiabilité, de sécurité et autres exigences d’exploitation et de conformité. Pour répondre à ces exigences, le transfert du traitement, du stockage et de la bande passante vers une infrastructure edge peut permettre une mise à l’échelle des applications qui ne serait pas réalisable si elles étaient conçues pour un cloud centralisé. « L’informatique edge offre à l’entreprise une autre solution pour développer des relations plus approfondies avec les clients et les partenaires et obtenir des informations en temps réel », a déclaré Mark Thiele, CEO d’Edgevana. Et si parfois, dans les premières étapes du développement de preuves de concepts à petite échelle, l’infrastructure optimale est difficile à identifier par les équipes devops, attendre trop longtemps pour reconnaître le besoin d’une infrastructure edge peut obliger ces équipes à réarchitecturer et à retravailler leurs applications, ce qui augmente les coûts de développement, ralentit les délais ou empêche l’entreprise d’atteindre les résultats escomptés. Arul Livingston, vice-président de l’ingénierie chez OutSystems, est du même avis : « Parce que les applications sont de plus en plus modernisées et intégrées, les entreprises doivent tenir compte des technologies edge et de l’intégration dès le début du processus de développement afin d’éviter les problèmes de performance et de sécurité inhérents au développement d’applications de classe entreprise ».

Les équipes Devops devraient rechercher des indicateurs avant que les exigences d’infrastructure de la plateforme puissent être modélisées avec précision. 

Voici cinq raisons qui justifient la prise en compte de l’informatique edge. 

1 - Améliorer les performances et la sécurité dans la fabrication

Que valent quelques secondes dans un atelier de fabrication quand un retard peut causer des blessures aux ouvriers ? Qu’en est-il si la fabrication nécessite des matériaux coûteux et si le fait de détecter les défauts quelques centaines de millisecondes plus tôt peut permettre d’économiser beaucoup d’argent ? Selon M. Thiele, « dans le secteur manufacturier, un usage efficace de l’edge peut réduire les déchets, améliorer l’efficacité, éviter des blessures sur le lieu de travail et augmenter la disponibilité des équipements ». Selon lui, le coût de l’échec résultant d’une mauvaise décision ou d’une décision retardée est un élément clé à prendre en compte par les architectes. Si les risques ou les coûts sont importants, comme cela peut être le cas dans les systèmes de fabrication, les plateformes chirurgicales ou les véhicules autonomes, l’edge peut améliorer les performances et la fiabilité des applications nécessitant plus de sécurité. 

2 - Réduire la latence des actions en temps réel

Un temps de réponse inférieur à une seconde est une exigence fondamentale pour la plupart des plates-formes de négociation financière, et cette performance est désormais attendue dans de nombreuses applications qui nécessitent un délai rapide entre la détection d’un problème ou d’une opportunité et la réponse par une action ou une décision. « Si la prise de décision en temps réel est importante pour l’entreprise, alors une amélioration de la vitesse ou la réduction de la latence est essentielle, surtout avec tous les appareils connectés que les entreprises utilisent pour collecter des données », a déclaré Amit Patel, vice-président senior chez Consulting Solutions. Le défi technologique consistant à fournir des expériences cohérentes à faible latence est encore plus important quand les sources de données et de nœuds de décision sont multiples. C’est le cas, par exemple, quand on connecte des milliers de tracteurs et de machines agricoles déployés avec l’apprentissage machine (ML) sur les appareils de périphérie ou quand on autorise le métavers ou d’autres expériences à grande échelle entre l’entreprise et le consommateur. « Si l’on doit prendre des mesures en temps réel, alors l’edge s’impose d’emblée », a expliqué Pavel Despot, chef de produit senior chez Akamai. « L’infrastructure edge est adaptée à toute charge de travail devant atteindre des utilisateurs finaux géographiquement distribués avec une faible latence, une résilience et un débit élevé, ce qui couvre toute la gamme des médias en streaming, des services bancaires, du commerce électronique, des dispositifs IoT, et bien plus encore », a-t-il ajouté. Cody De Arkland, directeur des relations avec les développeurs chez LaunchDarkly, indique que les entreprises mondiales disposant de nombreux bureaux ou prenant en charge le travail hybride à l’échelle sont un autre cas d’usage. « L’intérêt de travailler à proximité de la périphérie, c’est que l’on peut distribuer ses charges de travail encore plus près des personnes qui les consomment », a-t-il ajouté. « Si l’application est sensible à la latence ou au « temps d’aller-retour » vers le datacenter principal, il faut envisager une infrastructure edge et réfléchir à ce qui doit être exécuté à la périphérie », a encore déclaré M. De Arkland.

3 - Augmenter la fiabilité des applications critiques

« Nous avons constaté que l’infrastructure edge suscite le plus d’intérêt dans des secteurs comme l’industrie manufacturière, le commerce de détail et les transports, où les temps d’interruption ne sont tout simplement pas envisageables et où la nécessité d’accéder aux données et de les utiliser en temps réel est devenue un facteur de différenciation concurrentiel », a déclaré Jeff Ready, CEO de Scale Computing. Ce dernier recommande d’envisager l’infrastructure edge quand le coût des temps d’interruption est élevé, que le temps de réparation est long ou qu’une infrastructure centralisée défaillante a un impact sur plusieurs opérations. M. Ready a donné deux exemples pour appuyer son propos : « Celui d’un cargo au milieu de l’océan qui ne peut pas compter sur une connectivité satellite intermittente pour faire fonctionner ses systèmes critiques à bord, et celui d’une épicerie qui doit collecter des données à l’intérieur du magasin pour créer une expérience d’achat plus personnalisée ». La panne d’un système centralisé peut avoir un impact sur plusieurs navires et épiceries, alors qu’une infrastructure edge hautement fiable peut réduire le risque et l’impact des temps d’interruption.

4 - Permettre le traitement local des données dans des lieux éloignés ou pour respecter la réglementation. 

Si les performances, la latence et la fiabilité ne sont pas essentielles en termes de conception, l’infrastructure edge peut néanmoins s’avérer nécessaire pour tenir compte des réglementations concernant le lieu de collecte et de consommation des données. « L’infrastructure edge est importante pour le traitement des données locales et les exigences de résidence des données. Par exemple, elle profite aux entreprises qui exploitent des charges de travail sur un navire qui ne peut pas télécharger des données vers le cloud en raison de la connectivité, qui travaillent dans des secteurs très réglementés imposant des restrictions sur la résidence des données dans une zone, ou qui possèdent une quantité massive de données nécessitant un traitement local », a expliqué Yasser Alsaied, vice-président de l’Internet des objets chez AWS. Une question fondamentale à laquelle les équipes devops devraient répondre est de savoir où les données seront collectées et consommées. Les départements de conformité doivent fournir des directives réglementaires sur les restrictions de données, et les responsables des fonctions opérationnelles doivent être consultés sur les limitations physiques et géographiques

5 - Optimiser les coûts, notamment la bande passante sur les énormes ensembles de données

Les bâtiments intelligents dotés d’un système de vidéosurveillance, de systèmes de gestion des installations et de systèmes de suivi de la consommation d’énergie capturent tous des volumes importants de données à la seconde. Traiter ces données localement dans le bâtiment peut s’avérer beaucoup moins coûteux que de les centraliser dans le cloud. « Tous les secteurs connaissent une forte croissance des données, et l’adaptation aux complexités exige un état d’esprit entièrement différent pour exploiter le potentiel des énormes ensembles de données. L’informatique edge apporte une partie de la solution, car il rapproche le calcul et le stockage de l’origine des données », a déclaré JB Baker, vice-président du marketing chez ScaleFlux. « La création des données à la périphérie du réseau soumet les architectures d’application et d’infrastructure à des défis distincts », fait remarquer pour sa part AB Periasamy, CEO et cofondateur de MinIO. Ce dernier suggère de « considérer la bande passante comme le poste de coût le plus élevé dans un modèle, alors que les dépenses d’investissement et d’exploitation fonctionnent différemment à la périphérie ». En résumé, quand des applications nécessitent un avantage en termes de performance, de fiabilité, de latence, de sécurité, de réglementation ou d’échelle, la modélisation d’une infrastructure edge par les équipes devops dès le début du processus de développement peut déboucher sur des architectures plus intelligentes.