HP Enterprise s'est associé au National Renewable Energy Laboratory (NREL), le principal laboratoire du département américain de l'Énergie, localisé à Golden, Colorado, pour créer des systèmes d'intelligence artificielle et d'apprentissage machine afin d'améliorer l'efficacité énergétique des datacenters. Le laboratoire national du ministère de l'Énergie fournira à HPE des données historiques sur plusieurs années provenant des capteurs de son datacenter HPC Energy Systems Integration Facility (ESIF), l'un des datacenters les plus efficaces du monde. « Cette information aidera d'autres entreprises à optimiser leurs propres opérations », a déclaré le NREL. Le projet de collaboration baptisé « AI Ops R&D », devrait durer trois ans. Le NREL a déjà recueilli 16 téraoctets de données à partir des capteurs installés sur les supercalculateurs Peregrine et Eagle du datacenter de l'ESIF, et sur l'installation elle-même. Le laboratoire utilisera ces données pour entraîner des modèles de détection des anomalies afin de prévoir et de prévenir les problèmes avant qu'ils ne surviennent.

Le laboratoire a aussi pris très au sérieux l'efficacité énergétique de son datacenter. En effet, l'ESIF affiche une efficacité énergétique moyenne (PUE) de seulement 1,036, « la plus basse jamais atteinte pour un datacenter », selon notre confrère. Jusqu'à présent, la meilleure valeur rencontrée pour un datacenter était de 1,15. Cela signifie qu'actuellement l'ESIF récupère 97 % de la chaleur émise par ses superordinateurs pour chauffer les bureaux et les laboratoires situés à proximité. HPE et NREL affirment que les premiers résultats basés sur des modèles entraînés avec des données historiques ont permis de prédire ou d'identifier des événements qui s'étaient déjà produits dans l'ESIF. Leur priorité est d'évaluer l'usage de l'énergie par des indicateurs clefs comme le PUE (Power Usage Effectiveness), le WUE (Water Usage Effectiveness), et le CUE (Carbon Usage Effectiveness) en vue d'optimiser l'efficacité énergétique et la durabilité.

Le projet comprendra quatre domaines clés :

- La surveillance : collecter, traiter et analyser de gros volumes de mesures télémétriques faites sur l'IT et les installations provenant de sources disparates, avant d'appliquer des algorithmes aux données en temps réel.

- L'analyse : l'analyse big data et l'apprentissage machine seront utilisés pour analyser les données provenant de divers outils et dispositifs couvrant l'ensemble des installations du datacenter.

- Le contrôle : les algorithmes doivent permettre aux machines de résoudre les problèmes de manière autonome, d'automatiser intelligemment les tâches répétitives et d'effectuer la maintenance prédictive sur l'infrastructure IT et dans le datacenter.

- L'exploitation du datacenter : AI Ops est appelé à devenir un outil de validation pour l'intégration continue (CI) et le déploiement continu (CD) des fonctions IT de base dans le datacenter moderne.

HPE espère que le logiciel développé dans le cadre de ce projet permettra non seulement de fournir des analyses prédictives, mais aussi des services dans d'autres domaines clés. L'entreprise prévoit de livrer une pile de surveillance pour recueillir les données afin qu'elles puissent être analysées en temps réel. Elle souhaite également intégrer ses résultats à son système HPE High Performance Cluster Management (HPCM) afin de fournir un provisionnement, une gestion et une surveillance complète pour les clusters pouvant supporter jusqu'à 100.000 noeuds.