La concurrence est forte sur le marché des systèmes convergés et hyper-convergés pour datacenters, mais HPE est en ce moment en pole position sur les infrastructures composables. Ces dernières permettent aux administrateurs de datacenters de déployer les ressources d’infrastructure par logiciel, rappelle l’analyste Patrick Moorhead, fondateur du cabinet Moor Insights and Strategy. Ce mode de fonctionnement a été mis en place initialement sur la famille de serveurs Synergy de HPE. Il consiste à traiter les infrastructures matérielles et de stockage comme des ensembles de ressources pouvant être déployées au gré des besoins afin de permettre aux entreprises de réduire les coûts des datacenters et le temps de mise en service de nouvelles applications. « C’est un secteur où HPE est en tête », constate Patrick Moorhead qui voit un continuum entre systèmes convergés, hyperconvergés et infrastructures composables. Toutefois, sur ces dernières, la concurrence commence à se rapprocher, en particulier celle de Dell-EMC, ajoute l’analyste. Cette semaine à Las Vegas, HPE montre donc des innovations qui lui permettront de garder une tête d’avance.

Parmi les briques essentielles à l’infrastructure définie par logiciel de HPE figure le logiciel d’administration OneView 3.1 qui va supporter les serveurs Gen10 du fournisseur. « OneView est un important facilitateur de notre composabilité. Lorsque nous prenons des éléments associant serveur, stockage et réseau comme des ressources fluides qui peuvent être composées, c’est vraiment le logiciel qui se trouve derrière », a expliqué Doug Strain, responsable des produits de gestion de serveurs. OneView 3.1 bénéficie notamment d’un système de réglage avancé qui permet aux serveurs d’augmenter les performances processeur pour certaines charges de travail tout en modulant la fréquence. Cette technique de « jitter smoothing » aide à contrôler qu’aucune donnée n’est perdue au moment où les performances sont boostées. Elle peut être utilisée par exemple sur les systèmes de trading pour doper les capacités de traitement lorsqu’il le faut, sans risquer de perdre des données. OneView fournit une douzaine de paramètres de workloads préréglés pour aider les entreprises à ajuster leurs systèmes pour certains types d’applications. Cela inclut des pré-réglages pour les charges de travail à faible latence, les traitements graphiques, les workloads de type web e-commerce, ainsi que les charges de travail virtualisées à faible consommation d’énergie.

Mémoire persistante : jusqu'au téraoctet

HPE repousse aussi les limites sur les technologies de mémoire persistante qui combinent la performance des DRAM avec la persistance de la flash. Le fournisseur a associé une couche de DRAM, une couche de flash et une source d’alimentation intégrée (Smart Storage Battery) placée derrière la mémoire et qui se connecte à la carte mère via des slots mémoire. Jusqu’à maintenant, HPE proposait sa mémoire persistante sous la forme de modules NVDIMM. Ceux-ci se connectent dans les slots DIMM standards des serveurs et permettent aux applications de s’exécuter beaucoup plus rapidement qu’avec les solutions de stockage standard puisque les données n’ont pas à transiter entre CPU et disque. Les données sont par ailleurs conservées si un serveur tombe en panne. Sur Discover, HPE annonce que la capacité des modules NVDIMM va être étendue de 8 Go à 16 Go.

Mais la principale annonce sur la mémoire persistante qui doit être démontrée cette semaine concerne des capacités de l’ordre du teraoctet résidant directement sur le bus mémoire. « Lorsque vous atteignez ces niveaux, vous ouvrez la porte à des cas d’usage différents », explique Bret Gibbs, responsable de ces produits chez HPE. Par rapport aux NVDIMM qui peuvent être utilisées avec de plus petites bases de données, pour les logs de connexion et les fichiers d’indexation, la mémoire persistante évolutive peut être exploitée avec des systèmes haute performance à grande échelle comme le moteur OLTP in-memory Hekaton intégré à la base de données SQL Server de Microsoft, ou avec des systèmes de trading haute fréquence. Alors que le coût des NVDIMM est supérieur à celui des modules DRAM, la mémoire persistante peut réduire le coût global, a souligné Bret Gibbs. Il ajoute que les utilisateurs obtiendront de meilleures performances sur leurs serveurs avec la mémoire persistante en réduisant le nombre de paires de cœurs requises. Puisque le prix des serveurs est souvent basé sur le nombre de cœurs, cela permettra d’en baisser le coût total, indique-t-il.

Chiffrement et code personnalisé au niveau du silicium

HPE met également en avant les améliorations apportées à la sécurité des serveurs au niveau du firmware. La forte augmentation constatée sur les attaques de firmwares et c’est un sujet sur lequel il convient de redoubler d’attention, selon l’association de cybersécurité ISACA. Dans une récente étude, cette dernière rappelle que les entreprises ne se préoccupent pas suffisamment des nombreuses vulnérabilités présentes à ce niveau. La voie choisie par HPE consiste à combiner des algorithmes de chiffrement et du code personnalisé dans le silicium sur les puces associées à son microcode iLO (Integrated Lights-Out, utilisé pour gérer les serveurs dans les datacenters) qu’il développe en interne, créant ainsi ce que le fournisseur appelle une empreinte numérique. Les malwares modifieraient les bits du firmware en créant une incompatibilité avec l’empreinte embarquée dans le silicium, ce qui empêcherait dès lors le serveur de redémarrer avant que le processus de récupération soit terminé.

Ce mode de fonctionnement ne protège pas seulement l’UEFI – Unified Extensible Firmware Interface – le BIOS moderne, mais aussi tous les aspects de gestion du firmware processeur et la logique liés à la tension et à la régulation permettant de démarrer les systèmes, selon Mark Potter, le CTO de HPE. Comme cette sécurisation est intégrée au silicium dans les propres usines de HPE, le fournisseur peut protéger ses firmwares tout au long de la chaîne jusqu’aux entreprises clientes, ajoute le CTO. La technologie sera disponible sur tous les serveurs HPE exploitant iLO 5.0.

L'analyse du comportement de Niara s'intègre à ClearPass Policy Manager

Avec la plateforme Gen10, HPE fournit aussi les fonctionnalités de sécurité basées sur l’analyse du comportement qu’il a acquises cette année avec le rachat de Niara. Il les intègrent avec la plateforme de contrôle des accès ClearPass Policy Manager d’Aruba. Niara utilise l’apprentissage machine et l’analyse des big data notamment pour détecter les comportements douteux. Sur Discover 2017, HPE n’accompagne pas ses annonces de tarification car les serveurs Gen10 ne sont pas encore lancés officiellement. Pour avoir des détails sur les processeurs, par exemple, il faudra attendre qu’Intel lance sa dernière génération de puces Xeon avec l’architecture Skylake, autour du 3ème trimestre.

En revanche, HPE a indiqué que les serveurs en question seraient livrés eux-aussi au troisième trimestre : le ProLiant BL460c Gen10 Server Blade, les ProLiant DL360, DL380 et DL560 Gen10, ainsi que les Compute Modules Synergy 480 et 660 Gen10. Au quatrième trimestre arriveront ensuite les serveurs ProLiant Gen10 ML110, ML350, DL120, DL160, DL180 et DL580. Quant à la version 3.1 du logiciel d’administration OneView, il sera bien sûr livré pour l’ensemble des gammes serveurs.