La semaine dernière, Google Cloud a organisé un évènement baptisé Spotlight on Storage. L’occasion pour le fournisseur de dévoiler des annonces autour de son offre de stockage. Dans un blog, Guru Pangal, vice-président et directeur général du stockage chez Google Cloud évoque en entrée en matière, que « les clients collectent plus que jamais des données précieuses provenant de multiples sources différentes. De plus, ils exigent que ces données soient centralisées et normalisées avant de les analyser ». Il précise que « le stockage devient le substrat commun d’une gamme de services à forte valeur ajoutée, notamment les datalakes, la modélisation et la simulation, le big data, le HPC, l’IA et le machine learning ». Pour lui, « ces applications exigent la flexibilité du stockage objet, la capacité de gestion du mode fichiers et la performance du modèle bloc ».

Personnalisation fine, automatisation et Kubernetes au menu

Dans ce cadre, Google a annoncé pas moins de 6 services de stockage lors de l’évènement. A commencer par Hyperdisk, un complément à la solution existante Persistant Disk. Ce service en mode bloc adapte dynamiquement les performances du stockage en fonction des charges de travail spécifiques. Par exemple, il pourra supporter jusqu'à 300 000 IOPs et 4 Gbps, afin de supporter des workloads de bases de données exigeantes telles que HANA de SAP.

Autre solution, Filestore Enterprise multishare pour GKE, la distribution Kubernetes de Google Cloud. Il s’agit d’un service de stockage de fichiers managé destiné aux applications qui requièrent une interface de système de fichiers partagée pour les données. Il est possible d’allouer jusqu'à 10 partages sur une même instance Filestore Enterprise. Chaque partage correspond à un volume persistant (PV) unique dans GKE. Ces derniers peuvent accueillir de 100 Go à 1 To. La dernière version du service propose une fonctionnalité de mise à niveau du stockage de manière transparente pendant l’exécution des applications GKE, ainsi que le support de la disponibilité régionale de 99,99%, souligne Guru Pangal.

Enfin sur la partie objet, la firme américaine lance la fonction Autoclass conçue pour faciliter la gestion des volumes de stockage objet et optimiser les coûts. Les administrateurs pourront ainsi déterminer quelles sont les données chaudes et froides et donc où les conserver, c'est-à-dire les niveaux de stockage standard, nearline, cold line et archive de Google. Ces opérations sont habituellement réalisées manuellement, constate Guru Pangal. Il est donc logique de l’automatiser pour diminuer les coûts et éviter les erreurs.

L'intégration d'Actifio consolidée dans une offre backup et DR cloud

La partie analytique n’est pas oublié avec la fonction Storage Insights destinée à fournir des données exploitables sur les différents objets stockés par les clients dans Google Cloud. « Les clients pourront poser les questions simples et les réponses les aideront à prendre les décisions en matière de gestion du stockage », souligne Guru Pangal. Ils pourront créer des tableaux de bord en couplant cette fonction avec Big Query et ainsi visualiser le contenu de leurs data stores.

Enfin dernier point et non des moindres, le fournisseur annonce l’arrivée de l’offre Cloud Backup and DR (Disaster Recovery). Il s’agit d’un service de protection des données entièrement intégrée pour des applications et des bases de données critiques comme Google Cloud VMware Engine (GCVE) ou SAP HANA. Il s’agit en fait de l’intégration de la solution Actifio, société rachetée en 2020. Elle proposait alors une offre de data management pour les grands comptes. Spécialiste de la copie multicloud, il permet de virtualiser les données en s’appuyant sur sa technologie Virtual Data Pipeline. Actifio travaille avec les API disponibles et crée des pipelines de gestion des données.