Après Fusion.IO et Primary Data, la dernière start-up fondée en 2018 par David Flynn se prénomme HammerSpace. Nous vous avons déjà signalé cette jeune pousse très active dans le domaine de la virtualisation du stockage et du data management. Avec la diminution des restrictions liées à la pandémie, nous avons de nouveau rencontré l’équipe de Hammerspace à Palo Alto la semaine dernière, lors d’un point organisé dans le cadre de l’IT Press Tour.

Le constat de David Flynn est simple : les entreprises peinent à gérer et à créer de la valeur à partir des données non structurées nécessaires pour alimenter les charges de travail de type analytique et IA. Pour répondre à cette problématique sans multiplier les copies, Hammerspace virtualise les ressources de stockage, en séparant les données des metadata tout en travaillant via des protocoles standard comme NFS, SMB et S3. Exploitant des travaux initiés avec Primary Data – David Flynn a convaincu une bonne partie de l'équipe de direction de Primary Data de se relancer, tout en conservant une partie de la propriété intellectuelle de la start-up en matière de virtualisation - Hammerspace a mis au point un système de fichiers parallèle, basé sur la version 4.2 de NFS. Ce dernier présente un espace de noms global unique - baptisé Global Data Environment (GDE) - permettant aux entreprises de stocker des données dans plusieurs centres de données d'une manière active-active et finalement cohérente.

 

Local ou cloud, Hammerspace travaille avec les ressources d'un grand nombre de fournisseurs de solution de stockage. (Crédit Hammerspace).

La couche de gestion axée sur les métadonnées a été conçue pour réduire la charge des administrateurs qui doivent s'assurer que les données sont prépositionnées là où les utilisateurs peuvent les obtenir (ainsi que gérer les instantanés, les versions et la protection des données). Avec son accès global, Hammerspace permet aux utilisateurs et aux applications d'accéder aux fichiers, avec une couche de gestion de type control plane (Global Data Orchestration) axée sur les métadonnées, qui élimine la nécessité de copier, déplacer et gérer les données qui se trouvent dans différents silos. « Mais nous ne gérons pas directement les données, mais les containers de stockage », souligne David Flynn. Une fois les ressources de stockage virtualisées, l'apprentissage automatique optimise le flux de données sur les clouds hybrides pour équilibrer les coûts et les performances. Les fonctions de gestion des métadonnées d'Hammerspace permettent la visibilité et la découverte des données à l'échelle mondiale, les catalogues de données, la gestion des données en libre-service dans les clouds hybrides et la gouvernance des données au niveau des fichiers. Tout cela est réalisé en utilisant l'infrastructure et l'architecture de stockage déjà en place.

Il y a plus de 20 ans, des sociétés comme Datacore et Falconstor s’étaient déjà attaquées à la virtualisation des ressources de stockage pour apporter un peu plus de souplesse aux entreprises. C’était bien avant l’essor du cloud computing et la généralisation du protocole S3, du stockage objet et du data management. Hammerspace vient aujourd’hui se concentrer sur l'optimisation des ressources locales et des services cloud pour les données non structurées (fichiers/objets), qui constituent la majorité des données d'entreprise et qui augmentent de 30 % d'une année sur l'autre. « Nous assurons aux utilisateurs et aux applications un accès aux données sur différentes plateformes - local, cloud et hétérogène – en fournissant un environnement de stockage globale grâce à une abstraction des ressources », nous a expliqué David Flynn. « L’idée est d’aider les données à échapper à la data gravité pour alimenter les différentes charges de travail dans les entreprises ».