Après 16 ans d’existence, Scality atteint-il sa vitesse de croisière ? Après avoir lancé ses deux offres de stockage objet historiques Ring et Artesca, ciblant respectivement (et principalement) les grandes entreprises et les PME, l’éditeur français annonce sa dernière offre, Autonomous Data Infrastructure (ADI). Basée sur son propre OS (une version personnalisée de Rocky Linux qui ne fonctionne pas en accès root) et sa plateforme Ring, cette solution de data management sert à déployer et exécuter des politiques de gestion du cycle de vie des données sur différents systèmes de stockage (SSD NVMe, disque dur, bande et stockage cloud via des connecteurs S3) au sein d’un espace de données (namespace) commun. La solution couvre 4 classes de stockage, en mode tiering, du plus chaud au plus froid. A savoir GPU Direct S3 over RDMA avec TLC haute performance, S3 avec QLC, S3 avec SSD nearline/disque durs, et bande ou services d’archivage cloud.

Le fournisseur met en avant plusieurs avantages concernant ADI dont le principal est de répondre à différents cas d'usage des entreprises ayant chacun leurs contraintes en termes de débit, latence, et gouvernance des données associés. Qui peut le plus peut le moins, cette plateforme peut par exemple répondre à des exigences de performances extrêmes des GPU à plusieurs To/s avec une latence très faible grâce à connecteur KV Cache accéléré par RDMA. Rappelons que le KV Cache ou Key-Value Cache est une technique d'optimisation fondamentale pour accélérer l'inférence des LLM basés sur l'architecture Transformer.

Zoom sur l'architecture d'Autonomous Data Infrastructure. (crédit : Scality)

ADI assure aussi, via un agent IA baptisé Guardian, la maintenance en conditions opérationnelles (réparation, rééquilibrage, mises à jour...) et de l'observabilité sur le stockage et les données. Cette fonction sert également à pousser des correctifs pour combler des CVE identifiées.

Pas d'auto-tiering de données

A noter que la solution ne dispose pas d'auto-tiering de données pour stocker et lire automatiquement des données sur le support de stockage le mieux adapté en fonction des règles ou des politiques prédéfinies par l'entreprise. Il faudra donc se contenter d'un tiering manuel dépendant des politiques validées manuellement par l'opérateur. « Pour l’instant toute action opérationnelle sur un système doit être validée par un humain », a expliqué dans un point presse de mardi Jérôme Lecat, PDG de Scality. « L’humain reste dans la boucle ». Une précision qui explique aussi le nom choisi par l’éditeur pour sa solution, qui préfère parler d’autonomie plutôt que d’automatisation.

Zoom sur l'architecture de Guardian. (crédit : Scality)

Claude, Gemini et Mixtral derrière Guardian

Pour son agent, Scality repose sur différents modèles, à ce jour Claude d’Anthropic, Gemini de Google et Mixtral de Mistral. Pour autant, pas question de faire la course aux LLM les plus performants du marché. « Guardian n’a pas besoin des meilleurs modèles pour fonctionner et on estime qu’il sera capable de fonctionner sur des modèles on premise plus petits et openweight », poursuit Jérôme Lecat. Les développeurs aussi bien que les administrateurs de stockage peuvent par exemple créer des buckets via des prompts écrits (le speech to text est dans la feuille de route).

Scality, désormais profitable comme avait pu nous le dire Jérôme Lecat à l’occasion du récent partenariat avec Weka, mise beaucoup sur ADI. Il pense d’ailleurs répondre à la fois à la demande de ses nouveaux clients (dans 9 cas sur 10 pour des projets IA) que les plus anciens ayant déjà déployé Ring (pour des projets plus variés.) Poussée auprès de son réseau de partenaires revendeurs, ADI commence à intéresser certaines entreprises comme Groupama qui vise un déploiement pour septembre prochain, s’il parvient toutefois à surmonter son problème d’approvisionnement de serveurs couplé à une hausse drastique du prix de la flash. Un retour client que nous aborderons prochainement.