Avec la croissance continue des données non structurées dans les entreprises, les acteurs du data management se frottent les mains. Que ce soit en local ou dans le cloud, les silos se multiplient avec une augmentation considérable des coûts de stockage. Pour aider les entreprises à obtenir une vue unique sur leurs données, Komprise met en avant sa plateforme SaaS reposant sur son Global File Index, exploitant le moteur d’ElasticSearch, pour optimiser la gestion du stockage et réduire les frais d’exploitation. « Tout le monde parle aujourd’hui de data management et je tiens à réexpliquer notre différence d’approche », nous a indiqué le CEO et cofondateur de Komprise Kumar Goswani, lors d’un IT Press Tour à Campbell en Californie. « Nous sommes concentrés sur les données non structurées, nous ne regardons pas à l’intérieur des bases de données. Il y a une grande différence entre le control plane et le search plane, nous sommes vraiment un search plane ».

La première chose que Komprise réalise - lorsque la solution est mise en service dans une entreprise - est d’indexer tous les contenus et les métadonnées – associées ou créées - dans un index global stocké dans le cloud d’AWS. Et, ce à parti de tous les systèmes de stockage utilisés. « Le data management doit être indépendant de la couche stockage afin d’assurer une meilleure gestion de ces ressources et mieux exploiter les données disponibles pour gagner de l’argent », a souligné le CEO. Les économies sur le budget sont réalisées en confiant les données considérées comme froides à des acteurs clouds. Certaines entreprises ont toutefois trop investi dans des ressources de stockage interne pour s’affranchir de ces dernières et, si les solutions cloud sont trop chères sur le long terme, des options avec Cloudian ou HPE/Scality sont envisageables pour gérer du stockage objet en mode cloud privé

L'optimisation des ressources de stockage chez les clients passe par un inventaire exhaustif des données conservées en local et en ligne. (Crédit Komprise)

Des recommandations pour mieux gérer les données

« Nous indexons tout dans le cloud sans que vous ayez quelque chose à faire avec Global File Index. Nous proposons ensuite des politiques informatiques et nous fournissons des analytiques approfondies. Notre index conserve tout et nous pouvons gérer plus finement le stockage entre les différentes plateformes disponibles : du plus chaud au plus froid ».  Il n'est pas nécessaire d'avoir une frontière stricte et définitive entre données chaudes et froides. Au départ, elles sont toutes considérées comme chaudes, mais ensuite des recommandations incitent à déplacer vers AWS S3 ou Azure Blob les données qui n'ont pas été consultées depuis trois mois ou même détruire les emails de plus de trois ans. La définition des politiques est extrêmement flexible afin de respecter les réglementations en vigueur dans chaque pays. Le RGPD européen a ainsi fait école, et d’autres contrées – un peu partout dans le monde - s’attachent à mieux protéger les données personnelles des citoyens et des consommateurs. Lors de sa présentation, Komprise a également insisté sur l’utilisation des données disponibles pour exploiter des plateformes analytiques cloud à partir de sa solution de data management. 

Enfin, parmi les nouveautés mises en avant par Komprise lors de ce point presse, arrêtons-nous sur le partenariat noué avec Microsoft. Le service Azure File Data Migration permet aux clients de l’éditeur de bénéficier gratuitement de Komprise Elastic Data Migration pour gérer plus finement les différentes strates de stockage proposées sur la plateforme cloud. Comme l’explique Komprise, “ ce programme permet aux clients d’Azure d’automatiser et d’orchestrer la migration des serveurs, des postes de travail, des bases de données et des applications Web vers Azure”. La migration des applications sur site nécessite en effet l'identification et la migration des données stockées sur des NAS et d'autres systèmes de stockage sur site vers le bon service de stockage Azure. Ces migrations peuvent être laborieuses, sujettes aux erreurs et lenteurs lorsqu'il s'agit de déplacer de grands ensembles de données.