Traditionnellement stockées dans une base de données, les nouvelles technologies produisent de nouveaux formats comme par exemple les données de capteurs, les séquences vidéo et bien d'autres types de données non structurées. Cette évolution rapide va avoir un impact considérable à la fois sur le marché du stockage en général, mais aussi sur la façon dont les entreprises devront gérer leurs données dans le futur. Les décideurs et les responsables informatiques doivent commencer à planifier pour l'avenir

1. Standardiser la gestion

L'objectif principal devrait être d'introduire autant de normalisation que possible. Par exemple, les entreprises devraient chercher à centraliser l'administration des systèmes de stockage existants, idéalement via une interface de gestion unique afin de facilité le triage, le contrôle et l’utilisation de ces quantités de données.

2. Systèmes hybrides de stockage et de hiérarchisation

De nombreuses entreprises souhaitent (ou ont besoin) de diversifier leurs moyens de stockage, en local et sur des plates-formes de type cloud. En effet, partout où un accès rapide à de grandes quantités de données est requis, la fourniture locale de SAN ou d'autres systèmes de stockage reste essentielle. Cependant, il est également intéressant de pouvoir stocker des données moins fréquemment utilisées dans le cloud à des fins de sauvegarde et d'archivage. Pour optimiser la façon dont le stockage est alloué, des mécanismes de hiérarchisation sont utilisés permettant automatiquement de définir à quel endroit les données doivent être stockées.

3. L'intelligence artificielle alimentée par le stockage rapide

Une autre tendance susceptible d'avoir une profonde influence sur les solutions de stockage est la montée en puissance de l'intelligence artificielle. C'est là que les grandes quantités de données entrent en jeu, en particulier pendant la phase d’apprentissage. Au cours de cette phase, les données sont examinées pour certaines de leurs caractéristiques par le système d'IA.Partout où des systèmes informatiques basés sur GPU sont utilisés, l'échange rapide entre l'IA et l'unité de stockage sous-jacente joue un rôle décisif. En fin de compte, les mêmes recettes s'appliquent ici : trouver le bon compromis entre systèmes de stockage locaux et dans le cloud.

4. Des datacenters locaux pour une connexion plus rapide

Les fournisseurs de Cloud reconnaissent de plus en plus qu'ils doivent fournir un accès le plus performant possible à l'infrastructure de l'entreprise. Ainsi, de nouveaux centres de données, tels que ceux de Microsoft ou d’Amazon, sont construits au plus près de leurs utilisateurs, afin d’éliminer, ou tout au moins de limiter, les problèmes de connexion aux serveurs placés dans le cloud. Cela s'applique également aux plus petits hébergeurs, souvent plus décentralisés et régionaux que ceux d'Azure ou d'AWS. Dans ces exemples, une connexion Internet solide est nécessaire, mais elle peut être obtenue plus facilement à l'aide de centres de données plus petits et plus locaux. Ce type de fournisseurs régionaux représentent alors un bon compromis en termes de coût et de performance. Ces fournisseurs régionaux peuvent souvent servir de points de connexions à haut débit aux cloud publics pour proposer des solutions multicloud.

5. Les solutions de sauvegarde et de récupération doivent répondre aux exigences

L’augmentation constante des quantités de données impacte également les sauvegardes et restaurations : il est évident que la récupération de pétaoctets de données perdues est bien plus délicate à réaliser que celle d'un gigaoctet ou d'un téraoctet. C’est également vrai pour l'archivage de grandes quantités de données, bien que cela soit naturellement moins critique en termes de temps que pour une restauration. Par conséquent, certaines avancées telles que l'indexation intelligente ou le stockage des métadonnées, jouent un rôle crucial. Ainsi, les données non structurées, comme par exemple des fichiers vidéo, devraient être aussi faciles à localiser que possible.

6. Le calcul haute performance arrive dans les moyennes entreprises

Par le passé, les moyens de calcul intensif étaient presque exclusivement réservés aux universités et aux centres informatiques publics. A l’avenir, même les moyennes entreprises ne pourront plus se passer de solutions de type HPC car la quantité de données qu’elles généreront nécessitera des moyens de calcul importants afin d’être traitée efficacement.

À mesure que le volume de données augmente, les moyens de traitement de type HPC sont nécessaires particulièrement là où des applications de simulation à forte intensité de calcul et de stockage sont utilisées. Prenons l’exemple d’un grand bureau d'ingénierie réalisant des calculs complexes qui nécessitent des moyens de calcul locaux et hautes performances pour la visualisation d'objets 3D. Sans environnement de type HPC, le temps traitement de tels volumes de données serait extrêmement long ou tout simplement impossible à réaliser.

Quelle est la prochaine étape ?

Le stockage a déjà subi des changements importants, mais il en reste encore beaucoup à venir. Ces nouvelles avancées incluent le stockage Objet pour une indexation et une allocation des métadonnées améliorées, et du stockage de classe « mémoire » pour un accès plus rapide et à faible latence, utilisant des mécanismes de hiérarchisation plus intelligents.

De plus, la technologie flash sous forme de composants SSD, continuera de s'affirmer jusqu’à supplanter tôt ou tard le disque dur classique dans l'environnement d'entreprise.