Il fut un temps où la trajectoire semblait tracée. Le cloud s’imposait comme une évidence, porté par des promesses d’agilité, de réduction des coûts et de simplification des infrastructures.

Mais ce mouvement connaît aujourd’hui un infléchissement : « On observe clairement un rééquilibrage », observe William Eudes, directeur du support technique chez Synology. « Les entreprises s’orientent de plus en plus vers des architectures hybrides, et parfois même vers des modèles plus localisés. » Ce retour n’est ni idéologique ni technique. Il est avant tout pragmatique.

Le coût réel du cloud, premier facteur de remise en question

Parmi les éléments qui conduisent les DSI à revoir leur stratégie, la question financière arrive souvent en tête. Pour William Eudes, « beaucoup d’entreprises ont sous-estimé certains coûts. Le stockage en lui-même peut paraître abordable, mais dès que l’on commence à manipuler les données — les rapatrier, les interroger — des frais supplémentaires apparaissent ».

Ces coûts, souvent peu visibles au départ, s’accumulent avec le temps. Les frais de sortie, en particulier, posent un problème majeur lorsqu’il s’agit de reprendre la main sur ses données. À cela s’ajoutent les coûts liés aux requêtes ou à l’utilisation avancée des services cloud, qui rendent la projection budgétaire incertaine.

Dans certains cas, une infrastructure locale peut s’avérer plus économique sur le long terme. Mais au-delà de la dimension financière, une autre forme de dépendance conduit de plus en plus d’organisations à revoir leur stratégie.

Souveraineté et cybersécurité : une frontière qui s’estompe

La question de la souveraineté des données ne se limite plus à la conformité réglementaire. Elle s’inscrit désormais dans une réflexion plus large sur la maîtrise des risques.

« Avec le contexte géopolitique actuel et des réglementations comme NIS2, les entreprises prennent conscience qu’elles ne sont pas totalement maîtres de leurs données lorsqu’elles sont hébergées par des acteurs soumis à des législations extraterritoriales », souligne William Eudes.

Même lorsque les données sont stockées en Europe, elles peuvent rester soumises à des lois étrangères, notamment dans le cas de fournisseurs internationaux. Cette réalité introduit une incertitude supplémentaire, difficile à intégrer dans une stratégie de cybersécurité. Car derrière la souveraineté, c’est bien la capacité à contrôler, protéger et récupérer ses données qui est en jeu.

Le NAS, ou le retour du contrôle par le local

Face à ces enjeux, les organisations cherchent donc à rééquilibrer leur architecture. Et dans ce mouvement, le stockage local retrouve une place stratégique. « Le NAS est avant tout un cloud privé. Il offre un cadre maîtrisé pour le stockage des données, avec un contrôle direct sur leur localisation et leur gouvernance », résume William Eudes.

Les serveurs NAS évoluent ainsi vers des usages beaucoup plus structurants. Ils deviennent un point d’ancrage, autour duquel s’organise l’ensemble de l’architecture de données.

Ce repositionnement s’explique aussi par l’évolution des usages : les solutions NAS modernes ne se limitent plus à héberger des fichiers : elles intègrent désormais des services applicatifs complets. « Beaucoup d’entreprises associent encore le NAS à du simple stockage. Mais ne perdons pas de vue qu’il peut aussi intégrer des outils de collaboration, de messagerie ou de partage de documents, directement sur l’infrastructure locale », précise William Eudes.

Des solutions comme Synology Drive, Office, MailPlus ou Chat permettent ainsi de recréer un environnement de travail collaboratif, comparable aux suites SaaS, tout en conservant les données en interne. Ce basculement est loin d’être anecdotique. Il permet de limiter la dispersion des données, de simplifier leur gouvernance et de renforcer leur protection.

Repenser le rôle du cloud : de plateforme centrale à filet de sécurité

Dans cette logique de rééquilibrage, le cloud n’est plus envisagé comme le socle principal de l’infrastructure, mais comme une brique complémentaire au service de la résilience. « Le cloud peut être considéré comme un backup tiers, une assurance en cas de problème majeur », explique William Eudes.

Cette approche repose sur un principe simple : conserver les données actives en local, et utiliser le cloud comme une couche de protection supplémentaire. Elle s’inscrit dans une logique de sauvegarde structurée, souvent résumée par la règle du 3-2-1, enrichie aujourd’hui d’une dimension complémentaire avec l’immuabilité.

L’immuabilité, dernier rempart face aux attaques

Face à des attaques capables de chiffrer ou de supprimer des environnements entiers, la question n’est plus seulement de sauvegarder, mais de s’assurer que certaines copies restent inaltérables. C’est précisément le rôle de l’immuabilité. « Une sauvegarde immuable ne peut pas être modifiée ni supprimée pendant une période définie. Même si un attaquant accède au système, il ne pourra pas altérer ces données », poursuit William Eudes.

Ce mécanisme offre une garantie essentielle : celle de pouvoir repartir d’un état sain, même après une attaque majeure. Il impose toutefois une gestion rigoureuse, notamment en matière de capacité de stockage et de politique de rétention. Mais son efficacité en fait aujourd’hui un élément clé des stratégies de cybersécurité.

Une nouvelle maturité des stratégies IT

Au final, ce mouvement révèle une évolution dans la manière dont les organisations appréhendent leur infrastructure. Le débat ne se résume plus à une opposition entre cloud et on-premise. Il porte désormais sur la capacité à choisir, à adapter et à reprendre la main.

« L’objectif n’est pas d’abandonner le cloud, mais d’inverser la logique. Le stockage principal reste local, et le cloud devient une extension, une garantie de résilience », conclut William Eudes.