En direct de Berlin - De nouveau installé dans la capitale allemande pour son événement européen Insight 2015, NetApp est revenu sur son programme Data Fabric. S’il s’agissait juste d’une vision l’année dernière, comme l’a avoué Joel Reich vice-président en charge des opérations produits, la solution est aujourd’hui bien réelle et ambitionne de répondre à une des nouvelles problématiques dans les entreprises, à savoir combiner au mieux les ressources de stockage cloud internes et externes avec une bonne gestion et synchronisation des données. Pour résumer, le concept de Data Fabric repose sur une couche virtuelle pour se connecter aux différentes plates-formes cloud de manière transparente et gérer des données sur site, dans un cloud privé, public ou encore hybride de manière cohérente. Ainsi les fournisseurs de cloud deviendraient des extensions naturelles de l’entreprise.

« Quelle stratégie les entreprises doivent-elles adopter pour profiter de la guerre des prix entre les géants du cloud et saisir les meilleures opportunités sans être verrouillé par un fournisseur ? », s’est demandé J. Reich lors d’un prébriefing presse à Berlin. Il faut toutefois préciser que Data Fabric repose bien sûr à la base sur les solutions de stockage de NetApp avec une couche de virtualisation tout simplement baptisé Data Fabric API pour se connecter à des clouds publics et privés avec un important travail sur les données. « Avec Data Fabric, l’idée n’est pas de simplement copier les données dans le cloud - pour les utiliser en DevOps, pour des back-up ou des plans de reprise d’activité - en utilisant toute la bande passante disponible, mais de travailler sur l’optimisation de la données avec déduplication et compression pour un snapshot incrémental avant de transporter les informations clefs et éviter les transferts inutiles », nous a assuré Lee Caswell. D’ou le parallèle avec la gravité dont les représentants du fournisseur ont abusé à Berlin. Les données seraient ainsi difficiles à déplacer d’un environnement à forte gravité vers le cloud mais avec mais avec sa solution qui repose en partie sur la technologie issue du rachat du produit Riverbed SteelStore, NetApp propose de retrouver de la légèreté.

Outscale bientôt partenaire Data Fabric

Depuis plusieurs années, on comprend bien après des discussions avec les dirigeants de NetApp que la société ne se considère plus comme un simple fournisseur de stockage (6 milliards de dollars de chiffre d’affaire l’année dernière) mais se projette comme un fournisseur de cloud hybride. « Nous étions les meilleurs pour le NAS, ensuite pour le SAN et nous sommes devenus les meilleurs en multiprotocoles et donc pour le cloud » nous a indiqué Val Bercovici, Global Cloud CTO chez NetApp. Pour commencer, la société qui a particulièrement travaillé sa complémentarité avec Amazon, annonce la disponibilité des datacenters irlandais et allemand d’AWS mais également du cloud provider allemand Darz pour Data Fabric. D’autres sont à venir dans les mois prochains notamment chez Microsoft Azure mais aussi Outscale en France. « Nous ne proposons pas Data Fabric tout seul, la valeur provient aussi de nos 250 partenaires », a assuré le dirigeant.

Pour le cloud privé, la société pousse à la fois Flexpod et OpenStack avec Cisco mais également NetApp Private Storage, Cloud Ontap et StorageGRID Webscale. « OpenStack est un bon moyen de construire un cloud orienté objet avec Swift et Amazon S3 en complément », nous a assuré Lee Caswell. « Nous travaillons avec Cisco sur OpenStack pour construire un système ouvert relié à nos solutions. Toutes les combinaisons sont ensuite envisageables ». Interrogé sur la concurrence ouvert avec la plate-forme InterCloud de Cisco, Lee Caswell , comme d’autres responsable NetApp d’ailleurs, nous a précisé que l’équipementier assurait simplement le transport des données en omettant la partie agrégateur de la solution.

De la flash pour apporter de la souplesse aux administrateurs

Comme lors de chaque événement Insight depuis 5 ans, nous sommes revenus sur la stratégie flash de la compagnie. Avec un George Kurian aux manettes de NetApp, le discours semble aujourd’hui mieux maitrisé. Si en 2012, la société avançait à pas comptés dans le monde de la flash (voir entretien avec Jay Kidd à Dublin), aujourd’hui les annonces se succèdent avec des solutions dans les séries F et E mais également un produit encore en développement la FlashRay. « Nous ne commercialisons pas encore cette baie, elle est en test chez des clients afin de recueillir les feedbacks et compléter le projet », nous a indiqué Lee Caswell. Si pour 2016, le dirigeant attend des SSD d’une capacité de 16 To, d’ici la fin de l’année les modèles 3,8 To seront proposés au prix des disques dur 15k SAS, à savoir 2$ le Go effectif, c’est à dire après le travail des algorithme de dédup et de compression. Sur le marché de la flash, NetApp pointe du doigt les silos recréés par ses concurrents du type Pure Storage ou Violin Memory, et assure conserver une bonne interopérabilité entre ses solutions. Un autre aspect abordé lors notre entretien avec Lee Caswell est la souplesse apportée par les baies flash dans le management des VM. « On parle beaucoup des performances brutes délivrées par les systèmes full-flash mais ce qui se passe aujourd’hui c’est que les administrateurs de systèmes VMware achètent de la flash pour ne plus passer leur temps à gérer les performances et travailler sur l’optimisation des VM et des applications ».