Hitachi Data Systems (HDS) met depuis quelques mois les bouchées-doubles pour s'ouvrir à d'autres horizons, en particulier dans le big data (via le partenariat signé avec Hortonworks autour de sa distribution Hadoop et le rachat de Pentaho) ainsi que dans les systèmes convergés (avec son offre Unified Compute Platform). Mais pour l'heure, le principal moteur de croissance du constructeur japonais reste avant tout les systèmes traditionnels blocs et fichiers. « Il y a une grande effervescence autour du big data, de l'Internet des objets et de la mobilité mais ce sont davantage des sujets d'évangélisation que des moteurs à la croissance du groupe », nous a ainsi confirmé Laurent Bartoletti, responsable stockage Europe du Sud chez HDS. « La majeure partie de notre business aux Etats-Unis et surtout en France est tirée par des projets de type stockage de bases de données traditionnelles ».

Pesant 5 milliards de dollars en 2014, les revenus d'HDS se répartissent entre les Etats-Unis (40%), la zone Asie-Pacifique (30%) et l'EMEA (30%), sachant que ses gammes de solutions se découpent en 4 grandes familles : bloc et serveurs de fichiers donc mais aussi contenus enrichis et convergés/hyperconvergés.

Avec la baie G200, HDS s'attaque au marché des PME avec ses solutions de virtualisation.

HDS s'est positionnée depuis plusieurs années sur la flash, en développant notamment une technologie baptisée Accelerated Flash qui a permis de donner un coup de fouet significatif à la performance de ses systèmes de stockage et d'ailleurs été distinguée par le classement bench SPC1. « Nous comptons faire passer ces benchs sur des plus petites configurations et plus uniquement sur les grandes », a précisé par ailleurs Laurent Bartoletti. L'activité flash d'HDS représente cependant aujourd'hui moins de 10% de l'ensemble des revenus du groupe mais sa croissance est promise à un bel avenir. Mais pas avant quelques années : « Les technologies flash coûtent encore très chères et restent limitées en termes de volumétrie même si on monte aujourd'hui à 3,2 To [par drive] et que l'on va être capable de grimper jusqu'à 6,4 To d'ici fin 2015 », poursuit le responsable stockage.

Un PRA au taux de SLA de 100%

Outre la performance, c'est également du côté de la qualité de service que HDS espère faire la différence. Pour tenter de convaincre, le fournisseur propose même depuis l'année dernière un service de reprise sur incident affichant un SLA - quelque peu insolent - de 100%. Après un an, le pari est (presque) gagné, le constructeur nous ayant indiqué qu'il lui arrive « de temps en temps » de payer quelques pénalités pour ne pas avoir réussi à atteindre ce niveau de qualité de service. En tout état de cause, HDS mise en tout cas plus que jamais sur la robustesse et la fiabilité de ses systèmes de stockage : « Nous avons mis en place un système de traçabilité de pièces en vigueur dans nos trois usines aux Etats-Unis, au Japon et en France à Orléans permettant d'assurer le suivi des composants gravés au laser permettant d'identifier immédiatement les éventuelles pièces défaillantes à remplacer en cas d'urgence ou prévu à l'avance », indique Laurent Bartoletti. « Nous ne pratiquons aucun échantillonnage, tous nos systèmes sont testés en fonctionnement pendant plusieurs jours dans des salles chaudes à plus de 40 degrés ou des salles froides à -20 degrés ».

Dernièrement, le fournisseur a annoncé l'extension de la virtualisation de stockage (SVOS) à l'ensemble des offres de sa gamme VSP. « Le micrologiciel SVOS était jusqu'à présent uniquement disponible sur les configurations haut de gamme type G1000, il est depuis peu étendu aux plus petites configurations comme G200 qui proposent à l'heure tour des fonctions de développement et d'API, le déplacement à chaud de machines virtuelles, le mirroring ou encore la haute disponibilité », fait savoir Laurent Bartoletti. Quel que soit la gamme en revanche, il ne faudra pas s'attendre à voir arriver une fonction de déduplication en mode bloc avant plusieurs années. « Cela a pour le moment un impact trop élevé sur la puissance machine et pose des problèmes pour garantir un niveau de performance égal à celui que nous proposons aujourd'hui. Il faudra attendre je pense 5 ans avant de parvenir à l'atteindre », nous a indiqué le responsable stockage d'HDS.

Une offre d'hébergement cloud extensible à 10 000 mètres carrés sur Orléans

Pour ce qui est du prix, il faudra s'attendre pour une configuration G200 à une fourchette comprise entre 20-30 000 euros contenant plus de 200 disques durs/machine et affichant une performance de 200 000 IOPS. Côté chiffrement, HDS a opté pour une solution matérielle, pas logique, avec des cartes ASIC spécialisées montées entre le contrôleur de stockage et les disques serveurs sur le backend. Tout les clients du fournisseur ne choisissent pas cette option, cela dépend du choix fait par les entreprises en matière de politique de sécurité (possibilité de pénétrer physiquement sur le datacenter, méthode de chiffrement maison...). HDS annonce en outre une réplication sur 3 sites, avec 3 machines localisées sur 2 sites cluster actif-actif et un autre longue distance asynchrone.

En France, une offre cloud d'hébergement « de haut niveau » est par ailleurs proposée depuis quelques mois, dont l'infrastructure est adossée à l'usine orléanaise d'HDS et qui s'étend sur une surface de 2 000 mètres carrés mais dont le potentiel d'évolution est évalué à 10 000 mètres carrés. Quelques dizaines de clients PME recourent à cette offre, sachant que ce n'est pas la seule offre d'hébergement cloud proposée : une autre est possible via les datacenters d'Equinix, avec qui HDS est partenaire, ou sur les datacenters d'Oxya, racheté au printemps dernier. « Nous travaillons sur des offres de serveurs de fichiers intégrés en natif aux systèmes de stockage prévus pour 2016 », a par ailleurs promis Laurent Bartoletti.