Le cloud a tué la trinité Hadoop - Cloudera, Hortonworks et MapR - et ce même cloud ne fera probablement pas gagner beaucoup à HPE, qui a récemment acquis les actifs commerciaux de MapR. Si l'accord promet de marier « la technologie, la propriété intellectuelle et l'expertise en intelligence artificielle, apprentissage machine (IA/ML) et gestion des données analytiques de MapR » avec les capacités de la plateforme de données intelligente « Intelligent Data Platform » de HPE, il ne contient pas le seul élément dont les deux entreprises ont le plus besoin : le cloud.

Autrement dit, le problème, comme le souligne James Kobielus, analyste chez Wikibon, n'est pas que MapR manque de gens intelligents et d'une excellente technologie. Non, le problème c’est que MapR a conservé une approche beaucoup trop Hadoop et pas assez cloud dans un monde plein d' « offres entièrement intégrées [cloud-first], avec un coût d'acquisition inférieur, et moins chères à mettre à l'échelle », comme l'a déclaré Mathew Lodge, CEO de Diffblue. Bref, MapR a beau étendre les actifs de données de HPE, cela ne fait pas de HPE un concurrent pour le cloud.

L'importance du cloud

Oui, le cloud hybride compte toujours pour quelque chose, et ce sera encore le cas pour de nombreuses années à venir. Même si les entreprises expriment le désir de migrer des charges de travail dans le cloud, 95 % de l’IT reste fermement implanté dans des datacenters privés. Les nouvelles charges de travail sont souvent exécutées dans le cloud, mais il y a littéralement des décennies de charges de travail qui tournent encore sur site.

Cependant, ce monde hybride, que HPE porte haut et fort - « innover avec le cloud hybride », « de l’edge au cloud », « exploiter la puissance des données où qu'elles se trouvent », etc. - n'a pas pris aussi d’importance dans les données big data. Cela s'explique en partie par le fait que les entreprises s’appuient toujours sur des modèles de la vieille école comme Hadoop, « construit pour être une source unique géante de données », comme l'a déclaré Hyoun Park, CEO d'Amalgam Insights. Or, ce modèle est encombrant, surtout dans un monde où les données big data naissent dans le cloud et veulent y rester, sans être envoyées vers des serveurs sur site. Certes, il est possible d’exécuter Hadoop dans le cloud. C'est exactement ce que font des entreprises comme AWS (Elastic MapReduce, mais pour qui ?). Mais probablement, même Hadoop dans le cloud est une stratégie perdante pour la plupart des charges de travail impliquant des données big data, parce que cette solution ne s'adapte tout simplement pas au monde des données en continu dans lequel nous vivons.

Quid du legacy ?  

Il y a aussi le problème des infrastructures sur sites. Comme l’a déclaré Matt Wood, le Chief Data Science d’AWS, à notre confrère d’InfoWorld, l'élasticité des cloud est cruciale pour le data science :

- les entreprises qui achètent des infrastructures coûteuses constatent que la nature du problème et le domaine changent très rapidement. Le temps de répondre à la question initiale, et l’entreprise est déjà passée à autre chose. Un environnement flexible qui permet de répondre rapidement à l'évolution des besoins en données big data est indispensable. La combinaison des ressources est en constante évolution. Une infrastructure devient presque immédiatement obsolète pour l’entreprise dès son acquisition, car elle est figée dans le temps. Elle est adaptée à un problème auquel l’entreprise n’est peut-être plus confrontée ou dont elle ne se préoccupe plus. MapR avait fait des efforts pour aller au-delà du Hadoop sur site historique, mais sans doute trop peu, trop tard.

Le cloud ne s’achète pas

Ce qui nous ramène à HPE. En 2015, l'entreprise a abandonné son offre de cloud public (aux Etats-Unis uniquement), décidant à la place de « doubler ses capacités de cloud privé et géré ». Cela pouvait sembler acceptable à l'époque où OpenStack respirait encore, mais ce choix a essentiellement contraint HPE à devenir un fournisseur sur site, l’obligeant à s’appuyer sur des partenariats pour trouver sa voie dans le cloud public. Ce n'est pas assez. Comparativement, Red Hat peut se targuer d'avoir des actifs importants dans Kubernetes (Red Hat OpenShift) et aider les entreprises à construire des scénarios hybrides et multi-cloud. Ce que ne fait pas HPE. Ce dernier a essayé d'y parvenir par acquisition (de BlueData par exemple pour les conteneurs), mais son ensemble de produits n’est pas assez cohérent.

Plus inquiétant encore, tous les grands fournisseurs de cloud public disposent désormais d'une solide offre de cloud hybride, et les entreprises qui cherchent à se moderniser choisiront souvent d'opter pour un fournisseur cloud-first qui possède également une expertise dans les datacenters privés, au lieu de parier sur des fournisseurs existants soucieux de proposer une offre de cloud public pertinente. Chez Google, l’offre de cloud hybride et multicloud s’appelle Anthos. Pour Microsoft Azure, l'hybride était au cœur de l'offre de produits et du marketing de l'entreprise depuis le début. Et pour AWS, qui, à un moment donné, a renoncé aux datacenters privés, l'entreprise a développé une multitude de services hybrides (Snowball par exemple) et de partenariats (VMware) pour aider les entreprises à avoir leur part de gâteau dans le cloud sans renoncer aux datacenters privés.

Un rachat perdant ?  

Et voilà que MapR fait sont apparition, avec son approche propriétaire et anticonformiste du marché Hadoop open source. Cette approche lui a valu quelques conversions importantes, mais jamais une large adoption. Oui, c’est une bonne technologie, mais son ADN n’est pas « cloud ». En conclusion, il faut espérer que le mariage de HPE avec MapR va rendre satisfaire des entreprises, mais ce renforcement de HPE sur des actifs technologiques qui ancrent encore plus l’entreprise sur site n'est pas très prometteur. Le big data appartient au cloud, et le cloud ne s’achète pas : c’est une autre façon d'opérer, de penser. Or, ce n’est pas ce que HPE gagne en rachetant MapR.