Red Hat a apporté à la communauté Apache Hadoop son plug-in Storage Hadoop pour que sa solution de stockage prenne en charge les systèmes de fichiers des environnements big data. Cette initiative intervient alors que l'éditeur Open Source veut densifier son support du stockage et sa stratégie de gestion du big data dans le cloud.

Red Hat explique, « nous travaillons avec les communautés Open Source pour soutenir les clients ayant des problématiques big data. De nombreuses entreprises dans le monde utilisent des infrastructures de cloud public, comme Amazon Web Services pour le développement, des tests, de la pré-production pour leurs projets big data ». Il ajoute « les applications seront ensuite transférées vers leurs clouds privés pour faire de l'analyse avec d'autres jeux de données. Dans ce cas-là, un environnement de cloud hybride ouvert donne aux entreprises la possibilité de migrer leurs charges de travail d'un type de cloud à un autre sans avoir besoin de reprogrammer leurs applications ».

L'éditeur est impliqué dans les communautés militant pour un cloud ouvert avec des projets comme OpenStack et OpenShift Origin qui vont « aider les entreprises à répondre aux attentes du big data ». Red Hat Storage se base lui sur RHEL, la distribution de l'éditeur et le système de fichier distribué GlusterFS. Il peut être utilisé en pool de stockage peu coûteux et évolutif pour le traitement des grands volumes de données. Actuellement en version test, le plug-in Hadoop de Red Hat Storage fournit une autre option de stockage pour les déploiements Hadoop en entreprise. La société au chapeau rouge reversera à la communauté Hadoop son plug-in quand il sera finalisé à la fin de cette année.