L'UIT, agence des Nations Unies spécialisée sur les technologies de l’information et de la communication (ITU en anglais) qui réunit 193 pays membres et près de 800 représentants du secteur privé et universitaire, vient de présenter son premier standard pour les big data. Cette organisation s’appuie depuis sa création sur des partenariats public-privé pour rechercher des consensus sur les différentes questions concernant l’avenir des TIC. Son standard sur les big data détaille les pré-requis, les capacités et les usages liés aux mégas-données dans le cloud, en s’attachant à définir comment les systèmes de cloud computing peuvent être mis à profit pour fournir des services associés. « Ce nouveau standard de l’ITU fournit des fondamentaux sur lesquels il y a eu un accord à l’échelle internationale », a indiqué Chaesub Lee, directeur du bureau de standardisation de l’ITU. « Cela permettra de bâtir une cohésion dans la terminologie utilisée pour décrire les big data dans le cloud et proposer des bases communes pour le développement des services big data et le support des standards techniques ».

En pratique, l'interopérabilité est déjà là

Les recommandations et pré-requis définis dans le rapport de l’organisation portent sur la façon de recueillir les données, de la visualiser, de les analyser et de les stocker. Elles se complètent d’éléments concernant la sécurité. Ce qui n’apparaît pas nettement en revanche, c’est ce que ces spécifications apportent par rapport à ce qui a déjà été établi par les fournisseurs évoluant sur le marché des big data. « Nous sommes un peu sceptiques sur la portée des standards internationaux dans le domaine des données », commente notamment Alan Duncan, directeur de recherche chez Gartner, interrogé par nos confrères d’IDG News Service. « Nous n’en avons jamais vraiment vu aucun se populariser ».

En fait, ce qui arrive le plus souvent, c’est que bien avant que les standards officiels se mettent en place, le marché pousse les fournisseurs à établir de l’interopérabilité entre les leurs, souligne Alan Duncan. « La logique du standard, c’est de rendre les choses interopérables, mais en matière de big data, cela se passe déjà au niveau pratique, en raison de la nécessité de faire fonctionner ensemble les solutions des différents fournisseurs », rappelle-t-il. Des éditeurs comme Tableau, Teradata et Alteryx, par exemple, ont déjà opéré des connexions entre leurs plateformes, cite-t-il en exemple. Donc, si le standard de l’ITU est excellent en théorie, d’un point de vue pratique, il arrive tard.