Beaucoup d'organisations disposent d'un patrimoine de données important, collecté au fil du temps ou constitué par agrégation de sources internes et externes. Cependant, force est de constater que peu d'entre elles ont mis en place les moyens nécessaires pour exploiter ce patrimoine à grande échelle et en tirer de la valeur. C'est le premier enseignement tiré de l'étude réalisée par CIO, « Comment préparer et exploiter ses données pour en extraire le maximum de valeur ? ».

On peut donc se demander quelles sont les meilleures pratiques pour exploiter au mieux son patrimoine data. Pour répondre à cette question, CIO a organisé une webconférence CIO.Expériences « Data Analytics : optimiser la valeur business tirée du patrimoine data » le 28 avril 2020 en partenariat avec Adobe, Alteryx, Dataiku, Denodo, Domo et Hitachi. La vidéo intégrale de l'événement est disponible parmi les contenus associés à la CIO.Expériences. Le Grand Témoin de l'événement a été Gérard Guinamand, Group Chief Data Officer d'Engie, qui est intervenu à plusieurs reprises pour apporter ses commentaires.

Jean-François Monteil, Digital Insight Solution Engineer chez Hitachi Vantara (à gauche), a demandé à Christophe Duval, CIO d'Agatha Paris (à droite), de revenir sur son expérience : « Créer une vue à 360° de vos clients et modernisation cloud de la bureautique ».

Filiale informatique du groupe industriel Hitachi dédiée à la data, de son stockage à son analyse en passant par sa transformation et sa gouvernance, Hitachi Vantara a demandé à un client, Christophe Duval, CIO d'Agatha Paris, d'expliquer comment ce dernier groupe s'était transformé autour de la donnée. Agatha est une enseigne de bijoux de fantaisie qui a 45 ans, disposant de 120 magasins dont un tiers en mode stand en grands magasins. L'IT de la société repose beaucoup sur des partenaires infogéreurs pour la gestion courante : la DSI se concentre en effet sur la transformation digitale et les projets. Ces dernières années, un CRM omnicanal et le e-commerce ont ainsi été mis en œuvre. Et la DSI s'est logiquement chargée de mettre en œuvre dans la foulée une solution analytique visant à fournir aux métiers les tableaux de bord dont ils avaient besoin à partir des multiples sources à prendre en compte.

« Le premier besoin, avant de commencer l'analytique, a été de construire les différents flux de données concernant autant le commerce traditionnel que le e-commerce, avec la vision du client issue du CRM » a mentionné Christophe Duval. Il fallait ainsi avoir une vision complète du client, qu'il soit en commerce physique ou en e-commerce, et au travers de tous les outils afin de garantir une expérience réellement omnicanale sans couture. De la même façon, les référentiels produits et les stocks devaient être unifiés. Jean-François Monteil a observé : « vous avez donc utilisé la brique Pentaho pour construire cette colonne vertébrale de données au-delà du seul analytique ». Christophe Duval a en effet expliqué cette mise en œuvre au cours de son témoignage.

Yahya Jarraya, Sales Director chez Denodo, a expliqué : « Connecter, combiner, consommer : pourquoi la Data Virtualization est l'outil d'intégration des données le plus attractif du métier ? »

Il existe bien des manières de construire une plate-forme d'exploitation des données. Parmi ces manières, il y a la data virtualisation. « La data virtualisation n'est pas un concept si nouveau que cela mais qui est en forte adoption et évolution » a reconnu Yahya Jarraya, Sales Director chez Denodo. Cette approche permet en effet à tous les utilisateurs de données d'avoir un accès beaucoup plus rapide et simple à tout le patrimoine data de l'organisation. Pour lui, « la data virtualisation repose sur trois mots : connecter, combiner, consommer. » Au fur et à mesure de l'histoire de l'informatique, les volumes de données ont explosé tout autant que la variété de leurs localisations, des fichiers Excel au Big Data. En symétrie, les consommations de la data se sont également multipliées par un nombre d'utilisateurs sans cesse plus grand.

Il faut éviter « le plat de spaghettis » qui aboutit à ce que les trois quarts de la donnée disponible ne soit jamais utilisée et que les usages soient sans cesse bloqués par des questions sur la sécurité, les droits d'accès ou la technique. « 90 % des usages nécessitent du temps réel » a pointé Yahya Jarraya. La data virtualisation permet ainsi de mettre à disposition les données dans une interface unique à l'attention de tous les utilisateurs potentiels, en temps réel et en traitant d'emblée la question des droits d'accès. La donnée d'origine n'est pas impactée mais elle est exposée de manière appropriée à chaque utilisateur sans réplication donc sans délai, en temps réel.

Christina Poirson, Group Chief Data Officer de la Société Générale, a témoigné du management de la donnée au sein de ce groupe bancaire.

S'il y a un type d'entreprise qui se construit autour de la donnée et de son traitement, c'est bien les banques. La Société Générale est une des banques d'envergure mondiale, avec 149 000 collaborateurs dans plus de 60 pays. Le groupe comprend plusieurs réseaux de banque de détail en France (Société Générale, Crédit du Nord, Boursorama...) et à l'étranger mais aussi d'autres métiers (banque de marché, banque d'investissement...). Christina Poirson est Group Chief Data Officer de la Société Générale. En tant que responsable au niveau groupe, elle s'appuie sur un réseau de plus de 65 CDO, dans chaque métier ou filiale, chacun rattaché hiérarchiquement à son entité, au plus près des métiers. « Au sein du groupe Société Générale, les CDO suivent les données sur l'ensemble de leur cycle de vie, de la création à la fin de vie, avec des activités autour de la normalisation des données, du stockage, de la mise en qualité, de la conformité réglementaire, de la protection, du développement des usages, de l'archivage ou de la destruction » a détaillé Christina Poirson.

Parmi les initiatives portées par le réseau de CDO, il y a DataGo. Lorsqu'un data scientist veut prendre une initiative, il peut, grâce à cette application, savoir rapidement s'il a le droit d'accéder à telle ou telle donnée et de la traiter dans tel objectif en tenant compte de toutes les règles en vigueur. En cas de besoin, un expert peut intervenir si le cas d'usage est complexe et nécessite de creuser. Christina Poirson s'est réjoui : « nous avons pu ainsi mettre en oeuvre au niveau du groupe plus de 200 cas d'usage de Big Data ou d'IA en suivant un processus facilité, de l'idéation à la réalisation. » La vidéo complète de l'événement permet d'écouter l'intégralité de son témoignage.

Alexis Fournier, Director of AI Strategy chez Dataiku, a plaidé : « De l'analytique à l'IA d'entreprise, un passage à l'échelle pour maximiser le ROI »


Mettre en œuvre une stratégie globale de la data au niveau d'un groupe n'est malheureusement pas si fréquent. Si on restreint au seul domaine de l'IA (intelligence artificielle), il s'agit de créer de « l'IA d'entreprise », passer d'initiatives locales à une stratégie globale. Dataiku propose des outils pour réussir ce passage à l'échelle de l'emploi de l'IA comme l'a mentionné Alexis Fournier, Director of AI Strategy chez Dataiku. Il a d'ailleurs présenté le cas concret de General Electric Aviation qui a réussi ce passage à l'échelle.

« Selon une étude réalisée par Accenture qui a interrogé 1500 décideurs dans le monde, 84 % des répondants estiment qu'ils doivent utiliser l'IA pour atteindre leurs objectifs de croissance » a rappelé Alexis Fournier. Pour les trois quarts, le passage à l'échelle est problématique et un échec pourrait aboutir à une cessation d'activité. Le principal point de difficulté est l'industrialisation et la généralisation de l'emploi de l'IA, en évitant d'en réserver l'usage à quelques spécialistes. General Electric Aviation dispose aujourd'hui de plus de 2000 utilisateurs des outils à base d'IA, loin donc de quelques datascientists ultra-spécialisés, grâce à une approche self-service.

Paul Cohen-Scali, DSI de la SACEM, a détaillé le rôle des données dans le fonctionnement de la société de gestion collective.

S'il est un gros consommateur de données devant désormais recourir à l'IA, c'est bien la SACEM (Société des Auteurs, Compositeurs et Editeurs de Musique), une société de gestion collective de droits d'auteurs formellement fondée en 1851. La SACEM collecte auprès des diffuseurs de musique et répartit les droits d'auteurs. Elle a aussi une action de défense de ses membres, une mission de protection de ceux-ci et, enfin, développe une action culturelle de promotion des usages de la musique. La collecte des droits et la répartition est bien sûr le fondement de tout. Les grands médias comme les concerts envoient des fichiers des oeuvres utilisées alors que les utilisateurs comme des cafés-restaurants payent plutôt une redevance forfaitaire. Les grands acteurs du streaming (Youtube, Spotify...) envoient eux aussi des fichiers des oeuvres diffusées mais il faut alors repérer les oeuvres relevant du répertoire de la SACEM pour réclamer des droits. « Nous cherchons toujours à ce que les auteurs des oeuvres effectivement diffusées touchent les droits afférents » a souligné Paul Cohen-Scali, DSI de la SACEM.

En amont, les sociétaires déclarent leurs oeuvres et parfois avec une grande complexité dans les droits, notamment dans les samples. Ainsi est constitué le référentiel des oeuvres. Mais pour gérer la reconnaissance des mille milliards de diffusions par an des plates-formes de streaming, la SACEM a collaboré avec IBM pour bâtir la plate-forme Urights. Pour l'instant, l'intelligence artificielle IBM Watson n'est pas encore mise en oeuvre mais ce recours sera la solution pour traiter les 13 milliards de lignes annuelles représentant la collecte. La vidéo complète de l'événement permet d'écouter l'intégralité du témoignage de Paul Cohen-Scali.

Sophian Abbou, Responsable des marchés francophones chez Domo (à gauche), et Michel Wieczorkiewicz, Associé Fondateur CEO et Président de Clear Insight (à droite), se sont interrogé : « Autonomie des métiers : est-ce une bonne stratégie IT ? »

Domo est une plate-forme de traitement de la donnée end-to-end dans le cloud. Elle est déployée notamment par l'un de ses partenaires, Clear Insight, spécialisé dans l'accompagnement des métiers pour tirer profit de la donnée. « On a vu se succéder plusieurs tendances depuis les débuts de la BI, à commencer par des outils complexes maniés par des experts IT et démontrant leur manque de réactivité » a dénoncé Sophian Abbou, Responsable des marchés francophones chez Domo. En réaction, des outils self-service mis en oeuvre ensuite, dédiés à une utilisation directe par les métiers, ont posé d'autres soucis tels que la sécurité et l'exactitude des résultats.

Mais Michel Wieczorkiewicz, Associé Fondateur CEO et Président de Clear Insight, a soulevé la problématique : « les métiers ne peuvent pas prendre de bonnes décisions sans accès adapté aux données. » Les outils dont disposent les métiers sont souvent inadaptés et rigides, obligeant à des analyses dans Excel, la moindre demande devant devenir un projet de développement. Si l'autonomie des métiers est absolument incontournable en matière de BI, il faut adopter une démarche « People, Process, Platform » associant une équipe, des procédures et des technologies adaptées afin de rendre cette autonomie compatible avec les impératifs de rigueur et de sécurité.

Gérard Guinamand, Group Chief Data Officer d'Engie (ex-GDF Suez), a été le Grand Témoin de la matinée.

Présent dans 70 pays, Engie est un énergéticien de 170 000 collaborateurs. Il a trois activités principales : la gestion des grandes infrastructures énergétiques, surtout gazières, la production-vente d'énergie et, enfin, les services B2B. « La stratégie d'Engie depuis plusieurs années est d'être le leader mondial dans la transition zéro carbone » a insisté Gérard Guinamand, Group Chief Data Officer d'Engie, le Grand Témoin de la matinée. D'un côté, il s'agit de décarbonner la production d'énergie et, de l'autre, de décentraliser cette production. La digitalisation est un pilier complémentaire qui sous-tend les deux précédents et qui a abouti à la création de Engie Digital.

Pour le grand public, la digitalisation est passée par des compteurs connectés, Linky pour l'électricité et Gazpar pour le gaz. Gérard Guinamand a expliqué : « ceux-ci permettent de relever très régulièrement, une ou plusieurs fois par jour, les niveaux de consommation de nos clients au lieu d'une fois tous les trois ou quatre mois ». Ces outils permettent de développer des outils de pilotage sur le portail destiné aux clients afin que ceux-ci puissent optimiser leur propre performance énergétique. « Ces outils sont par nature data-centrics et reposent sur de l'analytique » a constaté Gérard Guinamand. Le digital est surtout la base de services pour les grands clients B2B, des villes, des industries et d'autres grandes structures comme des universités. Ces services peuvent être des plates-formes de monitoring et de pilotage de la consommation énergétique mais aussi d'optimisation de la maintenance des équipements, notamment à base d'IoT et d'analytique. Les questions juridiques apparaissent autant dans le B2C (GDPR...) que dans le B2B (propriété des données...). La vidéo complète de l'événement permet d'écouter l'intégralité du témoignage de Gérard Guinamand, avec ses interventions au fil de la matinée en tant que Grand Témoin.

Paul Patrice, Sales Specialist Data chez Adobe, a recommandé d'« Activer les données pour réveiller le business »

La donnée doit donc, on l'a vu avec Engie et les intervenants précédents, être mise au service du business. Il faut même « Activer les données pour réveiller le business » selon le mot de Paul Patrice, Sales Specialist Data chez Adobe : « il existe de la connaissance issu du travail des équipes IT data et celle-ci doit impacter le business. Mais s'il y a énormément de connaissance client générée, une faible part est effectivement activée. » Entre génération et impact business, il faut en effet cette étape d'activation qui fait aussi partie du rôle des équipes IT/data.

Les clients attendent une expérience personnalisée, cohérente et consistante, cette expérience étant loin devant le produit et le prix dans le choix d'un fournisseur. Or, pour satisfaire les clients sur ce point, l'activation de la data sera clé. Une bonne activation entraîne une augmentation de 60 % du revenu par client. L'un des freins importants est le temps passé à préparer les données au lieu d'en tirer de la valeur business. « Une campagne marketing associe aujourd'hui, en moyenne 11 outils, qui vont s'enchaîner (ou pas), avec un retravail des données pour chaque outil avant chaque usage » a-t-il dénoncé. Ce temps l'est perdu pour le business. Enfin, ne négligeons pas la peur d'enfreindre le RGPD ou d'autres réglementations qui peuvent brider les usages de la data. Pour rentabiliser les investissements passés tout en résolvant ces faiblesses, il faut recourir à des plates-formes ouvertes capables de s'intégrer.

Amélie Le Deist, Responsable Connaissance Client / Responsable CRM & Data Management au sein du Groupe Chantelle, a expliqué comment suivre en continu la satisfaction client.

En matière d'amélioration de l'expérience client, le suivi de la satisfaction lors de visites en boutiques en fondamental. C'est le projet présenté par Amélie Le Deist, Responsable Connaissance Client / Responsable CRM & Data Management au sein du Groupe Chantelle. Ce groupe conçoit de la lingerie depuis 1876, maîtrise sa production et distribue au travers de plusieurs marques (Chantelle, Darjeeling, Chantal Thomass...) et génère ainsi 400 millions d'euros de chiffre d'affaires dans le monde grâce à 5300 collaborateurs. Le groupe dispose également de 400 boutiques en propre en France. Traditionnellement, la satisfaction client était suivie sous la forme de visites de clients-mystères. « Cette méthode permettait d'avoir une estimation partielle et occasionnelle » a regretté Amélie Le Deist. Il fallait donc faire mieux.

A partir d'une initiative de la marque Darjeeling, le groupe Chantelle a eu recours à un outil SaaS pour assurer un suivi continu, Wizville. Un tel suivi permettait de manager les équipes de vente autour de la satisfaction client. Tous les clients reçoivent un mail d'enquête le lendemain de leur achat. Les résultats sont ensuite personnalisés par population. Amélie Le Deist a insisté : « chacun reçoit une information sur ce pour quoi il est acteur, sur quoi il a une influence. » Les commentaires sur l'accueil sont ainsi envoyés aux équipes des magasins concernés mais pas les réponses sur la complétude des stocks, question sur laquelle ces équipes n'ont pas la main. La vidéo complète de l'événement permet d'écouter l'intégralité du témoignage d'Amélie Le Deist.

Raphael Savy, Directeur Europe du Sud chez Alteryx, a détaillé « Comment démocratiser et déployer une culture analytique dans votre entreprise ».

L'analyse de la donnée peut ainsi avoir un véritable sens business. En interrogeant 3000 décideurs européens, Alteryx a eu confirmation que le facteur humain était la principale difficulté pour tirer tout le bénéfice du patrimoine data. Raphael Savy, Directeur Europe du Sud chez Alteryx, a ainsi dénoncé : « dans beaucoup d'entreprises, le processus analytique est extrêmement long et fragmenté. » L'IT est gardien du temple mais n'a pas forcément le temps pour réaliser des extractions. Les analystes réalisent un long et pénible travail de mise en qualité et en forme. Les citizen data scientists vont alors tenter de réaliser des analyses pertinentes. Enfin, les directions métier vont tenter de prendre des décisions en ne disposant pas de tout ce dont ils auraient besoin.

70 % des entreprises ne sont pas, de ce fait « data driven ». « Il faut une plate-forme collaborative et self service pour que tous travaillent ensemble sur la donnée » a plaidé Raphael Savy. Libérer le potentiel de la donnée va permettre de passer de la donnée à l'action. Partager l'information dans toute l'entreprise va étendre la puissance des analyses. Cela permettra de construire une culture de l'analyse.

Guillaume Cavana, CTO de Ouicar, a expliqué comment il maîtrise le parc de véhicules pour améliorer l'expérience utilisateurs.

Autre entreprise pour laquelle les données sont fondamentales, Ouicar est une plate-forme de location de véhicules entre particuliers sur un principe d'intermédiation, avec check-in/check out entre les deux parties. Les données sont avant tout opérationnelles (utilisateurs, locations faites, etc.). Leur gestion est opérée dans le cloud d'AWS. Ce choix a été opéré pour des raisons pratiques : la gestion d'un datacenter et d'un datalake suppose des compétences pointues et la taille de Ouicar ne permettait pas d'en disposer. La totalité des données, opérationnelles et logs, représente aujourd'hui moins de 10 To.

Guillaume Cavana, CTO de Ouicar, a indiqué : « toutes ces données sont rendues accessibles au travers de la version SaaS de Tableau ». En fonction de l'usage effectif des clients qui louent des véhicules, Ouicar va ainsi pouvoir tenter d'influer sur le parc disponible, ne pouvant pas totalement le maîtriser au contraire d'un loueur traditionnel de voitures. D'une manière générale, la donnée permet d'améliorer l'expérience client.

Bertrand Leclercq, Directeur stratégie numérique de Qualitel, est revenu sur l'apport des datas pour objectiver la valeur du service rendu.

Dernier témoin de la matinée, Bertrand Leclercq, Directeur stratégie numérique de Qualitel, a expliqué comment les données pouvaient permettre de défendre la valeur du service rendu. Qualitel est une structure à base associative créée à l'initiative des pouvoirs publics dont l'objet est la défense de la qualité du logement. Outre l'information du grand public, Qualitel opère des certifications à la norme NF Habitat. Cette certification concerne aujourd'hui la moitié des logements construits en France chaque année.

« Nous collectons donc toutes les données issues des audits de qualité des logements » a précisé Bertrand Leclercq. Aujourd'hui, cette collecte s'opère au travers de formulaires structurés. L'outil historique de valorisation des données rencontrait un certain nombre de limites et Qualitel a donc choisi d'opter pour du décisionnel en mode SaaS avec Qlik Sense. Cet outil permet d'exposer les données à l'extérieur à des partenaires ou même au grand public. Les données de qualité peuvent ainsi entrer dans des démarches de benchmark ou d'analyse comparative de chantiers.