Selon une étude menée en France et en Allemagne par les cabinets CXP et Barc, seulement 28% des entreprises françaises et 20% des entreprises allemandes ont vraiment confiance dans la qualité des données présentes dans leurs SI. La situation est jugée, en France, comme très critique pour 30% des répondants, pour 59% plutôt critique et pour 11% seulement non critique (contre respectivement 52%, 38% et 10% en Allemagne).

La qualité médiocre des données est d'ailleurs notée comme étant la principale cause d'échec des projets de décisionnel. Si la situation est grave, le fréquent flou sur la responsabilité de la qualité des données peut en être une cause. Dans 17% des cas en France et 13% en Allemagne, personne n'est en charge de la qualité des données. A l'inverse, dans la moitié des cas, il y a co-responsabilité entre DSI et direction métier. Cette co-responsabilité pourrait être interprétée positivement comme une saine collaboration. Mais il faut aussi y voir un flou dans le « qui fait quoi exactement ». Le solde des réponses se répartie équitablement entre « équipe technique » et « équipe métier ».

Lorsque la qualité des données est gérée, c'est d'ailleurs plutôt au jour le jour, par les utilisateurs eux-mêmes (68% en Allemagne, 51% en France), moins souvent par un expert technique (54% en Allemagne, 43% en France). Un gestionnaire des données intervient dans 50% des cas en Allemagne, 78% en France. Mais la multiplicité des réponses face à cette seule question de la responsabilité de la qualité montre le flou régnant autour de la question.

Des conséquences graves mais des mesures correctives qui se font attendre

Si la qualité des données est médiocre, les conséquences sont identifiées. L'entreprise subit ainsi des augmentations de coûts (61% des réponses, autant en France qu'en Allemagne) et une baisse du chiffre d'affaires par rapport au potentiel (France : 42% ; Allemagne : 15%) mais aussi une baisse de la satisfaction tant des clients (France : 59% ; Allemagne : 47%) que des salariés (France : 46% ; Allemagne : 79%). Seuls 3% en France et 4% en Allemagne des répondants estiment que la mauvaise qualité des données n'a pas de conséquences.

Les données clients sont celles citées prioritairement comme devant faire l'objet d'un traitement d'amélioration de la qualité (pour 72% des répondants), devant les données produits (61%), les données financières (46%), celles relatives aux fournisseurs (25%) ou au personnel (18%).

On pourrait s'attendre, face à cette situation, à voir se multiplier les projets pour améliorer la qualité des données. Or, un outil de gestion de la qualité des données est déclaré comme mis en place dans 20% des cas en France (19% en Allemagne), est en cours de mise en place dans 16% des cas en France (21% en Allemagne) et envisagé dans l'année dans 16% des cas en France (18% en Allemagne). Un tel projet n'est envisagé qu'à plus long terme dans 23% des cas en France (19% en Allemagne) voire pas du tout dans 25% des cas en France (22% en Allemagne).

Un tel projet est motivé avant tout par la recherche de l'efficacité (74% en Allemagne, 73% en France) puis, en Allemagne, par la recherche de la baisse des coûts (50% des réponses, contre seulement 25% en France) et, en France, la réduction des risques (62% contre 46% en Allemagne).

Si chacun s'accorde, en tous cas, sur les bénéfices attendus, le calcul d'un ROI est des plus délicats et cela explique en grande partie les difficultés pour lancer de vrais projets globaux de qualité des données.

Le CXP recommande malgré tout d'éviter les mesures ponctuelles et d'adopter une démarche globale et continue d'amélioration de la qualité des données. Pour amorcer cette politique, il peut être utile de commencer par des projets pilotes sur des services où un ROI rapide et évident pourra être retiré de l'opération.