Selon une étude menée en France et en Allemagne par les cabinets CXP et Barc, seulement 28% des entreprises françaises et 20% des entreprises allemandes ont vraiment confiance dans la qualité des données présentes dans leurs SI. La situation est jugée, en France, comme très critique pour 30% des répondants, pour 59% plutôt critique et pour 11% seulement non critique (contre respectivement 52%, 38% et 10% en Allemagne).
La qualité médiocre des données est d'ailleurs notée comme étant la principale cause d'échec des projets de décisionnel. Si la situation est grave, le fréquent flou sur la responsabilité de la qualité des données peut en être une cause. Dans 17% des cas en France et 13% en Allemagne, personne n'est en charge de la qualité des données. A l'inverse, dans la moitié des cas, il y a co-responsabilité entre DSI et direction métier. Cette co-responsabilité pourrait être interprétée positivement comme une saine collaboration. Mais il faut aussi y voir un flou dans le « qui fait quoi exactement ». Le solde des réponses se répartie équitablement entre « équipe technique » et « équipe métier ».
Lorsque la qualité des données est gérée, c'est d'ailleurs plutôt au jour le jour, par les utilisateurs eux-mêmes (68% en Allemagne, 51% en France), moins souvent par un expert technique (54% en Allemagne, 43% en France). Un gestionnaire des données intervient dans 50% des cas en Allemagne, 78% en France. Mais la multiplicité des réponses face à cette seule question de la responsabilité de la qualité montre le flou régnant autour de la question.
Des conséquences graves mais des mesures correctives qui se font attendre
Si la qualité des données est médiocre, les conséquences sont identifiées. L'entreprise subit ainsi des augmentations de coûts (61% des réponses, autant en France qu'en Allemagne) et une baisse du chiffre d'affaires par rapport au potentiel (France : 42% ; Allemagne : 15%) mais aussi une baisse de la satisfaction tant des clients (France : 59% ; Allemagne : 47%) que des salariés (France : 46% ; Allemagne : 79%). Seuls 3% en France et 4% en Allemagne des répondants estiment que la mauvaise qualité des données n'a pas de conséquences.
Les données clients sont celles citées prioritairement comme devant faire l'objet d'un traitement d'amélioration de la qualité (pour 72% des répondants), devant les données produits (61%), les données financières (46%), celles relatives aux fournisseurs (25%) ou au personnel (18%).
On pourrait s'attendre, face à cette situation, à voir se multiplier les projets pour améliorer la qualité des données. Or, un outil de gestion de la qualité des données est déclaré comme mis en place dans 20% des cas en France (19% en Allemagne), est en cours de mise en place dans 16% des cas en France (21% en Allemagne) et envisagé dans l'année dans 16% des cas en France (18% en Allemagne). Un tel projet n'est envisagé qu'à plus long terme dans 23% des cas en France (19% en Allemagne) voire pas du tout dans 25% des cas en France (22% en Allemagne).
Un tel projet est motivé avant tout par la recherche de l'efficacité (74% en Allemagne, 73% en France) puis, en Allemagne, par la recherche de la baisse des coûts (50% des réponses, contre seulement 25% en France) et, en France, la réduction des risques (62% contre 46% en Allemagne).
Si chacun s'accorde, en tous cas, sur les bénéfices attendus, le calcul d'un ROI est des plus délicats et cela explique en grande partie les difficultés pour lancer de vrais projets globaux de qualité des données.
Le CXP recommande malgré tout d'éviter les mesures ponctuelles et d'adopter une démarche globale et continue d'amélioration de la qualité des données. Pour amorcer cette politique, il peut être utile de commencer par des projets pilotes sur des services où un ROI rapide et évident pourra être retiré de l'opération.
La qualité des données en question sur les projets décisionnels
3
Réactions
Une enquête menée par le CXP (France) et Barc (Allemagne) met en avant les difficultés pour les entreprises à disposer de données fiables. Les échecs des projets de décisionnel seraient liés à cette situation.
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
3 Commentaires
Suivre toute l'actualité
Newsletter
Recevez notre newsletter comme plus de 50 000 professionnels de l'IT!
Je m'abonne
Excellent article !
Signaler un abusSi gérer les données de référence (MDM) est primordial comme le souligne HCL000 cela est à mon avis très insuffisant. Il faut se préoccuper de la qualité de contenu. L'éditeur allemand UNISERV en fait d'ailleurs un domaine à part entière en soulignant dans son livre blanc : "il convient de traiter séparément l’aspect de la qualité des métadonnées et celui de la qualité des données de contenu".
Se préoccuper de la qualité de contenu c'est s'attaquer d'une part aux données existantes dans les bases (le correctif) - dans ce domaine comme dans le MDM les outils ne manquent pas - mais aussi éviter d'y introduire des données de mauvaise qualité (le préventif). Corriger une donnée fausse dans une base ne résout pas le problème si l'on n'a pas éradiqué la cause. Et la on manque de méthode et d'outil !
Et tout d'abord, comment définir la qualité des données ? Les modèles apparentés au PSP/IQ (Product and Service Performance model for Information Quality) sont-ils pertinents ? Sont-ils sortis de leur sphère académique ?
Autres problématiques et non des moindres : Quels sont les contrôles pertinents ? Comment les définir ? Comment associer les responsables métier ? Quelle démarche adopter ? Quels moyens de supervision pour les manager ? En un mot quelle gouvernance ?
Après deux ans sur cette problématique dans une grande banque française, j'ai apporté une réponse concrète et opérationnelle à toutes ces questions.
A votre disposition pour échanger.
Très intéressant ... mais alors pourquoi ne pas réellement ouvrir le débat vers la gestion des données maitres (MDM) ... Il me semble que c'est la seule solution à long terme non ??
Signaler un abusArticle intéressant, qui soulève la problématique de la quantité de données produite et de son stockage. Comme le fait remarquer cet article :
Signaler un abushttp://www.it-business.fr/explosion-de-la-production-mondiale-de-donnees/
la production mondiale de données serait d’environ 2.5 milliards de Téraoctets en 2012.