Recherche

La qualité des données encore trop négligée

S'il ne s'agit pas d'un concept nouveau, la qualité des données représente aujourd'hui un enjeu essentiel pour les entreprises. Pour comprendre leurs attitudes et comportements face à cette problématique, Business & Decision et Ascential Software ont mené l'enquête. Synthèse.

Publié par le
Lecture
3 min
  • Imprimer


Pourtant au cœur de la mise en place des systèmes d'information stratégique et garant de la fiabilité et de la cohérence des données nécessaires aux bonnes prises de décision, la qualité des données reste encore souvent négligée. Face à ce constat, la société de conseil et d'ingénierie Business et Decision et l'éditeur de logiciels d'intégration de données Ascential Software se sont associés pour réaliser cette enquête auprès des entreprises. Premier constat : pratiquement toutes les entreprises interrogées (90 %) déclarent s'occuper de la problématique de la qualité des données. Problématique importante puisque, en moyenne, les répondants sont confrontés à trois types d'erreurs. La première concerne les erreurs de saisie, à un niveau opérationnel donc, suivie par les doublons et l'absence de définition unique de l'information. Des problèmes qui apparaissent indépendants à la fois du secteur d'activité et de la taille de l'entreprise tout comme du service. Si 10 % des entreprises ne mènent pas d'actions de gestion spécifiques, la majorité de celles qui en mènent le font d'une manière non systématique et non industrialisée. 41 % réalisent des actions ponctuelles, ou manuelles, et 22 % à la demande de directions fonctionnelles. Seules 16 % des entreprises utilisent de manière récurrente un logiciel dédié. Quant à l'identification des problèmes, elle intervient, pratiquement dans un tiers des cas, seulement à la fin de la mise œuvre d'une application stratégique et dans un peu plus d'un tiers des cas en amont. « Corriger un défaut dans un système d'information en place coûte beaucoup plus que si ce défaut avait été détecté en amont », commentent les auteurs de l'enquête, pour qui « les processus de vérification doivent être perpétuels et récurrents pour garantir la qualité des données dans le temps. » Ce que 1 % des entreprises interrogées font… En tout cas, l'unanimité se fait autour des conséquences d'une mauvaise qualité de données : 5 % seulement des entreprises estimant qu'elle n'entraîne pas de conséquence majeure. Pour près de la moitié des répondants, elle entraîne un risque direct sur leur activité et pour un bon tiers un risque de perte de confiance, de mauvaise qualité de travail… Risques accentués par le fait que, d'un point de vue technique, les trois quarts des entreprises estiment que l'analyse d'une colonne du système d'information prend moins de trois heures, alors que les cabinets d'analyse estiment que le temps nécessaire à une telle opération est compris entre trois et cinq heures. « La qualité des données ne doit pas être traitée comme un nième sous-projet, mais comme un projet à part entière, concluent les auteurs de l'enquête. Pour pallier les problèmes de qualité de données, les entreprises en restent souvent à des méthodes empiriques et récursives, là où de véritables méthodes globales, via une approche “projet” devraient être appliquées.»

Méthodologie


Enquête réalisée on line, avec le concours de MyDecisionnel.com, entre juillet et septembre 2003, auprès de 103 entreprises, dont 79 % de plus de 500 salariés. Secteurs d'activité des répondants : Services (36 %), Distribution et Grande Consommation (24 %), Services financiers (14 %), Industrie (13 %), … Services des répondants : informatique (68 %), commercial et marketing (14 %), finance (12 %)…

François Rouffiac

S'abonner
au magazine
Se connecter
Retour haut de page