La qualité des données encore trop négligée
S'il ne s'agit pas d'un concept nouveau, la qualité des données représente aujourd'hui un enjeu essentiel pour les entreprises. Pour comprendre leurs attitudes et comportements face à cette problématique, Business & Decision et Ascential Software ont mené l'enquête. Synthèse.
Je m'abonne
Pourtant au cœur de la mise en place des systèmes d'information stratégique
et garant de la fiabilité et de la cohérence des données nécessaires aux bonnes
prises de décision, la qualité des données reste encore souvent négligée. Face
à ce constat, la société de conseil et d'ingénierie Business et Decision et
l'éditeur de logiciels d'intégration de données Ascential Software se sont
associés pour réaliser cette enquête auprès des entreprises. Premier constat :
pratiquement toutes les entreprises interrogées (90 %) déclarent s'occuper de
la problématique de la qualité des données. Problématique importante puisque,
en moyenne, les répondants sont confrontés à trois types d'erreurs. La première
concerne les erreurs de saisie, à un niveau opérationnel donc, suivie par les
doublons et l'absence de définition unique de l'information. Des problèmes qui
apparaissent indépendants à la fois du secteur d'activité et de la taille de
l'entreprise tout comme du service. Si 10 % des entreprises ne mènent pas
d'actions de gestion spécifiques, la majorité de celles qui en mènent le font
d'une manière non systématique et non industrialisée. 41 % réalisent des
actions ponctuelles, ou manuelles, et 22 % à la demande de directions
fonctionnelles. Seules 16 % des entreprises utilisent de manière récurrente un
logiciel dédié. Quant à l'identification des problèmes, elle intervient,
pratiquement dans un tiers des cas, seulement à la fin de la mise œuvre d'une
application stratégique et dans un peu plus d'un tiers des cas en amont. «
Corriger un défaut dans un système d'information en place coûte beaucoup plus
que si ce défaut avait été détecté en amont », commentent les auteurs de
l'enquête, pour qui « les processus de vérification doivent être perpétuels et
récurrents pour garantir la qualité des données dans le temps. » Ce que 1 %
des entreprises interrogées font… En tout cas, l'unanimité se fait autour des
conséquences d'une mauvaise qualité de données : 5 % seulement des entreprises
estimant qu'elle n'entraîne pas de conséquence majeure. Pour près de la moitié
des répondants, elle entraîne un risque direct sur leur activité et pour un bon
tiers un risque de perte de confiance, de mauvaise qualité de travail… Risques
accentués par le fait que, d'un point de vue technique, les trois quarts des
entreprises estiment que l'analyse d'une colonne du système d'information prend
moins de trois heures, alors que les cabinets d'analyse estiment que le temps
nécessaire à une telle opération est compris entre trois et cinq heures. « La
qualité des données ne doit pas être traitée comme un nième sous-projet, mais
comme un projet à part entière, concluent les auteurs de l'enquête. Pour
pallier les problèmes de qualité de données, les entreprises en restent souvent
à des méthodes empiriques et récursives, là où de véritables méthodes globales,
via une approche “projet” devraient être appliquées.»
Méthodologie
Enquête réalisée on line, avec le concours de MyDecisionnel.com, entre juillet et septembre 2003, auprès de 103 entreprises, dont 79 % de plus de 500 salariés. Secteurs d'activité des répondants : Services (36 %), Distribution et Grande Consommation (24 %), Services financiers (14 %), Industrie (13 %), … Services des répondants : informatique (68 %), commercial et marketing (14 %), finance (12 %)…