Les 7 bases de valorisation des données
Définir un référentiel de données
À LIRE AUSSI
- Comment optimiser ses données
- Match segmentation/volume : le score gagnant
- Timide apparition de bases “SMS”
- La qualité en “métabase”
- Les entreprises justifient l'investissement dans la qualité
- Micromania : 20 ans de protectionnisme
- Meetic : plus on qualifie, moins on fidélise
- La Cnaf crée un dictionnaire d'informations
- Qualifier les données pour restreindre les volumes
- Qualifiez avec un questionnaire… qualitatif !
- Comment optimiser ses données
- Match segmentation/volume : le score gagnant
- Timide apparition de bases “SMS”
- La qualité en “métabase”
- Les entreprises justifient l'investissement dans la qualité
- Micromania : 20 ans de protectionnisme
- Meetic : plus on qualifie, moins on fidélise
- La Cnaf crée un dictionnaire d'informations
- Qualifier les données pour restreindre les volumes
« Que l'on
parle de l'identification des sources de collecte, de déduplication,
d'enrichissement, l'adresse est la base de toute action visant à optimiser les
données », rappelle Isabelle Durou, directrice générale de Safig Dataway.
L'adresse (postale ou électronique) constitue le point de départ et
d'aboutissement de toute opération de valorisation de la donnée. Un repère
d'autant plus essentiel que le développement des technologies on line et la
multiplication des sources de collecte a compliqué le travail de gestionnaires
de bases, conscients de la nécessité de transcender la diversité des données.
L'intégration d'usines à gaz du type CRM, agrégations mal maîtrisées de
systèmes et de plates-formes hétéroclites, a intensifié le magma. Pour requêter
correctement des données en provenance de sources multiples, l'entreprise doit
mettre en place un modèle standard de lecture et d'évaluation. « La première
étape de l'optimisation consiste dans la définition d'un référentiel unique »,
soutient Stéphane Dietrich, directeur général de Neolane.
Différencier données internes et externes
La
qualification des données repose sur deux types de critères : internes et
externes. Critères de qualification endogènes (ne nécessitant pas l'apport
d'information depuis des sources extérieures à la base de données) :
appartenance à une catégorie de clientèle en fonction du chiffre d'affaires
généré, RFM (récence, fréquence, montant). Ou localisation géographique (dès
lors que l'on dispose d'une adresse postale). Les données de localisation font,
en effet, partie des éléments endogènes susceptibles d'apporter des
informations précieuses sur un client ou un prospect. Le niveau de granularité
de l'Iris (2 000 foyers) permet des projections très fiables. « On utilise
généralement le géomarketing pour pallier un manque d'information sur le client
», affirme Didier Richaudeau, directeur de l'activité data mining de Soft
Computing. Critères exogènes : âge, composition du foyer, comportement
d'achats auprès d'autres marques ou entreprises. Ces qualifications
s'obtiennent via diffusion et retour de questionnaires, par le croisement avec
des fichiers extérieurs ou par scoring et extrapolation à partir de sources
extérieures.
Astreindre la base à une double qualification
Quelle que soit la facture originale des données
(données constatées, données déclarées ou données déduites), quel que soit
l'objectif affecté à leur valorisation - conquête, fidélisation, vente
additionnelle -, la qualification actionne deux grandes familles d'items. Elle
va soumettre la base ou le fichier à des questions récurrentes - idéalement au
moins deux fois par an -, principalement autour de données socio-démographiques
: âge, revenus, composition du foyer… Parallèlement, la qualification va
projeter sur les données des critères conjoncturels : “Qu'avez-vous acheté ces
derniers mois”, “Connaissez-vous cette marque ?”…
Gérer la disponibilité des données par le “data quality management”
La
logique opérationnelle impose un paramétrage du modèle de traitement
informatique afin de veiller à la disponibilité des données. Imaginons une
opération commerciale reposant, entre autres, sur un scoring de fréquence des
achats. Il n'est pas acquis que le critère fréquence soit disponible sur
l'ensemble des adresses ou sur un segment de cible. En se dotant d'outils de
data quality management, le gestionnaire de la base recevra des alertes
régulières lui indiquant le niveau de disponibilité des critères sur les
différents agrégats préalablement définis. Dès lors que l'on aura déterminé,
pour chacun des scores, le seuil plancher de tolérance en deçà duquel le
déclenchement de la campagne ne pourra être actionné, restera à lancer les
actions de qualification nécessaires.
Ne pas démultiplier les grandes familles de segmentation
« Nous vendons tous un certain
nombre de critères qui ne servent à rien », lâche le responsable d'une société
de traitement des données. Construire une base, collecter des adresses,
agréger des critères : rien ne sert d'étendre toujours plus les dimensions
d'une base clients ou prospects, ni d'en enrichir la profondeur si les données
acquises ne doivent jamais servir. La vocation d'une base est de transformer
des données brutes en informations opérationnelles. Sa valorisation ne procède
pas de sa construction, mais de son exploitation. Certaines bases, comme
Claritas, proposent 2 500 critères de segmentation. Un potentiel avec lequel un
gestionnaire de bases de données clients ne doit pas chercher à rivaliser.
Limiter les critères à un petit dénominateur commun suffit bien souvent, dès
lors que l'on a éprouvé ses choix par une série de tests ou d'actions en réel.
Les items de qualification, généralement retenus par les vépécistes, les
entreprises de grande consommation ou les acteurs du secteur caritatif font, en
l'occurrence, référence. A commencer par la classification au chiffre
d'affaires apporté : petit, moyen ou gros client. Viennent ensuite les grands
critères socio-démographiques : âge, composition du foyer, localisation
géographique. Puis des éléments discriminants en termes de comportement
d'achat, notamment le classique RFM (récence, fréquence, montant).
Définir le juste niveau de profondeur des enrichissements
Jusqu'où ne pas aller trop loin dans un
enrichissement de la base ? Peut-on déterminer un seuil au-delà duquel
l'accumulation des données devient non seulement stérile, mais aussi
contre-productive et économiquement invalidante ? Car, stocker des données
coûte cher. A fortiori s'il s'agit d'une donnée non exploitée ou inutilement
exploitable. Le coût de conservation d'une base reste très délicat à chiffrer.
Les professionnels eux-mêmes se perdent en conjectures. « On a estimé que la
seule conservation d'une adresse revient à 0,15 euro par an à compter de 600
000 adresses », indique Jean-Michel Moulié, président d'Apollinis et directeur
général de Wegener, qui prêche, néanmoins, la vigilance face à ce type de
projection. Difficile de fixer une limite générique à la profondeur des
enrichissements. La vérité est empirique. « A chaque entreprise de tester, de
lancer des ballons sur des segments de cible, de comparer et d'arrêter le bon
scénario économique entre niveau de qualification et efficacité commerciale »,
affirme le patron d'Apollinis.
Projeter des scores prédictifs sur des données historisées
« La valorisation des cibles récurrentes
implique une logique d'anticipation. Tant en matière de RNVP (restructuration,
normalisation, validation postale) que de qualification des adresses.
L'optimisation des données est un travail cyclique », affirme Thierry Fée,
directeur du département BDD de Wunderman Interactive. L'édition logicielle
propose un certain nombre d'outils prédictifs permettant, par exemple, de
prévenir l'attrition financière. Intéressant pour les vendeurs en ligne, qui
peuvent détecter et anticiper le niveau de risque financier d'un client. « Nous
travaillons sur la notion d'identification de potentiel du client ou du
prospect. De premières expériences viennent d'être lancées sur ces nouveaux
modèles. Il est encore trop tôt pour en mesurer les résultats », affirme Andréa
Micheaux. Mais qui dit anticipation dit historisation. C'est en engrangeant les
informations et en les classifiant dans des architectures standardisées que
l'on pourra les soumettre à des modèles prédictifs. « Une donnée est un capital
dynamique. Encore faut-il l'historiser », souligne Jean-Michel Moulié.
Les principaux critères de segmentation
B to C Critères géographiques - La région. - Le type d'habitat : rural/urbain, centre-ville/banlieue. - Les tranches d'agglomération. Critères socio-démographiques - Age, sexe, nationalité, situation de famille. - Niveau d'études. - CSP. - Métier. Critères comportementaux - Nature et historique des achats. - Montant des achats. - Fréquence des achats. - Fidélité à la marque. - Mode d'achat (points de vente, à distance…) - Réaction aux sollicitations commerciales. Critères d'attitude - Relation du client ou du prospect avec d'autres marques et avec la consommation en général (enrichissement par les mégabases). B to B Critères géographiques - Région. Critères économiques - Code NAF (activité principale). - Date de création. - Taille salariale. - Chiffre d'affaires. - Bénéfices. - Structure juridique. - Répartition capitalistique. - Etablissements secondaires. Critères comportementaux - Nature et historique des achats. - Montant des achats. - Fréquence des achats. - Fidélité à la marque. - Mode d'achat (points de vente, à distance…). - Réaction aux sollicitations commerciales. - Fonction des décisionnaires. - Fonction des acheteurs.