Bien exploiter le scoring pour une efficacité maximale
Un bon score, c'est d'abord une affaire de réflexion et de bon sens. Qui garantissent que l'on sait quoi chercher et comment arriver à le trouver. Mais aussi une question de méthode à appliquer, prenant en compte périodes de validation et de remise à jour des scores. Sans oublier l'objectif premier d'un score, à savoir fournir des informations exploitables aux services marketing et commerciaux.
Je m'abonneÀ LIRE AUSSI
- Comment bien utiliser le scoring
- Comprendre le scoring pour mieux l'utiliser
- Des scores pour tous
- Le score au coeur de l'activité de Cofidis
- Réalisez le meilleur score !
- Comment bien utiliser le scoring
- Comprendre le scoring pour mieux l'utiliser
- Des scores pour tous
- Le score au coeur de l'activité de Cofidis
Réussir à mettre efficacement en oeuvre des scores, ce n'est pas simplement
s'efforcer de recueillir un maximum d'informations sur des personnes et
appliquer telle ou telle méthode sur ces données pour en tirer des
enseignements. Bien sûr, il faut en passer par ces phases d'exploitation, qui
constituent le coeur même du scoring. Mais, comme dans beaucoup d'autres
domaines, travailler sur de mauvaises données en entrée ne peut amener qu'un
mauvais résultat. C'est pourquoi un bon scoring suppose une période de
réflexion en amont, permettant de poser la problématique globale du score (quel
est l'objectif premier de la campagne que l'on veut mettre en oeuvre à l'aide
de ce scoring ?) et de déterminer sa finalité (que cherche-t-on ?). Pour
Stéphane Amarsy (Koba), « il est fondamental de comprendre la culture du client
et sa problématique. Sans cela, ça ne peut pas fonctionner. » Ensuite
seulement, on pourra commencer à se pencher sur les outils et méthodes à
utiliser pour arriver à ces résultats. Comme le souligne Philippe Cheval (BCA),
« on peut paramétrer des choses aussi sophistiquées que l'on veut. Mais, si la
problématique est mal posée, si les variables utilisées sont peu explicatives
ou mal enrichies, cela ne donnera rien. » Le premier élément qui va
conditionner toute la suite des opérations, c'est le brief de l'annonceur ou du
commanditaire. S'agit-il d'une campagne de fidélisation de clients, de
recrutement de nouveaux abonnés, de promotion de nouveaux produits auprès de
personnes connues de l'annonceur ? Quel que soit cet objectif, il permet à la
fois de savoir sur quel type de données le score va être élaboré (un fichier de
clients avec historique et de nombreuses informations, un fichier de prospects
a priori peu renseign...) mais également de déterminer les moyens à mettre en
oeuvre pour arriver au résultat attendu par le commanditaire.
UNE OEUVRE DE COMMUNICATION
A partir de là, on peut commencer à entrer
dans le vif du sujet, à regarder sur quelles données travailler, quelles
méthodes utiliser pour en tirer des enseignements et comment les présenter
ensuite. Comme le note Philippe Cheval, un bon scoring, « c'est une base de
données bien conçue et bien comprise, une analyse statistique réussie et une
communication adaptée aux utilisateurs des résultats du scoring, en n'oubliant
pas que ce score s'insère dans une logique industrielle dont il ne faut pas
sortir ». La dimension communication du scoring est essentielle à plusieurs
niveaux. Avant tout parce que les résultats obtenus par les statisticiens vont
être exploités par des équipes commerciales ou marketing qui ont besoin de les
appréhender pour mieux cibler leur message et leur campagne. Partant de là,
cette dimension influe également sur la façon de travailler des équipes
s'occupant du scoring et ce sur quoi ils vont travailler. « Il vaut mieux un
calcul simple qui résolve 98 % des choses qu'un sophistiqué qui résout 98,5 %
des problèmes », souligne Philippe Cheval. A partir de là, il faut travailler à
déterminer les informations à exploiter sans idée préconçue. Comme le précise
Yves Allard (Chronaxies), « le scoring n'est pas là pour valider une idée, mais
pour donner des informations à un moment donné ». Ce qui impose de savoir
éliminer les données inutiles ou trompeuses et de se recentrer sur celles qui
ont une véritable signification. « Il faut savoir bien définir ce que l'on
cherche », note Anne Gayet (AID). Dans la pratique, cela signifie prendre en
considération les données révélant un comportement et pas celles découlant de
ce comportement. L'exemple type, c'est celui d'un abonné à un service de
téléphonie mobile qui passe à la concurrence. Si l'on s'arrête sur les deux
mois de son historique avant qu'il n'ait résilié son abonnement, on ne pourra
que constater que sa consommation a diminué. Mais il s'agit d'un comportement
consécutif à sa décision de résiliation. L'important étant de déterminer quels
sont les comportements symptomatiques d'une décision prochaine de résiliation,
il faut remonter plus loin dans le temps pour trouver des informations
réellement exploitables dans un score d'attrition (voir les points clés). Pour
Stéphane Amarsy, « il faut toujours commencer par valider la méthode, les
informations sur lesquelles on va travailler. Si l'on rencontre un problème à
ce niveau, on peut recommencer facilement, cela coûtera moins cher que de se
fourvoyer sur le ciblage d'un mailing ! »
AVOIR DES DONNÉES OU NON
Parallèlement, définir et travailler sur ces données implique
que l'on dispose de ces informations. Et là, deux cas sont envisageables : soit
elles sont présentes, soit il faut les récupérer. Quand on dispose de ces
données, l'important est de savoir déterminer les bons indicateurs, de trouver
celles qui ont un sens ou non. « Si l'on travaille sur un programme de
fidélité, par exemple, on dispose d'un historique très détaillé, note Anne
Gayet. A partir de là, il faut définir les bons indicateurs, en déterminant sur
quelle durée on va remonter (un mois, trois mois, six moi...) et quel
intervalle on va fixer pour borner ces indicateurs (15 jours, un moi...). Il
faudra ensuite les tester sur la problématique précise posée pour recenser les
éléments les plus efficaces. » Si l'on ne dispose pas de données de base, par
exemple si l'on fait une campagne auprès de prospects, le problème est plus
épineux. Il faut à la fois savoir déterminer les informations qui vont être les
plus efficaces pour le scoring et les faire dire aux personnes susceptibles
d'être touchées par la campagne. Ce qui impose de récupérer ces informations en
interrogeant ces personnes. « C'est une bonne occasion de communiquer avec les
gens et une excellente opportunité d'obtenir des informations très pertinentes,
précise Anne Gayet. En fait, un bon scoring combine science du questionnaire et
science de l'exploitation. »
TESTER, TOUJOURS TESTER
La bonne exploitation d'un scoring, son peaufinage, passent aussi par de
nombreux tests. Bien sûr, l'expérience permet d'effectuer un tri préalable, de
créer un premier filtre. Ce qui est obligatoire, ne serait-ce que pour des
questions budgétaires. « On enrichit une base à partir des données des gens qui
ont répondu à une offre, note Yves Allard. Quand on envoie un message pour
tester un fichier, on ne travaille pas sur un échantillon représentatif des
Français. Il faut forcément procéder à une présélection. » En effet, l'idéal
serait de pouvoir tester le message sur l'intégralité des gens, mais quel
budget permettrait une telle opération ? C'est pour cela que les tests sur les
fichiers sont importants, ils permettent d'affiner la connaissance des
répondants, de vérifier la validité de ses postulats. « On teste un même
message sur un échantillon supposé "bon" et sur un autre échantillon supposé
"mauvais" pour vérifier que les premiers répondent bien à la sollicitation et
que les seconds ne répondent pas », précise Anne Gayet. Le risque, c'est de
tirer de mauvaises conclusions des résultats de ces tests, de se laisser abuser
par des différences qui n'en sont pas. Un exemple de cet écueil est donné par
Yves Allard : « Prenons un fichier de 100 000 adresses que l'on divise
aléatoirement en 10 fichiers de 10 000 adresses que l'on envoie simultanément.
Admettons que le nombre de réponses se situe entre 95 et 105 selon les
échantillons. Peut-on considérer que ceux qui sont situés au-dessus de 100 sont
les plus intéressants ? Non, car la différence n'est statistiquement pas
significative. » Le test est aussi un outil de suivi du scoring, permettant de
voir dans quelle mesure les scores passés ont évolué. Comme le note Anne Gayet,
« un score est un outil de mesure qui ne donne de résultats que si tous les
éléments extérieurs sont les mêmes ». Mais l'on sait que rien n'est figé dans
le temps, ce qui oblige à revoir en permanence ses scores. Le test est un bon
révélateur de l'évolution d'un scoring, un moyen de déterminer quand et à quel
niveau il faut le mettre à jour. « Quand les résultats des "mauvais" fichiers
rejoignent ceux des "bons", il est temps de se poser des questions », ajoute
Anne Gayet. Schématiquement, il existe deux types différents de mises à jour
possibles pour un score. La première, la plus légère, consiste à conserver les
formules et les critères utilisés et à simplement influer sur les coefficients
que l'on attribue à ces critères en fonction de l'évolution constatée dans le
comportement des utilisateurs faisant partie de la cible. Une opération qui ne
remet pas en cause la structuration du score. La seconde forme de mise à jour,
en revanche, impose une remise à plat complète du score dans tous ses aspects.
Une opération qui peut arriver de façon très fréquente : « Si les données ou
les comportements évoluent vite, les scores peuvent être remis à plat plusieurs
fois par an », précise Anne Gayet. Yves Allard va même plus loin en énonçant
que « le scoring est une démarche permanente, qui n'est pas applicable dans le
temps mais seulement sur une offre donnée. Il peut y avoir des variations très
importantes dans le temps, ce qui implique de refaire le score très
régulièrement ». Enfin, de manière plus générale, améliorer ses compétences en
matière de scoring et obtenir les meilleurs résultats passe encore et toujours
par la pratique. « Plus on fait des scores, meilleur on est », conclut Philippe
Cheval.