Deux évolutions divergentes des études de marché
Entre immediateté et gigantisme....
On constate dans les études deux évolutions intéressantes sur la notion de représentativité et d’échantillonnage :
- D’un côté « parce que c’est immédiat, c’est représentatif ». On voit fleurir dans les médias des "enquêtes" à l’antenne où l’on demande aux auditeurs de s’exprimer en appelant ou en votant sur le site de la station sur tel ou tel sujet du moment. Quelques minutes plus tard, les résultats sont souvent présentés sur ce que pensent les Français sans marge d’erreur ni recul. C’est le concept d’immédiateté. Certains fournisseurs d’enquête web proposent de poser des questions à la volée sur leur accès. On est dans la même veine.
- D’un autre côté « parce que j’ai une grosse base de données sur plusieurs millions de clients », c’est représentatif. Certains distributeurs font leurs études de marché sur leur base de données clients pour extrapoler tel ou tel comportement. Là aussi souvent le redressement ou la marge d’erreur viennent à manquer. Mais c’est une tendance et quand on lève cette objection la réponse obtenue est souvent « oui mais c’est sur plusieurs millions de clients »
Je ne porte pas de jugement sur ces deux tendances lourdes : je m’interroge plus sur les puristes des terrains et des marges d’erreurs qui ne réagissent pas suffisamment sur ces évolutions.
Je me demande puisque ces deux tendances se justifient économiquement s’il ne faut pas repenser les études complètement : par exemple les études presse ne devraient t'elles pas être faites uniquement sur internet, mais en interrogeant des individus toutes les semaines, les études de consommations sur une famille de produit de grande consommation ne devraient t'elles pas être réalisées à partir de bases de distributeurs mutualisées en plus des panels consommateurs ?
Qu’en pensez vous ?