Pour gérer vos consentements :

Un formidable gisement à exploiter

Publié par Christophe Dutheil le | Mis à jour le

Le déluge de données pousse l'analyse un cran plus loin avec le big data. Toutes les entreprises anglo-saxonnes sont à l'œuvre. Leurs homologues françaises commencent à s'y mettre. Leur objectif ? Donner du sens aux vastes quantités de données non structurées émanant des clients.

Le Web 2.0 est entré dans les mœurs, les réseaux sociaux aussi, idem pour le cloud computing... Aujourd'hui, c'est au tour du “big data”. « Tout est parti des grands acteurs du numérique, qui sont assis sur des gisements massifs de données, rappelle Alexis Mons, directeur général en charge de la stratégie de l'agence française Emakina. En analysant les informations fournies par leurs clients et utilisateurs, ils espèrent valoriser leurs services. » Ce n'est pas un vœu pieux : certains, comme Google, Amazon, Facebook et Yahoo!, ont déjà contribué à populariser les modèles de programmation open source MapReduce et Hadoop, conçus pour faciliter le traitement de très grands volumes de données sur des architectures web “distribuées”.

Aujourd'hui, bien d'autres entreprises leur emboîtent le pas, aidées par l'augmentation continue des capacités de calcul et de stockage, mais aussi par la multiplication des outils informatiques permettant d'exploiter et de visualiser les données. Lesquels sont souvent des « versions industrialisées d'Hadoop, packagées pour les entreprises, telles Cloudera, MapR ou Hortonworks », indique Vincent Heuschling, fondateur du cabinet AffiniTech.

Luca Paderni, analyste chez Forrester, explique que « la croissance du volume de données à gérer est exponentielle. Il faut bien sûr analyser tout ce qui se dit à propos de la marque sur le Web, les messages issus des réseaux sociaux et des forums. Mais on voit aussi de plus en plus arriver de nouvelles données provenant des voitures, des mobiles, des télévisions, des tablettes, des capteurs... Tous ces objets transmettent des informations qu'il faut apprendre à gérer. »

Cela ne va pas de soi. « On dit souvent que la difficulté réside dans les trois V : volume, vitesse et variété, souligne Isabelle Carcassonne, directrice marketing analyse décisionnelle chez IBM. On ne parle plus de téraoctets (1012), mais de «pétaoctets» (1015). Les data doivent être traitées en temps réel ; et surtout, elles ne proviennent plus uniquement de bases d'informations structurées car relationnelles, mais comportent aussi un nombre croissant de contenus non structurés, comme des commentaires, des vidéos, des images, de l'audio... » Pourquoi s'intéresser à ces données-là? « Si vous êtes un institut de recherche médicale, la possibilité d'accéder à des informations anonymisées sur la totalité des analyses de sang faites par un hôpital aura beaucoup de valeur pour vous, note Alexis Mons (Emakina). Vous pourrez effectuer des analyses statistiques et dégager des tendances. » L'examen des appréciations des clients peut s'avérer tout aussi précieux. « Une marque de lessive a utilisé une de nos solutions pour jauger la perception de son produit sur le marché, explique Isabelle Carcassonne (IBM). Après analyse de ce qu'il se disait sur la Toile, elle a découvert un problème d'odeur qu'elle méconnaissait et a revu sa formulation ! » Un point de vue que partage le consultant en nouvelles technologies Xavier Dalloz. « Le “big data” permet de vérifier une intuition. Il faut poser les bonnes questions, puis vérifier, à partir de la masse d'informations, si votre idée repose sur du concret. » Un panel 2.0, en somme, sur lequel certains instituts de sondages comptent déjà s'appuyer.

Pour Hervé Tranger, directeur méthodes et process de BVA, le “big data” a pu émerger grâce au développement de deux types d'outils : « Ceux permettant d'écouter la Toile, pour récupérer les verbatims autour d'un sujet donné, et les logiciels d'analyse sémantique et de codification automatisée, pour structurer et analyser de gros volumes de verbatims. » Loin de concurrencer les études «traditionnelles», ces verbatims peuvent les compléter. « Ils ont facilité l'émergence de produits d'étude (e-réputation...), mais ont aussi enrichi les approches existantes », poursuit Hervé Tranger (BVA).

Dans certains cas, le “big data” permet d'anticiper les difficultés pour améliorer le service client. L'éditeur français Scan & Target, dont les solutions sont utilisées par la Française des jeux et Pixmania, a développé un service en ligne d'analyse et de filtrage, en temps réel, des contenus générés par les internautes. Le club de basket américain San Antonio Spurs, un autre de ses clients, l'exploite, par exemple, pour modérer automatiquement sa page Facebook et détecter les fans qui peinent à se procurer des billets pour les matchs. « À chaque fois, nous alertons le community manager du club, qui contacte la personne pour l'aider ou pour lui proposer un produit répondant à ses attentes », relate Bastien Hillen, directeur général de Scan & Target.

Reste que l'approche s'avère encore souvent compliquée. « Le “big data” ne se résume pas à un type de données, précise Bastien Hillen. Les réseaux sociaux sont un exemple, mais il en existe beaucoup d'autres. E-mails, appels téléphoniques aux services consommateurs, vidéos, SMS... sont d'autres canaux importants. Et aucun éditeur ne peut prétendre couvrir la totalité du “big data”. » Quoi qu'en disent la majorité des acteurs qui se positionnent sur ce marché émergent, objet de nombreuses convoitises...
« Il serait presque illusoire de vouloir gérer la totalité des données », ajoute le consultant Luca Paderni. L'idéal selon lui ? « Identifier une quinzaine de points d'interaction prioritaires avec les clients. Les consommateurs se forgent une opinion sur votre marque à partir de ces points de contact. Pour chacun, effectuez de nombreux tests, évaluez les comportements et cernez ce qui a le plus de valeur. » Ce faisant, vous devriez identifier de nouvelles idées pour satisfaire les consommateurs. Mais attention à ne pas tout miser sur le “big data”. « La technique aide à cerner des tendances ou des grilles comportementales, comme la quantité d'informations publiée par un internaute, le nombre de pages lues à chaque visite, le nombre de pauses... », affirme Romain Chaumais, directeur business intelligence de la société de services Ysance. Pour autant, nul ne peut être sûr à 100 % de la qualité des données et mieux vaut recouper ses découvertes avec d'autres informations. « Les données n'ont pas d'intelligence en elles-mêmes. Elles doivent être mises en perspective, insiste Alexis Mons (Emakina). On ne peut pas les détacher du contexte, des moyens ou de la qualité... » Le “big data” constitue un outil très précieux. Mais il n'est pas encore près de remplacer les analystes. Son développement devrait même créer de nouveaux métiers. « Il faut des experts pour veiller sur les sources, réaliser les bons échantillonnages... », assure le consultant Vincent Heuschling. Les têtes pensantes du marketing peuvent être rassurées.

La rédaction vous recommande

  • Le congrès Big Data Paris revient les 9 & 10 mars prochains à Paris pour une neuvième édition qui s'annonce plus " Big " que jamais.
  • [Big Data Paris 2018] Informatica : des ambitions assumées !
  • Lumière sur… les 6V du Big Data
  • Big data, big challenge
  • Ysance créée son offre Big Data