Recherche

L'analyse de données à la recherche du logiciel ultime

Les services études des grandes entreprises et des instituts de sondage sont en recherche permanente d'outils performants d'analyse pour décrypter enquêtes et questionnaires. Mais aucun de ces produits ne couvre la totalité des besoins de ces départements, qui, le plus souvent, en emploient plusieurs.

Publié par le
Lecture
21 min
  • Imprimer


Le logiciel ultime d'analyse de données marketing est encore à créer. En interrogeant les sociétés, on s'aperçoit que les chargés d'études marketing et les statisticiens travaillent tous avec deux ou trois softs, selon leurs besoins. C'est le cas chez Direct Assurance (groupe Axa), qui utilise Enterprise Miner de SAS, Spad de Cisia Ceresta et qui a "bêta testé" le nouveau logiciel KnowlBox de Complex Systems. Ou chez l'Oréal, qui a acquis une centaine de licences de Question (Grimmer Logiciels) mais possède aussi un exemplaire du Sphinx (le Sphinx Développement). Même chose chez BVA qui, s'il se sert beaucoup d'Askia, conserve pour l'instant SAS et Spad. Le logiciel de Cisia Ceresta est également très employé par Cegetel, mais la société a aussi des licences de SPSS et SAS. Bref, aucun de ces produits, malgré leurs qualités intrinsèques, ne suffit à combler la totalité des demandes des services études. Les éditeurs l'ont d'ailleurs bien compris : bien que concurrents, ils n'hésitent pas à créer des interfaces pour que leurs clients puissent importer sans problème leurs données d'un programme à l'autre. Cette intégration peut même aller plus loin, comme dans le cas de Spad (Cisia Ceresta) qui propose Question (de Grimmer Logiciels) comme module dans son offre. L'analyse de données marketing consiste à traiter les variables des enquêtes (de satisfaction, d'opinion, etc...) ou des tests produits. Une fois saisis, les résultats des questionnaires sont introduits dans ces logiciels qui regroupent les données selon telle ou telle demande, comme la prédiction de la fidélité des clients, les définitions de produits, la réduction de l'attrition, etc. Puis ils éditent des rapports. Ceux-ci peuvent prendre la forme de tableaux, de graphiques ou de mappings. Les statisticiens traitent plutôt les données quantitatives (âge, revenu) tandis que les chargés d'études marketing s'attachent à étudier les données qualitatives (sexe, préférences). De fait, et malgré les dénégations des éditeurs, mieux vaut pour ces derniers posséder une bonne base en statistiques s'ils veulent utiliser au mieux ces logiciels. Chaque programme possède ses points forts et a soigné telle ou telle de ses fonctions. Côté traitement statistique, le leader incontesté demeure SAS Institute, qui a sorti un logiciel d'analyse de données, du nom d'Enterprise Miner (voir encadré). Mais les produits de cet éditeur ne s'adressent pas à toutes les sociétés. Leur prix (plusieurs centaines de milliers de francs) et leur puissance de traitement les réservent aux grands comptes. Derrière ce poids lourd, dont l'analyse ne représente qu'une faible partie de l'activité, on trouve toute une série de sociétés petites ou moyennes. Parmi ces dernières, SPSS MR (Market Research) France, fait figure de gros parmi les petits. Il édite le logiciel SPSS MR, qui selon son directeur commercial, offre une réelle facilité d'utilisation pour des non-statisticiens et qui est facilement packageable.

Traitements illimités


« Chez Sécodip, par exemple, ce sont les commerciaux qui font les rapports. Grâce à une application spéciale, il leur est facile de produire un tableau », indique Stéphane Karm, directeur commercial de SPSS MR. La version de base de SPSS MR permet d'effectuer des traitements illimités en termes de données. Neuf modules complémentaires offrent la possibilité d'affiner les calculs. D'après SPSS, les sociétés clientes se dotent en moyenne d'un ou deux modules en plus de la version de base. Système ouvert, SPSS MR a développé des interfaces avec des partenaires technologiques comme Business Objects, Oracle, IBM, Cognos ou Hyperion. Mais également avec d'autres logiciels d'analyse de données marketing comme Spad et Question. Parmi les entreprises qui l'utilisent, on recense de nombreuses sociétés d'études comme Sécodip (Taylor Nelson Sofres), Ipsos ou des spécialistes du marketing opérationnel comme D interactive. Thierry Vallaud, son directeur des études, a été formé à cet outil aux Etats-Unis. « C'est un standard mondial et un bon outil, avec un rapport qualité prix très correct. De plus, il est relativement facile à utiliser », estime-t-il. Selon ce dernier, qui l'utilise pour faire des tris à plats et croisés et des segmentations à partir des bases de données de ses clients, SPSS capitalise un savoir-faire dans l'analyse de données pure. Le responsable des études se sert aussi des modules Answer Tree (arbre de segmentation), Neural Connexion (réseau de neurones) et Clémentine (data mining). D'après lui, la formation à cet outil dure une semaine. Thierry Vallaud aimerait néanmoins que la qualité visuelle des documents soit améliorée, ainsi que la puissance du module de transformation des données. La nouveauté concernant SPSS MR, c'est le recodage des questions ouvertes grâce au produit Verbastat (acheté à l'éditeur belge Datastat). « Dans les questionnaires d'enquêtes, les questions ouvertes sont souvent très difficiles à analyser et à traiter. En les recodant, on peut replacer les phrases prononcées par groupes, ce qui facilite ensuite l'analyse », explique Stéphane Karm. Autre innovation : le trade-off ou analyse conjointe des sociétés. Par exemple, Quick a procédé à une analyse conjointe sur ses concurrents. Quelques questions bien placées dans les enquêtes permettent de prédire les parts de marché des uns et des autres. Parallèlement à ses logiciels, SPSS propose de la formation et du consulting. L'éditeur met en avant ses trente années d'expérience, son portefeuille de solutions et la convivialité de son produit d'analyse marketing.

L'école française


Autre société bien implantée dans ce secteur : Cisia Ceresta, avec son produit phare Spad (Système Pour l'Analyse des Données). Issue d'une association loi 1901, la société a été créée en 1987 pour donner naissance au "premier logiciel français d'analyse de données à vocation marketing", selon son éditeur. Aujourd'hui, la version 4.5 de Spad est disponible. Pour Alain Morineau, directeur général de Cisia Ceresta, un bon logiciel d'analyse de données doit être « capable de traiter simultanément l'ensemble des informations en mettant en relation tous les types de variables ». Le must étant de pouvoir relier les questions ouvertes avec les variables quanti et quali. « Le produit doit être capable d'expliquer et décrire toutes les liaisons existantes entre l'ensemble des éléments d'un tableau de données », ajoute Alain Morineau. Les produits de Cisia Ceresta sont issus de ce que l'on appelle "l'école française de statistiques", par opposition à la méthode anglo-saxonne. Il s'agit en fait de deux manières différentes de présenter les résultats. Développée dans les années soixante en France, elle s'est peu étendue hors de nos frontières. Pour Alain Morineau, les atouts de Spad résident dans sa capacité d'analyse multidimensionnelle des données et leur représentation dans des tableaux, sous formes de graphiques ou de nuages de points, les fameux mappings. Autre point fort du logiciel défendu par son éditeur : la régression, analyse discriminative à la base du scoring. Spad peut aussi créer des tableaux multiples. « Par exemple, un jury d'analyse sensorielle de douze personnes étudie dix produits sur vingt variables. Chaque individu produit son propre tableau. Comment faire l'analyse des liaisons des différents attributs des produits entre eux ? Et entre attributs et individus ? Le logiciel doit pouvoir effectuer une synthèse logique de tous ces éléments », estime le directeur général de Cisia Ceresta.

Une synthèse sous Word


A l'instar de SPSS, Spad possède des modules complémentaires, comme Amado, qui permet une description graphique de données. Rémy Hordan est expert statisticien à la division marketing stratégique de Cegetel et utilise Spad. « Il possède les spécificités d'un outil d'analyse à la française. Par exemple, avec sa méthodologie mixte, il permet de traiter de très gros échantillons jusqu'à 500 000 individus », précise-t-il. Et d'ajouter qu'il apprécie la convivialité du produit, à travers la notion de filières, pratique pour les gros volumes. L'expert statisticien de Cegetel se sert de Spad depuis plusieurs années pour l'analyse des données, mais travaille aussi avec SAS Enterprise Miner, version client/serveur. « C'est un outil classique de statisticien. Mais il ne concerne pas le même public. SAS vaut plusieurs millions francs alors que Spad coûte dans les 10 000 F », ajoute-t-il. Les chargés d'études de la division marketing de l'opérateur télécom se servent de Spad pour résoudre leurs problèmes de typologies de clientèles et pour classer les abonnés en segments homogènes. Au préalable, ils effectuent une analyse factorielle. Avec comme objectif final de segmenter la base de données clients et d'optimiser les cibles des campagnes marketing. Par ailleurs, Cisia Ceresta lance un nouveau logiciel nommé l'Analyseur. Disponible à la fin du premier trimestre 2001, vendu en version d'appel au prix de 950 F HT, il cible les non-statisticiens et permet de repérer les variables dans une enquête et de les ajuster automatiquement. Il produit une synthèse sous Word. « C'est un logiciel prêt à l'emploi, qui ne demande aucune intervention de l'utilisateur », précise Alain Morineau. Et qui s'inscrit dans une tendance lourde du marché, comme le souligne Jean-François Grimmer, directeur général de Grimmer Logiciels, éditeur du logiciel Question, « la demande des chargés d'études a évolué ces dernières années. Avant, ils voulaient les résultats des analyses dans des tableaux croisés, puis faisaient eux-mêmes un rapport. Maintenant, ils veulent directement le rapport. » D'où une évolution des logiciels vers une compatibilité avec les outils de bureautique les plus utilisés comme Word ou Excel de Microsoft. De plus, les matériels informatiques ont eux aussi changé : « il y a quelques années, les ordinateurs avaient peu de mémoire. Il fallait donc coder les données. Aujourd'hui, ils ont énormément d'espace disque, mais les logiciels ont conservé cette logique de l'information codée », ajoute Jean-françois Grimmer. L'homogénéisation entre données internes à l'entreprise et informations issues des enquêtes est un autre enjeu de l'analyse de données. Ainsi, EDF voulait mesurer le seuil d'inacceptation des microcoupures de courant. Il a fait réaliser un questionnaire pour les usagers, puis a mis en regard les résultats de l'enquête et ses propres informations.

Analyser les forums


Il y a un an et demi, Grimmer a remis à plat son logiciel Question pour en sortir la version 2000. Travaillant sous Windows, elle s'ouvre aujourd'hui vers l'Internet avec le langage HTML. On peut ainsi envoyer des questionnaires paramétrés par e-mail. Le client reçoit les réponses dans sa boîte aux lettres électronique, en fichier attaché. Autres nouveautés dans Question : NeuroText, outil de "texte mining" pour analyser les questions ouvertes et WorldMapper, pour étudier les forums sur le Web. « Cela fait soixante-dix ans que l'on s'occupe des données structurées mais on fait très peu de choses sur les informations non structurées », rappelle Jean-François Grimmer. Qui voit dans le marché des données issues de l'Internet, un potentiel cinquante fois plus important que celui de l'analyse de données traditionnelles. « Pouvoir étudier les contributions dans les forums et les news group en retrouvant des mots clés peut être déterminant pour les marques. Dans ces échanges, les consommateurs disent vraiment ce qu'ils pensent. C'est une nouvelle ère qui s'ouvre pour les entreprises, avec des conséquences encore inconnues », conclut Jean-François Grimmer, qui compte parmi ses clients le service études de L'Oréal, qui détient une centaine de licences de Question pour effectuer des tests quantitatifs. Un client par ailleurs fidèle puisque le département travaillait déjà sur la version Dos du logiciel. Les données sont acquises en interne via des tablettes électroniques Fujitsu, ensuite exportées dans Question pour en effectuer l'analyse et créer des modélisations. « Nous venons de passer à Question 2000 et nous en sommes plutôt satisfaits. Pour l'instant, ce logiciel fonctionne bien et répond à nos attentes en ce qui concerne les études quantitatives », précise Fabrice Aghassian, responsable du service études à la division recherche et développement du géant mondial de la cosmétique. Qui ajoute suivre avec intérêt l'évolution du marché et notamment l'adaptation des outils aux nouvelles possibilités offertes par le Net. « A terme, nous prévoyons d'échanger des données via le Web. »

Hébergement des enquêtes sur le Web


Présente sur ce marché de l'analyse de données depuis quatorze ans, la société savoyarde Le Sphinx Développement édite aujourd'hui son logiciel Sphinx en différentes langues (anglais, allemand, espagnol, portugais). « En deux minutes, on peut connaître toutes les relations entre les variables d'une base de données », détaille Christelle Migaux, responsable marketing du Sphinx Développement. La cible de ce soft : toutes les sociétés, petites et grandes. Parmi celles-ci, on trouve par exemple Sony, Yves Rocher, Renault ou la Fnac. Le programme peut aussi effectuer l'analyse de bases de données externes, comme des fichiers de vente ou de facturation. A une panoplie d'outils statistiques classiques, le Sphinx ajoute une analyse automatisée des questions ouvertes, grâce à un atelier lexical. La nouveauté, c'est Sphinxonline.com, un serveur qui héberge les enquêtes réalisées sur le Web pour les clients. « Cela leur évite tous les soucis d'ordre technique », note Christelle Migaux. Pour l'édition de tableaux de bord, le data mining et la publication des enquêtes sur Internet, un logiciel d'appoint, Eurêka 2000 est disponible.

Mémoriser les requêtes


Le Sphinx est composé de plusieurs modules : Primo, qui permet de définir le questionnaire, saisir les réponses, dépouiller les données, analyser les résultats et préparer un rapport. Plus 2 possède des fonctions supplémentaires : dresser des typologies, explorer des données textuelles, échanger avec les outils de bureautique, ainsi que SPSS et Spad. Lexica est un module d'analyse textuelle. Quant à la version 2000 du module de base Sphinx, elle est plus puissante et permet de traiter davantage de données. De nouveaux types de graphiques et tableaux sont également disponibles dans cette version sous Windows 95, 98 et NT. La société Eole est issue de la fusion d'IBC et Quad Informatique. Le logiciel a d'abord été écrit pour une utilisation interne. Quad Eole, version pour micro-ordinateur, date des années 80. Aujourd'hui, Eole 3 version Windows est plutôt ciblée sur les instituts d'études et de sondages. L'offre complète se compose du module Eole et de Saxophone, logiciel de recueil des données. « Notre produit permet de prendre en charge n'importe quel fichier de données (ascii, images de cartes) et de créer variables et champs », précise Stéphane Chartier, responsable marketing. Il possède aussi, selon l'éditeur, de puissantes capacités de codifications. Par exemple : la question de l'âge est posée en clair et l'utilisateur veut représenter des classes d'âges ; le logiciel permet de déterminer ces variables. Il peut aussi mémoriser la requête, ce qui permet d'éditer le nombre désiré de tableaux similaires, grâce au langage Quadios. « On voit tout de suite le résultat de l'analyse à l'écran. Il n'est limité que par l'imagination de l'utilisateur », affirme Stéphane Chartier. Ainsi, les possibilités de déterminer des sous-populations sont illimitées. Par ailleurs, on peut commencer l'analyse des réponses en cours de saisie, sans attendre la fin de l'étude. On peut aussi exporter les tableaux vers Excel. Destiné aux chargés d'études marketing et aux services études des entreprises, Eole 3 fonctionne sous Windows (toutes versions), et propose des interfaces avec les logiciels SAS, SPSS et Spad. Askia quant à lui est ciblé vers les instituts de sondages et d'enquêtes. Créé en 1990 par un ingénieur, le logiciel a été commercialisé à partir de 1996. Il se positionne comme complément des autres produits d'analyses et de statistiques comme SAS ou SPSS.

Location à l'année


Solution orientée études, Askia traite la conception du questionnaire et son analyse. « Les modules sont identiques, quel que soit le mode de recueil des informations : fichier importé, saisie manuelle, saisie en face à face, ou par téléphone », explique Patrick Georges, directeur commercial. Pour lui, un logiciel d'analyse se doit de développer trois fonctionnalités : les tris à plats et croisés, la lexicométrie (analyse des questions ouvertes) et l'analyse multidimensionnelle. D'abord utilisé par la société d'études H2O, Askia a été testé puis adopté par BVA. Pour ses concepteurs, Askia est facile à utiliser et permet de supporter la gestion des niveaux. « On peut produire des tableaux avec un minimum de commandes », précise Patrick Georges. Le logiciel d'analyse doit également pouvoir gérer les sous-populations d'un échantillon et effectuer des redressements. Par exemple, si l'on entame une étude à l'échelon national, il faut comparer son échantillon avec celui de l'Insee. Askia peut également faire de l'analyse de questions ouvertes, sans recodification. « Nous sommes une des rares solutions à offrir un package homogène pour les sociétés d'études », estime le directeur commercial. Contrairement à ses concurrents, Askia ne vend pas son programme mais le loue à l'année. L'offre comprend le soft, la maintenance et les mises à jour. Vincent Legall, responsable du service traitements-statistiques de BVA, a commencé à utiliser Askia depuis quelques mois : « Nous possédions un logiciel très performant depuis 1988 mais il avait le gros défaut d'être en environnement Dos. A la recherche d'un programme sous Windows, nous avons essayé plusieurs solutions, mais qui n'étaient pas assez puissantes à notre goût », explique-t-il. Un des avantages principaux du logiciel d'Askia, d'après l'institut d'études, c'est sa nouveauté, ce qui autorise une "customisation" poussée pour ses clients. « Nous les avons beaucoup fait travailler pour disposer d'un logiciel opérationnel », avoue le responsable des traitements statistiques. Autre atout : une formation relativement courte. BVA se sert de ce logiciel pour analyser les résultats des études de toutes natures : face à face, téléphone, papier, etc. Son défaut majeur d'après BVA : toutes les fonctions ne sont pas encore intégrées. C'est pourquoi l'institut conserve pour l'instant les autres logiciels que sont SAS et Spad. « Mais nous espérons qu'à terme, Askia pourra tout faire », précise Vincent Legall. Parmi les éditeurs de logiciels d'analyse de données, il faut aussi citer Soft Concept, qui propose toute une gamme de programmes de recueil et de traitement.

Rapidité de calcul


Basé à Lyon, cet éditeur a ouvert il y a deux ans un bureau à Paris. Le produit d'analyse s'appelle Ethnos. Dans sa partie traitement (il comporte aussi un module de paramétrage et un autre de saisie), il propose des tris à plats, des croisements illimités, des analyses pondérées, des tableaux multiples, des rapports de diagnostics, etc. On peut également appliquer des filtres multicritère pour générer des sous-populations. D'après l'éditeur, Ethnos n'exige « aucune connaissance préalable ni en informatique ni en statistiques » et la formation nécessaire pour apprendre à s'en servir est qualifiée de "légère". L'éditeur met aussi en avant la capacité de traitement (études jusqu'à 2000 questions) et la rapidité de calcul. Par exemple, le calcul et l'affichage d'un tri à plat d'une variable qualitative sur 700 individus dans un questionnaire de 200 questions s'effectuent d'après Soft Concept en moins de trois secondes. Par ailleurs, le logiciel intègre un module dit "utilitaires", qui permet à l'utilisateur de travailler sur les fichiers sans connaître les commandes de l'environnement d'exploitation de ces derniers. Ethnos prend en compte tous types de questions, y compris les questions ouvertes, met en page et imprime automatiquement les questionnaires. Le contenu des tableaux de résultats est paramétrable et le soft est ouvert vers d'autres logiciels de bureautique (Excel, Lotus 123). Enfin, un module complémentaire intitulé Stat'Mania permet d'effectuer les analyses statistiques avancées telles que l'analyse factorielle, la classification hiérarchique, la régression (simple ou multiple), l'analyse automatique de tableaux croisés, l'analyse des questions ouvertes. Il s'utilise uniquement avec Ethnos.

Nouvel entrant


La jeune société Complex Systems, fondée par deux statisticiens en 1996, vient de lancer son tout nouveau logiciel KnowlBox. Il se veut en rupture avec ses concurrents, dans la mesure où il est entièrement dédié aux analyses marketing et ne réclame aucune connaissance en statistiques. « En général, les logiciels sont axés sur des techniques. Nous avons voulu prendre le contre-pied et orienter notre programme sur ce que cherche l'utilisateur », indique Hélène Ivanoff, directrice associée. KnowlBox permet de faire de l'analyse multidimensionnelle automatique ou guidée, de l'exploration de bases de données, de la focalisation (décrire un comportement). Soutenue par l'Anvar (Agence pour la Valorisation de la Recherche), Complex Systems a particulièrement travaillé sur les techniques de modélisation des résultats. « On peut aussi écrire directement dans la base en ajoutant des champs supplémentaires », ajoute la directrice associée. Conçu pour les chargés d'études des départements marketing, KnowlBox se veut simple à utiliser, sans paramétrage, et complémentaire des outils statistiques purs. « Les grandes sociétés ne se servent pas forcément de tous leurs logiciels, qui demandent des formations importantes. Or, les utilisateurs n'ont souvent pas le temps. Notre programme ne nécessite qu'une demi-journée de formation », précise Hélène Ivanoff. Parmi la douzaine de bêtas testeurs de ce nouveau logiciel, Philippe Menard est statisticien chez Direct Assurance (filiale d'Axa). Il a utilisé KnowlBox pour réaliser des scores sur la fidélisation de la clientèle. « Pour créer nos scores, il faut bien segmenter les variables. Le logiciel décrit bien les liens entre ces items », estime-t-il. Mais si la nouvelle méthode de scoring introduite dans KnowlBox est intéressante en soi selon le statisticien de Direct Assurance, elle peut aussi être gênante : « on ne peut pas livrer les résultats tels quels à l'informaticien. Il faut les adapter pour que les scores soient ensuite exploitables par les commerciaux », ajoute Philippe Menard. Direct Assurance continue donc de se servir de SAS Entreprise Miner (voir aussi encadré) et Spad pour construire les modèles, mais utilise KnowlBox pour la préparation en amont des échantillons. Encore une fois, on voit que les départements études et statistiques préfèrent garder plusieurs fers au feu, plutôt que s'en remettre à un seul logiciel pour effectuer leurs analyses. Cette tendance lourde laisse aux éditeurs toute latitude pour imaginer de nouvelles solutions qui combleront tel ou tel besoin particulier des chargés d'études marketing.

Le data mining selon SAS


Editeur de logiciels décisionnels (datawarehousing, data mining, etc.), SAS est un poids lourd de la statistique, avec un milliard de francs de chiffre d'affaires en 1999 et 33 000 clients, dont 1 400 en France. L'analyse de données marketing ne représente qu'une petite partie de cette activité, que l'éditeur appelle data mining. Néanmoins, on trouve les logiciels de cette entreprise dans la plupart des départements statistiques des entreprises et instituts d'enquêtes. Enterprise Miner, lancé en 1998, vise les statisticiens et les chargés d'études. Le logiciel se décompose en cinq étapes, appelées méthode SEMMA. Le sampling vise à appliquer le processus de data mining à une sous-population (zone géographique, échantillon représentatif). Explore est l'exploration des données, sous une forme graphique ou statistique. On y trouve aussi la typologie et les analyses factorielles. Manipulate représente la fonction qui permet de traiter les questions soulevées par la phase d'exploration. Model correspond à l'étape prédictive : différentes techniques (réseau de neurones, arbres de décision, régression, etc...) sont mises en compétition pour obtenir les meilleures prévisions. Assess est la phase de comparaison des résultats à l'aide d'interfaces graphiques. Toutes ces fonctions sont représentées par des icônes dans l'interface graphique. Enterprise Miner permet aussi d'attribuer un score aux clients, afin de déterminer les bonnes cibles. On peut aussi créer des scripts pour le processus d'analyse. Cet outil s'appuie sur l'environnement datawarehouse de SAS, ce qui le positionne en matière de prix dans le haut de gamme. Sa cible couvre les grands comptes, comme Axa Financial. Le groupe d'assurance français utilise en effet Enterprise Miner pour effectuer du data mining, afin de mieux prévoir le comportement de ses clients, segmenter sa base et élaborer des campagnes marketing.

Glossaire


Codification : attribution d'un code synthétique à une modalité de réponse. Factorielle (analyse) : traitement dont le but est de représenter graphiquement et de décrire les liaisons entre des phénomènes. Il existe plusieurs méthodes : analyse en composantes principales, analyse des correspondances, etc. Qualitatives (variables) : variables ordinales ou nominales. La gamme d'analyses multivariées permettant de traiter ces variables est beaucoup plus réduite que dans le cas de variables quantitatives. Quantitatives (variables) : variables métriques ou scalées. Ces variables permettent, par leur nature, les calculs scientifiques les plus souvent utilisés dans l'analyse multivariée. Régression (analyse par) : méthode consistant à expliquer une variable métrique par d'autres variables métriques. Cette analyse détermine d'une part les paramètres de l'équation liant les variables explicatives à la variable à expliquer, et d'autre part la qualité du modèle choisi par calcul du coefficient de corrélation multiple ainsi que par différents tests effectués sur chacune des variables explicatives introduites dans l'analyse. Trade-off : méthode dans laquelle on cherche à déterminer le compromis (trade-off) de l'acheteur entre ses divers critères de décision. Tout choix de consommation s'opère en effet entre une série d'options imparfaites, et implique de la part de l'acheteur le sacrifice de certaines qualités en vue de l'obtention d'autres bénéfices désirés avec plus de force. Tri à plat : présentation des résultats d'une étude quantitative, en valeurs absolues ou en pourcentages, pour chacune des questions. Tri croisé : présentation des résultats d'une étude quantitative en les plaçant de façon matricielle, les uns en colonnes, les autres en lignes, de façon à croiser les réponses à plusieurs questions.

Patrick Cappelli

S'abonner
au magazine
Se connecter
Retour haut de page