L'analyse de données à la recherche du logiciel ultime
Les services études des grandes entreprises et des instituts de sondage sont en recherche permanente d'outils performants d'analyse pour décrypter enquêtes et questionnaires. Mais aucun de ces produits ne couvre la totalité des besoins de ces départements, qui, le plus souvent, en emploient plusieurs.
Le logiciel ultime d'analyse de données marketing est encore à créer. En
interrogeant les sociétés, on s'aperçoit que les chargés d'études marketing et
les statisticiens travaillent tous avec deux ou trois softs, selon leurs
besoins. C'est le cas chez Direct Assurance (groupe Axa), qui utilise
Enterprise Miner de SAS, Spad de Cisia Ceresta et qui a "bêta testé" le nouveau
logiciel KnowlBox de Complex Systems. Ou chez l'Oréal, qui a acquis une
centaine de licences de Question (Grimmer Logiciels) mais possède aussi un
exemplaire du Sphinx (le Sphinx Développement). Même chose chez BVA qui, s'il
se sert beaucoup d'Askia, conserve pour l'instant SAS et Spad. Le logiciel de
Cisia Ceresta est également très employé par Cegetel, mais la société a aussi
des licences de SPSS et SAS. Bref, aucun de ces produits, malgré leurs qualités
intrinsèques, ne suffit à combler la totalité des demandes des services études.
Les éditeurs l'ont d'ailleurs bien compris : bien que concurrents, ils
n'hésitent pas à créer des interfaces pour que leurs clients puissent importer
sans problème leurs données d'un programme à l'autre. Cette intégration peut
même aller plus loin, comme dans le cas de Spad (Cisia Ceresta) qui propose
Question (de Grimmer Logiciels) comme module dans son offre. L'analyse de
données marketing consiste à traiter les variables des enquêtes (de
satisfaction, d'opinion, etc...) ou des tests produits. Une fois saisis, les
résultats des questionnaires sont introduits dans ces logiciels qui regroupent
les données selon telle ou telle demande, comme la prédiction de la fidélité
des clients, les définitions de produits, la réduction de l'attrition, etc.
Puis ils éditent des rapports. Ceux-ci peuvent prendre la forme de tableaux, de
graphiques ou de mappings. Les statisticiens traitent plutôt les données
quantitatives (âge, revenu) tandis que les chargés d'études marketing
s'attachent à étudier les données qualitatives (sexe, préférences). De fait, et
malgré les dénégations des éditeurs, mieux vaut pour ces derniers posséder une
bonne base en statistiques s'ils veulent utiliser au mieux ces logiciels.
Chaque programme possède ses points forts et a soigné telle ou telle de ses
fonctions. Côté traitement statistique, le leader incontesté demeure SAS
Institute, qui a sorti un logiciel d'analyse de données, du nom d'Enterprise
Miner (voir encadré). Mais les produits de cet éditeur ne s'adressent pas à
toutes les sociétés. Leur prix (plusieurs centaines de milliers de francs) et
leur puissance de traitement les réservent aux grands comptes. Derrière ce
poids lourd, dont l'analyse ne représente qu'une faible partie de l'activité,
on trouve toute une série de sociétés petites ou moyennes. Parmi ces dernières,
SPSS MR (Market Research) France, fait figure de gros parmi les petits. Il
édite le logiciel SPSS MR, qui selon son directeur commercial, offre une réelle
facilité d'utilisation pour des non-statisticiens et qui est facilement
packageable.
Traitements illimités
« Chez Sécodip, par
exemple, ce sont les commerciaux qui font les rapports. Grâce à une application
spéciale, il leur est facile de produire un tableau », indique Stéphane Karm,
directeur commercial de SPSS MR. La version de base de SPSS MR permet
d'effectuer des traitements illimités en termes de données. Neuf modules
complémentaires offrent la possibilité d'affiner les calculs. D'après SPSS, les
sociétés clientes se dotent en moyenne d'un ou deux modules en plus de la
version de base. Système ouvert, SPSS MR a développé des interfaces avec des
partenaires technologiques comme Business Objects, Oracle, IBM, Cognos ou
Hyperion. Mais également avec d'autres logiciels d'analyse de données marketing
comme Spad et Question. Parmi les entreprises qui l'utilisent, on recense de
nombreuses sociétés d'études comme Sécodip (Taylor Nelson Sofres), Ipsos ou des
spécialistes du marketing opérationnel comme D interactive. Thierry Vallaud,
son directeur des études, a été formé à cet outil aux Etats-Unis. « C'est un
standard mondial et un bon outil, avec un rapport qualité prix très correct. De
plus, il est relativement facile à utiliser », estime-t-il. Selon ce dernier,
qui l'utilise pour faire des tris à plats et croisés et des segmentations à
partir des bases de données de ses clients, SPSS capitalise un savoir-faire
dans l'analyse de données pure. Le responsable des études se sert aussi des
modules Answer Tree (arbre de segmentation), Neural Connexion (réseau de
neurones) et Clémentine (data mining). D'après lui, la formation à cet outil
dure une semaine. Thierry Vallaud aimerait néanmoins que la qualité visuelle
des documents soit améliorée, ainsi que la puissance du module de
transformation des données. La nouveauté concernant SPSS MR, c'est le recodage
des questions ouvertes grâce au produit Verbastat (acheté à l'éditeur belge
Datastat). « Dans les questionnaires d'enquêtes, les questions ouvertes sont
souvent très difficiles à analyser et à traiter. En les recodant, on peut
replacer les phrases prononcées par groupes, ce qui facilite ensuite l'analyse
», explique Stéphane Karm. Autre innovation : le trade-off ou analyse conjointe
des sociétés. Par exemple, Quick a procédé à une analyse conjointe sur ses
concurrents. Quelques questions bien placées dans les enquêtes permettent de
prédire les parts de marché des uns et des autres. Parallèlement à ses
logiciels, SPSS propose de la formation et du consulting. L'éditeur met en
avant ses trente années d'expérience, son portefeuille de solutions et la
convivialité de son produit d'analyse marketing.
L'école française
Autre société bien implantée dans ce secteur : Cisia
Ceresta, avec son produit phare Spad (Système Pour l'Analyse des Données).
Issue d'une association loi 1901, la société a été créée en 1987 pour donner
naissance au "premier logiciel français d'analyse de données à vocation
marketing", selon son éditeur. Aujourd'hui, la version 4.5 de Spad est
disponible. Pour Alain Morineau, directeur général de Cisia Ceresta, un bon
logiciel d'analyse de données doit être « capable de traiter simultanément
l'ensemble des informations en mettant en relation tous les types de variables
». Le must étant de pouvoir relier les questions ouvertes avec les variables
quanti et quali. « Le produit doit être capable d'expliquer et décrire toutes
les liaisons existantes entre l'ensemble des éléments d'un tableau de données
», ajoute Alain Morineau. Les produits de Cisia Ceresta sont issus de ce que
l'on appelle "l'école française de statistiques", par opposition à la méthode
anglo-saxonne. Il s'agit en fait de deux manières différentes de présenter les
résultats. Développée dans les années soixante en France, elle s'est peu
étendue hors de nos frontières. Pour Alain Morineau, les atouts de Spad
résident dans sa capacité d'analyse multidimensionnelle des données et leur
représentation dans des tableaux, sous formes de graphiques ou de nuages de
points, les fameux mappings. Autre point fort du logiciel défendu par son
éditeur : la régression, analyse discriminative à la base du scoring. Spad peut
aussi créer des tableaux multiples. « Par exemple, un jury d'analyse
sensorielle de douze personnes étudie dix produits sur vingt variables. Chaque
individu produit son propre tableau. Comment faire l'analyse des liaisons des
différents attributs des produits entre eux ? Et entre attributs et individus ?
Le logiciel doit pouvoir effectuer une synthèse logique de tous ces éléments »,
estime le directeur général de Cisia Ceresta.
Une synthèse sous Word
A l'instar de SPSS, Spad possède des modules complémentaires,
comme Amado, qui permet une description graphique de données. Rémy Hordan est
expert statisticien à la division marketing stratégique de Cegetel et utilise
Spad. « Il possède les spécificités d'un outil d'analyse à la française. Par
exemple, avec sa méthodologie mixte, il permet de traiter de très gros
échantillons jusqu'à 500 000 individus », précise-t-il. Et d'ajouter qu'il
apprécie la convivialité du produit, à travers la notion de filières, pratique
pour les gros volumes. L'expert statisticien de Cegetel se sert de Spad depuis
plusieurs années pour l'analyse des données, mais travaille aussi avec SAS
Enterprise Miner, version client/serveur. « C'est un outil classique de
statisticien. Mais il ne concerne pas le même public. SAS vaut plusieurs
millions francs alors que Spad coûte dans les 10 000 F », ajoute-t-il. Les
chargés d'études de la division marketing de l'opérateur télécom se servent de
Spad pour résoudre leurs problèmes de typologies de clientèles et pour classer
les abonnés en segments homogènes. Au préalable, ils effectuent une analyse
factorielle. Avec comme objectif final de segmenter la base de données clients
et d'optimiser les cibles des campagnes marketing. Par ailleurs, Cisia Ceresta
lance un nouveau logiciel nommé l'Analyseur. Disponible à la fin du premier
trimestre 2001, vendu en version d'appel au prix de 950 F HT, il cible les
non-statisticiens et permet de repérer les variables dans une enquête et de les
ajuster automatiquement. Il produit une synthèse sous Word. « C'est un logiciel
prêt à l'emploi, qui ne demande aucune intervention de l'utilisateur », précise
Alain Morineau. Et qui s'inscrit dans une tendance lourde du marché, comme le
souligne Jean-François Grimmer, directeur général de Grimmer Logiciels, éditeur
du logiciel Question, « la demande des chargés d'études a évolué ces dernières
années. Avant, ils voulaient les résultats des analyses dans des tableaux
croisés, puis faisaient eux-mêmes un rapport. Maintenant, ils veulent
directement le rapport. » D'où une évolution des logiciels vers une
compatibilité avec les outils de bureautique les plus utilisés comme Word ou
Excel de Microsoft. De plus, les matériels informatiques ont eux aussi changé :
« il y a quelques années, les ordinateurs avaient peu de mémoire. Il fallait
donc coder les données. Aujourd'hui, ils ont énormément d'espace disque, mais
les logiciels ont conservé cette logique de l'information codée », ajoute
Jean-françois Grimmer. L'homogénéisation entre données internes à l'entreprise
et informations issues des enquêtes est un autre enjeu de l'analyse de données.
Ainsi, EDF voulait mesurer le seuil d'inacceptation des microcoupures de
courant. Il a fait réaliser un questionnaire pour les usagers, puis a mis en
regard les résultats de l'enquête et ses propres informations.
Analyser les forums
Il y a un an et demi, Grimmer a
remis à plat son logiciel Question pour en sortir la version 2000. Travaillant
sous Windows, elle s'ouvre aujourd'hui vers l'Internet avec le langage HTML. On
peut ainsi envoyer des questionnaires paramétrés par e-mail. Le client reçoit
les réponses dans sa boîte aux lettres électronique, en fichier attaché. Autres
nouveautés dans Question : NeuroText, outil de "texte mining" pour analyser les
questions ouvertes et WorldMapper, pour étudier les forums sur le Web. « Cela
fait soixante-dix ans que l'on s'occupe des données structurées mais on fait
très peu de choses sur les informations non structurées », rappelle
Jean-François Grimmer. Qui voit dans le marché des données issues de
l'Internet, un potentiel cinquante fois plus important que celui de l'analyse
de données traditionnelles. « Pouvoir étudier les contributions dans les forums
et les news group en retrouvant des mots clés peut être déterminant pour les
marques. Dans ces échanges, les consommateurs disent vraiment ce qu'ils
pensent. C'est une nouvelle ère qui s'ouvre pour les entreprises, avec des
conséquences encore inconnues », conclut Jean-François Grimmer, qui compte
parmi ses clients le service études de L'Oréal, qui détient une centaine de
licences de Question pour effectuer des tests quantitatifs. Un client par
ailleurs fidèle puisque le département travaillait déjà sur la version Dos du
logiciel. Les données sont acquises en interne via des tablettes électroniques
Fujitsu, ensuite exportées dans Question pour en effectuer l'analyse et créer
des modélisations. « Nous venons de passer à Question 2000 et nous en sommes
plutôt satisfaits. Pour l'instant, ce logiciel fonctionne bien et répond à nos
attentes en ce qui concerne les études quantitatives », précise Fabrice
Aghassian, responsable du service études à la division recherche et
développement du géant mondial de la cosmétique. Qui ajoute suivre avec intérêt
l'évolution du marché et notamment l'adaptation des outils aux nouvelles
possibilités offertes par le Net. « A terme, nous prévoyons d'échanger des
données via le Web. »
Hébergement des enquêtes sur le Web
Présente sur ce marché de l'analyse de données depuis quatorze
ans, la société savoyarde Le Sphinx Développement édite aujourd'hui son
logiciel Sphinx en différentes langues (anglais, allemand, espagnol,
portugais). « En deux minutes, on peut connaître toutes les relations entre les
variables d'une base de données », détaille Christelle Migaux, responsable
marketing du Sphinx Développement. La cible de ce soft : toutes les sociétés,
petites et grandes. Parmi celles-ci, on trouve par exemple Sony, Yves Rocher,
Renault ou la Fnac. Le programme peut aussi effectuer l'analyse de bases de
données externes, comme des fichiers de vente ou de facturation. A une panoplie
d'outils statistiques classiques, le Sphinx ajoute une analyse automatisée des
questions ouvertes, grâce à un atelier lexical. La nouveauté, c'est
Sphinxonline.com, un serveur qui héberge les enquêtes réalisées sur le Web pour
les clients. « Cela leur évite tous les soucis d'ordre technique », note
Christelle Migaux. Pour l'édition de tableaux de bord, le data mining et la
publication des enquêtes sur Internet, un logiciel d'appoint, Eurêka 2000 est
disponible.
Mémoriser les requêtes
Le Sphinx est
composé de plusieurs modules : Primo, qui permet de définir le questionnaire,
saisir les réponses, dépouiller les données, analyser les résultats et préparer
un rapport. Plus 2 possède des fonctions supplémentaires : dresser des
typologies, explorer des données textuelles, échanger avec les outils de
bureautique, ainsi que SPSS et Spad. Lexica est un module d'analyse textuelle.
Quant à la version 2000 du module de base Sphinx, elle est plus puissante et
permet de traiter davantage de données. De nouveaux types de graphiques et
tableaux sont également disponibles dans cette version sous Windows 95, 98 et
NT. La société Eole est issue de la fusion d'IBC et Quad Informatique. Le
logiciel a d'abord été écrit pour une utilisation interne. Quad Eole, version
pour micro-ordinateur, date des années 80. Aujourd'hui, Eole 3 version Windows
est plutôt ciblée sur les instituts d'études et de sondages. L'offre complète
se compose du module Eole et de Saxophone, logiciel de recueil des données. «
Notre produit permet de prendre en charge n'importe quel fichier de données
(ascii, images de cartes) et de créer variables et champs », précise Stéphane
Chartier, responsable marketing. Il possède aussi, selon l'éditeur, de
puissantes capacités de codifications. Par exemple : la question de l'âge est
posée en clair et l'utilisateur veut représenter des classes d'âges ; le
logiciel permet de déterminer ces variables. Il peut aussi mémoriser la
requête, ce qui permet d'éditer le nombre désiré de tableaux similaires, grâce
au langage Quadios. « On voit tout de suite le résultat de l'analyse à l'écran.
Il n'est limité que par l'imagination de l'utilisateur », affirme Stéphane
Chartier. Ainsi, les possibilités de déterminer des sous-populations sont
illimitées. Par ailleurs, on peut commencer l'analyse des réponses en cours de
saisie, sans attendre la fin de l'étude. On peut aussi exporter les tableaux
vers Excel. Destiné aux chargés d'études marketing et aux services études des
entreprises, Eole 3 fonctionne sous Windows (toutes versions), et propose des
interfaces avec les logiciels SAS, SPSS et Spad. Askia quant à lui est ciblé
vers les instituts de sondages et d'enquêtes. Créé en 1990 par un ingénieur, le
logiciel a été commercialisé à partir de 1996. Il se positionne comme
complément des autres produits d'analyses et de statistiques comme SAS ou
SPSS.
Location à l'année
Solution orientée études,
Askia traite la conception du questionnaire et son analyse. « Les modules sont
identiques, quel que soit le mode de recueil des informations : fichier
importé, saisie manuelle, saisie en face à face, ou par téléphone », explique
Patrick Georges, directeur commercial. Pour lui, un logiciel d'analyse se doit
de développer trois fonctionnalités : les tris à plats et croisés, la
lexicométrie (analyse des questions ouvertes) et l'analyse multidimensionnelle.
D'abord utilisé par la société d'études H2O, Askia a été testé puis adopté par
BVA. Pour ses concepteurs, Askia est facile à utiliser et permet de supporter
la gestion des niveaux. « On peut produire des tableaux avec un minimum de
commandes », précise Patrick Georges. Le logiciel d'analyse doit également
pouvoir gérer les sous-populations d'un échantillon et effectuer des
redressements. Par exemple, si l'on entame une étude à l'échelon national, il
faut comparer son échantillon avec celui de l'Insee. Askia peut également faire
de l'analyse de questions ouvertes, sans recodification. « Nous sommes une des
rares solutions à offrir un package homogène pour les sociétés d'études »,
estime le directeur commercial. Contrairement à ses concurrents, Askia ne vend
pas son programme mais le loue à l'année. L'offre comprend le soft, la
maintenance et les mises à jour. Vincent Legall, responsable du service
traitements-statistiques de BVA, a commencé à utiliser Askia depuis quelques
mois : « Nous possédions un logiciel très performant depuis 1988 mais il avait
le gros défaut d'être en environnement Dos. A la recherche d'un programme sous
Windows, nous avons essayé plusieurs solutions, mais qui n'étaient pas assez
puissantes à notre goût », explique-t-il. Un des avantages principaux du
logiciel d'Askia, d'après l'institut d'études, c'est sa nouveauté, ce qui
autorise une "customisation" poussée pour ses clients. « Nous les avons
beaucoup fait travailler pour disposer d'un logiciel opérationnel », avoue le
responsable des traitements statistiques. Autre atout : une formation
relativement courte. BVA se sert de ce logiciel pour analyser les résultats des
études de toutes natures : face à face, téléphone, papier, etc. Son défaut
majeur d'après BVA : toutes les fonctions ne sont pas encore intégrées. C'est
pourquoi l'institut conserve pour l'instant les autres logiciels que sont SAS
et Spad. « Mais nous espérons qu'à terme, Askia pourra tout faire », précise
Vincent Legall. Parmi les éditeurs de logiciels d'analyse de données, il faut
aussi citer Soft Concept, qui propose toute une gamme de programmes de recueil
et de traitement.
Rapidité de calcul
Basé à Lyon, cet
éditeur a ouvert il y a deux ans un bureau à Paris. Le produit d'analyse
s'appelle Ethnos. Dans sa partie traitement (il comporte aussi un module de
paramétrage et un autre de saisie), il propose des tris à plats, des
croisements illimités, des analyses pondérées, des tableaux multiples, des
rapports de diagnostics, etc. On peut également appliquer des filtres
multicritère pour générer des sous-populations. D'après l'éditeur, Ethnos
n'exige « aucune connaissance préalable ni en informatique ni en statistiques »
et la formation nécessaire pour apprendre à s'en servir est qualifiée de
"légère". L'éditeur met aussi en avant la capacité de traitement (études
jusqu'à 2000 questions) et la rapidité de calcul. Par exemple, le calcul et
l'affichage d'un tri à plat d'une variable qualitative sur 700 individus dans
un questionnaire de 200 questions s'effectuent d'après Soft Concept en moins de
trois secondes. Par ailleurs, le logiciel intègre un module dit "utilitaires",
qui permet à l'utilisateur de travailler sur les fichiers sans connaître les
commandes de l'environnement d'exploitation de ces derniers. Ethnos prend en
compte tous types de questions, y compris les questions ouvertes, met en page
et imprime automatiquement les questionnaires. Le contenu des tableaux de
résultats est paramétrable et le soft est ouvert vers d'autres logiciels de
bureautique (Excel, Lotus 123). Enfin, un module complémentaire intitulé
Stat'Mania permet d'effectuer les analyses statistiques avancées telles que
l'analyse factorielle, la classification hiérarchique, la régression (simple ou
multiple), l'analyse automatique de tableaux croisés, l'analyse des questions
ouvertes. Il s'utilise uniquement avec Ethnos.
Nouvel entrant
La jeune société Complex Systems, fondée par deux
statisticiens en 1996, vient de lancer son tout nouveau logiciel KnowlBox. Il
se veut en rupture avec ses concurrents, dans la mesure où il est entièrement
dédié aux analyses marketing et ne réclame aucune connaissance en statistiques.
« En général, les logiciels sont axés sur des techniques. Nous avons voulu
prendre le contre-pied et orienter notre programme sur ce que cherche
l'utilisateur », indique Hélène Ivanoff, directrice associée. KnowlBox permet
de faire de l'analyse multidimensionnelle automatique ou guidée, de
l'exploration de bases de données, de la focalisation (décrire un
comportement). Soutenue par l'Anvar (Agence pour la Valorisation de la
Recherche), Complex Systems a particulièrement travaillé sur les techniques de
modélisation des résultats. « On peut aussi écrire directement dans la base en
ajoutant des champs supplémentaires », ajoute la directrice associée. Conçu
pour les chargés d'études des départements marketing, KnowlBox se veut simple à
utiliser, sans paramétrage, et complémentaire des outils statistiques purs. «
Les grandes sociétés ne se servent pas forcément de tous leurs logiciels, qui
demandent des formations importantes. Or, les utilisateurs n'ont souvent pas le
temps. Notre programme ne nécessite qu'une demi-journée de formation », précise
Hélène Ivanoff. Parmi la douzaine de bêtas testeurs de ce nouveau logiciel,
Philippe Menard est statisticien chez Direct Assurance (filiale d'Axa). Il a
utilisé KnowlBox pour réaliser des scores sur la fidélisation de la clientèle.
« Pour créer nos scores, il faut bien segmenter les variables. Le logiciel
décrit bien les liens entre ces items », estime-t-il. Mais si la nouvelle
méthode de scoring introduite dans KnowlBox est intéressante en soi selon le
statisticien de Direct Assurance, elle peut aussi être gênante : « on ne peut
pas livrer les résultats tels quels à l'informaticien. Il faut les adapter pour
que les scores soient ensuite exploitables par les commerciaux », ajoute
Philippe Menard. Direct Assurance continue donc de se servir de SAS Entreprise
Miner (voir aussi encadré) et Spad pour construire les modèles, mais utilise
KnowlBox pour la préparation en amont des échantillons. Encore une fois, on
voit que les départements études et statistiques préfèrent garder plusieurs
fers au feu, plutôt que s'en remettre à un seul logiciel pour effectuer leurs
analyses. Cette tendance lourde laisse aux éditeurs toute latitude pour
imaginer de nouvelles solutions qui combleront tel ou tel besoin particulier
des chargés d'études marketing.
Le data mining selon SAS
Editeur de logiciels décisionnels (datawarehousing, data mining, etc.), SAS est un poids lourd de la statistique, avec un milliard de francs de chiffre d'affaires en 1999 et 33 000 clients, dont 1 400 en France. L'analyse de données marketing ne représente qu'une petite partie de cette activité, que l'éditeur appelle data mining. Néanmoins, on trouve les logiciels de cette entreprise dans la plupart des départements statistiques des entreprises et instituts d'enquêtes. Enterprise Miner, lancé en 1998, vise les statisticiens et les chargés d'études. Le logiciel se décompose en cinq étapes, appelées méthode SEMMA. Le sampling vise à appliquer le processus de data mining à une sous-population (zone géographique, échantillon représentatif). Explore est l'exploration des données, sous une forme graphique ou statistique. On y trouve aussi la typologie et les analyses factorielles. Manipulate représente la fonction qui permet de traiter les questions soulevées par la phase d'exploration. Model correspond à l'étape prédictive : différentes techniques (réseau de neurones, arbres de décision, régression, etc...) sont mises en compétition pour obtenir les meilleures prévisions. Assess est la phase de comparaison des résultats à l'aide d'interfaces graphiques. Toutes ces fonctions sont représentées par des icônes dans l'interface graphique. Enterprise Miner permet aussi d'attribuer un score aux clients, afin de déterminer les bonnes cibles. On peut aussi créer des scripts pour le processus d'analyse. Cet outil s'appuie sur l'environnement datawarehouse de SAS, ce qui le positionne en matière de prix dans le haut de gamme. Sa cible couvre les grands comptes, comme Axa Financial. Le groupe d'assurance français utilise en effet Enterprise Miner pour effectuer du data mining, afin de mieux prévoir le comportement de ses clients, segmenter sa base et élaborer des campagnes marketing.
Glossaire
Codification : attribution d'un code synthétique à une modalité de réponse. Factorielle (analyse) : traitement dont le but est de représenter graphiquement et de décrire les liaisons entre des phénomènes. Il existe plusieurs méthodes : analyse en composantes principales, analyse des correspondances, etc. Qualitatives (variables) : variables ordinales ou nominales. La gamme d'analyses multivariées permettant de traiter ces variables est beaucoup plus réduite que dans le cas de variables quantitatives. Quantitatives (variables) : variables métriques ou scalées. Ces variables permettent, par leur nature, les calculs scientifiques les plus souvent utilisés dans l'analyse multivariée. Régression (analyse par) : méthode consistant à expliquer une variable métrique par d'autres variables métriques. Cette analyse détermine d'une part les paramètres de l'équation liant les variables explicatives à la variable à expliquer, et d'autre part la qualité du modèle choisi par calcul du coefficient de corrélation multiple ainsi que par différents tests effectués sur chacune des variables explicatives introduites dans l'analyse. Trade-off : méthode dans laquelle on cherche à déterminer le compromis (trade-off) de l'acheteur entre ses divers critères de décision. Tout choix de consommation s'opère en effet entre une série d'options imparfaites, et implique de la part de l'acheteur le sacrifice de certaines qualités en vue de l'obtention d'autres bénéfices désirés avec plus de force. Tri à plat : présentation des résultats d'une étude quantitative, en valeurs absolues ou en pourcentages, pour chacune des questions. Tri croisé : présentation des résultats d'une étude quantitative en les plaçant de façon matricielle, les uns en colonnes, les autres en lignes, de façon à croiser les réponses à plusieurs questions.