Etude de Marche
Etude de Marche
Etude de Marche
rationaliser les décisions qui engagent leur avenir, les entreprises disposent
aujourd'hui d'outils d'aide à la décision de plus en plus performants: ce sont les
études marketing.
Ces études marketing fournissent des éléments d'information dont la finalité est de
réduire le risque de l'entreprise face à un avenir incertain.
SECTION 1. DEFINITIONS
Les études de marché apportent une information objective et scientifique sur les
contraintes et les qualités d'un marché: elles permettent une meilleure connaissance
de l'offre et de la demande grâce à l'apport des techniques statistiques ou de
psychologie.
On ne connaît pas tout, loin s'en faut, des mécanismes du comportement d'achat du
consommateur. Les études de marché restent tributaires des progrès effectués dans
le domaine de la recherche sur le comportement du consommateur et peuvent
conduire à des résultats erronés, parfois lourds de conséquences sur les plans
commerciaux et financiers;
- Le facteur temps : les résultats de l’étude sont valables pour une période de temps
déterminée;
- L’espace : les résultats sont valables pour une région ou un pays et on ne peut les
transposer sans modifications;
- La matière première : la mémoire des répondants est imparfaite et fait subir des
limitations aux informations recueillies;
Traditionnellement, une étude de marché complète traite de six (6) grands types de
problèmes: l’étude de données socio-économiques, l’étude des consommateurs ou
utilisateurs du produit, l’étude du produit lui-même, l’étude de la distribution, l’étude
de la communication et l’étude de la concurrence .
NB: Lorsqu'une entreprise mène l'étude d’un marché étranger, elle cherchera à
connaître de manière précise quelles sont les contraintes propres à ce pays: droits de
douane, quotas d'importation, conditions de licence, législation tenant au produit, etc.
Elle consiste à décrire les caractéristiques du produit, des différentes gammes, les
prix pratiqués, l'évolution des ventes. Plus particulièrement, elle s'attachera de définir
le cycle de vie du produit.
V. L’ETUDE DE LA COMMUNICATION
Il faut définir d'une manière précise le ou les problèmes que l'entreprise cherche à
résoudre et l'ampleur qu'elle entend donner à cette étude.
Le chargé d'études consacre, si possible, une ou deux (2) journées à des rendez-vous
de travail avec le demandeur. Ces échanges permettent de "caler" le projet en
affinant la compréhension des objectifs d'étude et de délimiter le périmètre de la
future collecte des données (échantillonnage, questionnaire, délai de réalisation,…).
Trois (3) types de personnes sont susceptibles d'être interrogées par le chargé
d'études durant ces rencontres : les demandeurs de l'étude, les distributeurs et les
prescripteurs.
Le chef de service ‘‘ étude de marché ’’ pour savoir si on tient compte des résultats
de ses études;
Le chef de service ‘‘ conception de produit ’’ pour voir s’il observe le cahier des
charges commerciales fixé par l’étude de marché;
La fabrication pour connaître dans quelle mesure elle satisfait les exigences du
service commercial au point de vue : prix, qualité, délai, ……etc.
Le directeur commercial pour savoir s’il dispose des moyens suffisants pour vendre,
Les représentants de la société pour étudier leurs motivations et leurs freins,
Les consommateurs finaux et les non – consommateurs pour juger de leur
différence de comportement.
L’important durant cette phase n’est pas de composer un échantillon représentatif
mais de faire naître le plus d’attitudes différentes à l’égard du produit.
Cette enquête préliminaire est souvent assimilée à une étude de motivations.
I. L’ETUDE AD HOC
C'est une étude ponctuelle réalisée "sur mesure" pour le compte d'un seul
demandeur. La population enquêtée varie d'une étude à l'autre.
Le réalisateur propose une méthodologie spécifiquement conçue pour résoudre le
problème posé : questionnaire, plan de collecte, traitement des données. Le
demandeur (entreprise privée, administration, association, etc.) confie généralement
la réalisation à une société de conseil extérieure à l'organisation.
C'est une étude ponctuelle réalisée pour le compte d'un seul client, afin d'évaluer les
chances de succès commercial d'un produit. Le marché-test peut être simulé : on
applique un modèle quantitatif aux données recueillies par questionnaire, pour prévoir
les ventes futures. Il peut être réel, c'est- à- dire que l'on enregistre des achats
effectifs pendant quelques semaines (ou mois) dans une zone délimitée. On prévoit, à
partir de ces ventes partielles, les futures ventes au niveau national.
L'omnibus est une étude périodique, hebdomadaire ou mensuelle, réalisée par une
société de conseil pour le compte de plusieurs clients. La population enquêtée est
souvent la même d'une étude à l'autre, mais les questions posées sont différentes.
Chaque client achète le droit de poser une ou plusieurs questions. Les données
recueillies font l'objet de quelques analyses simples avant leur livraison, Il n'est pas,
en principe, possible d'obtenir les résultats des questions posées par les autres
souscripteurs. Les médias (presse et télévision) sont de gros consommateurs d'études
omnibus : il suffit d'acheter 5 ou 6 questions pour bâtir un article autour d'un sondage
"exclusif". L'intérêt de l'omnibus tient dans sa rapidité de réponse : 1 à 2 jours avec
un sondage télématique, 3 ou 4 jours par téléphone, 3 à 4 semaines si l'interview est
réalisée au domicile des enquêtés. Véritable étude "à la carte" l'omnibus fournit une
réponse rapide à un problème simple.
IV. LE PANEL
C'est une étude périodique réalisée chaque semaine, mois ou trimestre pour le
compte de plusieurs clients. Les interviewés et les questions posées sont identiques
d'une enquête à l'autre. Compte tenu du coût global de mise en œuvre, ce sont
généralement des sociétés d'études spécialisées qui assurent la gestion d'un panel.
Les résultats s'achètent marque par marque, ou par catégorie de produits, d'où la
possibilité pour une entreprise de suivre ses concurrents.
Sur le plan statistique, un panel est un échantillon sur lequel on effectue des mesures
répétées à intervalles réguliers et dans des conditions similaires ; par extension, on
donne le nom panel à la procédure globale de l'étude. Dans la pratique, les
interviewés varient d'une étude à l'autre à cause des abandons en cours de route.
Certaines sociétés d’études renouvellent ainsi 25% de leur panel par an.
Grâce à leur périodicité et à leur richesse, les panels constituent une source
d'information préliminaire précieuse : leur analyse facilite le diagnostic marketing et
la construction du projet d'étude.
V. LE BAROMETRE
Les baromètres sont des "panels allégés", c'est -à- dire qu'ils calculent quelques
valeurs utiles pour synthétiser une activité quelconque. La cote de popularité des
hommes politiques constitue un exemple très connu: tous les mois, un même
échantillon indique s'il se sent proche ou éloigné « d'une liste d'hommes politiques ».
On compare ainsi l'évolution des scores, mois par mois. D'autres baromètres
contrôlent la satisfaction d'une clientèle; les compagnies aériennes, les chaînes
hôtelières et les entreprises de location de voiture utilisent ces informations pour
ajuster leurs actions marketing.
Répondant aux besoins d'information qui apparaissent à chaque fois qu'une décision
commerciale risquée doit être prise, l'étude marketing a un contenu différent. Les
études marketing répondent à l'ensemble des questions que se pose l'entrepreneur
sur un produit, les différentes variables qui le composent, son marché, sa cible, etc.
A chaque question correspond une étude marketing spécifique dont on vous donne le
panorama ci-après:
Pour réaliser une étude de marché, l'entreprise dispose de deux (2) grands types
sources d'information: les sources internes et les sources externes.
Elle sont tout aussi utiles pour effectuer un diagnostic (taux de croissance,
désaisonnalisation, graphiques, loi des 20/80, analyse ABC, etc.) que pour réaliser une
prévision.
En outre, il est conseillé de compléter l'analyse structurelle des ventes en valeur (en
francs) par une analyse des ventes en volume (en unités physiques).
Le 1er niveau d'analyse est celui de la marge commerciale obtenue après déduction du
chiffre d'affaires réalisé par produit, des coûts directs et variables ainsi que des frais
fixes spécifiques de distribution.
Le 2ème niveau d'analyse est celui de la marge de contribution par produit. Pour
l'obtenir sans pénaliser la fonction commerciale, il suffit de soustraire de chaque
marge commerciale obtenue précédemment le coût standard direct de production.
Un plan de marketing est un document écrit dans lequel sont présentés les objectifs
commerciaux de l'entreprise ainsi que la nature, la programmation dans le temps et le
coût des moyens pour les atteindre. Le plan de marketing a généralement un horizon
de 3 à 5 ans, mais la précision avec laquelle les objectifs et les programmations de la
1ère année sont décrits pousse à distinguer le plan annuel du plan à moyen terme.
En croisant le fichier clients de l'entreprise avec les statistiques des ventes et des
marges, il est possible d'estimer, de mesurer la plus ou moins grande concentration
des ventes (loi des 20/80, analyse ABC, etc.), d'isoler les clients sur lesquels, il faut
faire plus d'effort marketing.
En comparant le fichier clients au journal des commandes, il est possible d'identifier
les clients endormis qui n'ont pas passé de commande depuis longtemps et qu'il
conviendrait de réveiller par une action de publicité directe.
Même les clients perdus ont leur intérêt marketing et le fichier clients est, une
excellente base de sondage pour réaliser une enquête d'image et de satisfaction
auprès de sa clientèle.
Malheureusement, seuls les détaillants ont généralement la possibilité d'avoir un
fichier de consommateurs finals (à l'aide de chèques, des cartes de clients privilégiés
donnant accès aux soldes privés, des loteries en magasin, etc.)
Si les producteurs souhaitent avoir un fichier de clients ultimes pour pouvoir mener
des actions de marketing direct ou des études d'images ou de satisfaction, ils
pourront utiliser plusieurs moyens: les concours et autres loteries "in" ou "on" pack
etc., sans toutefois espérer obtenir une parfaite exhaustivité.
En contact direct et permanent avec le marché, il est facile aux vendeurs de collecter
des informations utiles à l'entreprise. Lors des ses entrevues avec les acheteurs
potentiels, le vendeur en recueille nécessairement sur les motivations et les freins et
le processus de décision d’achat, sur la perception qu'ils ont de la marque, de son
image, de son positionnement par rapport aux marques concurrentes.
Tous les membres de l'entreprise, quels que soit leur spécialité et leur niveau
hiérarchique, peuvent contribuer à une meilleure connaissance de l'environnement de
l'entreprise et notamment de la concurrence. Les cadres, sont, toutefois, les mieux
placés pour cela dans la mesure où ils participent plus souvent que les autres à des
colloques, congrès, des stages de formation inter-entreprise, des réunions d'anciens
élèves de grandes écoles, des dîners d'affaires.
C'est la raison pour laquelle, certaines entreprises ont confié l'analyse des
réclamations au service marketing en liaison avec le service contentieux ou
comptable. D'autres entreprises sont allées jusqu'à créer des services clientèles ou
services consommateurs.
Cette liste non exhaustive donne l'ampleur des informations internes qui permettent
de réaliser un diagnostic de l'entreprise elle-même.
Elles sont hors de l’entreprise et permettent de recueillir aussi bien des informations
primaires que des informations secondaires.
Ce sont des informations qui ont déjà été recueillies pour des études précédentes et
qui peuvent être utiles pour l’étude à réaliser. Elles préexistaient à l'étude, d'où leur
appellation de données de "seconde main". L'analyse documentaire se nourrit
d'informations secondaires.
- La 2ème étape revient à réfléchir aux notions et aux concepts contenus ou induits
par le problème posé et à isoler plusieurs mots-clés en usant de la logique et de la
créativité ;
4.1. Avantages
- Rapidité de réponse au problème posé,
- Simplicité d'analyse,
- Coût faible.
4.2. Risques
Ce sont des informations qui sont obtenues après simulation de différentes réalités
possibles.
Introduites dans des modèles, leur variation permet de juger les résultats de plusieurs
scénarii. Les marchés-tests simulés fonctionnent avec ce type de données.
- L'étude qualitative est souvent moins coûteuse et moins longue à effectuer qu'une
étude quantitative ;
I. LES AVANTAGES
- Elle est rapide à réaliser puisque les informations sont recueillies auprès d'un petit
nombre de personnes, de 10 à 50 maximum;
- Elle est moins coûteuse,
- Elle permet d'analyser un problème sans aucun à priori,
- Elle permet de faire l'inventaire des attitudes, des motivations, des comportements,
des processus de décision ;
- Elle permet d'étudier les niveaux les plus profonds de la conscience humaine:
subconscient et inconscient
- Les résultats obtenus auprès d'un échantillon non représentatif ne peuvent pas être
extrapolés à l'ensemble de la population. Ce ne sont que des hypothèses qu'il faudra
éventuellement vérifier par un dénombrement (ou des preuves d'existence qu'il
faudra quantifier avant d'en inférer l'importance);
Nées aux Etats-Unis dans les années 40, sous la conduite d'Ernest DICHTER, les
premières études qualitatives appliquées aux problèmes de marketing ont été
baptisées études de motivation.
Elles se basent sur la plus ou moins grande liberté laissée à la personne interrogée
par l'enquêteur
On distingue:
- Les entretiens non directifs, dits également libres ou en profondeur qui laissent la
grande liberté possible à l'enquête;
On commence par interroger librement son interlocuteur, puis on continue dès que le
thème de départ est épuisé, par un entretien semi-directif et on conclut par un
entretien directif.
Selon les objectifs de l'étude de marché, on peut choisir tel ou tel mode
d'interrogation suivant:
Ici, on distingue les entretiens individuels (en face à face) des interviews de groupe
(réunions de groupe).
Alors que les entretiens individuels peuvent être libres, semi- directifs ou directifs, les
réunions de groupe (interviews de groupe) adoptent généralement l'interrogation
semi- directive et sont très souvent associées à des techniques projectives (tests
d'association libre, test d'association libre de mots, test d'association contrôlée de
mots, test d'expression, test de frustration, test d'aperception de thèmes ou T.A.T).
L’entretien semi- directif est une interview au cours de laquelle après avoir proposé à
l'enquêté une consigne de départ, l'enquêteur doit obtenir les réactions de ce dernier
sur un certain nombre de thèmes.
L'enquêteur ne propose explicitement ces thèmes que si l'enquêté ne les aborde pas
spontanément, et cela sans respecter un ordre prédéterminé.
- Une trop grande liberté donnée aux enquêtés qui alors, n'aborderaient pas
suffisamment les thèmes sur lesquels le chargé d'études souhaite collecter des
informations utiles à la résolution d'un problème marketing précis.
2.1.3. L'entretien directif
Les questions sont ouvertes, mais standardisées et posées dans le même ordre à
toutes les personnes interrogées. Le domaine d'étude est donc assez bien connu au
départ ; l'objectif est de vérifier l'évolution des perceptions des enquêtés.
Cette formule est rapide et son coût est limité.
L’enregistrement des réponses est réalisé manuellement par l’enquêteur durant
l’interview (relevé papier-crayon), ce qui en accélère le traitement.
Un groupe réunit 8 à 12 personnes qui ne se connaissent pas, pour une discussion sur
un thème donné. Les informations obtenues concernent un problème a caractère
collectif. Par exemple l'évaluation de plusieurs axes publicitaires pour le lancement
d'un nouveau produit.
Le chargé d'études peut souhaiter interroger, non pas une seule personne, mais
plusieurs personnes à la fois pour bénéficier des effets positifs du groupe sur l'auto-
exploration individuelle ou plus simplement pour gagner du temps.
La réunion de groupe estune méthode psychosociologique d'enquête qualitative qui
consiste à réunir des personnes pour une discussion animée par un animateur sur un
ou plusieurs thèmes donnés.
Son intérêt réside dans les échanges de vue entre les différents participants
(enchaînement et association des idées, etc.) et dans les phénomènes qui
interviennent dans un groupe d'individus (besoin de se faire remarquer, agressivité,
jeux de rôle, changement d'opinions par pression groupale, etc.). De cette dynamique
de groupe, le chargé d'étude espère en dégager un ensemble d'opinions, d'attitudes
et de motivations.
C'est pourquoi, la réunion de groupe est une méthode adaptée aussi bien pour une
étude préalable, notamment pour connaître le vocabulaire de la population à étudier,
ses stéréotypes, etc. que pour une étude de motivations profondes ou enfin, pour
tester une action commerciale (test de produits, pré-test publicitaires, etc.)
En fait, la qualité et la profondeur des informations collectées dépendent
principalement de la compétence de l'animateur, des personnes recrutées et des
conditions matérielles dans lesquelles elle se déroule.
Pour bénéficier des effets positifs de la dynamique de groupe, il est nécessaire que les
participants se sentent sur un même pied d'égalité. Dans le cas contraire, certains
d'entre eux étoufferont les plus faibles en particulier ceux qui auront peur d'être mal
jugés. Aussi, il faut éviter de mettre en présence des personnes trop inégales sur des
points pouvant entraîner des ségrégations.
En conclusion, le groupe doit donc être homogène, sur certains critères et
hétérogènes sur d'autres.
- Le groupe de discussion,
- Le groupe de réflexion ou le Focus group,
- Le groupe nominal,
- La méthode Delphi
Le groupe Delphi, le groupe nominal et le Focus group sont les plus structurés et les
plus directifs.
Pour les deux (2) derniers, l'animateur dispose d'un "plan d'animation" ou guide
d’animation listant les principaux points à aborder. Pour la méthode Delphi, il
s'agit d'un questionnaire structuré complet.
Les qualités demandées aux participants d'un groupe diffèrent également selon les
méthodes:
Il est difficile de répondre à cette question avec précision, car on dispose peu
d'éléments solides pour trancher.
En raison des forts coûts en argent et en temps des entretiens en face à face,
individuels ou en groupe, sont apparus ces dernières années, les entretiens à
distance.
Les entretiens individuels se font parfois par téléphone. En plus de leur intérêt
économique, les entretiens qualitatifs par téléphone permettent, dans certains cas
d'obtenir des réponses plus sincères et plus intimes que si l'interrogation se faisait en
face à face.
- Certaines observations se font en situation naturelle tandis que d'autres se font dans
une situation artificielle;
- Certaines observations se font en toute discrétion tandis que l'autre nécessitent le
consentement de l'observé afin qu'il accepte la présence, soit de l'observateur, soit
d'un instrument, soit des deux
Cette technique se pratique sur les points de vente. L'unité observée peut être de
trois types: l'enfant, un adulte, un distributeur. L'observateur dispose d'une grille qui
récapitule les variables devant être mesurées, par exemple: nombre de marques
manipulées, temps de réflexion avant l'achat, nombre de produits et marques
référencés, prix pratiqués, etc.
Ces techniques sont utiles dans le cas d'études portant sur l'achat familial.
L'observation en laboratoire ou à domicile est particulièrement précieuse pour guider
la création et le développement de nouveaux produits.
N.B. Il est important de noter que d'un point de vue déontologique, il est interdit de
pratiquer l'enregistrement d'une observation, par quelque moyen que ce soit, sans
l'assentiment exprès de la personne concernée. Cependant, cet accord peut être
obtenu postérieurement à l'interview.
Avec les techniques précédentes, c'est l'homme qui évalue les différentes valeurs des
variables de l'étude: par exemple, il note la durée de réflexion avant un achat, le
nombre de critères utilisés, etc. Avec la famille des observations appareillées, c'est un
système électrique, mécanique ou électronique qui établit directement les valeurs
devant être enregistrées. Ces mesures présentent l'avantage d'être objectives et
fiables.
3. Observation ou interview?
Elle permet d'aller plus avant dans la compréhension d'un comportement, notamment
lorsque les techniques classiques d'interviews sont douteuses. L'observation directe
identifie des comportements complexes, tels que ceux liés à la conduite automobile.
De même, l'observation du mouvement des yeux offre une voie intéressante pour
déterminer quels sont les éléments d'une publicité qui sont vus en premier.
Les tests projectifs sont administrés lors des entretiens individuels ou au cours de
réunions de groupe. Tous les tests reposent sur l'acte perceptif d'un support qui sert
de stimuler ce support est soit verbal, soit graphique, soit matériel et tangible ;
Ils sont les moins coûteux et ils ont soit un support verbal, soit un support matériel.
Dans un premier cas, l'enquêteur pose une question telle que: "si je vous (identifier),
à quoi pensez-vous?
"Si ce produit était une personne, de quel sexe serait- elle? Décrivez-la!
Que ferait- elle la vie? (Personnification du produit).
L'enquêteur demande aux interviews de citer les premiers mots (nom, verbes,
adjectifs) qui leur viennent à l'esprit à l'énoncé de mots inducteurs.
Exemple:
- Quand je vous dis "yaourt", quel est le 1 er mot qui vous vient à l'esprit?
- Quel est l'adjectif qui convient le mieux à la marque x ?
Les réponses dévoilent les tendances profondes de l'individu, ses préoccupations, ses
craintes, ses désirs, sa personnalité.
La technique du portrait chinois très souvent employée dans le cadre d'une étude
d'image ou d'une réunion de créativité notamment par les publicitaires est une
technique d'association dérivée. Elle consiste à demander au participant d'associer un
objet, une marque, etc. à un élément d'un unis commun.
Cette technique projective peut être proposée dans le cadre d'un sondage.
Ces techniques consistent à faire terminer par les personnes interrogées une courte
histoire inachevée ou une phrase sans fin. Elles sont d’utilisation aisée et donnent
d’excellents résultats lorsque le chargé d’études a pris la précaution de tester les
stimuli eux-mêmes avant de les proposer.
VI. LE TEST D’APERCEPTION DE THEMES (T.A.T)
Le Thematic Apperception Test a été conçu et développé par MURRAY, en 1943, aux
Etats-Unis.
Dans cette technique, une série de tableaux, de planches, de dessins, de
photographies, etc. ; choisis et souvent créés spécialement pour l’étude de marché,
est présentée à l’enquêté. Celui-ci doit interpréter ces images, généralement
ambiguës et de signification imprécise, pour éviter l’induction des réponses. Il décrira
la situation d’ensemble et imaginera les sentiments, les pensées, etc. de chaque
personnage présent à l’écran ainsi que ce qui s’est passé avant ou après la scène
représentée
Ce type suit la même logique que le TAT. La différence réside dans l’introduction
d’une série d’images, généralement quatre, que l’interviewé doit relier entre elles,
afin de former une seule histoire. Cette méthode a été introduite en psychologie vers
1950. Les principes d’administration et d’analyse sont identiques à ceux du TAT de
Murray.
Assez peu appliqué aux études de marché, cette variante du TAT pourrait offrir
d’intéressantes perspectives pour des enquêtes réalisées auprès de jeunes enfants.
L’utilisation d’un support de communication familier des enfants favoriserait leur
adhésion au sujet de l’étude et accroîtrait la production globale d’information.
Au lieu de dessins ou de photos, comme dans le test du TAT, cette méthode utilise
une « liste de commissions » censée avoir été rédigée par une ménagère. Cette liste
est composée de marques de produits alimentaires courants, tels que fruits et
légumes frais, poissons, pâtes, viande, etc. L’expérimentateur bâtit une autre liste,
identique à la précédente, sauf qu’elle contient la marque testée. On demande
ensuite au répondant d’imaginer et de décrire la personne ayant acheté l’une des
listes de produits. Cette méthode cherche à faire apparaître les motivations cachées
que les méthodes les plus directes n’auraient pu mettre à jour.
X. LE QUESTIONNAIRE CHINOIS
Cette technique consiste à amener l’interviewé à sélectionner les yeux fermés, parmi
un ensemble de tissus disposés en cercle autour de lui, la matière qui lui semble le
mieux correspondre à l’image de l’entreprise ou d’un produit. Les tissus proposés
(laine, soie, coton, synthétique, etc.) servent de support pour exprimer des relations
affectives vis-à-vis d’un produit. D’autres variantes utilisent les différents sens de
l’individu : on peut proposer une palette de parfums, de goûts, de couleurs, de
morceaux de musique ou de formes de visage.
Ils consistent à faire jouer par des individus un rôle, plus ou moins relié à leurs
habitudes quotidiennes.
Des cabinets d’études proposent le psychodrame pour analyser l’image d’une
marque, pour détecter de nouveaux axes publicitaires, pour rechercher de nouveaux
produits, etc.
I. LE BRAINSTORMING
Cette méthode peut s’appliquer au plan individuel ou être introduite au cours d’une
discussion de groupe. Formalisée par Abraham MOLES, cette méthode consiste à
« rechercher l’interaction de deux listes l’une sur l’autre, et à examiner les problèmes
- plus exactement les cellules- qui émergent d’une classification à double entrée ».
1. L’analyse morphologique
2. L’analyse fonctionnelle
Cette technique procède comme suit : Allongé dans une demi-obscurité, un groupe de
6 à 7 personnes suit les directives d’un animateur. La séance dure environ deux (2)
heures et commence par une concentration sur des images suggérées par
l’animateur. Le sujet de la réunion est alors progressivement introduit : par exemple,
« imaginer la voiture de demain », « le lieu de vacances idéal », « l’ordinateur le plus
fabuleux ». Absence totale de critique, fantaisie, évocation de scénarii de rêve et
relaxation sont les mots-clés de cette technique.
L'attitude peut se définir comme une tendance ou une prédisposition à évaluer d'une
certaine façon un objet ou le symbole lié à cet objet.
- Son objet: le contenu, le sujet (dans l'exemple, sentiment par rapport aux chats),
- Sa direction (valence, signe): ignorance-connaissance, favorable-défavorable,
action-inaction (dans l'exemple, sentiment favorable);
- Son intensité (force, puissance): distance par rapport aux situations d'indifférence
ou d'indécision (dans l'exemple, sentiment extrêmement favorable).
La nature de l'attitude est fondamentalement qualitative et les échelles d'attitude
mesurent l'intensité des opinions recueillies au cours d'une étude.
En recherche marketing, les échelles les plus utilisées et les plus faciles à mettre en
œuvre sont principalement la sémantique différentielle de Charles OSGOOD et
l'échelle additive de Rensis LIKERT.
Exemple illustratif simplifié: une personne interrogé a situé de la façon suivante trois
marques concurrentes "X", "Y" et "Z" sur les échelles proposées:
SolideFragile
1 2 3 4 5 6 7
L’une ou
Valeurs l'autre
3 2 1 0 -1 -2 -3 échelle
Extrêmement Extrêmement
SolideFragile
Au lieu d'utiliser seulement des couples de qualificatifs formés d'un mot unique, on
peut se servir de propositions descriptives plus complexes.
Le principe de l'échelle de LIKERT est de faire cocher par le répondant la case qui
correspond à son degré d'approbation face à une opinion donnée. En général, le
nombre de degré est égal à cinq (5) et une valeur est attribuée à chaque degré.
Exemple: si l'on vous dit: "la marque "X" offre une gamme de produit très large,
vous êtes:
Les items correspondent aux propositions sur lesquelles le répondant doit exprimer
son opinion (dans l'exemple précédent, l'item est: "la marque "X" offre une gamme de
produits très large").
I. LE RESUME
Pour dégager les idées principales exprimées par les personnes interrogées (leurs
attitudes, leurs attentes, leurs motivations, etc.) et leurs relation mutuelles, sans trop
de risques de subjectivité et de mauvaises interprétations, les deux seuls moyens
possibles, mais malheureusement imparfaits, consistent, d’une part à confier ce
travail à au moins deux analyses individuelles, d’autre part de leur imposer une
méthodologie qui permettra des comparaisons.
Celle que nous conseillons repose sur une triple lecture :
- Une première lecture des notes prises pour avoir une vision d’ensemble
- Une deuxième lecture des notes, plus analytique, permet d’isoler les unités de sens,
les idées thématiques, l’analyste trace une barre verticale à chaque changement
d’unité de sens.
- La troisième lecture conduit à analyser chaque unité de sens, à souligner l’idée
directrice et les expressions qui mettent en évidence chaque argument, à mettre
entre crochets ce qui n’a pas beaucoup d’intérêt.
Ce travail de préparation limite sensiblement la subjectivité d’une première et unique
lecture et permet, en cas de désaccords entre les analystes, des confrontations non
pas seulement sur la rédaction du résumé mais sur les idées retenues, les
découpages, etc.
L’analyse et la rédaction en elle-même sont facilitées lorsque le matériel qualitatif a
été constitué à l’aide de guides d’entretien (en semi-directivité). Les thèmes de ces
derniers servent, en effet, de canevas, de plan, d’analyse et de rédaction.
Dans un résumé, les phrases les plus significatives, appelées verbatim, sont reprises
entre guillemets et les avis de tous les répondants doivent figurer même s’ils se
contredisent. Les relations mutuelles entre les différentes opinions, les différentes
motivations, les avis divergents, etc. sont alors à mettre en relief.
La rédaction d’un résumé est souvent nuancée par des ‘’la plupart’’, ‘’la grande
majorité’’ , ‘’toutefois, l’un d’entre eux’’…
L’homme de marketing est parfois gêné par ces nuances, ces contradictions parce
qu’il ne sait pas exactement ce qu’il doit en conclure et, surtout, ce qu’il doit décider.
Il n’en demeure pas moins vrai que la technique du résumé est la plus simple, la plus
rapide et la moins coûteuse des techniques d’analyse. Elle est donc très souvent
utilisée, y compris, lorsque tout le matériel qualitatif est disponible pour préparer
l’analyse de contenu, voire pour agrémenter de commentaires les tableaux et les
calculs de fréquence qui en découlent.
Dès lors que le chargé d’études dispose de l’intégralité du discours des répondants,
qu’il souhaite une analyse plus rigoureuse et des conclusions moins contradictoires,
donc plus opérationnelles que celles qu’il trouve généralement dans un résumé, il doit
envisager de réaliser une analyse de contenu.
L’analyse de contenu est un ensemble de techniques dont l’objet est la description
objective et systématique du contenu des données qualitatives afin d’obtenir des
indicateurs quantitatifs ou non permettant l’inférence.
C’est une technique d'analyse d'un "discours" (article, interview document, etc.)
fondée sur un ensemble de procédures structurées. Elle permet de justifier les
jugements portés sur l'émetteur du discours, sur le message lui-même, et le cas
échéant, sur l'audience du message.
Elle n'est pas une technique exclusivement réservée à l'entretien individuel, mais
peut tout aussi bien servir à analyser une réunion de groupe qu'à décoder un
message publicitaire.
N.B. Dans une étude de marché, l'analyse thématique est la plus fréquente,
complétée éventuellement par l'analyse lexicale.
Une bonne codification des interviews doit être fiable, c'est-à-dire que la même grille
utilisée par deux codeurs différents doit conduire à des affectations aussi proches que
possible. Le degré de fiabilité du codage entre deux analystes peut être calculé avec
la formule suivante
- L’analyse horizontale est une opération transversale qui a pour but d'établir
comment chaque élément figurant dans la grille a été abordé par l'ensemble des
interviewés. Cette analyse est précieuse parce qu'elle constitue la base du rapport de
synthèse de l'étude qualitative. On repère ainsi les catégories et sous-catégories les
plus fréquentes sur l'ensemble des interviews; on compare la richesse du vocabulaire
utilisé, le nombre de synonymes employés selon les catégories, les enchaînements les
plus courants entre les catégories etc.
Il existe diverses techniques pour construire des matrices d'associations, mais ces
analyses sont extrêmement lourdes si elles sont menées à la main. C'est la raison
pour laquelle de plus en plus de programmes informatiques sont conçus pour générer
directement ces associations. L'analyse factorielle des correspondances, présentée
dans le chapitre 13, offre la possibilité de prolonger ces analyses: la matrice
d'associations permet de visualiser dans un espace géométrique la proximité des
unités analysées (mots, thèmes).
5. Le rapport de synthèse
Elle cherche a identifier et à interpréter directement les signes émis par un émetteur
(exemple: le message émis par une marque) ; elle ne cherche pas à étudier
l'interprétation, la perception de ces signes par le public auquel ils sont destinés.
L’expert en sémiologie (ou sémiotique) exprime les relations entre les signes (ou «
signifiant») et le sens (ou « signifie») ; il décode, analyse un message,
indépendamment de la façon dont celui-ci est reçu. Une telle analyse dépend de la
compétence de celui qui la réalise et permet d'émettre des hypothèses à vérifier, par
exemple, à l'aide d'une enquête par sondage.
L'approche quantitative est fondée sur l'utilisation de méthodes statistiques. Elle peut
répondre à des objectifs variés allant de la description à l'explication de phénomènes
mesurables.
En entrée, elle se nourrit de données chiffrées et en sortie elle fournit des résultats
sous forme de tableaux de valeurs numériques ou de graphiques représentant des
relations mathématiques entre variables quantitatives
I. LE RECENSEMENT
C'est une méthode d'enquête quantitative qui consiste à interroger tous les individus
d'une population donnée et à dénombrer leurs caractéristiques et leurs opinions.
Le recensement est donc peu utilisé en marketing dès lors que la taille de la
population à étudier est importante. Cependant, les résultats du recensement
peuvent être utilisés par l'homme du marketing pour effectuer ses études
documentaires, ses prévisions de ventes, ses échantillons d'enquête par sondage,
notamment s'il utilise la méthode des quotas.
- Les enquêtes spécifiques ("ad hoc"): l'enquête est expressément réalisée pour une
entreprise dans un but particulier,
II.LES PANELS
III.LES MODELES
Avec :
PVC = prix de vente consommateur
f () = fonction de
PV = prix de vente de l'entreprise
MP = moyenne des prix de vente sur le marché
D = demande à l'entreprise en nombre de produits
PUB = budget publicitaire
NM = nombre de magasins où le produit est présent
IV.L'EXPERIMENTATION
- Le groupe expérimental (ou groupe-test), c'est-à-dire les sujets dont on étudiera les
modifications de comportement à la suite de la modification d'une variable donnée ;
La différence entre les résultats obtenus dans chacun des groupes fera l'objet d'une
analyse statistique permettant de définir si, à un seuil de probabilité donné, la
différence entre les deux groupes est statistiquement significative ou seulement due
au hasard. Il convient toutefois que l'expérimentation soit conduite selon un protocole
rigoureux, c'est-à-dire que la différence éventuellement observée soit due à la
modification de la variable étudiée et à elle seule.
SECTION 2. LE SONDAGE
Il permet une estimation dont la validité est dépendante d'un grand nombre de
facteurs plus ou moins maîtrisables.
Statiquement, la validité des résultats dépend essentiellement de la représentativité
de l'échantillon et de la précision de l'estimation.
L'échantillon sera plus ou moins représentatif de la population à étudier selon la
méthode d'échantillonnage utilisée (les méthodes probabilistes ou aléatoires sont les
plus rigoureuses et elles permettent de calculer l'erreur d'échantillonnage entre les
valeurs estimées à partir d'un échantillon et la valeur vraie dans la population.
Dans le cas des méthodes non probabilistes ou empiriques, la probabilité qu'une unité
de sondage soit incluse dans l'échantillon n'est pas connue et il n'est pas possible de
calculer l'erreur d'échantillonnage).
Quant à la précision de l'estimation, elle sera fonction de la taille de l'échantillon car
la précision d'une estimation dépend de la taille de l'échantillon.
Plus la taille de l'échantillon est grande et plus la précision est élevée.
Il convient donc de décrire la population à enquêter, d'établir des méthodes
d'échantillonnage, et enfin déterminer la taille de l'échantillon.
La base de sondage correspond à la population que l'on veut étudier (la population –
mère).
C'est une liste exhaustive des éléments de la population à étudier, à partir de laquelle
il est possible de constituer un échantillon représentatif, le plus souvent, soit en
procédant à un tirage systématique, soit en utilisant une table de nombres au hasard
Pour obtenir une base de sondage : on peut soit acheter, soit louer un fichier auprès
des sociétés d’études.
La qualité de l'information que l'on obtient sur une population à partir d'un échantillon
dépend d'abord de la qualité de l'échantillon.
La représentativité de l'échantillon dépend des méthodes de prélèvement, c'est - à -
dire de la façon dont ont été sélectionnées les unités de sondage.
Dans ce cas, soit le chargé d'études est réduit à se contenter d'une base
approximative (annuaire du téléphone, loueurs ou vendeurs de fichiers, etc. …) ; soit
à renoncer au sondage aléatoire simple.
L'usage du sondage au hasard est plus facile lorsque la population à étudier est plus
spécifique ou quand un organisme, voire le chargé d'études lui - même, en a dressé la
liste des membres.
On tire alors au hasard le premier nom situé entre la 1 ère et 5ème place (N/nième)
comprises.
Imaginons que ce soit le 3ème, les unités de sondage retenues seront les : 3 e - 8e - 13e -
18e - 23e …de la liste.
NB : Le tirage systématique est une procédure à ne retenir que si l'ordre d'apparition
des noms est aléatoire. En revanche, il est très dangereux lorsqu'il existe une
régularité cyclique dans les listes, ce qui est souvent le cas quand elles sont
ordonnées par âge, par ordre d'arrivée, par chiffre d'affaires, etc.
Ainsi, lorsque le tirage systématique peut introduire un biais lié à l'ordonnancement
du fichier, on lui préférera l'emploi d'une table de nombres au hasard.
Ces tables se présentent sous la forme de listes des nombres dont le tirage a déjà été
effectué aléatoirement.
La table de KENDALL et BABINTON SMITH comporte 100.000 chiffres, celle de TIPETT
est composée de 41.600 chiffres et celle de FISHER et YATES 15.000.
Pour les utiliser à la main, il est nécessaire de numéroter tous les individus de la base
de sondage, puis, on fixe une règle pour se déplacer dans la table et tirer les chiffres.
NB : Lorsque la population - mère est inférieure à 100 individus, on tirera des nombres
à 2 chiffres, quand elle est inférieure à 100.000 individus, on prélève des nombres de
5 chiffres, etc.
Si le hasard fait qu'un nombre est tiré deux (2) fois, on ne le sélectionne qu'une fois,
l'enquêté ne pouvant être interrogé plusieurs fois.
Si le nombre sorti au hasard est extérieur à la base de sondage (si on tire par exemple
le nombre 5113 et que la base de sondage ne comporte que 4700 unités de sondage),
ce nombre sera ignoré et on passera au suivant.
Quelle que soit la méthode de tirage au sort utilisée, il est prudent de tirer plus de
noms que la taille de l'échantillon souhaité le requiert ; cela, pour faire face au refus
de répondre, aux absences des personnes sollicitées, etc.
Selon la population à étudier et selon la méthode d'administration des questionnaires
(en face à face, par voie postale, par téléphone etc.) ; cette réserve sera plus ou
moins importante (de 10% à plus de 100%).
Le taux de réponse à un sondage postal étant en moyenne de 5% à 10%.
Lorsqu'ils sont dispersés géographiquement ou difficiles à joindre, le coût de l'enquête
peut fortement augmenter.
C'est pourquoi, dans certain cas, le chargé d'études préférera renoncer aux avantages
du sondage aléatoire simple et opter pour une méthode probabiliste dérivée : en
grappe ou à plusieurs niveaux.
Exemple : Une entreprise est une grappe de salariés, un ménage est une grappe de
personnes physiques, un immeuble est une grappe de logements.
1.2.1. Avantages de cette méthode
- Les unités d'une même grappe peuvent se ressembler. Par exemple, il est
vraisemblable que le père influence la mère et les enfants et réciproquement. Ce
phénomène psycho - sociologique est appelé "l'effet de grappe". A l'aide d'une étude
préalable, à base de réunions de famille par exemple, il est possible de mettre en
évidence cet effet pervers.
Si l'effet de grappe est important, deux solutions méthodologiques sont possibles :
- Chercher une autre méthode d'échantillonnage,
- N'interroger qu'une personne par grappes sélectionnées même si les individus
n'auront pas la même probabilité d'être interrogée selon la taille de leur grappe (ex.
un célibataire a plus de chance d'être interviewé qu'un membre d'une famille
nombreuse). Pour ce faire, on utilise soit la méthode de Kish, soit la méthode des
anniversaires qui consiste à n'interviewer que la personne de la grappe dont
l'anniversaire est le plus proche.
Comme le montrent ces exemples, les critères de segmentation (âge, sexe, revenu,
chiffre d'affaires, volume de ventes, niveau d'étude, etc.) sont souvent utilisés pour
stratifier un univers.
Dans chaque strate "i" ainsi constituée, un tirage au sort des individus à interroger est
réalisé en fonction de taux de sondage ni/Ni qui peuvent être identiques ou variables
selon les strates.
Dans le premier cas, le sondage stratifié est dit proportionnel, dans le deuxième cas, il
est non proportionnel.
La taille de l'échantillon est fixée à 150. Le taux de sondage n/N est donc de 1,5%.
Pour la strate des grossistes du Nord, elle est de :
Ni = N1/N x n = 30 avec
N1 / n1 = n/N = 1,5%
Pour la strate des grossistes du sud, elle est de :
Ni = N1/N x n = 30 avec
N1 / n1 = n/N = 1,5%
Pour obtenir, en plus des estimations par strate, une estimation de la moyenne des
ventes sur l'ensemble du territoire, un simple calcul de moyenne pondérée par le
poids relatif de chacune des strates ni/n ou Ni/ N est nécessaire :
D’où dans notre exemple :
Estimation du volume des ventes sur l'ensemble du territoire x = 0,2 x 10 + 0,8 x 15
Soit x = 14 hectolitres
L'un des avantages du sondage stratifié par rapport aux autres méthodes
probabilistes est qu'il accroît, en principe la précision de l'estimation. En outre, le
sondage stratifié proportionnel (dit également stratifié représentatif) est le seul à
pouvoir être dépouillé comme un recensement.
L'échantillon total est alors constitué après agrégation de l'ensemble des sous -
échantillons prélevés dans chaque strate.
Exemples de stratification :
Par sexe (Homme / Femme), par tranche d'âge (moins de 30 ans / 30 ans à - 50 ans),
par effectif (- 100 employés / de 100 à - 200 employés).
Très utilisée dans le domaine commercial, la méthode des quotas consiste à définir à
priori la structure de l'échantillon comme étant identique à celle de la population -
mère sur un certain nombre de critères tels que le sexe, l'âge, la CSP, lieu
d'habitation, etc. Ce qui suppose que soit connue avec précision la structure actuelle
ou récente de la population étudiée.
La méthodes des quotas consiste à construire une maquette réduite de la population
étudié : l'échantillon choisi ayant de fortes chances d'être représentatif de cette
population du point de vue des caractéristiques telles l'opinion, l'attitude, les
motivations, les comportements… que le sondage est chargé d'estimer.
Pour utiliser cette méthode, il faut disposer de statistiques récentes de la population à
étudier.
Le plan de travail des enquêteurs sera tout aussi facile à construire en multipliant le
nombre de questionnaires qu'ils ont à administrer par les pourcentages retenus pour
élaborer l'échantillon.
2.2. La méthode des itinéraires
Elle consiste à imposer aux enquêteurs un itinéraire précis dans une zone
géographique donnée et les points d'enquête sur le trajet où ils procéderont à une
interview.
Pour réduire les biais, elle est souvent couplée à d'autres méthodes
d'échantillonnage: la méthode aréolaire pour choisir les zones d'enquête, la méthode
des quotas pour sélectionner les répondants, l'échantillonnage temporel (choix
raisonné ou tirage au sort des moments d'enquête).
Dans le cadre de la méthode des itinéraires, deux (2) procédés sont utilisés:
- Celui qui consiste à remettre une carte de la ville ou la zone géographique à chacun
des enquêteurs, sur laquelle est tracé le trajet à suivre et sont indiqués les points
d'enquête;
- Celui, plus complexe, mais mieux adapté aux enquêteurs dans les villes
modernes.
Exemple : Les stations d'essence, les gares routières, les halls d'aéroports, sorte d'un
magasin, caisses d'une grande surface.
Malgré le biais qu'il engendre, il est parfois utilisé pour choisir des zones d'enquête
plutôt que de les sélectionner aléatoirement (sondage aléatoire)
Exemple : Si l'on ne veut que deux(2) villes ivoiriennes de plus de 100.000 habitants,
plutôt que de s'en remettre au hasard, le chargé d'étude peut préférer choisir par
jugement les villes d'Abidjan et Bouaké qui sont d'ailleurs les plus grandes villes de la
Côte d'Ivoire.
La loi des grands nombres de BERNOUILLI permet d'affirmer que si l'on tire au sort, un
échantillon de taille suffisante (cas d'un sondage exhaustif) celui-ci est représentatif
de la population - mère c'est-à-dire que la moyenne (ou la population) observée pour
l'échantillon sera proche (sera une bonne estimation) de la moyenne (ou de la
population) à priori inconnue, dans la population - mère.
La précision des résultats obtenus lors d'une enquête par sondage est fonction de la
taille de l'échantillon.
En outre, la représentativité de l'échantillon dépend de la méthode d'échantillonnage
adaptée : seules les méthodes probabilistes permettent de calculer la taille minimale
de l'échantillon à un certain seuil de confiance et une marge d'erreur donnée.
où
- t = coefficient de confiance dont dépend la valeur dépend du seuil de confiance ou
degré de confiance
- p est la fréquence observée dans l'échantillon
-q=1-p
- est la marge d'erreur que l'on peut tolérer dans l'estimation.
Un sondage est dit non exhaustif si le taux de sondage (n/N) < 1/7 avec > 30,
n=
1er cas : si le chargé d'études a réalisé une pré- enquête sur un échantillon de taille au
moins égale à 30 pour estimer la valeur de p, la taille minimale de l'échantillon est n=
2ecas : si le chargé d’études n’a pas réalisé une pré-enquête, on décide alors que
t2 ½ ½
P= 0,5 et q= 0,5; la taille minimale de l’échantillon n
e2
Pour simplifier la formule, on prend t = 2, au seuil de 95%, ainsi
42 ½ ½ 1
n= =
e2 e2
Un sondage est dit exhaustif si le taux de sondage n/N > 1/7 ou 14,3%, la taille
minimale de l'échantillon est
n' = nN
nN
Si n > 30 (grand échantillon), la population - mère suit la loi normale avec un écart-
type inconnu, l'estimation ponctuelle de la moyenne et celle de l'écart - type (racine
carrée de la variance ou moyenne des carrés des écarts par rapport à la moyenne.
L'écart type caractérise la dispersion des individus d'une population) se font avec un
coefficient de confiance t est lu dans la table de la loi normale à l'aide de la formule
suivante :
2(t) - 1 = seuil de confiance
t = ligne + colonne
2(t) - 1 = 1 - r avec r = risque d'erreur
où
p est la fréquence observé dans l'échantillon prélevé
t est le coefficient de confiance
n est la taille de l'échantillon
3. Cas particuliers
- Dans le cas d'un sondage exhaustif, c'est-à-dire n/N > 1/7 ou 14,3%, l'écart type des
moyennes d'échantillon doit être corrigé par le coefficient d'exhaustivité
L'intervalle de confiance devient alors
- Dans le cas d'un petit échantillon (n <30), la valeur de t est lue dans la table de
Student - Fischer avec
ou p = 1 - seuil de confiance
v = n - 1 degrés de liberté.
t est la valeur qui se trouve à l'intersection de la ligne et de la colonne.
La première est surtout utilisée lorsque l'enquête est confiée à une sociétés d'études
ou à un consultant indépendant.
Le chargé d'études fixe le prix par questionnaire administré, il divise le budget que
son commanditaire accepte de consacrer à un sondage par le coût d'un questionnaire
La formule de la taille de l'échantillon est la suivante :
Budget du commanditaire
n=
Coût d'un questionnaire
2. Le sondage séquentiel
Un questionnaire, dans son fond comme dans sa forme, doit inciter le répondant à
coopérer, à se sentir impliqué et à donner des réponses complètes et exactes aux
questions qui lui sont posées.
Un mauvais questionnaire posé à 1000 personnes est certainement moins instructif
qu’un bon questionnaire posé à 200 personnes seulement. La phase de rédaction est
donc essentielle dans la réussite du projet d’enquête.
Dans certains cas, les répondants ne peuvent pas répondre à la question qui leur est
posée. On peut identifier trois (3) raisons principales à cette situation : le répondant
comprend pas, Il ne sait pas ou il ne se souvient pas.
* Incompréhension. Elle peut être due au vocabulaire utilisé – trop technique ou qui ne
tient pas compte des particularismes régionaux – ou à une abstraction trop
importante de la question.
Dans les trois (3) cas, des « astuces » permettent d’obtenir l’information. Elles sont
souvent liées à la manière dont la question est posée et/ou à la structure du
questionnaire.
Une fois le contenu des questions identifié, l’étape suivante consiste à déterminer le
type de question adapté à chaque élément d’information recherché.
On distingue les questions ouvertes, les questions fermées et les questions posées
sous forme d’échelle et dans la longueur.
Ce type de question est donc à manier avec la plus grande précaution dans les
enquêtes quantitatives, où l’on tente de standardiser les questionnaires autant que
possible.
On distingue deux types de questions ouvertes : celles qui amènent une réponse sous
forme de chiffres et celles qui amènent une réponse sous forme de discours.
En règle générale, dans le cadre d’une étude quantitative, les questions fermées,
présentées ci-dessous, sont de loin préférables aux questions ouvertes.
Exemples :
- Réponses de type numérique :
Les questions fermées sont des questions pour lesquelles on impose au répondant
une forme précise de réponse et un nombre limité de choix de réponses.
Trois (3) types sont possibles selon le nombre de choix de réponses proposé et le
nombre de réponses souhaitées.
Ces questions n’offrent que deux (2) réponses, celles-ci devant être uniques. Le
répondant est face à une alternative : c’est l’un ou l’autre
Exemple :
Sexe ? Max Fém. Sexe /-/
Le répondant dispose ici d’un registre de choix supérieur à deux (2) modalités.
Il est impératif que les modalités proposées soient exhaustives et mutuellement
exclusives.
Exemple : Parmi les marques de lessives en poudre , cochez celles que cous
connaissez, ne serait-ce que de nom
X. LA REDACTION DU QUESTIONNAIRE
1. Le vocabulaire utilisé
En résumé, le vocabulaire employé doit être le plus simple, le moins ambigu possible
et adapté à la population concernée par l’étude. Il n’est donc pas inutile d’avoir un
dictionnaire à portée de main !
2. Le style de rédaction
Le style de rédaction est également important, car il est fréquemment source de biais,
soit dans la compréhension des questions, soit directement dans les réponses.
Exemple : « Ne pensez-vous pas que les grands magasins ne donnent pas assez de
conseils à leurs clients ? »
Une question devrait rarement dépasser une ligne à une ligne et demie.
Le style peut directement influer sur la validité des réponses, selon le caractère direct
ou non des questions.
Pour des questions personnellement importantes, l’approche indirecte est donc
souvent préférable. L’utilisation de termes neutres, ou de plusieurs questions
indirectes, dont on déduit l’information recherchée, est un moyen de procéder.
« Bonjour Madame,
Je m’appelle XYZ et réalise, pour l’institut ABC, une étude dont le but est de mieux
connaître les relations des consommateurs avec leurs commerçants.
Nous accordons une importance toute particulière à votre opinion, et nous aimerions
vous poser quelques questions à ce sujet. Cela ne nous prendra que quelques
minutes. »
En principe, il est souhaitable de cacher le thème exact de l’étude, dès lors que
l’annonce de celui-ci risque de provoquer un biais, soit de réponses de façade, soit de
dissimulation ou de refus de réponse pur et simple.
Elles n’ont lieu d’être que si l’on a besoin de savoir si l’individu possède l’information
recherchée et servent d’aiguillage. Leur forme est plutôt dichotomique.
C’est le cœur du questionnaire. Les questions doivent amener les informations les
plus importantes pour l’étude. A ce stade, le répondant est « chaud » : il s’est
imprégné de l’esprit de l’étude et a noué une relation de sympathie avec
l’enquêteur. On peut donc lui demander des efforts de réflexion et/ou des
informations personnelles. La garantie de réussite n’est certes pas totale, mais de
toutes façons meilleure que si l’on avait posé ces questions dès le début. De
manière générale, par exemple, tout ce qui a trait aux motivations, aux opinions,
aux jugements personnels…, doit être inclus à cet endroit.
- Phase 6 : Les questions d’identification(fiche signalétique)
Elles décrivent les répondants. On peut utiliser deux types de critères d’identification :
les variables sociodémographiques classiques sexe, âge, profession…) et des
éléments plus psychologiques (tels que les valeurs personnelles, l’implication pour la
catégorie de produit, les traits de personnalité…). Cette partie fournit les informations
qui serviront à classer les répondants en groupes distincts. En d’autres termes, il
s’agit de variables de segmentation.
Dès lors que l’on a besoin de distinguer les répondants sur des comportements, des
connaissances ou des caractéristiques particuliers, afin de les orienter sur des parties
différents du questionnaire ces questions doivent être utilisées. Il n’est pas obligatoire
de les cantonner au début du questionnaire.
Lorsqu’on a un doute a priori sur la validité ou la cohérence des réponses qui vont
être fournies, souvent parce que le sujet de l’étude est « sensible », on peut inclure
des questions dont le seul but est de fournir un indice sur ‘‘l’honnêteté’’ avec laquelle
l’individu remplit son questionnaire.
Exemple : L’utilisation de pièges est assez fréquente dans les questions de notoriété,
surtout quand il est valorisant de montrer une bonne connaissance du domaine sur
lequel on est interrogé.
Elle relève de la technique de mise en page d’un document dont les cinq (5) principes
élémentaires sont les suivants :
Normalement, ceci doit être fait dès la rédaction des questions, voire dès la définition
de l’information à recueillir
Une « non réponse » peut survenir dans diverses circonstances : le répondant refuse
ou oublie de répondre à une question ; l’enquêteur oublie de reporter la réponse ou la
reporte de manière erronée ; etc.
Il faut donc prévoir une modalité de « secours » qui indique que l’information
recherchée auprès de répondant n’a pas pu être recueillie. Certains logiciels utilisent
automatiquement le zéro (e.g. Le Sphinx).
Exemple :
« Combien d’enfants à charge avez-vous dans votre foyer ? » ------ NBENF /--/
Le zéro, dans ce cas, ne peut pas être utilisé comme code non réponse, puisqu’il
s’agit d’une réponse possible.
On s’efforce donc de choisir un code qui ne puisse pas être utilisé comme réponse.
Par souci de simplicité, on essaie, si c’est possible, de retenir le même pour tout le
questionnaire.
Exemple :
Lors de l’enquête sur la protection de l’environnement, l’identification du
questionnaire et de l’enquêteur se faisait par un code à quatre chiffres. Les deux
premiers chiffres indiquaient qui était l’enquêteur (en réalité ils travaillaient par
équipes de deux) et les deux suivants indiquaient le numéro de questionnaire pour
l’équipe. Ce code donnait naissance à une variable « NUMQUES », intégrée aux
données de l’enquête.
Administration du questionnaire
I. Prétest
1.1. L’administration
Elle est réalisée dans les conditions réelles de l’étude, c’est-à-dire procéder à un
premier prétest en face-à-face, c'est-à-dire au moyen d’enquêteurs, si possible
chevronnés.
Si la population est très petite, un prétest de cinq questionnaires est déjà important.
Pour une enquête grand public, la taille recommandée va de 15 à 30 personnes.
1.3. L’échantillonnage
Il est essentiel que les individus interrogés pour le prétest soient issus de la même
population que ceux de l’échantillon définitif.
2. La détection de erreurs
1. Le Face à face
2. La voie postale
3. Le Téléphone
L’évaluation comparative proposée plus loin montrera que l’enquête téléphonique est
une méthode permettant d’obtenir rapidement l’information souhaitée. Toutefois, ce
jugement doit être nuancé par la difficulté croissante d’obtenir des contacts utiles,
c'est-à-dire des individus qui appartiennent à la base de sondage et acceptent de
répondre.
TR = Nr/Nf
TR = taux de réponse,
Nr = nombre de questionnaires remplis par les foyers répondants,
Nf = nombre de foyers répondants éligibles dans l’échantillon
- Les méthodes en face à face sont les plus flexibles, l’enquêteur compétent
pouvant aider le répondant, modifier l’ordre des questions si cela lui paraît
nécessaire et, éventuellement, suggérer des questions supplémentaires
(ouvertes, par exemple) si le besoin s’en fait sentir.
Les résultats sont regroupés dans un support écrit, appelé rapport d’étude, rédigé par
le chargé d’études. Ce document est remis au commanditaire du travail (client
extérieur ou service interne de l’entreprise).
1. Présentation matérielle
1.1. Nombre de pages
Le format A4 (ou pleine page de 21 x 29,7 cm) est la règle. Pour faciliter la lecture du
rapport, une bonne solution consiste à mettre le texte en page de droite, et les
schémas, tableaux ou figures en regard sur la page de gauche.
2. Rubriques usuelles
Les objectifs de l’étude sont brièvement rappelés, ainsi que le contexte et les
éventuelles hypothèses de travail. Les hypothèses renvoient à diverses éventualités
qui, si elles se réalisent, conduisent à des conclusions différentes. Par exemple, les
conclusions seront différentes, selon le taux de croissance du marché retenu ou selon
le niveau de concurrence.
Les contraintes correspondent à des conditions prérequises pour que les conclusions
figurant dans le rapport soient valides : il s’agit en quelque sorte de réserves qu’émet
le rédacteur, par exemple :
Si une étude documentaire, ou des résultats d’un travail antérieur, ont été utilisés, ils
ont brièvement présentés, car ils orientent la démarche ultérieure.
Enfin, si des termes particuliers ont été utilisés (mots techniques, concepts
marketing…), une définition claire et simple doit être fournie. Par exemple, on
indiquera ce que l’on entend par prescripteur, cœur de cible, score d’impact, marché
potentiel, etc.
Une bonne approche consiste à construire le rapport part grands thèmes, sur la base
des différentes questions posées au départ. Les questions traitant d’un même thème
sont regroupées afin de dégager une synthèse. Seuls les chiffres bruts correspondant
à quelques questions jugées fondamentales sont fournis dans le corps du rapport. Il
est préférable de renvoyer dans une annexe spécifique les résultats complets de
chaque question.
Cette partie, très importante, fournit au client les éléments de synthèse nécessaire à
la prise de décision. Les conclusions répondent, point par point, aux différentes
questions qui ont motivé l’étude. Elles s’appuient, soit sur les seuls faits observés, soit
sur des scénarios (réactions des concurrents, état de la demande, etc.) jugés
plausibles. Le chargé d’étude n’interprète pas le sens des résultats et ne fournit pas
d’informations sur la nature de la décision que le client peut prendre au vu des
résultats, du type : « comme c’est un excellent résultat, il est logique de lancer le
produit ». Tout au plus, il indique s’il s’agit d’un bon ou d’un mauvais résultat. Nous
développerons dans la figure 14-5 (page suivante), un exemple illustratif.
2.8. Annexes
Les annexes allègent le corps du rapport et servent à l’exposé des aspects techniques
d’une méthode ou à la présentation d’analyses ou de tableaux secondaires. Lues par
un petit nombre de personnes, mais souvent spécialistes du thème développé, elles
ne sont pas un moyen commode d’étoffer un rapport succinct, mais plutôt des
éléments destinés à renforcer la crédibilité du travail entrepris. En cas d’annexes
volumineuses, il convient de prévoir un document distinct du rapport principal.
3. Recommandations et conseils
3.1. Recommandations
Lors d’une recommandation, le chargé d’études précise à son client les informations
jugées les plus solides, c'est-à-dire les données « dures » qui conduisent à des
décisions sans risques, et celles qui sont plus délicates à interpréter, peut-être à
cause de biais dans les réponses ou d’autres facteurs explicatifs non contrôlés dans
l’étude. La valeur ajoutée d’une bonne recommandation est forte, parce qu’elle
permet au décideur de hiérarchiser la qualité des informations fournies, et parce
qu’elle oblige le chargé d’études à « faire parler les résultats.
3.2. Conseils
Le conseil suppose une implication plus grande encore : c’est le « service après-
vente » du rapport d’étude. Il indique quels types d’actions marketing doivent être
mis en œuvre. L’homme d’études se substitue au manager (acheteur de l’étude) en
indiquant quels stratégie, plan ou tactique marketing il pratiquerait, s’il était à sa
place.
Pour produire des conseils de bonne qualité, il est impératif de disposer d’une vue
globale des forces et des faiblesses de l’entreprise sur les plans financier, humain et
technologique. La culture des managers, leur autonomie dans la prise de décision et
le degré de risque jugé tolérable sont autant d’éléments à considérer. Ainsi, on ne
donnera pas les mêmes conseils à une filiale d’un groupe multinational qu’à une PME,
quant bien même leurs résultats seraient identiques.
LE REDRESSEMENT DE L'ECHANTILLON
Lorsqu'un enquêteur a terminé son travail, il arrive que les quotas de ses
questionnaires ne correspondent pas correctement à ceux demandés.
Ils sont établis, pour chaque question, en classant les réponses selon les possibilités
retenues à priori (question fermée ou semi-ouverte) ou a posteriori (question ouverte)
puis en les dénombrant (distribution de fréquences absolues) et en calculant le
"poids", en pourcentage (fréquence relatives), de chaque éventualité soit par rapport
au nombre des personnes interrogées soit par rapport au nombre des répondants à la
question (en particulier en cas de questions filtres).
Lestrisou tableaux croisés comparent les réponses à une questions selon la réponse
donnée à, au moins, une autre questions. Autrement dit, ils permettent d'étudier la
répartition des éléments observés (les individus interrogés) selon au moins deux
caractères.
Certains chargés d’études se contentent de lire les tableaux croisés, comme nous
venons de le montrer, pour rédiger leurs commentaires. Ils prennent le risque de
conclure en l’existence d’associations entre variables qui ne seraient que l’effet du
hasard, le résultat d’erreurs d’échantillonnage.
Cette façon de faire est d’autant plus ridicule qu’il existe des tests statistiques qui
permettent de mesurer la réalité de la dépendance entre variables. Parmi eux, l’un
des plus utilisés est le test de contingence du Chi-deux.
LE TEST DU CHI-DEUX
Mais, il s’agit d’estimer ici le degré d’indépendance entre deux caractères étudiés
dans un tableau croisé (tableau de contingence).
La formule du Chi-deux permet de mesurer l’écart entre les effectifs observés et les
effectifs théoriques de chaque case (ligne-i, colonne-j) du tableau de contingence.
L’effectif théorique correspond à l’hypothèse d’indépendance des deux caractères L
et C, donc lorsque les valeurs des colonnes sont proportionnelles entre elles et
lorsqu’elles sont proportionnelles à la colonne marginale.
nij théorique = L x C
Si le Chi-deux calculé est inférieur ou égal au Chi-deux critique, les écarts sont
vraisemblablement dus aux fluctuations d’échantillonnage, donc il convient de ne pas
rejeter l’hypothèse selon laquelle les deux caractères sont indépendants.
Par ailleurs, l’hypothèse d’association ne doit être acceptée que provisoirement, c’est
à dire tant que le contraire n’a pas été prouvé. Dans notre exemple, on voit bien que
cette association (homme fumeur, femme non fumeuse) est sujette à caution dès lors
que l’on introduit la notion d’âge.
lorsque le tableau croisé comprend 2 lignes et 2 colonnes, le coefficient Phi peut être
calculé à partir de la valeur du Chi-deux :
Le coefficient Phi varie entre –1 et +1, la valeur zéro correspondant à l’absence totale
d’association
On voit, dans notre exemple, que bien que le test du Chi-deux indique l’existence
d’une relation d’association statistiquement significative, cette association est,
somme toute, assez faible.
Le coefficient de contingence
Lorsque le tableau de contingence est plus grand (que 2 x2), le coefficient Phi ne
pouvant êtr calculé, c’est le coefficient de contingence C qui le sera pour mesure le
degré d’association entre les deux variables.
En revanche, son interprétation est plus délicate. Ce coefficient est nul quand il y a
absence totale d’association entre les variables. Il n’est pas égal à 1 lorsque
l’association est parfaite, mais à (r-1), où r est le nombre de lignes du tableau de
contingence.
Les statistiques permettent de comparer les données qui varient (variables) d'un
individu et d'un groupe d'individus à l'autre. Ces variables peuvent être :
un nombre représentant une quantité (l'âge, le nombre de cigarettes fumées par jour)
; une catégorie de réponses (« oui » , « non » , « ne sait pas » ou « rarement » ,
« parfois » , « souvent » , « très souvent » ).
Le premier type de variable se nomme quantitative. Il permet, par exemple, les
calculs de moyennes. Le deuxième type de variable se nomme qualitative. Elle est
dite nominale si les catégories n'ont pas d'ordre (« oui », « non », « ne sait pas ») et
ordinale s'il est possible d'indiquer un ordre entre les catégories (« rarement »,
« parfois », « souvent », « très souvent »).
Pour les variables nominales et ordinales, un pourcentage de réponses par catégorie
(ou modalité) peut être obtenu.
L'analyse des réponses fait apparaître en général des différences selon le groupe
d'appartenance d'un individu, par exemple selon le sexe ou l'âge. La question
essentielle est de pouvoir déterminer si la différence observée entre les groupes
pourrait être un effet du hasard ou si elle résulte d'un autre effet. Il n'est pas possible
de répondre à cette question directement, mais on évalue la probabilité que la
disposition trouvée dans les données soit due au hasard. Si cette probabilité (que l'on
note habituellement « p ») est inférieure à 5 % (seuil généralement retenu), on admet
que la différence est significative.
La causalité
La standardisation
p<0,05 signifie que le hasard ne produirait cette répartition de données qu'au plus
une fois sur vingt tirages au sort ;
p<0,01 signifie que le hasard ne produirait cette répartition de données qu'au plus
une fois sur cent tirages au sort ;
p<0,001 signifie que le hasard ne produirait cette répartition de données qu'au plus
une fois sur mille tirages au sort.
Certains auteurs ont utilisé des seuils de significativité légèrement différents.
Les risques de 2e espèce et de 3e espèce ne seront pas abordés dans le cadre de
cette publication.
Le Chi2 de Pearson
Si l'on s'intéresse plus particulièrement à deux (2) variables qualitatives (repérées par
des catégories ou des modalités) - comme le sexe et la pratique sportive -, l'outil
statistique utilisé est le test du Chi2 de Pearson. Il mesure la différence entre le
tableau attendu si les deux facteurs se croisaient « au hasard » et le tableau
effectivement observé
Le Chi2 de tendance
Le test de tendance est généralement utilisé pour étudier une relation dose-réponse
ou pour évaluer des tendances selon le temps ou n'importe quelle valeur ordonnée. Il
permet éventuellement de conclure, par exemple, à l'existence d'une tendance
linéaire, selon le temps, d'une diminution ou d'une augmentation de la prévalence
d'un comportement de santé.
Analyse de la variance
L'odds ratio
Une des façons d'exprimer l'effet d'une variable sur une donnée qualitative est l'odds
ratio (littéralement : rapport de côtes). L'odds ratio est, dans un tableau à deux
entrées, le rapport a/c sur b/d.
Il est très utilisé en épidémiologie, notamment pour évaluer les risques de développer
certaines maladies chez certaines populations (par exemple exposées et non
exposées) ; c'est en réalité une estimation de l'augmentation du risque relatif si la
grandeur observée est rare (< 1 %).
En effet, l'odds ratio (a/c)/(b/d) peut uniquement être confondu avec le risque relatif
(a/(a+c))/(b/(b+d)) lorsque le phénomène observé est rare (a et b < 1 %). Ceci est
souvent le cas lorsqu'il s'agit d'une maladie, mais est exceptionnellement le cas dans
les phénomènes de comportements fréquents étudiés dans le Baromètre santé. En
toute rigueur, il conviendrait donc d'utiliser systématiquement le mot anglais « odds
ratio » et non risque pour ne pas induire de confusion. Cependant, pour des raisons de
lisibilité et de facilité de compréhension, on trouvera également dans les chapitres
une interprétation de l'odds ratio en terme de « risque » , de « chance » ou de
« probabilité » .
Trouver une association entre deux variables ne signifie pas que les deux variables
soient liées directement entre elles. Un troisième facteur lié aux deux autres peut
intervenir. Par exemple, il existe une relation entre la pratique d'un sport et la
consommation d'alcool au cours de l'année. En fait, ce lien disparaît si l'on introduit la
variable « âge » (en « ajustant » sur l'âge), tout simplement parce que la
consommation d'alcool est fortement liée à l'âge. On appellera « variable de
confusion » , une variable qui aura tendance à annuler (ou accentuer) la relation
statistique entre deux variables, à chaque item d'une des variables. On parlera
« d'interaction » entre variables lorsque l'effet d'une variable diffère selon l'item
considéré d'une des variables. Ainsi, dans notre exemple, si après avoir regardé la
relation statistique entre la pratique d'un sport et la consommation d'alcool pour
différentes tranches d'âges, on observe qu'il n'y a plus de relation entre les deux
variables pour chacune des tranches d'âge, on parlera de variable de confusion (en
l'occurrence l'âge) dans le relation sport/consommation d'alcool. En revanche, si l'on
observe une relation entre sport et alcool pour les jeunes, mais pas pour les plus
âgés, on parlera d'interaction de l'âge dans la relation sport/ consommation d'alcool.
Pour éviter ce problème d'interaction, les régressions logistiques seront souvent
présentées séparément pour les hommes et pour les femmes.
Il est rare de s'intéresser seulement à deux variables isolées quand il s'agit d'étudier
des phénomènes complexes. Dans ce cas, il est possible d'avoir recours aux analyses
multivariées (incluant en même temps plusieurs variables) qui peuvent être de deux
types. Le premier se focalise sur une variable - nommée variable « dépendante » ou
cible - pour laquelle on cherche à déterminer les facteurs associés
variables indépendantes - restant en relation significative avec cette variable quand
on considère leur variation simultanée. Dans notre étude, ce type d'analyse
(représenté par la régression logistique ou l'analyse de la variance multiple) a
essentiellement été utilisé pour vérifier l'existence ou non de certains facteurs de
confusion.
Le second type d'analyse ne privilégie pas une des variables considérées et cherche à
dégager la structure descriptive de l'ensemble de ces variables. Dans cet ouvrage, ce
genre d'analyse a été employé sous la forme d'une analyse en composantes
principales.
La régression logistique