Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Etude de Marche

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 67

Dans un environnement économique de plus en plus turbulent et dans le souci de

rationaliser les décisions qui engagent leur avenir, les entreprises disposent
aujourd'hui d'outils d'aide à la décision de plus en plus performants: ce sont les
études marketing.

Ces études marketing fournissent des éléments d'information dont la finalité est de
réduire le risque de l'entreprise face à un avenir incertain.

Les études permettent aussi à posteriori de faire le diagnostic des politiques


commerciales que l'entreprise a choisi de mettre en œuvre.

CHAPITRE 1. LES ETUDES DE MARCHE

SECTION 1. DEFINITIONS

On appelle étude ou recherche marketing ("marketing research") ou étude de marché,


la préparation, le recueil, le traitement, l'analyse et l'exploitation de données et
informations relatives à une situation marketing donnée.

NB: Il ne faut pas confondre l'étude de marché et l'étude du marché ("market


research") qui désigne une analyse qualitative et quantitative de l'offre et de la
demande présente et future d'un bien ou d'un service.

SECTION 2. BUT DES ETUDES DE MARCHE

Les études de marché apportent une information objective et scientifique sur les
contraintes et les qualités d'un marché: elles permettent une meilleure connaissance
de l'offre et de la demande grâce à l'apport des techniques statistiques ou de
psychologie.

En outre, la préoccupation majeure de l'étude sera de confronter constamment les


moyens et les contraintes de l'entreprise face à un environnement incertain. C'est dire
qu'elle ne sera pas seulement axée sur l'extérieur mais aussi sur les données internes
de l'entreprise.

SECTION 3. LES LIMITES DES ETUDES DE MARCHE

Elles sont relatives entre autres à :

- La complexité du comportement du consommateur

On ne connaît pas tout, loin s'en faut, des mécanismes du comportement d'achat du
consommateur. Les études de marché restent tributaires des progrès effectués dans
le domaine de la recherche sur le comportement du consommateur et peuvent
conduire à des résultats erronés, parfois lourds de conséquences sur les plans
commerciaux et financiers;

- La réduction de l'incertitude, mais pas à sa suppression

Les études permettent une réduction notable de l'incertitude grâce à l'apport


d'informations, mais elles ne peuvent prétendre à la suppression du risque.
- L’objet de l’étude : bien définir son objectif,

- La population de référence qui détermine la qualité et la fiabilité des informations


(par exemple : les motivations et les habitudes d’achat sont différentes chez les
grossistes et chez les détaillants);

- Le facteur temps : les résultats de l’étude sont valables pour une période de temps
déterminée;

- L’espace : les résultats sont valables pour une région ou un pays et on ne peut les
transposer sans modifications;

- L’échantillonnage des contacts : les données recueillies reflètent essentiellement les


opinions des personnes rencontrées;

- La matière première : la mémoire des répondants est imparfaite et fait subir des
limitations aux informations recueillies;

- Le pouvoir prédictif : les études de marché ne peuvent véritablement prédire le


futur. Elles peuvent cependant contribuer à une meilleure compréhension des
phénomènes de consommation étudiés en analysant des fait passés ou en train de se
produire.

SECTION 4: LE CONTENU DES ETUDES DE MARCHE

Traditionnellement, une étude de marché complète traite de six (6) grands types de
problèmes: l’étude de données socio-économiques, l’étude des consommateurs ou
utilisateurs du produit, l’étude du produit lui-même, l’étude de la distribution, l’étude
de la communication et l’étude de la concurrence .

I. L’ETUDE DE L'ENVIRONNEMENT SOCIO-ECONOMIQUE

Les données de l'environnement économique constituent la base de toute activité.


Elles peuvent modifier sensiblement l'offre et la demande de bien et service. Il est
donc important de connaître quel est leur niveau, leurs fluctuations et les
perspectives qu'elles peuvent offrir.

En particulier, il s'agit d'extraire les données essentielles concernant les domaines:


- Economiques, notamment par branche ou secteur (niveau de la production, de
l'emploi, revenu national, P.N.B, P.I.B, etc.);
- Monétaires et financiers (condition de crédit, inflation…),
- Sociaux (comportements, mentalités, classes sociales et conflit sociaux…),
- Démographiques (mouvement de la population, caractéristiques: densité,
répartition régionale, accroissement, répartition socioprofessionnelle…);
- Technologiques ou techniques (évolution de la recherche, nombre de brevets…),
- Juridiques (législation, réglementation sur le produit, la publicité ou la vente…).

NB: Lorsqu'une entreprise mène l'étude d’un marché étranger, elle cherchera à
connaître de manière précise quelles sont les contraintes propres à ce pays: droits de
douane, quotas d'importation, conditions de licence, législation tenant au produit, etc.

II. L’ETUDE DES CONSOMMATEURS OU UTILISATEURS


L'étude des consommateurs consiste à découper la population totale et évaluer en
qualité et quantité les sous-ensembles de cette population à savoir:
- Les non-consommateurs absolus,
- Les non-consommateurs relatifs,
- Le marché actuel de l'entreprise,
- Le marché actuel de la concurrence,
- Le marché actuel de la profession,
- Le marché théorique de la profession ou marché potentiel global.

III. L’ETUDE DU PRODUIT

Elle consiste à décrire les caractéristiques du produit, des différentes gammes, les
prix pratiqués, l'évolution des ventes. Plus particulièrement, elle s'attachera de définir
le cycle de vie du produit.

La description des performances des produits de l'entreprise (caractéristiques


physiques et caractéristiques psychologiques attribuées par les consommateurs),
permettra de le situer par rapport aux besoins des consommateurs et par rapport à
ceux offerts par les entreprises concurrentes.

IV. L’ETUDE DE LA DISTRIBUTION

Outil essentiel de la vente des produits, il est indispensable de connaître:


- L'importance des différents canaux, leur évolution,
- Les marges et usages de ces différents canaux (conditions de paiement, remises,
qualité du conditionnement…), moyens de promotion ou de publicité sur le lieu de
vente;
- L'attitude des hommes de la distribution vis -à- vis du ou des produits de
l’entreprise.

V. L’ETUDE DE LA COMMUNICATION

Elle revêt essentiellement deux (2) aspects:


- Le contrôle de l'efficacité par mesure du nombre et des caractéristiques des
consommateurs touchés ainsi que vérification de leur perception;
- La proposition des axes et cibles les plus efficaces en fonction de la qualité des
consommateurs, des habitudes des entreprises concurrentes, des moyens
publicitaires et promotionnels existants (radio, TV, cinéma, presse, foires et
expositions, etc.).

VI. L’ETUDE DE LA CONCURRENCE

Elle constitue la somme des renseignements permettant de mieux situer les


concurrents de l'entreprise:
- Monographies des différentes firmes présentes (moyens financiers, liens avec
d'autres groupes, appareil de production, place sur le marché, etc.) ;
- Effort sur le marché (gamme de produits, prix pratiqués, conditions de vente,
caractéristiques de la distribution, de la clientèle, axes et cibles de la publicité, etc.

SECTION 5. LE DEROULEMENT D'UNE ETUDE DE MARCHE

Généralement une étude de marché se déroule en cinq (5) phases successives:

- Définition claire et précise du ou des problèmes à résoudre ou à traiter,


- Elaboration d’un projet d’étude ou plan d’étude ou plan de recherche,
- Recueil et collecte d’informations,
- Traitement et analyse des informations recueillies,
- Rédaction d’un rapport.

N.B. Si tout ou partie de l’étude est confié à un cabinet d’études marketing ou à un


consultant extérieur, la réalisation de l’étude de marché comporte six (6) étapes qui
sont :

- Définition du ou des problèmes dans un ‘‘briefing’’ par le commanditaire de


l’étude(l’entreprise)

Il faut définir d'une manière précise le ou les problèmes que l'entreprise cherche à
résoudre et l'ampleur qu'elle entend donner à cette étude.

- Réalisation d’une pré-enquête ou d’un pré diagnostic par le consultant ou le chargé


d’études

A partir de ces objectifs et contraintes, le responsable de l'étude doit se livrer à une


première enquête rapide lui permettant d'appréhender d'une manière plus précise
comment il peut mener son étude: sources de documentation disponibles, nécessité
d'utiliser des techniques d'enquêtes quantitatives ou quantitatives, sous-traitance de
tout ou partie de l'étude à des sociétés d'études de marché.
Cette phase de pré-enquête lui permettra de chiffrer dans un projet d'étude les coûts
et délai nécessaires;

- Elaboration d’un projet d’étude par le consultant ou le chargé d’étude

Le chargé d'études consacre, si possible, une ou deux (2) journées à des rendez-vous
de travail avec le demandeur. Ces échanges permettent de "caler" le projet en
affinant la compréhension des objectifs d'étude et de délimiter le périmètre de la
future collecte des données (échantillonnage, questionnaire, délai de réalisation,…).

Trois (3) types de personnes sont susceptibles d'être interrogées par le chargé
d'études durant ces rencontres : les demandeurs de l'étude, les distributeurs et les
prescripteurs.

Ainsi le chargé d’étude pourrait interroger successivement :

Le chef de service ‘‘ étude de marché ’’ pour savoir si on tient compte des résultats
de ses études;
Le chef de service ‘‘ conception de produit ’’ pour voir s’il observe le cahier des
charges commerciales fixé par l’étude de marché;
La fabrication pour connaître dans quelle mesure elle satisfait les exigences du
service commercial au point de vue : prix, qualité, délai, ……etc.
Le directeur commercial pour savoir s’il dispose des moyens suffisants pour vendre,
Les représentants de la société pour étudier leurs motivations et leurs freins,
Les consommateurs finaux et les non – consommateurs pour juger de leur
différence de comportement.
L’important durant cette phase n’est pas de composer un échantillon représentatif
mais de faire naître le plus d’attitudes différentes à l’égard du produit.
Cette enquête préliminaire est souvent assimilée à une étude de motivations.

- Recueil et collecte des informations,


- Traitement et analyse des informations,
- Rédaction d’un rapport.

SECTION 6 : LES CATEGORIES D’ETUDES DE MARCHE

Il existe différentes catégories d'études en fonction du degré de confidentialité ou


l’exclusivité souhaitée pour l'acquisition de l'information. Ce sont l’étude ad hoc, le
marché-test, l’enquête omnibus, le panel et le baromètre.

I. L’ETUDE AD HOC

C'est une étude ponctuelle réalisée "sur mesure" pour le compte d'un seul
demandeur. La population enquêtée varie d'une étude à l'autre.
Le réalisateur propose une méthodologie spécifiquement conçue pour résoudre le
problème posé : questionnaire, plan de collecte, traitement des données. Le
demandeur (entreprise privée, administration, association, etc.) confie généralement
la réalisation à une société de conseil extérieure à l'organisation.

II. LE MARCHE - TEST

C'est une étude ponctuelle réalisée pour le compte d'un seul client, afin d'évaluer les
chances de succès commercial d'un produit. Le marché-test peut être simulé : on
applique un modèle quantitatif aux données recueillies par questionnaire, pour prévoir
les ventes futures. Il peut être réel, c'est- à- dire que l'on enregistre des achats
effectifs pendant quelques semaines (ou mois) dans une zone délimitée. On prévoit, à
partir de ces ventes partielles, les futures ventes au niveau national.

III. L’ENQUETE OMNIBUS

L'omnibus est une étude périodique, hebdomadaire ou mensuelle, réalisée par une
société de conseil pour le compte de plusieurs clients. La population enquêtée est
souvent la même d'une étude à l'autre, mais les questions posées sont différentes.
Chaque client achète le droit de poser une ou plusieurs questions. Les données
recueillies font l'objet de quelques analyses simples avant leur livraison, Il n'est pas,
en principe, possible d'obtenir les résultats des questions posées par les autres
souscripteurs. Les médias (presse et télévision) sont de gros consommateurs d'études
omnibus : il suffit d'acheter 5 ou 6 questions pour bâtir un article autour d'un sondage
"exclusif". L'intérêt de l'omnibus tient dans sa rapidité de réponse : 1 à 2 jours avec
un sondage télématique, 3 ou 4 jours par téléphone, 3 à 4 semaines si l'interview est
réalisée au domicile des enquêtés. Véritable étude "à la carte" l'omnibus fournit une
réponse rapide à un problème simple.

IV. LE PANEL

C'est une étude périodique réalisée chaque semaine, mois ou trimestre pour le
compte de plusieurs clients. Les interviewés et les questions posées sont identiques
d'une enquête à l'autre. Compte tenu du coût global de mise en œuvre, ce sont
généralement des sociétés d'études spécialisées qui assurent la gestion d'un panel.
Les résultats s'achètent marque par marque, ou par catégorie de produits, d'où la
possibilité pour une entreprise de suivre ses concurrents.

Sur le plan statistique, un panel est un échantillon sur lequel on effectue des mesures
répétées à intervalles réguliers et dans des conditions similaires ; par extension, on
donne le nom panel à la procédure globale de l'étude. Dans la pratique, les
interviewés varient d'une étude à l'autre à cause des abandons en cours de route.
Certaines sociétés d’études renouvellent ainsi 25% de leur panel par an.

Grâce à leur périodicité et à leur richesse, les panels constituent une source
d'information préliminaire précieuse : leur analyse facilite le diagnostic marketing et
la construction du projet d'étude.

On distingue panel de consommateurs, panels de distributeurs, panels mixtes et


panels spécialisés.

V. LE BAROMETRE

L'étude barométrique suit périodiquement l'évolution d'indices propres à une marque,


un produit ou un secteur d'activité. Si l'échantillon peut varier, en revanche les
questions sont les mêmes d'une enquête à l'autre.
Là encore, la lourdeur de gestion conduit à une sous-traitance auprès d'instituts
spécialisés. L'achat se fait par souscription collective: plusieurs clients achètent tout
ou une partie des résultats.

Les baromètres sont des "panels allégés", c'est -à- dire qu'ils calculent quelques
valeurs utiles pour synthétiser une activité quelconque. La cote de popularité des
hommes politiques constitue un exemple très connu: tous les mois, un même
échantillon indique s'il se sent proche ou éloigné « d'une liste d'hommes politiques ».
On compare ainsi l'évolution des scores, mois par mois. D'autres baromètres
contrôlent la satisfaction d'une clientèle; les compagnies aériennes, les chaînes
hôtelières et les entreprises de location de voiture utilisent ces informations pour
ajuster leurs actions marketing.

SECTION 7. QUELQUES TYPES D'ETUDES MARKETING SPECIFIQUES

Répondant aux besoins d'information qui apparaissent à chaque fois qu'une décision
commerciale risquée doit être prise, l'étude marketing a un contenu différent. Les
études marketing répondent à l'ensemble des questions que se pose l'entrepreneur
sur un produit, les différentes variables qui le composent, son marché, sa cible, etc.
A chaque question correspond une étude marketing spécifique dont on vous donne le
panorama ci-après:

Les questions Les études correspondantes


Quel est le marché potentiel d'un Etude d'évolution du marché,
produit? quantification du marché, potentiel de
croissance de la demande.
Quel (s) produit (s) lancer sur un Recherche de concept
marché?
Mon idée de produit est- Test de concept
elleintéressante?
Dois- je la réaliser et comment?
Je veux lancer un nouveau produit: Test de produit, de goût, d'utilisation,
Correspond- il à un besoin? de conditionnement, de prix
Comment le lancer?
Je veux mieux connaître mes clients Etude du profil de la clientèle,
Etude des comportements d'achat et
de consommation
Je veux rechercher un nom pour un Recherche de nom ou de marque
produit, une gamme ou mon
entreprise
J'ai plusieurs noms possibles pour un Test de nom
produit, quel est le meilleur?
Comment mon entreprise (ou mon Etude d'image et de positionnement
produit)
est- elle perçue par l'extérieur?
Mon entreprise est- elle connue? Par Etude de notoriété
qui?
La fonction marketing dans mon Diagnostic marketing interne
entreprise est-elle organisée de
manière optimale ?
Comment l'améliorer?
Que dois-je mettre en avant dans ma Recherche d'axes de communication
communication?
Deux agences de publicité m'ont Pré-test publicitaire
proposé deux campagnes différentes,
laquelle choisir?
Quelle est la zone géographique où Etude de la zone de chalandise
est domiciliée la clientèle de mon
restaurant ou de mon point de
vente ?
Je veux implanter un supermarché Etude d'implantation
dans une commune d'Abidjan,
l'endroit que j'ai sélectionné offre-t-il
un potentiel suffisant?
Comment mes produits sont-ils Store checks, merchandising
exposés dans un canal de
distribution?

CHAPITRE 2: LES SOURCES D'INFORMATION

Pour réaliser une étude de marché, l'entreprise dispose de deux (2) grands types
sources d'information: les sources internes et les sources externes.

SECTION 1: LES SOURCES INTERNES

Des informations diverses, nombreuses, facilement accessibles et peu coûteuses sont


disponibles au sein même de l'entreprise. Il faut donc les recenser et exploiter les plus
utiles d'entre elles.

I. LES STATISTIQUES DE VENTE

Elle sont tout aussi utiles pour effectuer un diagnostic (taux de croissance,
désaisonnalisation, graphiques, loi des 20/80, analyse ABC, etc.) que pour réaliser une
prévision.
En outre, il est conseillé de compléter l'analyse structurelle des ventes en valeur (en
francs) par une analyse des ventes en volume (en unités physiques).

II. LES DONNEES COMPTABLES ET LES CONTRIBUTIONS AU BENEFICE

Le 1er niveau d'analyse est celui de la marge commerciale obtenue après déduction du
chiffre d'affaires réalisé par produit, des coûts directs et variables ainsi que des frais
fixes spécifiques de distribution.
Le 2ème niveau d'analyse est celui de la marge de contribution par produit. Pour
l'obtenir sans pénaliser la fonction commerciale, il suffit de soustraire de chaque
marge commerciale obtenue précédemment le coût standard direct de production.

III. LES PLANS MARKETING ET LES TABLEAUX DE BORD COMMERCIAUX

L'existence ou l'inexistence de ces documents dans l'entreprise permet déjà de juger


de la réalité de l'application des principes essentiels du marketing que sont la
planification et le contrôle.

Un plan de marketing est un document écrit dans lequel sont présentés les objectifs
commerciaux de l'entreprise ainsi que la nature, la programmation dans le temps et le
coût des moyens pour les atteindre. Le plan de marketing a généralement un horizon
de 3 à 5 ans, mais la précision avec laquelle les objectifs et les programmations de la
1ère année sont décrits pousse à distinguer le plan annuel du plan à moyen terme.

Un tableau de bord commercial regroupe un ensemble d'indicateurs mis à la


disposition d'un responsable de marketing afin de lui permettre de suivre la
progression des résultats d'un plan ou d'une action et de les comparer avec les
objectifs fixés. Sa fréquence de publication est variable (journalière, hebdomadaire
mensuelle, etc.) et son contenu varie selon le responsable auquel il est destiné.

La lecture de plans de marketing élaborés dans le passé est riche d'enseignements


sur la réalisation des objectifs que l'entreprise s'était fixée. La confrontation de ces
informations avec les indicateurs des tableaux de bord de la même période (nombre
de devis demandés de commandes fermes, marge par produit…) permet souvent de
mieux comprendre les raisons des écarts excessifs entre les prévisions (objectifs) et
les réalisations.

IV. LE FICHIER CLIENTS

Le fichier client est une source de connaissance de la clientèle d'une entreprise et


peut être à l'origine d'actions de marketing direct (par voie postale, par téléphone,
par télécopie, télex ou Internet) dont l'efficacité est bien connue.
Le fichier clients permet d'avoir des informations telles que le pourcentage des clients
nouveaux (indicateur du dynamisme commercial), le pourcentage de clients fidèles
(indicateur de satisfaction), le pourcentage de clients perdus (indicateur de manque
de compétitivité).

En croisant le fichier clients de l'entreprise avec les statistiques des ventes et des
marges, il est possible d'estimer, de mesurer la plus ou moins grande concentration
des ventes (loi des 20/80, analyse ABC, etc.), d'isoler les clients sur lesquels, il faut
faire plus d'effort marketing.
En comparant le fichier clients au journal des commandes, il est possible d'identifier
les clients endormis qui n'ont pas passé de commande depuis longtemps et qu'il
conviendrait de réveiller par une action de publicité directe.

Même les clients perdus ont leur intérêt marketing et le fichier clients est, une
excellente base de sondage pour réaliser une enquête d'image et de satisfaction
auprès de sa clientèle.
Malheureusement, seuls les détaillants ont généralement la possibilité d'avoir un
fichier de consommateurs finals (à l'aide de chèques, des cartes de clients privilégiés
donnant accès aux soldes privés, des loteries en magasin, etc.)

Si les producteurs souhaitent avoir un fichier de clients ultimes pour pouvoir mener
des actions de marketing direct ou des études d'images ou de satisfaction, ils
pourront utiliser plusieurs moyens: les concours et autres loteries "in" ou "on" pack
etc., sans toutefois espérer obtenir une parfaite exhaustivité.

V. LES RAPPORTS DES VENDEURS

En contact direct et permanent avec le marché, il est facile aux vendeurs de collecter
des informations utiles à l'entreprise. Lors des ses entrevues avec les acheteurs
potentiels, le vendeur en recueille nécessairement sur les motivations et les freins et
le processus de décision d’achat, sur la perception qu'ils ont de la marque, de son
image, de son positionnement par rapport aux marques concurrentes.

Il peut également apprendre beaucoup de la concurrence en faisant parler les


prospects, en ramassant la documentation (catalogues, tarifs, notice technique, etc.)
qu’elle a laissée chez des clients qui lui sont fidèles.
Etant considéré comme l'œil et l'oreille de l'entreprise, le vendeur est un élément
important du système d'information marketing (SIM).

VI. LES AUTRES MEMBRES DE L'ENTREPRISE

Tous les membres de l'entreprise, quels que soit leur spécialité et leur niveau
hiérarchique, peuvent contribuer à une meilleure connaissance de l'environnement de
l'entreprise et notamment de la concurrence. Les cadres, sont, toutefois, les mieux
placés pour cela dans la mesure où ils participent plus souvent que les autres à des
colloques, congrès, des stages de formation inter-entreprise, des réunions d'anciens
élèves de grandes écoles, des dîners d'affaires.

VII. LES RECLAMATIONS ET LES SUGGESTIONS DES CONSOMMATEURS

Aujourd'hui, de nombreuses entreprises , de tous secteurs et de toutes tailles, ont


compris que l'analyse des réclamations et des suggestions est un excellent moyen de
corriger les dysfonctionnements de l'entreprise qui génèrent des insatisfactions,
d'améliorer leur politique commerciale, voire d'innover et d'éviter une éventuelle
détérioration de l'image et des ventes.

C'est la raison pour laquelle, certaines entreprises ont confié l'analyse des
réclamations au service marketing en liaison avec le service contentieux ou
comptable. D'autres entreprises sont allées jusqu'à créer des services clientèles ou
services consommateurs.

VIII. LA BIBLIOTHEQUE DES ETUDES ANTERIEURES


Il faut consulter les études de marchés et audits marketing réalisés dans le passé
pour pourvoir comparer les résultats dans le temps.

IX. LES AUTRES SOURCES INTERNES

Des entreprises détiennent des informations dont elles ignorent ou méconnaissent


l'intérêt marketing.
Un homme de marketing chevronné doit les exploiter. On peut citer:

- L'organigramme de l'entreprise qui selon la place du département marketing


donnera une forte présomption sur la diffusion et l'importance de la culture
marketing ;

- L'organigramme du département marketing qui montrera ses véritables missions et


la subordination des services, ventes, publicité, etc.

- L'effectif du personnel marketing, la pyramide des âges, les niveaux de formation,


etc.
Si ces documents n'existent pas, le consultant cherchera à les reconstituer.

- Les services commerciaux et marketing(chiffres d'affaires, parts de marché, liste des


points de vente, publicités passées;

- Les services financiers et juridiques(fichiers facturation clientèle, coûts de revient


produit, délais de règlement, contentieux);

- Les services du contrôle qualité et logistique(rotation des stocks, délai livraison


taux de rebut et défauts, retours des produits);

- Les services des relations humaines et extérieures (coût du personnel et rotation -


journaux internes, dossiers de presse, rapports d'activité);

- Le livret d'accueil des nouveaux venus,


- Les manuels de procédures,
- Les rapports à l'assemblée générale des actionnaires,
- Les messages publicitaires dans les différents médias pour étudier l'évolution des
axes, des positionnements…
- Les articles journalistiques écrits sur l'entreprise (press book),
- Les catalogues de produits,
- Les barèmes de prix et d'écarts (remises, etc.),

Cette liste non exhaustive donne l'ampleur des informations internes qui permettent
de réaliser un diagnostic de l'entreprise elle-même.

SECTION 2: LES SOURCES EXTERNES

Elles sont hors de l’entreprise et permettent de recueillir aussi bien des informations
primaires que des informations secondaires.

Les sources externes sont:


- Les organismes mondiaux et communautaires, l’Etat, les ministères, INS
(Statistiques et indices macro-économiques, socio-démographiques, flux d'échanges
(import-export), analyses industrielles);

- Chambre de commerce, COB, Greffes tribunaux (Analyses sectorielles nationales et


régionales, études commerciales et financières, Bilans et compte de résultats (SA,
SARL);

- Centres de documentation, bibliothèques universitaires et communales(Ouvrages,


périodiques, Statistiques INS, rapports de stage, mémoires, thèses);

- Distributeurs (Prix des concurrents, présence linéaires, arguments de vente, PLV),

- Associations et syndicats, Professionnels (Chiffres d'affaires agrégés du secteur,


études de tendance, concurrence, produits, attentes des consommateurs, annuaires
professionnels);

- Salons, foires, expositions (Annuaire des exposants, tendance économique du


secteur, nouveaux produits) ;

- Presse professionnelle et presse des affaires (Etudes sectorielles et d'entreprises,


produits actuels et futurs, annuaires, classement d'entreprises;

- Presse d'entreprise (concurrents), journaux internes, dossiers de presse sur les


produits, rapports d'activité;

- Sociétés de conseils(Etudes sectorielles complètes, veille concurrentielle et


technologique)

SECTION 3. LES DIFFERENTS TYPES D’INFORMATIONS

On distingue les informations primaires, les informations secondaires et les


informations paramétrées.

I. LES INFORMATIONS PRIMAIRES

Ce sont des informations obtenuesdirectementauprès des intervenants sur le marché


et particulièrement auprès des consommateurs ultimes.
Ces données de "première main" sont collectées durant la phase de terrain d'une
étude quantitative ou qualitative ad hoc.

Exemples : Interviews de consommateurs, observations d'achats, etc.

II. LES INFORMATIONS SECONDAIRES

Ce sont des informations qui ont déjà été recueillies pour des études précédentes et
qui peuvent être utiles pour l’étude à réaliser. Elles préexistaient à l'étude, d'où leur
appellation de données de "seconde main". L'analyse documentaire se nourrit
d'informations secondaires.

Exemples : Statistiques de ventes, indices démographiques, analyses sectorielles,


tendances de conjoncture.

1. La procédure de l'étude documentaire


Elle suit une démarche séquentielle simple et efficace:

- La 1èreétape consiste à déterminer avec précision l'objet de la recherche en


s'aidant du "brief" écrit (ou cahier des charges ou lettre (envoyée) adressé aux
sociétés d'études par le commanditaire, etc.) et du pré- diagnostic de l'entreprise ;

- La 2ème étape revient à réfléchir aux notions et aux concepts contenus ou induits
par le problème posé et à isoler plusieurs mots-clés en usant de la logique et de la
créativité ;

- La 3ème phase est celle de la recherche des sources documentaires.

2. Les outils de la recherche documentaire

Ce sontles catalogues et les bibliographies, les références bibliographiques dans les


ouvrages et les revues, les bases et banques de données.

3. Les sources d'informations documentaires

Ce sont les organisations internationales, la chambre de commerce et d'industrie,


l'Institut National de la Statistique, les chambres de métiers, les sociétés d'études et
de conseils en marketing, les universités et leurs bibliothèques, les syndicats des
salariés, les associations des consommateurs, la presse nationale et étrangère
(spécialisée, professionnelle, syndicale et grand public).

4. Avantages et risques d'une analyse documentaire

4.1. Avantages
- Rapidité de réponse au problème posé,
- Simplicité d'analyse,
- Coût faible.

4.2. Risques

- Difficulté contrôler l'exactitude des sources,


- Couverture du sujet trop large ou trop partielle,
- Informations périmées.

III. LES INFORMATIONS PARAMETREES

Ce sont des informations qui sont obtenues après simulation de différentes réalités
possibles.
Introduites dans des modèles, leur variation permet de juger les résultats de plusieurs
scénarii. Les marchés-tests simulés fonctionnent avec ce type de données.

Exemples : Les modèles de simulation de part de marché, de média-planning, etc.

CHAPITRE 3.LES ETUDES QUALITATIVES


Dans le déroulement d'une étude de marché, l'étude qualitative précède
généralement l'étude quantitative pour deux (2) raisons principales:

- L'étude qualitative est souvent moins coûteuse et moins longue à effectuer qu'une
étude quantitative ;

- Elle favorise la formulation précise des hypothèses à vérifier, aide à l'identification


de toutes les dimensions du problème posé et, en outre, facilite la rédaction d'un
éventuel questionnaire d'enquête quantitative

SECTION 1. AVANTAGES ET INCONVENIENTS DES ETUDES QUALITATIVES

Une étude qualitative doit précéder une étude quantitative lorsque :

- Le chargé de l'étude a encore des difficultés à poser avec pertinence le problème


marketing ;
- Le chargé de l'étude ne sait pas ce qu'il doit chercher de façon précise.

Elle comporte des avantages et des inconvénients

I. LES AVANTAGES

- Elle est rapide à réaliser puisque les informations sont recueillies auprès d'un petit
nombre de personnes, de 10 à 50 maximum;
- Elle est moins coûteuse,
- Elle permet d'analyser un problème sans aucun à priori,
- Elle permet de faire l'inventaire des attitudes, des motivations, des comportements,
des processus de décision ;
- Elle permet d'étudier les niveaux les plus profonds de la conscience humaine:
subconscient et inconscient

II. LES INCONVENIENTS

- Les résultats obtenus auprès d'un échantillon non représentatif ne peuvent pas être
extrapolés à l'ensemble de la population. Ce ne sont que des hypothèses qu'il faudra
éventuellement vérifier par un dénombrement (ou des preuves d'existence qu'il
faudra quantifier avant d'en inférer l'importance);

- La qualité des données collectées dépend essentiellement de la compétence des


enquêteurs, qui, par, leur mauvaise influence, peuvent biaiser les résultats. Pour
éviter ce biais, il faudrait mieux recruter des enquêteurs ayant une expérience de la
non-directivité.

SECTION 2. LES DIFFERENTES TECHNIQUES D'ETUDES QUALITATIVES

Les techniques d’études qualitatives constituent un outil incomparable pour mieux


comprendre les ressorts d'une décision humaine.

Nées aux Etats-Unis dans les années 40, sous la conduite d'Ernest DICHTER, les
premières études qualitatives appliquées aux problèmes de marketing ont été
baptisées études de motivation.

On peut distinguer cinq (5) catégories d’études qualitatives :


- Les méthodes d'interview,
- Les techniques d'observation,
- Les techniques projectives ou d’association,
- Les techniques de créativité,
- Les échelles d'attitude.

I. LES METHODES D'INTERVIEW

Elles peuvent être classées en trois (3) catégories :

- Selon le degré de liberté de l’interviewé,


- Selon le nombre de personnes interrogées par entretien,
- Selon la distance séparant l’interviewer et l’interviewé.

Idéalement, l'enquêteur devrait être un psychologue qualifié, rompu aux techniques


d’approche, avec une attitude de compréhension et d'écoute de la personne
interrogée. L’entretien peut être individuel ou en groupe. Il peut être entièrement
enregistré au magnétoscope, au magnétophone oudactylographié avec mention des
silences, des répétitions qui seront ultérieurement interprétés. Ce document
permettra d'extraire des verbatims (extrait significatif du discours d'une personne
interrogée ou expressions significatives des thèmes évoqués), les gestes seront aussi
pris en compte lors de l'analyse de contenu.

1. Les techniques basées sur le degré de liberté de l’interviewé

Elles se basent sur la plus ou moins grande liberté laissée à la personne interrogée
par l'enquêteur
On distingue:

- Les entretiens non directifs, dits également libres ou en profondeur qui laissent la
grande liberté possible à l'enquête;

- Les entretiens semi-directifs au cours desquels l'enquêté devra aborder


spontanément ou après interrogation de l'enquêteur, un certain nombre de thèmes en
rapport avec l'objet de l'étude ;

- Les entretiens directifs qui s'appuient sur un questionnaire structuré composé


uniquement de questions ouvertes.

En pratique, pour gagner du temps, le chargé de l'étude peut recourir à des


techniques mixtes (entretien libre suivi d'un entretien semi-directif et enfin d'un
entretien directif) :

On commence par interroger librement son interlocuteur, puis on continue dès que le
thème de départ est épuisé, par un entretien semi-directif et on conclut par un
entretien directif.

Selon les objectifs de l'étude de marché, on peut choisir tel ou tel mode
d'interrogation suivant:

- Pour explorer un problème, on choisit l'entretien libre,


- Pour l'approfondir un problème, ou choisir l'entretien semi- directif,
- Pour la vérification et/ou le contrôle des résultats passés, on peut faire un entretien
semi- directif et entretien directif.

2. Les techniques basées sur le nombre de personnes interrogées par interview

Ici, on distingue les entretiens individuels (en face à face) des interviews de groupe
(réunions de groupe).
Alors que les entretiens individuels peuvent être libres, semi- directifs ou directifs, les
réunions de groupe (interviews de groupe) adoptent généralement l'interrogation
semi- directive et sont très souvent associées à des techniques projectives (tests
d'association libre, test d'association libre de mots, test d'association contrôlée de
mots, test d'expression, test de frustration, test d'aperception de thèmes ou T.A.T).

2.1.Les techniques individuelles d’interview

2.1.1. L'entretien libre individuelou en profondeur ou non directif

C’est un entretien au cours duquel l'enquêteur propose à un enquêté de développer


sa pensée et de s'exprimer librement sur un thème donné aussi longtemps qu'il le
souhaite et avec les mots qui lui viennent spontanément à l'esprit.

Durant l'entretien, l'enquêteur doit s'abstenir d'intervenir, se limitant à quelques


encouragements ou reformulations. Le but est de comprendre les systèmes de
valeurs, les motivations, les processus de décision du consommateur
L’entretien se déroule le plus souvent à domicile et dure de 45 mn à
une (1) heure en général. Les motivations personnelles, la subjectivitéapparaissent le
plus souvent au bout d'une dizaine de minutes.
L'entretien libre est surtout utilisé dans la phase d'exploration lorsque le chargé
d'études ignore tout ou presque de son champ de rechercher, y compris le
vocabulaire en usage quand il doit descendre dans les états de conscience les plus
profonds de ses interlocuteurs dans le cadre d'une étude de motivation par exemple.

2.1.2. L'entretien semi- directifou structuré ou guidé ou centré

L’entretien semi- directif est une interview au cours de laquelle après avoir proposé à
l'enquêté une consigne de départ, l'enquêteur doit obtenir les réactions de ce dernier
sur un certain nombre de thèmes.
L'enquêteur ne propose explicitement ces thèmes que si l'enquêté ne les aborde pas
spontanément, et cela sans respecter un ordre prédéterminé.

L’entretien semi-directif est très utilisé en marketing pour approfondir un domaine


donné.

Il faut éviter deux (2) écueils:

- Une trop grande directivité de la part de l'enquêteur qui le conduirait à proposer


non pas une grille de thèmes mais un questionnaire ouvert et donc, à trop imposer
son cadre de référence;

- Une trop grande liberté donnée aux enquêtés qui alors, n'aborderaient pas
suffisamment les thèmes sur lesquels le chargé d'études souhaite collecter des
informations utiles à la résolution d'un problème marketing précis.
2.1.3. L'entretien directif

Il se caractérise par l'administration d'un questionnaire standardisé et ordonné,


composé uniquement des questions ouvertes. A ces questions, l'enquêté répond aussi
librement et longuement qu'il le souhaite.
Le questionnaire est rédigé en respectant un certain nombre de principes: structuré
en entonnoir, il propose de plus en plus précises et impliquantes.

L'enquêteur ne se contente pas de poser les questions; il relance (« qu'entendez-vous


par (il manque de goût)? », « qu'est-ce qui vous faire dire cela? » « Pouvez- vous
préciser votre pensée? », etc.), il reformule (il transforme une affirmation de l'enquêté
en une question) et il synthétise.
Toutefois, s'appuyant sur un questionnaire formalisé, son rôle est plus facile bien qu'il
ait à veiller à ne pas trop induire les réponses de son interlocuteur déjà dirigé par les
questions elles-mêmes.

2.1.4. L’entretien papier crayon

Les questions sont ouvertes, mais standardisées et posées dans le même ordre à
toutes les personnes interrogées. Le domaine d'étude est donc assez bien connu au
départ ; l'objectif est de vérifier l'évolution des perceptions des enquêtés.
Cette formule est rapide et son coût est limité.
L’enregistrement des réponses est réalisé manuellement par l’enquêteur durant
l’interview (relevé papier-crayon), ce qui en accélère le traitement.

2.1.5.L’entretien par protocole

Dans un premier temps, la personne interrogée exprime ses attitudes face à un


produit ou à une marque. Puis, elle se rend dans son point de vente habituel avec
l'enquêteur et elle explicite sa démarche. Ceci permet la confrontation entre attitudes
et comportements.

2.2. Les techniques d’interview de groupe

Un groupe réunit 8 à 12 personnes qui ne se connaissent pas, pour une discussion sur
un thème donné. Les informations obtenues concernent un problème a caractère
collectif. Par exemple l'évaluation de plusieurs axes publicitaires pour le lancement
d'un nouveau produit.

Le chargé d'études peut souhaiter interroger, non pas une seule personne, mais
plusieurs personnes à la fois pour bénéficier des effets positifs du groupe sur l'auto-
exploration individuelle ou plus simplement pour gagner du temps.
La réunion de groupe estune méthode psychosociologique d'enquête qualitative qui
consiste à réunir des personnes pour une discussion animée par un animateur sur un
ou plusieurs thèmes donnés.
Son intérêt réside dans les échanges de vue entre les différents participants
(enchaînement et association des idées, etc.) et dans les phénomènes qui
interviennent dans un groupe d'individus (besoin de se faire remarquer, agressivité,
jeux de rôle, changement d'opinions par pression groupale, etc.). De cette dynamique
de groupe, le chargé d'étude espère en dégager un ensemble d'opinions, d'attitudes
et de motivations.

C'est pourquoi, la réunion de groupe est une méthode adaptée aussi bien pour une
étude préalable, notamment pour connaître le vocabulaire de la population à étudier,
ses stéréotypes, etc. que pour une étude de motivations profondes ou enfin, pour
tester une action commerciale (test de produits, pré-test publicitaires, etc.)
En fait, la qualité et la profondeur des informations collectées dépendent
principalement de la compétence de l'animateur, des personnes recrutées et des
conditions matérielles dans lesquelles elle se déroule.

Pour bénéficier des effets positifs de la dynamique de groupe, il est nécessaire que les
participants se sentent sur un même pied d'égalité. Dans le cas contraire, certains
d'entre eux étoufferont les plus faibles en particulier ceux qui auront peur d'être mal
jugés. Aussi, il faut éviter de mettre en présence des personnes trop inégales sur des
points pouvant entraîner des ségrégations.
En conclusion, le groupe doit donc être homogène, sur certains critères et
hétérogènes sur d'autres.

On distingue quatre (4) typesde méthodes d’interview de groupe :

- Le groupe de discussion,
- Le groupe de réflexion ou le Focus group,
- Le groupe nominal,
- La méthode Delphi

Toutes ces techniques, à l'exception de la méthode Delphi, présentent les points


communs suivants:
- Réunion simultanée de plusieurs personnes dans un même lieu,
- Présence d'un animateur,
- Enregistrement (manuel, audio ou vidéo) des informations.

On vous présente le panorama des méthodes de groupe ci après :

Types de Principes théoriques Applications et Taille - Durée


groupes objectifs
Groupe de Non directivité de Motivations et freins 4 à 8 membres
Discussion l'animateur Thérapie de groupe 3 à 4 heures
Projection de l'individu
Investigation non structurée -------------------------------- -------------------
Variante ---------------------------------------- Formulation 4 à 8 membres
Interview de groupe d'hypothèses 3 à 4 heures
non directivité de apprentissage d'un
l'animateur vocabulaire
plusieurs thèmes abordés
Groupe de Dynamique des groupes
Réflexion restreints Recueil d'éléments 6 à 12
ou d'image membres
"Focus group" Investigation semi-structurée Identification des axes 2 à 4 heures
Un seul thème familier au d'un problème
groupe Apprentissage d'un
Groupe familier avec le vocabulaire ------------------
variante thème --------------------------------
---------------------------------------- 3 à 4 membres
Mini groupe recherche d'idées et de demi à une
Alternance de phases non solutions journée
Structurées et structurées motivations et freins complète
variante Groupe familier avec le -------------------
thème --------------------------------
---------------------------------------- 5 à 10
Groupe de créativité Recherche d'idées et membres
Expertise des membres de solutions 1 à 2 jours
réduite
Investigation non structurée

Groupe Dynamique des groupes Génération de critères 8 à 12


Nominal restreints de choix d'un produit membres
(TGN) Réduire la domination de Recueil d'éléments 1 à 2 heures
l'individu d'image
Investigation très structurée Recherche d'idées
Phases de groupes et
individuelles
Un seul thème familier au
groupe

Prévision par l'expertise 8 à 12


Recherche d'un consensus Prévision à long ou membres
Groupe Forte expertise des membres moyen terme 3 mois
Delphi Investigation très structurée (technologie) plusieurs
Les participants ne sont Evaluation d'image de étapes
jamais en présence les uns marque et critères de
des autres. Par exemple, choix
dans le domaine de la mode,
les experts vont exprimer,
par écrit individuellement,
les tendances, les prévisions,
les opinions sur les tissus,
les contenus ou les motifs.

Le groupe Delphi, le groupe nominal et le Focus group sont les plus structurés et les
plus directifs.
Pour les deux (2) derniers, l'animateur dispose d'un "plan d'animation" ou guide
d’animation listant les principaux points à aborder. Pour la méthode Delphi, il
s'agit d'un questionnaire structuré complet.

Le groupe discussion et le groupe de créativité sont peu ou pas structurés. La non-


directivité de l'animateur est la règle la plus fréquente.

Les qualités demandées aux participants d'un groupe diffèrent également selon les
méthodes:

- Expertise relative au problème à résoudre: elle est vitale pour la réussite de la


méthode Delphi;

- Familiarité préalable avec le problème posé ou le sujet de la réunion: elle est


requise pour participer à un groupe de discussion, un Focus group, un groupe
nominal ou un mini-groupe de créativité;
- Distance par rapport au sujet de la réunion: elle est nécessaire pour la plupart des
groupes de créativité.
2.3. Réunion de groupe ou entretien individuel?

Il est difficile de répondre à cette question avec précision, car on dispose peu
d'éléments solides pour trancher.

3. Les techniques basées sur la distance séparant l'interviewer et l'interviewé

En raison des forts coûts en argent et en temps des entretiens en face à face,
individuels ou en groupe, sont apparus ces dernières années, les entretiens à
distance.
Les entretiens individuels se font parfois par téléphone. En plus de leur intérêt
économique, les entretiens qualitatifs par téléphone permettent, dans certains cas
d'obtenir des réponses plus sincères et plus intimes que si l'interrogation se faisait en
face à face.

Cet effet positif dépend, de la population interrogée et des sujets abordés.


Des techniques de réunions à distance sont actuellement utilisées: la télé réunion et
la diade par téléphone.

II. LES TECHNIQUES D'OBSERVATION

1. Les avantages de l'observation

- L'observation est souvent la seule méthode de possible par exemple si l'on ne


souhaite pas prévenir les individus observés parce que l'on craint de provoquer des
modifications dans leur comportement, ou en cas de différence de culture et de
langue séparant l'observation de l'observé;

- L'observation permet de mettre en évidence des décalages importants entre ce que


les personnes disent et ce qu'elles font, des différences sensibles entre les opinions,
les attitude les intentions d'achat ou les anticipations verbales de comportement
recueillies par enquête (qualitatives et/ou quantitative) et les conditions effectives de
ces mêmes personnes.

2. Les différents types de techniques d'observations

Certaines techniques s'attachent à observer tout le comportement alors que d'autres


ne s'intéressent qu'à un aspect du comportement, d'où la distinction entre techniques
globales et techniques moléculaires.

Exemple de techniques globales ou molaires: enregistrement audiovisuel par camera


invisible d'une personne en train de choisir un article dans un rayon.
Exemple de techniques moléculaires: le comptage des articles de prêt à porter
essayés par un client avant qu'il fasse son choix.

- Certaines observations se font en situation naturelle tandis que d'autres se font dans
une situation artificielle;
- Certaines observations se font en toute discrétion tandis que l'autre nécessitent le
consentement de l'observé afin qu'il accepte la présence, soit de l'observateur, soit
d'un instrument, soit des deux

- Certaines observations se font au moyen d'instruments de mesure tandis que


d'autres reposent uniquement sur les constatations de l'observateur (exemple
d'instrument de mesure: le chronomètre).
Cela permet de distinguer :
- L’observation simple,
- L’observation verbalisée,
- L’observation appareillée.

2.1. L’observation simple

2.1.1. Le relevé direct

Cette technique se pratique sur les points de vente. L'unité observée peut être de
trois types: l'enfant, un adulte, un distributeur. L'observateur dispose d'une grille qui
récapitule les variables devant être mesurées, par exemple: nombre de marques
manipulées, temps de réflexion avant l'achat, nombre de produits et marques
référencés, prix pratiqués, etc.

2.1.2. Le suivi de comportement

Cette méthode d'observation consiste à suivre un acheteur, généralement à son insu,


et à consigner sur une grille pré-établie les différents faits étudiés. L'utilisation d'une
caméra vidéo facilite la collecte et accroît la fiabilité des observations puisqu'il est
possible, en cas de doute, de visionner plusieurs fois l'enregistrement.

Ces techniques sont utiles dans le cas d'études portant sur l'achat familial.
L'observation en laboratoire ou à domicile est particulièrement précieuse pour guider
la création et le développement de nouveaux produits.

N.B. Il est important de noter que d'un point de vue déontologique, il est interdit de
pratiquer l'enregistrement d'une observation, par quelque moyen que ce soit, sans
l'assentiment exprès de la personne concernée. Cependant, cet accord peut être
obtenu postérieurement à l'interview.

2.2. L’observation verbalisée

Ce type de technique combine l'observation simple et l'interview en profondeur.


L'observateur demande au sujet de "penser à voix haute" durant la tâche requise par
l'étude. Cette méthode est utile pour comprendre les mécanismes d'achat du
consommateur: croyances vis-à-vis des marques, nombre de marques comparées
avant l'achat, connaissance des critères de choix d'un produit, mode de traitement
des informations.

La méthode se pratique généralement sur le point de vente: l'observateur prend


contact avec l'individu à l'entrée du magasin, puis l'observe durant toutes ses
opérations d'achat. L'observateur cherche à se faire oublier le plus possible du
répondant, et n'intervient éventuellement que par des relances simples, du type "quoi
d'autre encore? Que vous vient-il d'autre à l'esprit?" Il se contente d'enregistrer, ou de
noter, scrupuleusement toutes les informations fournies à voix haute par les
répondants.

2.3. L’observation appareillée

Avec les techniques précédentes, c'est l'homme qui évalue les différentes valeurs des
variables de l'étude: par exemple, il note la durée de réflexion avant un achat, le
nombre de critères utilisés, etc. Avec la famille des observations appareillées, c'est un
système électrique, mécanique ou électronique qui établit directement les valeurs
devant être enregistrées. Ces mesures présentent l'avantage d'être objectives et
fiables.

3. Observation ou interview?

Ces différentes techniques montrent que les domaines d'investigation où l'observation


peut se substituer à l'interview sont larges. Elles sont particulièrement utiles dans
deux (2) situations:

- L'observation est la seule méthode envisageable


C'est le cas lorsque le langage est incompréhensible par exemple pour l'étude des
comportements animaliers (" l'éthologie") ou le suivi de très jeunes enfants.

- L'observation est un mode d'approche original de l'activité humaine

Elle permet d'aller plus avant dans la compréhension d'un comportement, notamment
lorsque les techniques classiques d'interviews sont douteuses. L'observation directe
identifie des comportements complexes, tels que ceux liés à la conduite automobile.
De même, l'observation du mouvement des yeux offre une voie intéressante pour
déterminer quels sont les éléments d'une publicité qui sont vus en premier.

SECTION 3. LES TECHNIQUES OU TESTS PROJECTIFS OU D'ASSOCIATION

Largement utilisées et régulièrement développées par les psychologues, ces


méthodes ont été appliquées dans les études de marché vers 1950. Elles reposent sur
l’hypothèse que face à une situation donnée ( achat ou occasion de consommation),
l’interviewé interprète les informations en se fondant sur ses propres préoccupations,
en se fondant sur ses propres préoccupations, besoins et valeurs, généralement
inconscientes.

Les tests projectifs sont administrés lors des entretiens individuels ou au cours de
réunions de groupe. Tous les tests reposent sur l'acte perceptif d'un support qui sert
de stimuler ce support est soit verbal, soit graphique, soit matériel et tangible ;

I. LES TESTS D'ASSOCIATION LIBRE

Ils sont les moins coûteux et ils ont soit un support verbal, soit un support matériel.
Dans un premier cas, l'enquêteur pose une question telle que: "si je vous (identifier),
à quoi pensez-vous?

Dans le second, il présente un objet, un produit, un logotype, un conditionnement,


une marque, une photographie, un dessin à un individu ou à un groupe d'individus et
ou recueille les commentaires.
Exemples:

"Si ce produit était une personne, de quel sexe serait- elle? Décrivez-la!
Que ferait- elle la vie? (Personnification du produit).

"Quelle ambiance convient le mieux à ce produit? A sa consommation?"


(Environnement relationnel et percepteur du produit, fantasmes liés au produit).

"Quel objet y associez-vous?"

II. LES TESTS D'ASSOCIATION LIBRE DE MOTS

L'enquêteur demande aux interviews de citer les premiers mots (nom, verbes,
adjectifs) qui leur viennent à l'esprit à l'énoncé de mots inducteurs.

Exemple:

- Quand je vous dis "yaourt", quel est le 1 er mot qui vous vient à l'esprit?
- Quel est l'adjectif qui convient le mieux à la marque x ?
Les réponses dévoilent les tendances profondes de l'individu, ses préoccupations, ses
craintes, ses désirs, sa personnalité.

La technique du portrait chinois très souvent employée dans le cadre d'une étude
d'image ou d'une réunion de créativité notamment par les publicitaires est une
technique d'association dérivée. Elle consiste à demander au participant d'associer un
objet, une marque, etc. à un élément d'un unis commun.
Cette technique projective peut être proposée dans le cadre d'un sondage.

III. LES TESTS D'ASSOCIATIONS CONTROLEES DE MOTS

L'enquêteur présente une liste de qualificatifs et une liste de marque à l'interview


auquel il est demande d'indiquer le mot correspondant le mieux à chaque marque. Ce
test est souvent employé lors d'études d'images

IV. LES TESTS D'ASSOCIATIONS CONTROLEES D'IMAGES

On remet aux personnes interrogées de photographies ou des dessins sur des


cartoons représentant des éléments d'un univers connu (par exemple: l'homme
d'affaire le petit employé, le JCD, le père de famille, l'agriculteur, le fils à papa,
l'étudiant, etc.) ainsi que des photographies des éléments de l'univers à étudier (par
exemple des marques de voiture). Puis, on demande aux répondant de disposer les
cartes de l'univers connu devant celle de l'univers à étudier auxquelles celles -ci leur
font penser.
Les associations sont alors interprétées et permettent parfois de mettre en évidence
des jugements inconscients.

V. LES TESTS D'EXPRESSION OU DE PHASE A COMPLETER

Ces techniques consistent à faire terminer par les personnes interrogées une courte
histoire inachevée ou une phrase sans fin. Elles sont d’utilisation aisée et donnent
d’excellents résultats lorsque le chargé d’études a pris la précaution de tester les
stimuli eux-mêmes avant de les proposer.
VI. LE TEST D’APERCEPTION DE THEMES (T.A.T)

Le Thematic Apperception Test a été conçu et développé par MURRAY, en 1943, aux
Etats-Unis.
Dans cette technique, une série de tableaux, de planches, de dessins, de
photographies, etc. ; choisis et souvent créés spécialement pour l’étude de marché,
est présentée à l’enquêté. Celui-ci doit interpréter ces images, généralement
ambiguës et de signification imprécise, pour éviter l’induction des réponses. Il décrira
la situation d’ensemble et imaginera les sentiments, les pensées, etc. de chaque
personnage présent à l’écran ainsi que ce qui s’est passé avant ou après la scène
représentée

VII. LES BANDES DESSINEES

Ce type suit la même logique que le TAT. La différence réside dans l’introduction
d’une série d’images, généralement quatre, que l’interviewé doit relier entre elles,
afin de former une seule histoire. Cette méthode a été introduite en psychologie vers
1950. Les principes d’administration et d’analyse sont identiques à ceux du TAT de
Murray.
Assez peu appliqué aux études de marché, cette variante du TAT pourrait offrir
d’intéressantes perspectives pour des enquêtes réalisées auprès de jeunes enfants.
L’utilisation d’un support de communication familier des enfants favoriserait leur
adhésion au sujet de l’étude et accroîtrait la production globale d’information.

VIII. L’AUTOPORTRAIT PHOTOGRAPHIQUE

Cette méthode a été récemment introduite comme technique d’investigation


marketing sous le nom d’« Autodriving ». L‘« Autoportrait photographique » demande
aux sujets de se décrire eux-mêmes à partir de photographies les représentant durant
une activité quelconque (repas, sport, hobbies…).

IX. LA LISTE D’ACHATS

Au lieu de dessins ou de photos, comme dans le test du TAT, cette méthode utilise
une « liste de commissions » censée avoir été rédigée par une ménagère. Cette liste
est composée de marques de produits alimentaires courants, tels que fruits et
légumes frais, poissons, pâtes, viande, etc. L’expérimentateur bâtit une autre liste,
identique à la précédente, sauf qu’elle contient la marque testée. On demande
ensuite au répondant d’imaginer et de décrire la personne ayant acheté l’une des
listes de produits. Cette méthode cherche à faire apparaître les motivations cachées
que les méthodes les plus directes n’auraient pu mettre à jour.

X. LE QUESTIONNAIRE CHINOIS

Aussi appelé « portrait chinois », il consiste à demander à un sujet de se décrire lui-


même, ou un objet de son entourage.

XI. LA PALETTE SYMBOLIQUE

Cette technique consiste à amener l’interviewé à sélectionner les yeux fermés, parmi
un ensemble de tissus disposés en cercle autour de lui, la matière qui lui semble le
mieux correspondre à l’image de l’entreprise ou d’un produit. Les tissus proposés
(laine, soie, coton, synthétique, etc.) servent de support pour exprimer des relations
affectives vis-à-vis d’un produit. D’autres variantes utilisent les différents sens de
l’individu : on peut proposer une palette de parfums, de goûts, de couleurs, de
morceaux de musique ou de formes de visage.

XII. JEUX DE ROLES (psychodrames)

Ils consistent à faire jouer par des individus un rôle, plus ou moins relié à leurs
habitudes quotidiennes.
Des cabinets d’études proposent le psychodrame pour analyser l’image d’une
marque, pour détecter de nouveaux axes publicitaires, pour rechercher de nouveaux
produits, etc.

XIII. DESSINS ET GRAFFITIS

Ils consistent à demander à des personnes de dessiner ou de gribouiller pour exprimer


leurs sentiments ou leurs relations vis-à-vis d’autres personnes ou objets.

SECTION 4. LES TECHNIQUES DE CREATIVITE

I. LE BRAINSTORMING

De loin la méthode la plus connue, le brainstorming a été développée par Alex


OSBORN aux Etats-Unis dans le courant des années 1950. Le principe de base
consiste à réunir une dizaine de personnes, sous la conduite d’un meneur de jeu et
d’un adjoint qui joue le rôle de secrétaire.

II. LA MATRICE DE DECOUVERTE

Cette méthode peut s’appliquer au plan individuel ou être introduite au cours d’une
discussion de groupe. Formalisée par Abraham MOLES, cette méthode consiste à
« rechercher l’interaction de deux listes l’une sur l’autre, et à examiner les problèmes
- plus exactement les cellules- qui émergent d’une classification à double entrée ».

III. L’ANALYSE DES FONCTIONS

1. L’analyse morphologique

Développée par F. ZWICKY et M. ALLEN, la méthode généralise le système matriciel


précédent. Elle consiste à décomposer un problème en grandes fonctions, à examiner
toutes les liaisons entre leurs composantes, puis à trouver tous les éléments connus,
capables de remplir ces fonctions.

2. L’analyse fonctionnelle

Elle se fonde sur l’observation du produit, complétée par un questionnaire administré


auprès des consommateurs.

IV. LES ANALOGIES

1. La synectique (analogies de GORDON)

La synectique évoque l’imbrication d’éléments différents et combine des disciplines


hétérogènes.
2. Le rêve éveillé

Cette technique procède comme suit : Allongé dans une demi-obscurité, un groupe de
6 à 7 personnes suit les directives d’un animateur. La séance dure environ deux (2)
heures et commence par une concentration sur des images suggérées par
l’animateur. Le sujet de la réunion est alors progressivement introduit : par exemple,
« imaginer la voiture de demain », « le lieu de vacances idéal », « l’ordinateur le plus
fabuleux ». Absence totale de critique, fantaisie, évocation de scénarii de rêve et
relaxation sont les mots-clés de cette technique.

3. Le concept (étude de motivation créative)

Proposé par Michel FUSTIER, le concept est une représentation imaginaire de


personnes ou d’objets, appuyée par des séries d’analogies contradictoires. Le concept
peut être utilisé pour mettre à jour les composantes d’une image de marque ou pour
étudier les motivations d’achat d’un produit. Son application principale est surtout liée
à la recherche créative pour des nouveaux thèmes ou des axes de campagne de
communication.

SECTION 5. LES ECHELLES D'ATTITUDE

L'attitude peut se définir comme une tendance ou une prédisposition à évaluer d'une
certaine façon un objet ou le symbole lié à cet objet.

L'attitude, d'origine subconsciente, peut se manifester par des croyances, des


sentiments ou des comportements, ainsi, même s'il est avéré que l'attitude seule ne
détermine généralement pas directement un comportement, elle intéresse la
recherche marketing car elle fournit des éléments d'analyse précieux.
Par exemple, elle permet de révéler:

- Ce que les gens savent et pensent d'un produit (croyances et connaissances:


composante cognitive);
- Quelle attirance ou répulsion ils ressentent vis-à-vis d'une marque (sentiments:
composante affective);
- Ou encore quelles sont leurs intentions d'achat face à telle ou telle offre
(composante conative).

L'attitude oriente notamment la perception, la mémorisation, l'apprentissage, la


réaction ainsi que la construction de nouvelles attitudes. Par rapport à l'opinion,
l'attitude se situe à un niveau de profondeur plus important. De plus, elle se
caractérise par une constance relativement grande.
L'évaluation des opinions est une des manières d'appréhender les attitudes.
En fait, une opinion se caractérise par trois éléments: son objet, sa direction et son
intensité.

Exemple commenté: "j'adore les chats"

- Son objet: le contenu, le sujet (dans l'exemple, sentiment par rapport aux chats),
- Sa direction (valence, signe): ignorance-connaissance, favorable-défavorable,
action-inaction (dans l'exemple, sentiment favorable);
- Son intensité (force, puissance): distance par rapport aux situations d'indifférence
ou d'indécision (dans l'exemple, sentiment extrêmement favorable).
La nature de l'attitude est fondamentalement qualitative et les échelles d'attitude
mesurent l'intensité des opinions recueillies au cours d'une étude.

En recherche marketing, les échelles les plus utilisées et les plus faciles à mettre en
œuvre sont principalement la sémantique différentielle de Charles OSGOOD et
l'échelle additive de Rensis LIKERT.

1. La sémantique différentielle d'OSGOOD

Le principe de cette technique consiste à demander aux personnes interrogées de


définir les caractéristiques d'un élément donné (marque, produit, consommateur, etc.)
en plaçant cet élément sur une droite graduée comprise entre deux pôles extrêmes
formés par des mots de sens opposé.

Exemple illustratif simplifié: une personne interrogé a situé de la façon suivante trois
marques concurrentes "X", "Y" et "Z" sur les échelles proposées:

La graduation proposée est généralement constituée de 7 intervalles égaux (ou


supposés comme tels), d'intensité croissante ou décroissante, entre les deux
propositions antinomiques. A chaque intervalle, on fait correspondre une valeur
numérique, par exemple de 1 à 7 ou de -3 à +3, en vue d'effectuer des calculs
statistiques ultérieurs.
Exemple:

Le produit "A" est

SolideFragile

1 2 3 4 5 6 7
L’une ou

Valeurs l'autre

3 2 1 0 -1 -2 -3 échelle

Extrêmement Extrêmement
SolideFragile

Très solide Très fragile

Assez solide Assez fragile


pas d'opinion
Commentaire: dans l'exemple de la page précédente, la personne interrogée a jugé la
marque "Z" comme étant "Extrêmement haut de gamme" "très innovante" "assez
sophistiquée" et "assez fiable".

Au lieu d'utiliser seulement des couples de qualificatifs formés d'un mot unique, on
peut se servir de propositions descriptives plus complexes.

Exemple : "Facile à réparer soi-même"


"Difficile à réparer soi-même"
La sémantique différentielle est particulièrement bien adaptée pour étudier:
- Les images de marques ou de produit car elle permet d'apprécier à la fois les
composantes des attitudes et leur intensité comparée;
- Les attributs caractéristiques de consommateurs selon le type de marque (et/ou de
produit) utilisée ;
- Les changements d'attitudes (notamment après une action ce communication).

2. L’échelle additive de LIKERT

Le principe de l'échelle de LIKERT est de faire cocher par le répondant la case qui
correspond à son degré d'approbation face à une opinion donnée. En général, le
nombre de degré est égal à cinq (5) et une valeur est attribuée à chaque degré.

Exemple: si l'on vous dit: "la marque "X" offre une gamme de produit très large,
vous êtes:

Tout à fait d'accord (5 points) ou (+ 2 points)


Plutôt d'accord (4 points) ou (+ 1 point)
Sans opinion (3 points) ou ( 0 point)
Plutôt pas d'accord (2 points) ou (- 1 point)
Pas du tout d'accord (1 point) ou (- 2 points)

Les items correspondent aux propositions sur lesquelles le répondant doit exprimer
son opinion (dans l'exemple précédent, l'item est: "la marque "X" offre une gamme de
produits très large").

SECTION VI. L’ANALYSE DES DONNEES QUALITATIVES

Le méthodes les plus utilisées sont : le résumé, l’analyse de contenu et l’analyse


sémiologique.
Si le chargé d’études ne dispose que de quelques notes prises par les enquêteurs, par
exemple dans le cadre d’entretiens papier,la seule technique d’analyse sera le
résumé.
En revanche, lorsque le chargé d’études a le matériel qualitatif, dans son intégralité,
sous forme soit de bandes enregistrées sonores ou audiovisuelles, soit d’une
retranscription, mot à mot, des interviews, il peut envisager d’utiliser une analyse de
contenu ou l’analyse sémiologique.

I. LE RESUME

Pour dégager les idées principales exprimées par les personnes interrogées (leurs
attitudes, leurs attentes, leurs motivations, etc.) et leurs relation mutuelles, sans trop
de risques de subjectivité et de mauvaises interprétations, les deux seuls moyens
possibles, mais malheureusement imparfaits, consistent, d’une part à confier ce
travail à au moins deux analyses individuelles, d’autre part de leur imposer une
méthodologie qui permettra des comparaisons.
Celle que nous conseillons repose sur une triple lecture :
- Une première lecture des notes prises pour avoir une vision d’ensemble
- Une deuxième lecture des notes, plus analytique, permet d’isoler les unités de sens,
les idées thématiques, l’analyste trace une barre verticale à chaque changement
d’unité de sens.
- La troisième lecture conduit à analyser chaque unité de sens, à souligner l’idée
directrice et les expressions qui mettent en évidence chaque argument, à mettre
entre crochets ce qui n’a pas beaucoup d’intérêt.
Ce travail de préparation limite sensiblement la subjectivité d’une première et unique
lecture et permet, en cas de désaccords entre les analystes, des confrontations non
pas seulement sur la rédaction du résumé mais sur les idées retenues, les
découpages, etc.
L’analyse et la rédaction en elle-même sont facilitées lorsque le matériel qualitatif a
été constitué à l’aide de guides d’entretien (en semi-directivité). Les thèmes de ces
derniers servent, en effet, de canevas, de plan, d’analyse et de rédaction.
Dans un résumé, les phrases les plus significatives, appelées verbatim, sont reprises
entre guillemets et les avis de tous les répondants doivent figurer même s’ils se
contredisent. Les relations mutuelles entre les différentes opinions, les différentes
motivations, les avis divergents, etc. sont alors à mettre en relief.
La rédaction d’un résumé est souvent nuancée par des ‘’la plupart’’, ‘’la grande
majorité’’ , ‘’toutefois, l’un d’entre eux’’…
L’homme de marketing est parfois gêné par ces nuances, ces contradictions parce
qu’il ne sait pas exactement ce qu’il doit en conclure et, surtout, ce qu’il doit décider.
Il n’en demeure pas moins vrai que la technique du résumé est la plus simple, la plus
rapide et la moins coûteuse des techniques d’analyse. Elle est donc très souvent
utilisée, y compris, lorsque tout le matériel qualitatif est disponible pour préparer
l’analyse de contenu, voire pour agrémenter de commentaires les tableaux et les
calculs de fréquence qui en découlent.

II. L’ANALYSE DE CONTENU

Dès lors que le chargé d’études dispose de l’intégralité du discours des répondants,
qu’il souhaite une analyse plus rigoureuse et des conclusions moins contradictoires,
donc plus opérationnelles que celles qu’il trouve généralement dans un résumé, il doit
envisager de réaliser une analyse de contenu.
L’analyse de contenu est un ensemble de techniques dont l’objet est la description
objective et systématique du contenu des données qualitatives afin d’obtenir des
indicateurs quantitatifs ou non permettant l’inférence.

C’est une technique d'analyse d'un "discours" (article, interview document, etc.)
fondée sur un ensemble de procédures structurées. Elle permet de justifier les
jugements portés sur l'émetteur du discours, sur le message lui-même, et le cas
échéant, sur l'audience du message.
Elle n'est pas une technique exclusivement réservée à l'entretien individuel, mais
peut tout aussi bien servir à analyser une réunion de groupe qu'à décoder un
message publicitaire.

Le programme complet exige sept étapes successives

- Transcription des entretiens,


C'est un travail long et fastidieux, mais indispensable pour la suite du processus.
Cette mise à plat doit respecter exactement le discours de l'interviewé: tous les
lapsus, répétition, silences sont fidèlement reportés par le transcripteur.

- Définition de l'unité d'analyse,Ce choix majeur découle directement de l'objectif


poursuivi par l'étude, et est important à un double titre: il détermine la nature du
schéma de codage permettant interprétation du discours, et conditionne le choix des
indices de quantification. Les trois niveaux les plus fréquemment utilisés sont:
- Le mot: c'est l'unité primaire d'analyse. Par extension, on peut élargir ce niveau aux
synonymes. Cela suppose la création de tables d'équivalence. Ce choix peut être
intéressant pour l'analyse d'une campagne publicitaire, le recensement de
caractéristiques de produits ou de marques, ou encore pour la construction d'un
questionnaire nécessitant un vocabulaire technique.

- Le thème: c'est un groupe de phases jugées équivalentes, car faisant référence à


des situations, à des objectifs ou des concepts proches. Il est possible d'affirmer ces
thèmes en développant une arborescence fondée sur des sous-thèmes successifs. Les
études d'image de marque, d'usage produit adoptent souvent cette solution.
Le tableau suivant récapitule les principaux types d'analyse de contenu pratiqués
selon l'unité de traitement retenu.

Type d'analyse Unités Exemples d'indicateurs de


quantification
Analyse syntaxique Mots, phrases Structure du discours;
Ex: temps, mode des verbes
Nature et richesse du
Analyse lexicale Mots, phrases vocabulaire
Ex: Fréquence
d'association, nombre
moyen de mots par phrase
Découpage par thèmes:
Analyse thématique Phrases, paragraphes, Ex: fréquence d'apparition
thèmes des thèmes, fréquence
d'association

N.B. Dans une étude de marché, l'analyse thématique est la plus fréquente,
complétée éventuellement par l'analyse lexicale.

1. La construction de la grille générale

L’objectif est de créer une grille de dépouillement applicable à l’ensemble des


interviews. La construction se fait par tâtonnements successifs et vise à identifier et
dénommerles rubriques.

2. La codification des interviews et remplissage de la grille

Une bonne codification des interviews doit être fiable, c'est-à-dire que la même grille
utilisée par deux codeurs différents doit conduire à des affectations aussi proches que
possible. Le degré de fiabilité du codage entre deux analystes peut être calculé avec
la formule suivante

Nombre d'accords sur les classifications


Coefficient de fiabilité =
Nombre total de classifications de la grille

On estime que ce coefficient doit être au moins égal à 0,90


Lorsque toutes les interviews ont été codifiées, on établit une feuille de synthèse, à
partir des éléments les plus significatifs de chaque entretien.

3. L’analyse thématique ou lexicale

Elle se décompose en analyse verticale et horiontale :

- L’analyse verticale est un traitement intra-interview, c'est-à-dire conduit au sein


d'une même interview. L’analyse retrace l'ordre d'application des thèmes, puis se
concentre sur les catégories les plus souvent évoquées ou omises par le répondant.
En dernier lieu, le chargé d'études établit une fiche de synthèse sur chaque interview;

- L’analyse horizontale est une opération transversale qui a pour but d'établir
comment chaque élément figurant dans la grille a été abordé par l'ensemble des
interviewés. Cette analyse est précieuse parce qu'elle constitue la base du rapport de
synthèse de l'étude qualitative. On repère ainsi les catégories et sous-catégories les
plus fréquentes sur l'ensemble des interviews; on compare la richesse du vocabulaire
utilisé, le nombre de synonymes employés selon les catégories, les enchaînements les
plus courants entre les catégories etc.

4. La quantification avec l’utilisation d'indices

Deux (2) calculs d'indices sont fréquents: la fréquence d'application et la fréquence de


concomitance

4.1. La fréquence d'application

C'est la mesure de base utilisée dans l'analyse de contenu. Elle consiste à


comptabiliser le nombre de fois où une même catégorie (mots, phrases, thèmes) a été
évoquée par un même interviewé (analyse verticale), ou sur l'ensemble des
interviewés (analyse horizontale).
Pour comparer les poids respectifs de chaque catégorie, on calcule le rapport suivant:

Nombre de fois où la catégorie i est évoquée

Nombre total d'évocation

De la même façon, on calcule les fréquences d'application sur la base de l'analyse


horizontale: cela permet de comparer, sur l'ensemble des interviewés, les différents
poids des catégories. En d'autres termes, on cherche à savoir quels sont les mots,
phrases ou thèmes qui reviennent de plus souvent auprès des interviewés.

Cependant on peut tester, au sein de l'échantillon, la pertinence des classements


proposés par l'analyse horizontale. Les tests non-paramétriques (voir chapitre 11)
permettent de valider des différences observées ou des associations entre deux
variables, dans le cas d'échantillons de très petite taille (inférieure à 20 personnes.
Par tailleurs, le calcul des fréquences en analyse verticale garde tout son sens,
puisqu'il se déroule sur une même interview. Ainsi il sera possible, toujours grâce aux
tests non-paramétriques, de dire que; pour une interview donnée, tel thème ou tel
mot revient plus souvent qu'un autre.
4.2. La fréquence d'association ou de concomitance

Le principe consiste à relier les catégories qui se précèdent ou se succèdent durant le


discours d'un individu, puis à comptabiliser leur fréquence d'association: tout comme
le calcul des fréquences d'application, l'analyse des associations peut se faire à
différents niveaux de catégories: mots phrases, thèmes. Cette analyse permet de
découvrir les différents sens d'une même catégorie, les contextes dans lesquels les
enquêté l'emploient et les enchaînements logiques existant entre deux catégories.
L'analyse peut ainsi aisément.

Il existe diverses techniques pour construire des matrices d'associations, mais ces
analyses sont extrêmement lourdes si elles sont menées à la main. C'est la raison
pour laquelle de plus en plus de programmes informatiques sont conçus pour générer
directement ces associations. L'analyse factorielle des correspondances, présentée
dans le chapitre 13, offre la possibilité de prolonger ces analyses: la matrice
d'associations permet de visualiser dans un espace géométrique la proximité des
unités analysées (mots, thèmes).

5. Le rapport de synthèse

C'est le document remis au demandeur de l'étude.

III. L'ANALYSE SEMIOLOGIQUE

Elle cherche a identifier et à interpréter directement les signes émis par un émetteur
(exemple: le message émis par une marque) ; elle ne cherche pas à étudier
l'interprétation, la perception de ces signes par le public auquel ils sont destinés.
L’expert en sémiologie (ou sémiotique) exprime les relations entre les signes (ou «
signifiant») et le sens (ou « signifie») ; il décode, analyse un message,
indépendamment de la façon dont celui-ci est reçu. Une telle analyse dépend de la
compétence de celui qui la réalise et permet d'émettre des hypothèses à vérifier, par
exemple, à l'aide d'une enquête par sondage.

CHAPITRE 4.LES ETUDES QUANTITATIVES

L'objectif majeur des études quantitatives réside dans la volonté de "compter et


comparer pour décider" par abus de langage, les technique quantitatives sont souvent
appelées sondage, alors que, d'un point de vue statique, le sondage n'estqu'une
procédure de constitution de l'échantillon.

L'approche quantitative est fondée sur l'utilisation de méthodes statistiques. Elle peut
répondre à des objectifs variés allant de la description à l'explication de phénomènes
mesurables.

En entrée, elle se nourrit de données chiffrées et en sortie elle fournit des résultats
sous forme de tableaux de valeurs numériques ou de graphiques représentant des
relations mathématiques entre variables quantitatives

SECTION I. LA TYPOLOGIE DES ETUDES QUANTITATIVES

I. LE RECENSEMENT
C'est une méthode d'enquête quantitative qui consiste à interroger tous les individus
d'une population donnée et à dénombrer leurs caractéristiques et leurs opinions.

Exemple : le recensement général de la population ivoirienne en 1998


Le recensement repose sur une procédure lourde, coûteuse et longue, mal adaptée
aux besoins et aux possibilités de l'entreprise.

Le recensement est donc peu utilisé en marketing dès lors que la taille de la
population à étudier est importante. Cependant, les résultats du recensement
peuvent être utilisés par l'homme du marketing pour effectuer ses études
documentaires, ses prévisions de ventes, ses échantillons d'enquête par sondage,
notamment s'il utilise la méthode des quotas.

Néanmoins, lorsque la population est de petite taille, le recensement n'est pas à


exclure.
Exemples :
- Une étude auprès des adhérents de l'UGTCI ou de la centrale dignité,
- En marketing interne, une étude sur les trois cent (300) salariés d'une entreprise.

En conclusion, le recensement en marketing n'est pas envisageable quand la


population est de taille importante. C'est la raison pour laquelle les chargés d'études
préfèrent l'enquête par sondage.

II. LES ENQUETES PONCTUELLES PAR SONDAGE

Les enquêtes par sondage consistent à administrer de façon ponctuelle un


questionnaire auprès d'un échantillon représentatif de la population étudiée.

- Les enquêtes spécifiques ("ad hoc"): l'enquête est expressément réalisée pour une
entreprise dans un but particulier,

- Les enquêtes omnibus: un même questionnaire regroupe des questions concernant


des entreprises différentes sur un thème donné.

Les enquêtes ponctuelles par sondage représentent le moyen d'investigation le plus


couramment utilisé en recherche marketing.

II.LES PANELS

Un panel est un échantillon permanent, interrogé périodiquement. Comme pour les


enquêtes par questionnaire, l'échantillon doit être représentant de la population
étudiée.

Un panel permet non seulement de suivre de façon continue l'évolution du marché de


l'entreprise mais aussi d'expliquer certains facteurs de cette évolution.

III.LES MODELES

Un modèle quantitatif vise à donner une représentation simplifiée de la réalité à l'aide


de fonctions mathématiques.

Exemple simplifié : PVC = f (PV, MP)


D = f (PVC, PUB, NM)

Avec :
PVC = prix de vente consommateur
f () = fonction de
PV = prix de vente de l'entreprise
MP = moyenne des prix de vente sur le marché
D = demande à l'entreprise en nombre de produits
PUB = budget publicitaire
NM = nombre de magasins où le produit est présent

IV.L'EXPERIMENTATION

L'objectif de l'expérimentation est de déterminer l'existence de relation de cause à


effet entre des variables.
L'expérimentation est fondée sur les techniques dites d'observation contrôlée qui
consistent à constituer deux (2) groupes de sujets:

- Le groupe expérimental (ou groupe-test), c'est-à-dire les sujets dont on étudiera les
modifications de comportement à la suite de la modification d'une variable donnée ;

- Le groupe de référence (ou groupe-contrôle) représentant un ensemble de sujets


pour lesquels la variable en question ne sera pas modifiée, et à comparer les
résultats obtenus.

La différence entre les résultats obtenus dans chacun des groupes fera l'objet d'une
analyse statistique permettant de définir si, à un seuil de probabilité donné, la
différence entre les deux groupes est statistiquement significative ou seulement due
au hasard. Il convient toutefois que l'expérimentation soit conduite selon un protocole
rigoureux, c'est-à-dire que la différence éventuellement observée soit due à la
modification de la variable étudiée et à elle seule.

SECTION 2. LE SONDAGE

C'est une enquête effectuée sur un échantillon ou sous-ensemble d'une population


dont on veut connaître les caractéristiques et/ou opinions sur un sujet donné.

Il permet une estimation dont la validité est dépendante d'un grand nombre de
facteurs plus ou moins maîtrisables.
Statiquement, la validité des résultats dépend essentiellement de la représentativité
de l'échantillon et de la précision de l'estimation.
L'échantillon sera plus ou moins représentatif de la population à étudier selon la
méthode d'échantillonnage utilisée (les méthodes probabilistes ou aléatoires sont les
plus rigoureuses et elles permettent de calculer l'erreur d'échantillonnage entre les
valeurs estimées à partir d'un échantillon et la valeur vraie dans la population.
Dans le cas des méthodes non probabilistes ou empiriques, la probabilité qu'une unité
de sondage soit incluse dans l'échantillon n'est pas connue et il n'est pas possible de
calculer l'erreur d'échantillonnage).
Quant à la précision de l'estimation, elle sera fonction de la taille de l'échantillon car
la précision d'une estimation dépend de la taille de l'échantillon.
Plus la taille de l'échantillon est grande et plus la précision est élevée.
Il convient donc de décrire la population à enquêter, d'établir des méthodes
d'échantillonnage, et enfin déterminer la taille de l'échantillon.

I. DESCRIPTION DE LA POPULATION A ETUDIER

1. La détermination de la base de sondage

La base de sondage correspond à la population que l'on veut étudier (la population –
mère).
C'est une liste exhaustive des éléments de la population à étudier, à partir de laquelle
il est possible de constituer un échantillon représentatif, le plus souvent, soit en
procédant à un tirage systématique, soit en utilisant une table de nombres au hasard

Pour obtenir une base de sondage : on peut soit acheter, soit louer un fichier auprès
des sociétés d’études.

Les deux (2) principes de base du choix d'un fichier sont :


- Ne pas utiliser un fichier qui ne couvre pas la totalité de la population à étudier,
- Utiliser un fichier qui couvre une population plus large que la population à étudier.
Car tout sous- échantillon d'un échantillon représentatif peut être considéré comme
représentatif de sa population.

2. La détermination de l'unité de sondage

L’unité de sondage est constituée par les éléments de la population à étudier


(l'individu, le ménage, l'entreprise, un point de vente, la commune, etc.).

II. LE CHOIX DE LA METHODE D'ECHANTILLONNAGE

Le choix de la méthode d'échantillonnage dépend de plusieurs critères importants :


- La possibilité ou non de procurer une base de sondage,
- L'unité de sondage disponible dans le fichier.
- Si la base de sondage est constituée d'individus nominativement identifiés ou de
groupes d'individus (ménages, associations, entreprises, etc.), on fait un sondage
aléatoire simple dans le premier cas, dans le second, ce serait un sondage en
grappes;
- Si la population à étudier est divisible en groupes (par exemple : les PME d'un côté,
les grandes entreprises de l'autre ; par sexe : homme / femme ; par âge : -25 ans
à -50 ans), on fera un sondage stratifié;
- La possibilité de calculer l'erreur d'échantillonnage qui donne la préférence aux
méthodes probabilistes;
- Le coût du questionnaire qui est favorable aux méthodes empiriques,
- Le mode d'administration du questionnaire souhaité, en raison notamment du
nombre et de la complexité des questions à poser, qui ne rend possible
l'échantillonnage sur place et celui des itinéraires que si les questionnaires sont courts
et remplissables dans la rue;
- Le temps imparti qui, compte tenu des difficultés à interroger une personne
nominativement désignée, défavorise quand il est court les méthodes probabilistes
par rapport aux méthodes empiriques.

III. LES METHODES D'ECHANTILLONNAGE

La qualité de l'information que l'on obtient sur une population à partir d'un échantillon
dépend d'abord de la qualité de l'échantillon.
La représentativité de l'échantillon dépend des méthodes de prélèvement, c'est - à -
dire de la façon dont ont été sélectionnées les unités de sondage.

Deux (2) catégories de méthodes existent :

- Les méthodes probabilistes ou aléatoires,


- Les méthodes non probabilistes ou raisonnées ou empiriques.

1. Les méthodes d'échantillonnage probabilistes

Elles consistent à tirer au sort l'échantillon dans la population à étudier, donnant à


chaque élément (unité de sondage) de celle-ci une probabilité connue, non nulle,
d'être sélectionné.
Ces méthodes sont les seules à respecter les principes de la loi des grands nombres
c'est-à-dire les seules qui permettent de calculer en toute rigueur la marge d'erreur
de l'estimation à un certain seuil de confiance.
Ce sont entre autres :
- Le sondage aléatoire simple,
- Le sondage en grappes,
- Le sondage à plusieurs degrés,
- Le sondage stratifié (proportionnel et non proportionnel)

1.1. Le sondage aléatoire simple ou au hasard

Il n'est réalisable que lorsque le consultant dispose de la liste exhaustive des


éléments composant la population- mère (la base de sondage).
Or, il n'existe dans aucun pays, une base de sondage à la fois accessible à un homme
de marketing indépendant et disposant d'une liste exhaustive des unités de sondage.

Dans ce cas, soit le chargé d'études est réduit à se contenter d'une base
approximative (annuaire du téléphone, loueurs ou vendeurs de fichiers, etc. …) ; soit
à renoncer au sondage aléatoire simple.
L'usage du sondage au hasard est plus facile lorsque la population à étudier est plus
spécifique ou quand un organisme, voire le chargé d'études lui - même, en a dressé la
liste des membres.

En prenant des précautions quant à la couverture de tout l'univers à étudier et quant


à la régularité des mises à jour, l'homme de marketing utilise les annuaires existants,
les listes professionnelles, les fichiers des établissements, industriels et commerciaux,
les registres des organismes consulaires (chambre d'agriculture, d'industrie,…).
L'une des principales caractéristiques du sondage aléatoire simple est de donner à
chaque unité de sondage (ou individu de la population - mère) une probabilité égale
d'être interrogé.
A partir de la base de sondage retenue, un tirage au sort est organisé. Le prélèvement
au hasard nécessite l'emploi de procédures rigoureuses telles :
- Le tirage systématique,
- L'utilisation d'une table de nombres au hasard.

1.1.1. Le tirage systématique

Il consiste à retenir chaque N/nième individu de la base de sondage, N étant la taille


de la population à étudier et n celle de l'échantillon.
Exemple : on veut sélectionner 200 entreprises (unité de sondage) sur une base de
sondage (ou fichier) de 999 entreprises ivoiriennes.
Le ratio Base de sondage donne 999
=5
Echantillon 200

On tire alors au hasard le premier nom situé entre la 1 ère et 5ème place (N/nième)
comprises.
Imaginons que ce soit le 3ème, les unités de sondage retenues seront les : 3 e - 8e - 13e -
18e - 23e …de la liste.
NB : Le tirage systématique est une procédure à ne retenir que si l'ordre d'apparition
des noms est aléatoire. En revanche, il est très dangereux lorsqu'il existe une
régularité cyclique dans les listes, ce qui est souvent le cas quand elles sont
ordonnées par âge, par ordre d'arrivée, par chiffre d'affaires, etc.
Ainsi, lorsque le tirage systématique peut introduire un biais lié à l'ordonnancement
du fichier, on lui préférera l'emploi d'une table de nombres au hasard.

1.1.2. Les tables de nombres au hasard

Ces tables se présentent sous la forme de listes des nombres dont le tirage a déjà été
effectué aléatoirement.
La table de KENDALL et BABINTON SMITH comporte 100.000 chiffres, celle de TIPETT
est composée de 41.600 chiffres et celle de FISHER et YATES 15.000.
Pour les utiliser à la main, il est nécessaire de numéroter tous les individus de la base
de sondage, puis, on fixe une règle pour se déplacer dans la table et tirer les chiffres.
NB : Lorsque la population - mère est inférieure à 100 individus, on tirera des nombres
à 2 chiffres, quand elle est inférieure à 100.000 individus, on prélève des nombres de
5 chiffres, etc.
Si le hasard fait qu'un nombre est tiré deux (2) fois, on ne le sélectionne qu'une fois,
l'enquêté ne pouvant être interrogé plusieurs fois.
Si le nombre sorti au hasard est extérieur à la base de sondage (si on tire par exemple
le nombre 5113 et que la base de sondage ne comporte que 4700 unités de sondage),
ce nombre sera ignoré et on passera au suivant.

Quelle que soit la méthode de tirage au sort utilisée, il est prudent de tirer plus de
noms que la taille de l'échantillon souhaité le requiert ; cela, pour faire face au refus
de répondre, aux absences des personnes sollicitées, etc.
Selon la population à étudier et selon la méthode d'administration des questionnaires
(en face à face, par voie postale, par téléphone etc.) ; cette réserve sera plus ou
moins importante (de 10% à plus de 100%).
Le taux de réponse à un sondage postal étant en moyenne de 5% à 10%.
Lorsqu'ils sont dispersés géographiquement ou difficiles à joindre, le coût de l'enquête
peut fortement augmenter.
C'est pourquoi, dans certain cas, le chargé d'études préférera renoncer aux avantages
du sondage aléatoire simple et opter pour une méthode probabiliste dérivée : en
grappe ou à plusieurs niveaux.

1.2. Le sondage en grappes

Il consiste à tirer au sort un certain nombre (plus de 30) de groupes d'unités


statistiques appelées "grappes" puis à interroger toutes les unités appartenant aux
grappes retenues.

Exemple : Une entreprise est une grappe de salariés, un ménage est une grappe de
personnes physiques, un immeuble est une grappe de logements.
1.2.1. Avantages de cette méthode

- L'échantillon est moins dispersé géographiquement. Par exemple, au lieu d'avoir


1000 points d'enquête, on aura 200, si chaque grappe (ex. un ménage) est composée
de cinq personnes en moyenne : le sondage est donc moins coûteux.
- Elle autorise un tirage aléatoire lorsqu'on ne dispose pas d'une base de sondage des
individus (exemple : on n'a pas la liste exhaustive de la population vivant dans une
zone géographique donnée, en revanche, on a le fichier des logements).
- Elle permet d'étudier les "effets des grappes" c'est-à-dire les effets du groupe au
niveau du comportement ou de l'attitude.

1.2.2. Inconvénients du sondage en grappe

- Les unités d'une même grappe peuvent se ressembler. Par exemple, il est
vraisemblable que le père influence la mère et les enfants et réciproquement. Ce
phénomène psycho - sociologique est appelé "l'effet de grappe". A l'aide d'une étude
préalable, à base de réunions de famille par exemple, il est possible de mettre en
évidence cet effet pervers.
Si l'effet de grappe est important, deux solutions méthodologiques sont possibles :
- Chercher une autre méthode d'échantillonnage,
- N'interroger qu'une personne par grappes sélectionnées même si les individus
n'auront pas la même probabilité d'être interrogée selon la taille de leur grappe (ex.
un célibataire a plus de chance d'être interviewé qu'un membre d'une famille
nombreuse). Pour ce faire, on utilise soit la méthode de Kish, soit la méthode des
anniversaires qui consiste à n'interviewer que la personne de la grappe dont
l'anniversaire est le plus proche.

1.3.Le sondage aréolaire

C'est une méthode d'échantillonnage probabiliste en grappes qui consiste à découper


en zones géographiques, un territoire déterminé et à tirer au sort un certain nombre
de ces zones et à interroger tous les individus statistiques y résidant.

Exemple : Pour procéder à un sondage auprès des agriculteurs de la Côte d'Ivoire


sans disposer de leur liste exhaustive, nous découpons à l'aide d'une carte, le pays en
au moins trente (30) zones de démographie et / ou de surface équivalente.
Nous tirons au sort des grappes (6 par exemple) et nous interrogeons tous les
agriculteurs des six (6) zones tirées.
NB: Le chargé d'étude doit prendre la précaution de ne pas tirer au sort des zones très
proches sociologiquement au risque de biaiser les résultats.
Pour réduire les risques du "mauvais hasard", il faut augmenter le nombre de grappes
en découpant les zones géographiques pour ne pas augmenter le nombre de
personnes à interroger.

1.4. Le sondage à plusieurs degrés

Cette méthode consiste à effectuer à différents niveaux successifs un tirage


aléatoire :on tire au sort dans une base de sondage centralisatrice des unités
primaires, dans celles-ci, on tire des unités secondaires, et ainsi de suite, jusqu'au
tirage au sort des personnes physiques ou morales à interviewer.
Exemple : Dans la ville d'Abidjan, le tirage peut se faire par commune (10 zones
aréolaires), puis par quartier (10) puis par pâté de maison (3), dans chaque pâté de
maisons, 3 maisons et dans chaque maison, une personne.
L'échantillon dans notre exemple sera : 10 x 10 x 3 x 3 x 1 = 900 individus.
Le sondage à plusieurs à plusieurs degrés et le sondage en grappe peuvent introduire
des biais dus, d’une part, au choix de grappes, d'autre part à l'hétérogénéité des
grappes entre elles et celles de la population à étudier.
Pour réduire ces biais, on peut utiliser le sondage stratifié.

1.5. Le sondage stratifié

Il consiste à découper la population à étudier en classes homogènes, appelées strates,


puis à procéder à un tirage aléatoire dans chacune d'entre elles,

Comme le montrent ces exemples, les critères de segmentation (âge, sexe, revenu,
chiffre d'affaires, volume de ventes, niveau d'étude, etc.) sont souvent utilisés pour
stratifier un univers.
Dans chaque strate "i" ainsi constituée, un tirage au sort des individus à interroger est
réalisé en fonction de taux de sondage ni/Ni qui peuvent être identiques ou variables
selon les strates.
Dans le premier cas, le sondage stratifié est dit proportionnel, dans le deuxième cas, il
est non proportionnel.

1.5.1. Le sondage stratifié proportionnel


L'intérêt de ce type de sondage est que le nombre de personnes interrogées ayant les
caractéristiques communes et donc, appartenant à une même strate est proportionnel
à la population de la strate alors qu'en cas de tirage aléatoire simple, le hasard peut
entraîner une sous- représentation des individus d'une des strates de la population
totale.
Exemple : Sur une population mixte, le tirage aléatoire simple peut conduire à
interroger peu d'hommes et beaucoup de femmes.
Le sondage stratifié proportionnel assure un taux de sondage ni/ Ni à chaque strate
égal à celui de l'ensemble de la population n/N.
Exemple : Une enquête est réalisée auprès des grossistes en boisons sur leurs ventes
de bières. On sait d'une part, que les habitants du Sud boivent plus de bières que
ceux du Nord, d'autre part qu'il y a plus de grossistes dans le Sud que dans le Nord.
Un tirage aléatoire simple risquerait d'engendrer une sous- représentation des
grossistes du Nord.

Strate de grossistes Taille de la strate Ni Volume de vente


estimé par sondage
stratifié en hectolitre
Nordistes 2000 10
Sudistes 8000 15
Population totale N = 10.000

La taille de l'échantillon est fixée à 150. Le taux de sondage n/N est donc de 1,5%.
Pour la strate des grossistes du Nord, elle est de :
Ni = N1/N x n = 30 avec
N1 / n1 = n/N = 1,5%
Pour la strate des grossistes du sud, elle est de :
Ni = N1/N x n = 30 avec
N1 / n1 = n/N = 1,5%
Pour obtenir, en plus des estimations par strate, une estimation de la moyenne des
ventes sur l'ensemble du territoire, un simple calcul de moyenne pondérée par le
poids relatif de chacune des strates ni/n ou Ni/ N est nécessaire :
D’où dans notre exemple :
Estimation du volume des ventes sur l'ensemble du territoire x = 0,2 x 10 + 0,8 x 15
Soit x = 14 hectolitres
L'un des avantages du sondage stratifié par rapport aux autres méthodes
probabilistes est qu'il accroît, en principe la précision de l'estimation. En outre, le
sondage stratifié proportionnel (dit également stratifié représentatif) est le seul à
pouvoir être dépouillé comme un recensement.
L'échantillon total est alors constitué après agrégation de l'ensemble des sous -
échantillons prélevés dans chaque strate.

NB : Le sondage stratifié n'est utilisable qu'à condition que les strates ne se


chevauchent pas, mais qu'en revanche, elles recouvrent intégralement la base de
sondage de la population à étudier.

Exemples de stratification :
Par sexe (Homme / Femme), par tranche d'âge (moins de 30 ans / 30 ans à - 50 ans),
par effectif (- 100 employés / de 100 à - 200 employés).

LE SONDAGE STRATIFIE NON PROPORTIONNEL


L’échantillon dans chaque strate n'est pas proportionnelle à sa taille dans la
population Les raisons qui poussent à utiliser un tel sondage sont diverses mais les
plus importantes d'entre elles sont :
- la précision de l'estimation dans la mesure ou la répartition optimum de l'échantillon
par strates dépend, en plus de la taille des strates,de la variance dans chacune
d'elles;
- l'hétérogénéité des strates, sachant que plus la variance est élevée, plus il faut, en
effet, d'individus pour avoir une estimation précise-
- l'intérêt commercial ou l'importance de la strate dans l'étude à réaliser; plus il est
grand, plus on cherche des résultats significatifs en pratiquant des taux de sondage
élevés par rapport à ceux des strates moins intéressantes-
- le coût de l'enquête qui est fonction, notamment, de la difficulté d'interroger telle ou
telle catégorie d'individus. On peut décider d'interroger proportionnellement plus de
personnes faciles à questionner que d'individus peu enclins à répondre.
Exemple: Reprenons notre enquête auprès des grossistes en boissons. Nous consta-
tons que les grossistes du Sud seront plus nombreux à être interrogés que les
grossistes du Nord. Compte-tenu de la tendance des nordistes à boire plus de bières
que les sudistes, le chargé d'études peU! souhaiter avoir un échantillon stratifié non
proportionnel composé davantage de grossistes du Nord
Il existe une formule de la répartition optimum qui minimise la variance totale de
l'estimation de la moyenne. \falheureusement, son utilisation impose de connaÎtre,
en
plus du rapport entre la population de la strate et la population totale NilN, les écarts
types dans chaque strate. En pratique, cela n'est pas possible avant de procéder à
l'enquête elle-même à moins de se contenter des résultats d'études antérieures

Écart type de la moyenne des ventes


Grossistes Nord 5
Grossistes Sud 2
L'estimation des résultats pour l'ensemble de la population, à partir des observ:.:
faites sur l'échantillon stratifié non proportionnel, nécessite évidemment un "redI
ment" de l'échantillon, c'est-a-dire une pondération des individus de
l'échantill( proportion inverse du taux de sondage qui a été appliqué à la strate à
laquelle il a tient (soit Ni/ni
Ce procédé ne doit pas être confondu avec celui du redressement de l'échan
d'arrivée, différent de celui souhaité au départ en raison des "non-réponses", qui cc
sur la stratification a posteriori (voir J. Desabie, op cit, p. 185 et suivantes) Compte-
tenu de la difficulté de mise en oeuvre du sondage stratifié non propo nel et, comme
l'ont dit Perrien, Chéron et Zins (op cit) " à moins que les variances les strates ne
soient très différentes, la répartition optimale n'améliore que très r précision des
estimations; dans les recherches en marketing, on se contente le souvent d'une
répartition proportionnelle
Dans la pratique, on utilise parfois conjointement les méthodes de stratificatior
méthode d'échantillonnage a plusieurs degrés, lespremières permettant Dans la
deuxième édition de son ouvrage "Le sondage, outil du marketing" (DI 1990), Jacques
Antoine insiste, avec force et à juste raison, sur le fait que "d~ pratique des sondages,
on a d'ailleurs toujours intérêt à prendre les méthodes p bilistes comme guides et a
les appliquer aussi loin et chaque fois que cela est po: dans les limites raisonnables de
cout"d'amélio précision de l'estimation et la deuxième réduisant le cout de
l'enquêteAlors que seule l'absence de base de sondage devrait l'expliquer, c'est
souver raisons de cout qui font qu'un chargé d'études renonce à des méthodes
probabi pour une méthode d'échantillonnage empirique

2. Les méthodes d'échantillonnage empiriques

Les méthodes empiriques sont souvent préférées aux méthodes probabilistes en


raison de leur faible coût et de leur facilité d'application.
Dans le cadre des méthodes non probabilistes, le choix des personnes à interroger est
dit "raisonné" et respecte des règles concernant, soit les caractéristiques des
individus (méthode de quotas), soit les lieux et les moments d'enquête (méthode des
itinéraires ou Random Route ou méthode POLITZ du nom de son inventeur, méthode
d'échantillonnage sur place).

2.1. La méthode des quotas

Très utilisée dans le domaine commercial, la méthode des quotas consiste à définir à
priori la structure de l'échantillon comme étant identique à celle de la population -
mère sur un certain nombre de critères tels que le sexe, l'âge, la CSP, lieu
d'habitation, etc. Ce qui suppose que soit connue avec précision la structure actuelle
ou récente de la population étudiée.
La méthodes des quotas consiste à construire une maquette réduite de la population
étudié : l'échantillon choisi ayant de fortes chances d'être représentatif de cette
population du point de vue des caractéristiques telles l'opinion, l'attitude, les
motivations, les comportements… que le sondage est chargé d'estimer.
Pour utiliser cette méthode, il faut disposer de statistiques récentes de la population à
étudier.

Exemple: La population - mère comporte 52% de femmes et 48% d'hommes, 60% de


moins de 20 ans, 25% de 21 à 40ans et 15% de plus de 40 ans.

Le plan de travail des enquêteurs sera tout aussi facile à construire en multipliant le
nombre de questionnaires qu'ils ont à administrer par les pourcentages retenus pour
élaborer l'échantillon.
2.2. La méthode des itinéraires

Elle consiste à imposer aux enquêteurs un itinéraire précis dans une zone
géographique donnée et les points d'enquête sur le trajet où ils procéderont à une
interview.
Pour réduire les biais, elle est souvent couplée à d'autres méthodes
d'échantillonnage: la méthode aréolaire pour choisir les zones d'enquête, la méthode
des quotas pour sélectionner les répondants, l'échantillonnage temporel (choix
raisonné ou tirage au sort des moments d'enquête).
Dans le cadre de la méthode des itinéraires, deux (2) procédés sont utilisés:
- Celui qui consiste à remettre une carte de la ville ou la zone géographique à chacun
des enquêteurs, sur laquelle est tracé le trajet à suivre et sont indiqués les points
d'enquête;
- Celui, plus complexe, mais mieux adapté aux enquêteurs dans les villes
modernes.

2.3. La méthode d'échantillonnage sur place

Lorsqu'on ne dispose, ni de base de sondage, ni de statistiques sur la population à


étudier et, qu'en outre, celle - ci est de trop dispersée pour mettre en place un
itinéraire, il reste toutefois la possibilité de construire un échantillon si la population
passe quasi - obligatoirement par des points de passage connus.

Exemple : Les stations d'essence, les gares routières, les halls d'aéroports, sorte d'un
magasin, caisses d'une grande surface.

2.4. L'échantillonnage fondé sur le jugement des enquêteurs

Malgré le biais qu'il engendre, il est parfois utilisé pour choisir des zones d'enquête
plutôt que de les sélectionner aléatoirement (sondage aléatoire)

Exemple : Si l'on ne veut que deux(2) villes ivoiriennes de plus de 100.000 habitants,
plutôt que de s'en remettre au hasard, le chargé d'étude peut préférer choisir par
jugement les villes d'Abidjan et Bouaké qui sont d'ailleurs les plus grandes villes de la
Côte d'Ivoire.

IV. LA DETERMINATION DELA TAILLE D'UN ECHANTILLON

La loi des grands nombres de BERNOUILLI permet d'affirmer que si l'on tire au sort, un
échantillon de taille suffisante (cas d'un sondage exhaustif) celui-ci est représentatif
de la population - mère c'est-à-dire que la moyenne (ou la population) observée pour
l'échantillon sera proche (sera une bonne estimation) de la moyenne (ou de la
population) à priori inconnue, dans la population - mère.
La précision des résultats obtenus lors d'une enquête par sondage est fonction de la
taille de l'échantillon.
En outre, la représentativité de l'échantillon dépend de la méthode d'échantillonnage
adaptée : seules les méthodes probabilistes permettent de calculer la taille minimale
de l'échantillon à un certain seuil de confiance et une marge d'erreur donnée.

La détermination de la taille de l'échantillon est différente selon que nous sommes :


- Dans le cas d'une moyenne,
- Dans le cas d'une population,
- Dans un sondage non exhaustif,
- Dans un sondage exhaustif.

1. La taille de l'échantillon dans le cas d'une moyenne

Il s'agit de déduire des caractéristiques de l'échantillon. Les caractéristiques de la


population totale (la population - mère) c'est-à-dire que connaissant la moyenne
observée de l'échantillon, on peut déterminer la moyenne de la population-mère.
La taille de l'échantillon peut être calculée par la formule suivante :
t22
n=
2
- t est le coefficient de confiance dont dépend la valeur du seuil ou du degré de
Confiance ;
-  est l'écart type
-  est la marge d'erreur que l'on peut tolérer dans l'estimation

2. La taille de l'échantillon dans le cas d'une proportion

La théorie de l'échantillonnage indique que si n > 30, la distribution d'échantillonnage


des proportions suit une loi normale dont la moyenne est p (p = proportion dans la
population - mère) et l'écart - type p = …. (avec q = 1 - p)
La taille de l'échantillon peut être calculée à partir de la formule suivante :


- t = coefficient de confiance dont dépend la valeur dépend du seuil de confiance ou
degré de confiance
- p est la fréquence observée dans l'échantillon
-q=1-p
- est la marge d'erreur que l'on peut tolérer dans l'estimation.

3. La taille de l'échantillon dans le cas d'un sondage aléatoire non exhaustif

Un sondage est dit non exhaustif si le taux de sondage (n/N) < 1/7 avec > 30,

La taille minimale de l'échantillon est donnée par la formule

n=

En ce qui concerne les valeurs de p et q, 2 cas se présentent :

1er cas : si le chargé d'études a réalisé une pré- enquête sur un échantillon de taille au
moins égale à 30 pour estimer la valeur de p, la taille minimale de l'échantillon est n=
2ecas : si le chargé d’études n’a pas réalisé une pré-enquête, on décide alors que

t2 ½  ½
P= 0,5 et q= 0,5; la taille minimale de l’échantillon n 
e2
Pour simplifier la formule, on prend t = 2, au seuil de 95%, ainsi

42 ½  ½ 1
n= =
e2 e2

4.La taille de l'échantillon dans lecas d'un sondage aléatoire exhaustif

Un sondage est dit exhaustif si le taux de sondage n/N > 1/7 ou 14,3%, la taille
minimale de l'échantillon est

n' = nN
nN

Le calcul se fait de la manière suivante :


- on calcule d'abord la taille de l'échantillon comme dans le cas d'un échantillon non
exhaustif
- ensuite, on calcule la taille minimale à l'aide de la formule
n' = nN
nN
V. La détermination du coefficient de confiance t

1. Cas d'un grand échantillon

Si n > 30 (grand échantillon), la population - mère suit la loi normale avec un écart-
type inconnu, l'estimation ponctuelle de la moyenne et celle de l'écart - type (racine
carrée de la variance ou moyenne des carrés des écarts par rapport à la moyenne.
L'écart type caractérise la dispersion des individus d'une population) se font avec un
coefficient de confiance t est lu dans la table de la loi normale à l'aide de la formule
suivante :
2(t) - 1 = seuil de confiance
t = ligne + colonne
2(t) - 1 = 1 - r avec r = risque d'erreur

2. Cas d'un petit échantillon

Pour n < 30, le coefficient de confiance t est lu dans de Student-Fisher


avec  ou p = 1 - seuil de confiance
v = n - 1 degrés de liberté
t est la valeur qui se trouve à l'intersection entre la ligne et la colonne.
VI. LA DETERMINATION DELA MARGE D'ERREUR LORS D'UN SONDAGE ALEATOIRE NON
EXHAUSTIF

La marge d'erreur permet de juger du degré de précision et de la validité d'un résultat


fourni
La formule est la suivante: 
pq
=t
n

où estla marge d'erreur que l'on peut tolérer dans l'estimation,


p est la fréquence observée dans l'échantillon
q=1-p
n est la taille del'échantillon
NB: Dans le cas d'une méthode empirique, il est recommandé d'utiliser le coefficient
de correction de KISH en multipliant la valeur de la marge d'erreur par le coefficient
1,4
LE CALCUL DE L’ERREUR
D’ECHANTILLONNAGE

VII. LA DETERMINATION DE L'INTERVALLE DE CONFIANCE

Une estimation par intervalle de confiance de la moyenne ou de la fréquence


inconnue de la population-mère est un intervalle déterminé à partir des résultats
observés sur l'échantillon prélevé.

Cet intervalle contient la vraie valeur de la moyenne ou de la fréquence avec un


risque d'erreur que l'on décide à l'avance.

1. L’estimation par intervalle de confiance de la moyenne

On choisit la probabilité de trouver la vraie valeur de la moyenne de la population.


L'intervalle de confiance de la moyenne est un intervalle déterminé à partir des
résultats observés sur l'échantillon prélevé. La formule de l'intervalle de confiance de
la moyenne est la suivante:
= x t n

où est la moyenne de l'échantillon prélevé,


t est le coefficient de confiance,
est l'écart type connu de la population ou son estimation.
n est la taille de l'échantillon

2. L’estimation par intervalle de confiance de la fréquence

L'intervalle de confiance de fréquence est :


= p t


p est la fréquence observé dans l'échantillon prélevé
t est le coefficient de confiance
n est la taille de l'échantillon

3. Cas particuliers
- Dans le cas d'un sondage exhaustif, c'est-à-dire n/N > 1/7 ou 14,3%, l'écart type des
moyennes d'échantillon doit être corrigé par le coefficient d'exhaustivité
L'intervalle de confiance devient alors
- Dans le cas d'un petit échantillon (n <30), la valeur de t est lue dans la table de
Student - Fischer avec
ou p = 1 - seuil de confiance
v = n - 1 degrés de liberté.
t est la valeur qui se trouve à l'intersection de la ligne et de la colonne.

VIII. LES AUTRES METHODES DE FIXATION DE LA TAILLE DE L'ECHANTILLON

1. Les méthodes budgétaires

Deux (2) méthodes sont actuellement utilisées :


- la première consiste à raisonner en termes de coûts totaux de revient par
questionnaire;
- la seconde distingue les coûts fixes de l'étude et les coûts variables (directs)
unitaires par questionnaire.

La première est surtout utilisée lorsque l'enquête est confiée à une sociétés d'études
ou à un consultant indépendant.
Le chargé d'études fixe le prix par questionnaire administré, il divise le budget que
son commanditaire accepte de consacrer à un sondage par le coût d'un questionnaire
La formule de la taille de l'échantillon est la suivante :

Budget du commanditaire
n=
Coût d'un questionnaire

La seconde méthode est mieux adaptée à la réalisation d'un sondage en interne ou


lorsque la société d'études indépendante souhaite réduire le coût unitaire par
questionnaire.
La formule de la taille de l'échantillon est la suivante :

Budget du commanditaire – Coûts fixes (forfaitaires)


n=
Coût direct par questionnaire

2. Le sondage séquentiel

Certains chargés d'études demandent aux enquêteurs d'interroger le maximum de


personnes dans un temps déterminé. La taille de l'échantillon dépend alors de la
capacité de travail de chaque enquêteur et des conditions d'interrogation sur le
terrain.

IX. LACONSTRUCTION DU QUESTIONNAIRE

Un questionnaire est un ensemble de questions construit dans le but de générer


l’information nécessaire à l’accomplissement des objectifs d’une étude.

Un questionnaire, dans son fond comme dans sa forme, doit inciter le répondant à
coopérer, à se sentir impliqué et à donner des réponses complètes et exactes aux
questions qui lui sont posées.
Un mauvais questionnaire posé à 1000 personnes est certainement moins instructif
qu’un bon questionnaire posé à 200 personnes seulement. La phase de rédaction est
donc essentielle dans la réussite du projet d’enquête.

I. REGLES LIEES AU FOND DU QUESTIONNAIRE

1. Le contenu des questions

1.1. Préalable : l’établissement d’une liste de informations à rechercher

Le questionnaire est construit à partir d’une liste d’informations. Cette démarche


permet de n’oublier aucune information importante tout en évitant les questions
inutiles.

Les informations à recueillir dépendent directement des objectifs de l’étude et des


hypothèses de travail que l’on aura formulées.

1.2. La nature des informations à rechercher

Suivant le type d’étude, la nature de l’information recherchée varie. En effet, on ne


recueille pas les mêmes données selon que l’on s’intéresse à une population
d’individus, d’entreprises, ou de marques.

1.3. Le check-list du rédacteur

Avant de formuler une question, le rédacteur doit la soumettre à quatre (4)


interrogations :
- Cette question est-elle strictement nécessaire ?
- Pour l’information recherchée, une seule question suffira-t-elle ?

Il existe souvent des situations où plusieurs questions sont nécessaires du fait de la


complexité de l’information recherchée, comme dans le cas d’une question
« pourquoi ?

De même, certaines questions sont doubles et doivent alors être décomposées en


deux questions simples.

- La personne interrogée pourra-t-elle fournir l’information ?

Dans certains cas, les répondants ne peuvent pas répondre à la question qui leur est
posée. On peut identifier trois (3) raisons principales à cette situation : le répondant
comprend pas, Il ne sait pas ou il ne se souvient pas.

* Incompréhension. Elle peut être due au vocabulaire utilisé – trop technique ou qui ne
tient pas compte des particularismes régionaux – ou à une abstraction trop
importante de la question.

* Ignorance. Elle traduit une mauvaise adaptation du questionnaire aux personnes


interrogées ou plus grave, une erreur dans le choix de la population de référence par
rapport à l’information recherchée. L’exemple suivant est caractéristique de cette
situation :
* oubli. Le répondant possède ou a possédé l’information demandée, mais est
incapable de s’en souvenir. La capacité à se remémorer les événements passés
dépend du temps écoulé, de l’importance de l’événement et, éventuellement, de la
fréquence de l’événement.

- La personne interrogée ici voudra-t-elle fournir l’information exacte ?


Le comportement « déviant » de la part de l’enquêté peut survenir pour trois (3) types
d’interrogations :

- sujets socialement sensibles pour lesquels certains comportements sont


enjolivés (e. g. protection de l’environnement) ou au contraire niés (e. g.
consommation d’alcool) ;
- sujets demandent un gros effort de recherche, comme déterminer la quantité
de soft-drink consommée, en moyenne, par an.

Dans les trois (3) cas, des « astuces » permettent d’obtenir l’information. Elles sont
souvent liées à la manière dont la question est posée et/ou à la structure du
questionnaire.
Une fois le contenu des questions identifié, l’étape suivante consiste à déterminer le
type de question adapté à chaque élément d’information recherché.

2. Les types de questions

On distingue les questions ouvertes, les questions fermées et les questions posées
sous forme d’échelle et dans la longueur.

2.1. Les questions ouvertes

Une question ouverte laisse l’individu interrogé totalement libre du choix de sa


réponse, dans sa forme et dans sa longueur.

Ce type de question est donc à manier avec la plus grande précaution dans les
enquêtes quantitatives, où l’on tente de standardiser les questionnaires autant que
possible.

On distingue deux types de questions ouvertes : celles qui amènent une réponse sous
forme de chiffres et celles qui amènent une réponse sous forme de discours.

En règle générale, dans le cadre d’une étude quantitative, les questions fermées,
présentées ci-dessous, sont de loin préférables aux questions ouvertes.

Exemples :
- Réponses de type numérique :

Quel âge avez-vous ? /--------------------------/ Age /--/ /--/


Combien d’enfants à charge avez-vous ? /-----------------------/ NBENF /--/ /--/
Combien de kilomètres effectuez-vous, par mois, avec votre voiture, pour vos trajets
professionnels ? /-------------------/ NBKIL/--/ /--/

- Réponses de types littéraire :

Quelle est votre profession ? /---------------/ prof /--/


Quelles marques de disquettes connaissez-vous ?/-------------/ DSK1 /--/ DSK4
2.2. Les questions fermées

Les questions fermées sont des questions pour lesquelles on impose au répondant
une forme précise de réponse et un nombre limité de choix de réponses.
Trois (3) types sont possibles selon le nombre de choix de réponses proposé et le
nombre de réponses souhaitées.

2.2.1. Les questions dichotomiques

Ces questions n’offrent que deux (2) réponses, celles-ci devant être uniques. Le
répondant est face à une alternative : c’est l’un ou l’autre

Exemple :
Sexe ? Max Fém. Sexe /-/

2.2.2. Les questions à choix multiples (multichotomiques) et réponse unique

Le répondant dispose ici d’un registre de choix supérieur à deux (2) modalités.
Il est impératif que les modalités proposées soient exhaustives et mutuellement
exclusives.

Exemple : Quelle est votre situation familiale ?

Célibataire STFAM /--/


Vie maritale (union libre)
Marié
Divorcé, séparé, veuf
Autre (précisez) : -----------------------

2.2.3. Les questions multichotomiques à réponses multiples

Le répondant est autorisé à sélectionner plusieurs des possibilités proposées. Ce type


des questions reste à manier avec précaution, car les traitements statistiques portant
sur de telles données sont très limités et, surtout, l’interprétation des résultats est
délicate. Il est préférable d’envisager chaque modalité de réponse comme une
question dichotomique avec réponse oui/non.

Exemple : Parmi les marques de lessives en poudre , cochez celles que cous
connaissez, ne serait-ce que de nom

X. LA REDACTION DU QUESTIONNAIRE

Le vocabulaire et le style utilisés pour la rédaction d’un questionnaire doivent être


ceux employés par les répondants et non ceux du rédacteur.

1. Le vocabulaire utilisé

Tout vocabulaire technique est, sauf cas particulier, à éviter.


Tout vocabulaire ambigu est à bannir.
Tout mot ou expression dont la compréhension prête à confusion, soit parce qu’il/elle
possède intrinsèquement plusieurs sens, soit parce qu’il/elle est subjectif (ve).
La perception du temps est également subjective. Il s’agit donc d’éviter les adverbes
tels que « souvent », « rarement » ou autres « de temps en temps » et
« occasionnellement ».

L’ambiguïté peut également provenir de particularismes linguistiques, c'est-à-dire


d’utilisations différentes d’un même mot selon la région, la classe sociale, ou tout
simplement la classe d’âge.
Enfin, il est conseillé d’éviter les questions très engageantes personnellement :
religion, argent, santé, sexe, alcool, conflits familiaux. Si de telles questions sont
vraiment indispensables, il vaut mieux les aborder le plus tard possible dans le
questionnaire.

En résumé, le vocabulaire employé doit être le plus simple, le moins ambigu possible
et adapté à la population concernée par l’étude. Il n’est donc pas inutile d’avoir un
dictionnaire à portée de main !

2. Le style de rédaction

Le style de rédaction est également important, car il est fréquemment source de biais,
soit dans la compréhension des questions, soit directement dans les réponses.

2.1. Le style de rédaction et la compréhension des questions

2.1.1. Le style direct

Il faut éviter les questions contenant une négation et s’interdire absolument


d’employer des doubles négations. La « manipulation » intellectuelle de telles
questions est souvent une tâche au-dessus des moyens du répondant.

Exemple : « Ne pensez-vous pas que les grands magasins ne donnent pas assez de
conseils à leurs clients ? »

2.1.2. Lestyle bref

Une question devrait rarement dépasser une ligne à une ligne et demie.

2.2. Style et pertinence des réponses

Le style peut directement influer sur la validité des réponses, selon le caractère direct
ou non des questions.
Pour des questions personnellement importantes, l’approche indirecte est donc
souvent préférable. L’utilisation de termes neutres, ou de plusieurs questions
indirectes, dont on déduit l’information recherchée, est un moyen de procéder.

II. STRUCTURE DU QUESTIONNAIRE

Pour rassurer la personne interrogée et obtenir des réponses fiables, il convient de


procéder en "entonnoir” en partant des questions les moins engageantes aux
questions les plus personnelles et du général au particulier.

1. L’ordre d’apparition des différents éléments du questionnaire

Il se structure autour de sept points (7) qui rythment son déroulement :

- Phase 1 : Présentation de l’enquêteur et de l’enquête


Exemple :

Contexte : L’étude porte sur la notoriété, l’image et la fréquentation des « hard-


discounters ».

« Bonjour Madame,
Je m’appelle XYZ et réalise, pour l’institut ABC, une étude dont le but est de mieux
connaître les relations des consommateurs avec leurs commerçants.

Nous accordons une importance toute particulière à votre opinion, et nous aimerions
vous poser quelques questions à ce sujet. Cela ne nous prendra que quelques
minutes. »

En principe, il est souhaitable de cacher le thème exact de l’étude, dès lors que
l’annonce de celui-ci risque de provoquer un biais, soit de réponses de façade, soit de
dissimulation ou de refus de réponse pur et simple.

- Phase 2 : Questions d’introduction

Elles sont très générales et formulées de manière à ce que la personne puisse


répondre et/ou que sa réponse soit positive. L’information fournie peut, et c’est le seul
endroit « autorisé » dans le questionnaire, ne pas être utile. Le but de cette (ces)
question(s) est de s’attirer les bonnes grâces du répondant et de l’intéresser au
questionnaire qui va suivre.

Exemple : « Quelles sont vos couleurs préférées ?

- Phase 3 : Questions qualifiantes

Elles n’ont lieu d’être que si l’on a besoin de savoir si l’individu possède l’information
recherchée et servent d’aiguillage. Leur forme est plutôt dichotomique.

Exemple : « Avez-vous un compte bancaire personnel ? ».

- Phase 4 : Questions de mise en route

Elles servent à centrer progressivement le thème de l’étude, en commençant par des


questions simples, de comportement par exemple, qui ne demandent pas, ou peu,
d’effort de réflexion ou de mémoire de la part du répondant. Petit à petit, les
questions deviennent plus complexes et/ou personnelles.

- Phase 5 : Les questions spécifiques

C’est le cœur du questionnaire. Les questions doivent amener les informations les
plus importantes pour l’étude. A ce stade, le répondant est « chaud » : il s’est
imprégné de l’esprit de l’étude et a noué une relation de sympathie avec
l’enquêteur. On peut donc lui demander des efforts de réflexion et/ou des
informations personnelles. La garantie de réussite n’est certes pas totale, mais de
toutes façons meilleure que si l’on avait posé ces questions dès le début. De
manière générale, par exemple, tout ce qui a trait aux motivations, aux opinions,
aux jugements personnels…, doit être inclus à cet endroit.
- Phase 6 : Les questions d’identification(fiche signalétique)

Elles décrivent les répondants. On peut utiliser deux types de critères d’identification :
les variables sociodémographiques classiques sexe, âge, profession…) et des
éléments plus psychologiques (tels que les valeurs personnelles, l’implication pour la
catégorie de produit, les traits de personnalité…). Cette partie fournit les informations
qui serviront à classer les répondants en groupes distincts. En d’autres termes, il
s’agit de variables de segmentation.

2. La présence de questions « spéciales »

Ces questions sont de deux (2) types :


- Les questions qualifiantes ou questions « filtre » (branching questions);
- Les questions « piège ».

2.1. Les questions filtres

Dès lors que l’on a besoin de distinguer les répondants sur des comportements, des
connaissances ou des caractéristiques particuliers, afin de les orienter sur des parties
différents du questionnaire ces questions doivent être utilisées. Il n’est pas obligatoire
de les cantonner au début du questionnaire.

2.2. Les questions pièges

Lorsqu’on a un doute a priori sur la validité ou la cohérence des réponses qui vont
être fournies, souvent parce que le sujet de l’étude est « sensible », on peut inclure
des questions dont le seul but est de fournir un indice sur ‘‘l’honnêteté’’ avec laquelle
l’individu remplit son questionnaire.

Exemple : L’utilisation de pièges est assez fréquente dans les questions de notoriété,
surtout quand il est valorisant de montrer une bonne connaissance du domaine sur
lequel on est interrogé.

3. La mise en page du questionnaire

Elle relève de la technique de mise en page d’un document dont les cinq (5) principes
élémentaires sont les suivants :

- Aérer les questions,


- Utiliser de temps à autres les symboles,

C’est intéressant pour attirer l’attention de l’enquêteur, ou de l’interviewé si ce


dernier remplit tout seul le questionnaire, sur un passage difficile ou une source
d’oubli.

- Soigner la typographie du texte : l’alternance des polices est possible, mais ne


doit pas être multipliée à l’excès (deux suffisent largement);
- Imprimer sur du papier de qualité, avec en tête de la société ou de l’institut
responsable du questionnaire;
- Utiliser, le cas échéant, de la couleur : la quadrichromie valorise
considérablement l’émetteur du questionnaire, mais conduit à une sensible des
coûts de reprographie. L’impression bicolore est une solution intermédiaire
souvent satisfaisante.
4. Le codage du questionnaire

Le codage d’un questionnaire a pour objectif de faciliter la transformation des


informations d’un état brut (telles qu’elles ont été fournies par les répondants) à un
état qui permette leur traitement statistique.

Un bon codage se compose de quatre (4) composantes :

– Identification de la, ou des, variable(s) à chaque question

Normalement, ceci doit être fait dès la rédaction des questions, voire dès la définition
de l’information à recueillir

Exemple : « Quel âge avez-vous ? » ------------------------ Age : ----------

- Identifier et coder les modalités de réponse aux questions

L’identification des modalités se fait au moment de la rédaction des questions.


La pré-existence d’une étude documentaire ou d’une qualitative est alors d’un grand
secours pour réaliser le codage.

- Prévoir un code pour les « non réponses »

Une « non réponse » peut survenir dans diverses circonstances : le répondant refuse
ou oublie de répondre à une question ; l’enquêteur oublie de reporter la réponse ou la
reporte de manière erronée ; etc.

Il faut donc prévoir une modalité de « secours » qui indique que l’information
recherchée auprès de répondant n’a pas pu être recueillie. Certains logiciels utilisent
automatiquement le zéro (e.g. Le Sphinx).

Exemple :

« Combien d’enfants à charge avez-vous dans votre foyer ? » ------ NBENF /--/

Le zéro, dans ce cas, ne peut pas être utilisé comme code non réponse, puisqu’il
s’agit d’une réponse possible.

On s’efforce donc de choisir un code qui ne puisse pas être utilisé comme réponse.
Par souci de simplicité, on essaie, si c’est possible, de retenir le même pour tout le
questionnaire.

- Prévoir l’identification individuelle du questionnaire, de l’enquêteur et de la personne


interrogée

L’indentification du questionnaire se fait en principe automatiquement par les logiciels


statistiques. Cela étant, il peut être utile, par sécurité, d’identifier chaque
questionnaire par un numéro d’ordre. Cette identification peut être couplée à celle de
l’enquêteur, et permet de contrôler a posteriori (i.e. après coup) la qualité du travail
effectué.

Exemple :
Lors de l’enquête sur la protection de l’environnement, l’identification du
questionnaire et de l’enquêteur se faisait par un code à quatre chiffres. Les deux
premiers chiffres indiquaient qui était l’enquêteur (en réalité ils travaillaient par
équipes de deux) et les deux suivants indiquaient le numéro de questionnaire pour
l’équipe. Ce code donnait naissance à une variable « NUMQUES », intégrée aux
données de l’enquête.

On note également la date et le lieu exact où fut administré le questionnaire.


L’information sert aussi au contrôle du travail des enquêteurs, mais peut être utile si
l’on pense, par exemple, que certaines réponses varient d’un quartier à l’autre.

L’indentification précise de la personne interrogée n’est pas systématique mais peut


également se justifier. Il faut le faire avec précautions, car on déroge alors au principe
d’anonymat qui est la règle en matière d’étude. Cela étant, la motivation est double :
à nouveau le contrôle des enquêteurs – si on dispose d’un nom et d’un numéro de
téléphone, on peut vérifier que le questionnaire a bien été administré le jour dit à la
personne indiquée, et comment il a été administré – et la nécessité éventuelle de
devoir administrer aux mêmes individus plusieurs questionnaires – identiques ou
différents – à des intervalles de temps espacés.

Administration du questionnaire

L’administration du questionnaire comprend trois (3) étapes :


- Pré tester le questionnaire,
- L’administration proprement dite
- Les différents contrôles pour vérifier la qualité de l’administration.

I. Prétest

Le Prétest d’un questionnaire consiste à administrer celui-ci à un petit nombre


d’individus appartenant à la population de référence de l’étude, dans le but de
repérer les erreurs commises.

1. Les modalités de mise en oeuvre

1.1. L’administration

Elle est réalisée dans les conditions réelles de l’étude, c’est-à-dire procéder à un
premier prétest en face-à-face, c'est-à-dire au moyen d’enquêteurs, si possible
chevronnés.

Une bonne solution est d’inclure le concepteur du questionnaire parmi ces


enquêteurs.

1.2. L’effectif à interroger

Si la population est très petite, un prétest de cinq questionnaires est déjà important.
Pour une enquête grand public, la taille recommandée va de 15 à 30 personnes.

1.3. L’échantillonnage
Il est essentiel que les individus interrogés pour le prétest soient issus de la même
population que ceux de l’échantillon définitif.

2. La détection de erreurs

2.1. Les erreurs

- Le mauvais choix de vocabulaire ou de style

- Le mauvais choix de modalités de réponses


- Les erreurs dans la conception et la localisation des questions filtres
- Le manque de clarté des instructions d’emploi

2.2. Le mode de détection des erreurs

Deux (2) techniques voisines peuvent être utilisées :

2.2.1. La méthode des protocoles verbaux

Cette technique consiste à demander au répondant de formuler à voix haute ses


réactions et remarques à l’encontre du questionnaire tout en le remplissant. Lorsque
l’on peut, on enregistre (audio ou, mieux, vidéo) ces réactions pour mieux les analyser
ensuite.

2.2.2. La technique du debriefing

Le répondant remplit normalement le questionnaire, dans les conditions finales


prévues de l’enquête. Puis, on explique qu’il s’agit d’un prétest et on indique les
objectifs de ce dernier. Le répondant précise alors la signification de chaque question,
explique ses réponses et expose tous les problèmes qu’il a pu rencontrer en cours de
route.

En résumé, le prétest est une opération majeure de contrôle préventif de la qualité


d’une étude. Un prétest complet comporte trois étapes : test après d’experts, test en
face à face avec un échantillon de répondants appartenant à la cible de l’étude, test
similaire, mais avec la méthode d’administration sélectionnée pour l’étude réelle. A
chaque étape, les erreurs sont progressivement éliminées. Cela dit, dans la pratique
commerciale, les contraintes de délais ramènent souvent ces remarques au rang de
« vœux pieux ».

II. METHODES D’ADMINISTRATION

En théorie, le choix de la méthode d’administration dépend du questionnaire, qui


découle lui-même de l’information à rechercher, c'est-à-dire des objectifs de l’étude.

En pratique, le budget alloué à l’enquête conditionne souvent le choix du mode de


collecte, ainsi que la taille de l’échantillon.

Les méthodes d’administration des enquêtes peuvent être classées en trois


catégories :
- Le Face-à-face,
- La voie postale,
- Le Téléphone.

1. Le Face à face

Bien qu’opérationnel depuis 1985, nous n’avons pas mentionné le mode


de recueil télématique,

Les enquêtes en face-à-face mettent en présence un enquêteur et le répondant: les


interviews à domicile, les interview dans la rue ou en sortie de caisse et les interview
menées directement au moyen d’un ordinateur.

2. La voie postale

On distingue les panels postaux des enquêtes postales traditionnelles.

3. Le Téléphone

Enquêtes téléphoniques classiques

Elles consistent à contacter téléphoniquement sélectionné et à lui administrer un


questionnaire de manière classique (i.e. réponses notées au crayon sur un exemplaire
papier du questionnaire).

L’évaluation comparative proposée plus loin montrera que l’enquête téléphonique est
une méthode permettant d’obtenir rapidement l’information souhaitée. Toutefois, ce
jugement doit être nuancé par la difficulté croissante d’obtenir des contacts utiles,
c'est-à-dire des individus qui appartiennent à la base de sondage et acceptent de
répondre.

Ce taux de réponse est mesuré par :

TR = Nr/Nf

TR = taux de réponse,
Nr = nombre de questionnaires remplis par les foyers répondants,
Nf = nombre de foyers répondants éligibles dans l’échantillon

En effet, le contact téléphonique réussi ne garanti pas que le questionnaire soit


rempli. Le correspondant doit accepter de répondre et ne pas rejeté par l’enquêteur
(ligne mauvaise, problème de langage,…). S’il coopère, il doit être éligible pou
l’enquête, c'est-à-dire posséder les caractéristiques (sexe, âge, PCS…) sui font de lui
un membre de la population étudiée. Enfin, il ne doit pas interrompre le questionnaire
en raccrochant en cours de route. Ces éléments font que la durée usuelle d’un
entretien téléphonique doit être comprise entre 5 et 15 minutes ; dans certains cas
limites on peut aller jusqu’à 30 minutes, mais le taux d’abandon d’élève
sensiblement.

3.2. Enquêtes téléphoniques assistées par ordinateur

Egalement appelées CATI (Computer-Assisted Telephone Interview), par référence au


CAPI, elles utilisent un questionnaire informatisé administré par téléphone. En
d’autres termes, l’enquêteur administre oralement, par téléphone (en réalité, pour
plus de commodité, il s’agit d’un casque équipé d’un micro), le questionnaire, mais
enregistre les réponses directement sur un ordinateur. La fiche technique 9-1 décrit
les caractéristiques communes des progiciels d’enquêtes automatisés pour les
méthodes CAPI et CATI.

4. L’évaluation comparative des méthodes d’administration


4.1. La flexibilté de collecte

- Les méthodes en face à face sont les plus flexibles, l’enquêteur compétent
pouvant aider le répondant, modifier l’ordre des questions si cela lui paraît
nécessaire et, éventuellement, suggérer des questions supplémentaires
(ouvertes, par exemple) si le besoin s’en fait sentir.

- L’enquête postale est la moins flexible, puisque l’auto-administration rend


impossible toute assistance en cours de rédaction.

- Le téléphone est au niveau intermédiaire : l’enquêteur peut répondre aux


demandes de précision, mais ne peut déceler les expressions du regard de
l’interviewé révélant d’éventuelles difficultés de compréhension.

5. Les critères de choix d’un mode d’administration

Les principaux critères de choix sont :


- Les objectifs de l'étude : lorsque les informations à collecter sont nombreuses et
nécessitant une réflexion, voire la création d'un certain climat de confiance entre
l'enquêteur et l'enquête, l'enquête dans la rue n'est pas envisageable;
- La nature de la population à étudier
- La taille de l'échantillon
- La dispersion géographique de l'échantillon
- La méthode d'échantillonnage
- La complexité des informations à collecter
- Le budget alloué
- Le délai accordé pour réaliser l'enquête

Aucune méthode n'étant idéale, le chargé d'études possède généralement à une


analyse avantages/ inconvenant.

PRESENTATION DU RAPPORT D’ETUDE ET MISE EN OEUVRE

I. Rédaction du rapport d’étude

Les résultats sont regroupés dans un support écrit, appelé rapport d’étude, rédigé par
le chargé d’études. Ce document est remis au commanditaire du travail (client
extérieur ou service interne de l’entreprise).

1. Présentation matérielle
1.1. Nombre de pages

Il dépend bien sûr de la complexité de l’étude et la finesse des analyses effectuées.


Pour fixer un ordre de grandeur, 40 à 80 pages (hors annexes) constituent un volume
usuel.

1.2. Présentation générale

Le format A4 (ou pleine page de 21 x 29,7 cm) est la règle. Pour faciliter la lecture du
rapport, une bonne solution consiste à mettre le texte en page de droite, et les
schémas, tableaux ou figures en regard sur la page de gauche.

Pour un document de moins de 80 pages (annexes comprises), une reliure en


plastique amovible convient : peu coûteuse, elle donne un confort de lecture
satisfaisant. Il faut éviter les documents agrafés, présentation qui ne convient qu’aux
notes internes. La couverture du rapport demande un papier d’un grammage épais de
200 ou 250 grammes. Une feuille de transparent, placée en première et dernière
page, protège efficacement la couverture contre les traces de doigts disgracieuses et
confère à l’ensemble du document une note plus professionnelle.

La reliure cartonnée, de préférence en dos carré cousu-collé, est plus prestigieuse,


mais impose un façonnage relativement onéreux. L’avantage réside dans la possibilité
d’inscrire sur la tranche le titre de l’étude, ce qui facilitera le classement et le
repérage ultérieur du rapport. Si on opte pour un dos carré collé simple. Il convient
d’être très vigilant sur la qualité du collage, pour éviter de voir le rapport se
transformer rapidement en feuilles volantes…

2. Rubriques usuelles

Le plan-type comporte sept (7) rubriques.

2.1. Page de couverture et sommaire

La couverture reprend le titre de l’étude, le nom et l’adresse de l’organisation, ou le


service responsable de l’étude, le(s) auteur(s) et la date d’achèvement du rapport.

Le sommaire, paginé, récapitule les grandes divisions et sous-parties du document.


Table d’orientation indispensable, il permet au lecteur pressé d’identifier la logique du
raisonnement, puis de se reporter à l’un ou l’autre des points. Si le rapport est
volumineux, il est utile d’ajouter une liste des tableaux ou figures, ainsi qu’une table
des annexes.

2.2. Résumé (1 à 3 pages)

Le résumé est indispensable, car, les responsables d’entreprises ne lisent


fréquemment, faute de temps, que cette partie. Les points essentiels sont : le rappel
des objectifs, les trois ou quatre résultats majeurs obtenus et les principes
conclusions.

2.3. Introduction et préliminaires (2 à 5 pages)

Les objectifs de l’étude sont brièvement rappelés, ainsi que le contexte et les
éventuelles hypothèses de travail. Les hypothèses renvoient à diverses éventualités
qui, si elles se réalisent, conduisent à des conclusions différentes. Par exemple, les
conclusions seront différentes, selon le taux de croissance du marché retenu ou selon
le niveau de concurrence.

Les contraintes correspondent à des conditions prérequises pour que les conclusions
figurant dans le rapport soient valides : il s’agit en quelque sorte de réserves qu’émet
le rédacteur, par exemple :

Nous avons considéré que l’entreprise sera capable de modifier un budget


de 5 millions de francs pour le lancement du produit et aura assuré une
disponibilité numérique minimale de 50 % en hypermarché lors du
démarrage des ventes.

Si une étude documentaire, ou des résultats d’un travail antérieur, ont été utilisés, ils
ont brièvement présentés, car ils orientent la démarche ultérieure.

Certains chargés d’études précisent à ce niveau les limites de leurs investigations,


c'est-à-dire les éléments susceptibles de modifier les conclusions, qui ont été
volontairement exclus, généralement pour des raisons de budget ou de temps.

Enfin, si des termes particuliers ont été utilisés (mots techniques, concepts
marketing…), une définition claire et simple doit être fournie. Par exemple, on
indiquera ce que l’on entend par prescripteur, cœur de cible, score d’impact, marché
potentiel, etc.

2.4. Méthodologie (1 à 3 pages)

L’exposé de la méthodologie est rapide et se limite aux points majeurs. Si la


présentation d’éléments complexes ou relativement longs est requise (collecte des
données, traitements statistiques), on utilise une annexe méthodologique. Seuls les
principaux points figurent dans le corps du document, sous forme de « fiche
méthodologique ».

2.6. Analyse des résultats (30 à 60 pages)

Le chargé d’études débutant a tendance à recopier le questionnaire et à fournir les


réponses (souvent sous forme de tris à plat ou de moyennes) question par question.
Le lecteur est rapidement noyé par les chiffres et les commentaires parcellaires.

Une bonne approche consiste à construire le rapport part grands thèmes, sur la base
des différentes questions posées au départ. Les questions traitant d’un même thème
sont regroupées afin de dégager une synthèse. Seuls les chiffres bruts correspondant
à quelques questions jugées fondamentales sont fournis dans le corps du rapport. Il
est préférable de renvoyer dans une annexe spécifique les résultats complets de
chaque question.

Les tableaux et graphiques (attention ni trop, ni assez !) facilitent la compréhension et


la mémorisation. Nous consacrons le paragraphe 4 à une présentation des principales
techniques graphiques. Chaque tableau ou graphique est accompagné de son titre,
d’une légende et d’un numéro de référence. N’oublions pas que, si les illustrations
permettent d’alléger le texte, elles ne le suppriment pas : il est indispensable de
commenter les tableaux et figures (ou les plus importants d’entre eux) et de préciser
les informations ou les conclusions majeures.
Il est utile de produire, sous forme d’encadré à chaque fin de page, ou toutes les deux
ou trois pages, un résumé des résultats et des conclusions partiels tirés de l’analyse
des informations. La figure 14-4 donne un exemple : la partie de gauche est réservée
aux graphiques, le texte et l’encadré récapitulatif sont en page de droite.

2.7. Conclusions (2 à 10 pages)

Cette partie, très importante, fournit au client les éléments de synthèse nécessaire à
la prise de décision. Les conclusions répondent, point par point, aux différentes
questions qui ont motivé l’étude. Elles s’appuient, soit sur les seuls faits observés, soit
sur des scénarios (réactions des concurrents, état de la demande, etc.) jugés
plausibles. Le chargé d’étude n’interprète pas le sens des résultats et ne fournit pas
d’informations sur la nature de la décision que le client peut prendre au vu des
résultats, du type : « comme c’est un excellent résultat, il est logique de lancer le
produit ». Tout au plus, il indique s’il s’agit d’un bon ou d’un mauvais résultat. Nous
développerons dans la figure 14-5 (page suivante), un exemple illustratif.

2.8. Annexes

Les annexes allègent le corps du rapport et servent à l’exposé des aspects techniques
d’une méthode ou à la présentation d’analyses ou de tableaux secondaires. Lues par
un petit nombre de personnes, mais souvent spécialistes du thème développé, elles
ne sont pas un moyen commode d’étoffer un rapport succinct, mais plutôt des
éléments destinés à renforcer la crédibilité du travail entrepris. En cas d’annexes
volumineuses, il convient de prévoir un document distinct du rapport principal.

3. Recommandations et conseils

Les rubriques précédentes se suffisent à elles-mêmes. En d’autres termes, la mission


du chargé d’études s’achève dès que les conclusions ont été présentées. Pourtant,
dans bon nombre de cas, le demandeur souhaite que le réalisateur s’engage plus en
avant. Puisque ce dernier dispose d’une grande quantité d’informations pour résoudre
le problème, l’entreprise attend des suggestions sur la, ou le(s) solution(s)
préférable(s). Cet engagement peut se limiter à un premier stade, la
recommandation, ou aller plus loin : on parle alors de conseil.

3.1. Recommandations

Les recommandations sont une traduction des conclusions en terme de choix


marketing, plus ou moins élaborées selon l’ampleur de l’étude. Elles se justifient par
l’expérience accumulée : grâce aux études antérieures similaires ou comparables,
l’analyste est capable de dégager des normes pour apprécier les résultats. Par
exemple, l’expérience montre que, pour les tests de concept d’un nouveau produit, en
moyenne 60 à 80 % des personnes enquêtées se déclarent systématiquement
intéressées par l’idée : donc, si pour un produit donné, le score n’est que de 70 %,
l’analyste émettra des doutes sur les chances de succès du produit et recommandera
de modifier telle ou telle caractéristique.

Lors d’une recommandation, le chargé d’études précise à son client les informations
jugées les plus solides, c'est-à-dire les données « dures » qui conduisent à des
décisions sans risques, et celles qui sont plus délicates à interpréter, peut-être à
cause de biais dans les réponses ou d’autres facteurs explicatifs non contrôlés dans
l’étude. La valeur ajoutée d’une bonne recommandation est forte, parce qu’elle
permet au décideur de hiérarchiser la qualité des informations fournies, et parce
qu’elle oblige le chargé d’études à « faire parler les résultats.

3.2. Conseils

Le conseil suppose une implication plus grande encore : c’est le « service après-
vente » du rapport d’étude. Il indique quels types d’actions marketing doivent être
mis en œuvre. L’homme d’études se substitue au manager (acheteur de l’étude) en
indiquant quels stratégie, plan ou tactique marketing il pratiquerait, s’il était à sa
place.

Pour produire des conseils de bonne qualité, il est impératif de disposer d’une vue
globale des forces et des faiblesses de l’entreprise sur les plans financier, humain et
technologique. La culture des managers, leur autonomie dans la prise de décision et
le degré de risque jugé tolérable sont autant d’éléments à considérer. Ainsi, on ne
donnera pas les mêmes conseils à une filiale d’un groupe multinational qu’à une PME,
quant bien même leurs résultats seraient identiques.

LE REDRESSEMENT DE L'ECHANTILLON
Lorsqu'un enquêteur a terminé son travail, il arrive que les quotas de ses
questionnaires ne correspondent pas correctement à ceux demandés.

Trois (3) méthodes de redressement sont possibles :


- Le calcul du taux de redressement,
- Le redressement par extraction,
- Le redressement par substitution.

3.1. Le calcul du taux de redressement


Lorsque les quotas des questionnaires d'un enquêteur ne correspondent pas
exactement à ceux demandés, on a alors affaire à deux échantillons :
L'échantillon théorique et l'échantillon réel.
Avant d'extrapoler les résultats à la population - mère, il faut redresser l'échantillon,
c'est-à-dire diminuer les réponses des individus sus- représentés (par rapport à ce qui
était demandé) et augmenter les réponses des sous - représentés grâce à un taux de
redressement : Echantillon théorique
La formule du taux de redressement est :
Echantillon réel
Exemple : Si la réponse de l'échantillon réel est de 20% et que le taux de
redressement calculé est 1,2. La réponse prise en compte sera : 20% x 1,2 = 24%

3.2. Le redressement par extraction


Cette méthode consiste à supprimer les enquêtes au-delà du pourcentage souhaité.
Exemple :
Sur un échantillon de 1000 personnes, vous constatez que vous avez 60% de femmes
et 40% d'hommes, alors que vous savez que dans votre base de sondage, il n'y a que
55% de femmes.
Dans notre exemple, il y a trop de femmes. Pour que les 400 hommes enquêtés
représentent bien la proportion recherchée de 45%, il ne faut retenir que
400 x 0,55 / 0,45 = 488 enquêtes de femmes
112 questionnaires seront éliminés de manière aléatoire.
Cette méthode satisfaisante sur le plan statistique, présente l'inconvénient de réduire
la taille de l'échantillon (888 au lieu de 1000). Des enquêtes sont administrées
inutilement (112)
3.3. Le redressement par substitution
Dans cette méthode, on remplace l'individu en surnombre par un individu sous -
représenté
Dans notre exemple, on supprime 50 questionnaires femmes et on duplique 50
questionnaires hommes.
Les questionnaires à supprimer et à dupliquer sont choisis au hasard. La taille de
l'échantillon est maintenue, mais si les substitutions sont nombreuses, on introduit un
biais important.

LE TRAITEMENT DES DONNEES


Le chargé d'études commence son analyse par des tabulations simples.

Les tris à plat

Ils sont établis, pour chaque question, en classant les réponses selon les possibilités
retenues à priori (question fermée ou semi-ouverte) ou a posteriori (question ouverte)
puis en les dénombrant (distribution de fréquences absolues) et en calculant le
"poids", en pourcentage (fréquence relatives), de chaque éventualité soit par rapport
au nombre des personnes interrogées soit par rapport au nombre des répondants à la
question (en particulier en cas de questions filtres).

Les tris ou tableaux croisés

Lestrisou tableaux croisés comparent les réponses à une questions selon la réponse
donnée à, au moins, une autre questions. Autrement dit, ils permettent d'étudier la
répartition des éléments observés (les individus interrogés) selon au moins deux
caractères.

Certains chargés d’études se contentent de lire les tableaux croisés, comme nous
venons de le montrer, pour rédiger leurs commentaires. Ils prennent le risque de
conclure en l’existence d’associations entre variables qui ne seraient que l’effet du
hasard, le résultat d’erreurs d’échantillonnage.

Cette façon de faire est d’autant plus ridicule qu’il existe des tests statistiques qui
permettent de mesurer la réalité de la dépendance entre variables. Parmi eux, l’un
des plus utilisés est le test de contingence du Chi-deux.

LE TEST DU CHI-DEUX

Le test d’indépendance du Chi-deux repose sur le même principe que le test


d’ajustement du Chi-deux de Pearson que nous avons étudié plus haut.

Mais, il s’agit d’estimer ici le degré d’indépendance entre deux caractères étudiés
dans un tableau croisé (tableau de contingence).

La formule du Chi-deux permet de mesurer l’écart entre les effectifs observés et les
effectifs théoriques de chaque case (ligne-i, colonne-j) du tableau de contingence.
L’effectif théorique correspond à l’hypothèse d’indépendance des deux caractères L
et C, donc lorsque les valeurs des colonnes sont proportionnelles entre elles et
lorsqu’elles sont proportionnelles à la colonne marginale.

nij théorique = L x C

où L est le total des effectifs observés de la ligne


C est le total des effectifs observé de la colonne
n est la taille de l’échantillon

Quel que soit la configuration du tableau de contingence, le nombre de degrés de


liberté est égal à (1 – 1) (c – 1) ; 1 étant le nombre de lignes, c le nombre de colonnes.

Dans notre exemple, le nombre de dd1 est (2 – 1) (2 – 1) soit 1.


Le test de signification consiste à comparer la valeur du Chi-deux calculé avec celle
du Chi-deux de la table de Pearson

Cette dernière dépend du nombre de degrés de liberté et du seuil de signification


alpha retenu (généralement 5% ce qui correspond à un seuil de confiance de 95%)
La règle de décision sera la suivante :
Si le Chi-deux calculé est supérieur au Chi-deux critique de la table, il est peu
probable que cela soit dû au hasard, donc les deux caractères sont statistiquement
dépendants.

Si le Chi-deux calculé est inférieur ou égal au Chi-deux critique, les écarts sont
vraisemblablement dus aux fluctuations d’échantillonnage, donc il convient de ne pas
rejeter l’hypothèse selon laquelle les deux caractères sont indépendants.

Chi-deux calculé > Chi-deux critique <=> rejet de la proposition de


recherche
D’indépendance des variables
Chi-deux calculé < Chi-deux lu dans la table <=> acceptation de la proposition de
recherche
d’indépendance des variables
Le fait qu’il existe une relation d’association statistiquement significative entre ces
deux variables ne signifie pourtant pas qu’il existe forcément une relation de
causalité.

Par ailleurs, l’hypothèse d’association ne doit être acceptée que provisoirement, c’est
à dire tant que le contraire n’a pas été prouvé. Dans notre exemple, on voit bien que
cette association (homme fumeur, femme non fumeuse) est sujette à caution dès lors
que l’on introduit la notion d’âge.

LA MESURE DU DEGRE D’ASSOCIATION ENTRE LES VARIABLES


Le test du Chi-deux repère le caractère significatif d’une relation entre plusieurs
variables, mais il ne permet pas de mesurer l’intensité de cette relation ce qui est
d’un plus grand intérêt encore.

Pour compléter l’analyse du Chi-deux, il est possible de calculer facilement des


coefficients mesurant le degré d’association entre les variables.

Le coefficient de corrélation Phi

lorsque le tableau croisé comprend 2 lignes et 2 colonnes, le coefficient Phi peut être
calculé à partir de la valeur du Chi-deux :

Phi = V Chi-deux calculé/n

Le coefficient Phi varie entre –1 et +1, la valeur zéro correspondant à l’absence totale
d’association

On voit, dans notre exemple, que bien que le test du Chi-deux indique l’existence
d’une relation d’association statistiquement significative, cette association est,
somme toute, assez faible.

Le coefficient de contingence

Lorsque le tableau de contingence est plus grand (que 2 x2), le coefficient Phi ne
pouvant êtr calculé, c’est le coefficient de contingence C qui le sera pour mesure le
degré d’association entre les deux variables.

n étant la taille de l’échantillon


Ce coefficient est aussi simple à calculer que le coefficient Phi.

En revanche, son interprétation est plus délicate. Ce coefficient est nul quand il y a
absence totale d’association entre les variables. Il n’est pas égal à 1 lorsque
l’association est parfaite, mais à (r-1), où r est le nombre de lignes du tableau de
contingence.

Autrement dit, lorsque le tableau comprend 2 lignes 2 colonnes, le maximum de C est


0,707

LES ANALYSES STATISTIQUES

L'interprétation des tests statistiques

Les statistiques permettent de comparer les données qui varient (variables) d'un
individu et d'un groupe d'individus à l'autre. Ces variables peuvent être :
un nombre représentant une quantité (l'âge, le nombre de cigarettes fumées par jour)
; une catégorie de réponses (« oui » , « non » , « ne sait pas » ou « rarement » ,
« parfois » , « souvent » , « très souvent » ).
Le premier type de variable se nomme quantitative. Il permet, par exemple, les
calculs de moyennes. Le deuxième type de variable se nomme qualitative. Elle est
dite nominale si les catégories n'ont pas d'ordre (« oui », « non », « ne sait pas ») et
ordinale s'il est possible d'indiquer un ordre entre les catégories (« rarement »,
« parfois », « souvent », « très souvent »).
Pour les variables nominales et ordinales, un pourcentage de réponses par catégorie
(ou modalité) peut être obtenu.

L'analyse des réponses fait apparaître en général des différences selon le groupe
d'appartenance d'un individu, par exemple selon le sexe ou l'âge. La question
essentielle est de pouvoir déterminer si la différence observée entre les groupes
pourrait être un effet du hasard ou si elle résulte d'un autre effet. Il n'est pas possible
de répondre à cette question directement, mais on évalue la probabilité que la
disposition trouvée dans les données soit due au hasard. Si cette probabilité (que l'on
note habituellement « p ») est inférieure à 5 % (seuil généralement retenu), on admet
que la différence est significative.

La moyenne, l'écart type et la médiane

Le choix de la moyenne comme indice résumant l'ensemble des données s'explique


par le fait qu'il s'agit du nombre le plus proche de l'ensemble de ces données (lorsque
celles-ci suivent une loi dite « normale », c'est-à-dire lorsqu'il y a dans une population
beaucoup d'individus proches de la moyenne et peu aux extrêmes).
En revanche, utiliser seulement cet indice revient à ne pas prendre en compte la
variabilité des données ; ainsi, on lui adjoint souvent l'écart-type évaluant la
dispersion des valeurs autour de la moyenne.
La médiane est, quant à elle, la valeur pour laquelle 50 % des mesures de la
distribution sont supérieures et 50 % inférieures. Cet indicateur de position a l'intérêt
d'être indépendant des valeurs extrêmes d'un échantillon, contrairement à la
moyenne.

La relation entre deux séries d'observations

Quand il s'agit d'évaluer la relation entre deux séries d'observations, il convient de


déterminer si le fait que les deux types d'événements apparaissent ensemble un
certain nombre de fois permet de conclure qu'il existe entre eux une relation. Par
exemple, dans l'étude de la consommation de tabac suivant le sexe du répondant, les
hommes déclarent plus souvent être des fumeurs que les femmes. Deux possibilités
sont envisageables :
- Dans un premier cas, les deux (2) types d'événements sont considérés comme
indépendants ; leur occurrence simultanée, quand elle se produit, est due au seul
hasard. Les hommes seraient plus souvent des fumeurs que les femmes uniquement
en raison d'une fluctuation d'échantillonnage ;
- Dans le cas contraire, lorsque les observations effectives s'éloignent suffisamment
des observations attendues en cas de répartition au hasard, il existe une relation
entre les deux (2) variables étudiées (voir « Degré de significativité ou de
signification »).

La causalité

Seule la méthode expérimentale est en mesure d'établir un lien de causalité entre


deux (2) phénomènes. Les enquêtes descriptives comme le Baromètre santé ne
peuvent apporter de preuve de l'existence d'un lien de causalité.

La standardisation

Lorsque l'on étudie certaines caractéristiques ou certains comportements de santé


dans deux (2) populations distinctes, les différences observées peuvent être affectées
par des facteurs qui différencient les deux (2) populations (par exemple, la structure
par âge ou par sexe peut être différente d'une population à l'autre). La
standardisation est un moyen de rendre les mesures effectuées comparables.

Le degré de significativité (ou de signification)

Le degré ou seuil de significativité exprime la probabilité que les différences


observées soient le fruit du hasard (risque de 1re espèce).
Pour chaque test statistique effectué, le degré de significativité a été calculé et
exprimé par la donnée du seuil « p » associé. Quand un résultat relatif à une relation
entre deux variables est introduit dans le texte et discuté, dans tous les cas cette
relation a été évaluée par l'intermédiaire d'un test statistique, et le test utilisé s'est
révélé significatif à un seuil de probabilité « p » inférieur à 0,05 (5 %). Cela signifie
que la différence observée a moins de cinq chances de se produire si l'on tirait au
hasard cent échantillons différents dans la population générale. Il est donc possible de
conclure que ce n'est probablement pas le hasard qui induit cette différence, mais
qu'il s'agit d'un autre effet.
Dans les tableaux ou dans le corps du texte, les degrés de significativité des tests
statistiques sont généralement indiqués de la manière suivante :

p<0,05 signifie que le hasard ne produirait cette répartition de données qu'au plus
une fois sur vingt tirages au sort ;
p<0,01 signifie que le hasard ne produirait cette répartition de données qu'au plus
une fois sur cent tirages au sort ;
p<0,001 signifie que le hasard ne produirait cette répartition de données qu'au plus
une fois sur mille tirages au sort.
Certains auteurs ont utilisé des seuils de significativité légèrement différents.
Les risques de 2e espèce et de 3e espèce ne seront pas abordés dans le cadre de
cette publication.

Le Chi2 de Pearson

Si l'on s'intéresse plus particulièrement à deux (2) variables qualitatives (repérées par
des catégories ou des modalités) - comme le sexe et la pratique sportive -, l'outil
statistique utilisé est le test du Chi2 de Pearson. Il mesure la différence entre le
tableau attendu si les deux facteurs se croisaient « au hasard » et le tableau
effectivement observé

Le Chi2 de tendance

Le test de tendance est généralement utilisé pour étudier une relation dose-réponse
ou pour évaluer des tendances selon le temps ou n'importe quelle valeur ordonnée. Il
permet éventuellement de conclure, par exemple, à l'existence d'une tendance
linéaire, selon le temps, d'une diminution ou d'une augmentation de la prévalence
d'un comportement de santé.

Analyse de la variance

L'analyse de la variance a été utilisée pour comparer la différence entre deux ou


plusieurs moyennes.
Si l'on s'intéresse au nombre moyen de cigarettes fumées par jour selon le sexe, il
faudrait s'attendre, si aucune relation n'existait entre la variable « nombre moyen de
cigarettes fumées » et la variable « sexe » , à ce que le nombre moyen de cigarettes
soit identique chez les hommes et chez les femmes. L'analyse de la variance
distinguera les sources de variation de la « consommation de cigarettes » en une
composante liée aux différences individuelles (fortuites ou au hasard) et une
composante liée à l'effet « sexe » . Si cette dernière source de variation est jugée
importante en regard de la première composante « aléatoire » - par l'utilisation des
statistiques F de Fisher ou t de Student qui quantifient cette comparaison -, il est
possible de conclure que le nombre de cigarettes fumées en moyenne diffère
significativement selon le sexe de l'individu.

L'odds ratio

Une des façons d'exprimer l'effet d'une variable sur une donnée qualitative est l'odds
ratio (littéralement : rapport de côtes). L'odds ratio est, dans un tableau à deux
entrées, le rapport a/c sur b/d.
Il est très utilisé en épidémiologie, notamment pour évaluer les risques de développer
certaines maladies chez certaines populations (par exemple exposées et non
exposées) ; c'est en réalité une estimation de l'augmentation du risque relatif si la
grandeur observée est rare (< 1 %).
En effet, l'odds ratio (a/c)/(b/d) peut uniquement être confondu avec le risque relatif
(a/(a+c))/(b/(b+d)) lorsque le phénomène observé est rare (a et b < 1 %). Ceci est
souvent le cas lorsqu'il s'agit d'une maladie, mais est exceptionnellement le cas dans
les phénomènes de comportements fréquents étudiés dans le Baromètre santé. En
toute rigueur, il conviendrait donc d'utiliser systématiquement le mot anglais « odds
ratio » et non risque pour ne pas induire de confusion. Cependant, pour des raisons de
lisibilité et de facilité de compréhension, on trouvera également dans les chapitres
une interprétation de l'odds ratio en terme de « risque » , de « chance » ou de
« probabilité » .

Les variables de confusion et les interactions

Trouver une association entre deux variables ne signifie pas que les deux variables
soient liées directement entre elles. Un troisième facteur lié aux deux autres peut
intervenir. Par exemple, il existe une relation entre la pratique d'un sport et la
consommation d'alcool au cours de l'année. En fait, ce lien disparaît si l'on introduit la
variable « âge » (en « ajustant » sur l'âge), tout simplement parce que la
consommation d'alcool est fortement liée à l'âge. On appellera « variable de
confusion » , une variable qui aura tendance à annuler (ou accentuer) la relation
statistique entre deux variables, à chaque item d'une des variables. On parlera
« d'interaction » entre variables lorsque l'effet d'une variable diffère selon l'item
considéré d'une des variables. Ainsi, dans notre exemple, si après avoir regardé la
relation statistique entre la pratique d'un sport et la consommation d'alcool pour
différentes tranches d'âges, on observe qu'il n'y a plus de relation entre les deux
variables pour chacune des tranches d'âge, on parlera de variable de confusion (en
l'occurrence l'âge) dans le relation sport/consommation d'alcool. En revanche, si l'on
observe une relation entre sport et alcool pour les jeunes, mais pas pour les plus
âgés, on parlera d'interaction de l'âge dans la relation sport/ consommation d'alcool.
Pour éviter ce problème d'interaction, les régressions logistiques seront souvent
présentées séparément pour les hommes et pour les femmes.

Les analyses multivariées

Il est rare de s'intéresser seulement à deux variables isolées quand il s'agit d'étudier
des phénomènes complexes. Dans ce cas, il est possible d'avoir recours aux analyses
multivariées (incluant en même temps plusieurs variables) qui peuvent être de deux
types. Le premier se focalise sur une variable - nommée variable « dépendante » ou
cible - pour laquelle on cherche à déterminer les facteurs associés
variables indépendantes - restant en relation significative avec cette variable quand
on considère leur variation simultanée. Dans notre étude, ce type d'analyse
(représenté par la régression logistique ou l'analyse de la variance multiple) a
essentiellement été utilisé pour vérifier l'existence ou non de certains facteurs de
confusion.
Le second type d'analyse ne privilégie pas une des variables considérées et cherche à
dégager la structure descriptive de l'ensemble de ces variables. Dans cet ouvrage, ce
genre d'analyse a été employé sous la forme d'une analyse en composantes
principales.

La régression logistique

La régression logistique permet de créer un modèle (mathématique) liant une série de


variables à une seule variable cible qualitative à deux modalités (« oui » /« non » ,
« présent » /« absent » , 0/1). Il est possible de mesurer l'influence de chaque variable
du modèle sur la variable cible, indépendamment des autres (ajustement). La force de
l'influence de chaque variable du modèle est estimée par l'odds ratio. Suivant la
qualité du modèle, il est possible de prédire plus ou moins bien la variable cible
connaissant la valeur des autres variables.
La difficulté de l'utilisation de la régression logistique en sciences sociales repose sur
la fragilité des modèles explicatifs reliant comportements, attitudes, connaissances et
opinions.
La régression logistique n'a pas été utilisée dans ce Baromètre pour construire un
modèle et prédire la variable cible, mais simplement pour évaluer l'impact éventuel
de certaines variables de confusion ou pour mesurer la force des liens entre les
variables.
Pour chaque odds ratio ajusté, l'intervalle de confiance est signalé (IC) à 95 % : cela
signifie que la probabilité que l'odds ratio ajusté soit dans l'intervalle indiqué est de
95 %.

L'analyse de la variance multiple

L'analyse de la variance multiple (Manova) a permis de mesurer l'influence de


plusieurs variables sur une variable dépendante quantitative. Elle donne l'occasion de
déterminer celles qui s'avèrent les plus influentes - expliquent le plus sa variation ou
sa variance - et, comme pour la régression logistique, de vérifier l'existence ou non de
variables de confusion.

Vous aimerez peut-être aussi