Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Cours de Methodologie Qualitative de La Recherche-1

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 102

COURS DE METHODOLOGIE QUALITATIVE DE LA

RECHERCHE
Destiné aux Etudiants de Master de recherche
Par
Prof. Albert B.KALONGA Luse - Lua- Nzambi
Dr en Sociologie des Conflits Armés, DDR et Stratégies de réintégration
socio-économique des couches vulnérables

O. INTRODUCTION GENERALE

Il est certainement au moins aussi important et aussi difficile — sinon plus — de mener à bien
la préparation et la conduite d'une recherche, que d'en traiter, de façons même très
sophistiquées, les résultats.

Le présent cours vise donc à fournir l'essentiel de la matière à couvrir dans la préparation de
chercheurs, de praticiens d'études sociales ou d'étudiants finissants en programmes
universitaires qui doivent, en étape finale, présenter un mémoire, une thèse ou un rapport
d'étude sur un sujet précis relevant de leur discipline.

Il s'agit de permettre à de jeunes chercheurs d'être capables de faire un usage systématique des
connaissances acquises en vue de mieux comprendre et de mieux intervenir sur des aspects
particuliers de leur domaine.

L'objectif général est aussi d'ordre pratique : faire en sorte que le futur chercheur puisse
préparer, élaborer et conduire une activité de recherche (ou d'intervention un tant soit peu
rigoureuse) sur une situation réelle et devant déboucher sur une action.

Par ailleurs, nous voulons développer et élargir les horizons d'application de l'outil
statistique / quantitatif et donner un minimum de culture générale nécessaire au chercheur de
tout niveau (et à toute personne) ayant pour tâche d'intervenir sur des situations après études
préalables. Le tout étant susceptible de relativiser, voire de faire reculer, la trop envahissante
« mathématisation de la réflexion » à laquelle nous assistons de plus en plus dans nos
domaines : s'évertuer à tout exprimer et analyser en termes de rapports, de coefficients,
d'équations, de distributions, de « modèles »... quantitatifs pour mieux paraître
« scientifique ».

De façon plus précise, nous partirons de la notion de mémoire, ses exigences et ses limites,
pour ensuite parcourir pas à pas, dans le sens de son déroulement logique, l'ensemble du

Page 1 sur 102


processus de l'étude « classique » 1 d'un sujet, depuis la simple idée de recherche jusqu'au
traitement des données.

Il doit cependant bien être admis que le présent ouvrage n'est nullement un traité de
statistiques appliquées ou d'analyse de données. Il sera en ce sens, fort peu technique et
presque pas quantitatif.

Il s'agit de l'étude de ce qu'est, selon le modèle « classique » d'abord, la démarche de


recherche et de ce qu'est la façon (la méthode) avec laquelle on peut prétendre effectuer un
travail qui en soit le plus proche possible. Ce sera, ensuite, un essai d'indication de ce que
pourrait être un modèle plus humaniste de recherche sur les faits humains.

1.1. Objectifs du cours

L’objectif de ce cours est de montrer aux étudiants (futurs chercheurs), les méthodes à suivre
et les techniques appropriées, adaptées à l’élaboration d’un travail scientifique ; mais aussi et
surtout de leur fournir les éléments importants qui interviennent dans tout travail de
recherche, de leur apprendre comment les acquérir, les ranger et les utiliser à bon escient (de
façon adéquate). Ce cours n’a ni l’ambition ni la prétention d’être exhaustif. Il vise à donner
une vue globale et synthétique des quelques méthodes quantitatives et techniques à l’œuvre
dans la recherche scientifique. Il s’adresse donc aux futurs hommes de terrain et va les aider,
dans le cadre purement scientifique, les préparer à la rédaction des travaux académiques
courants (ex.  : T.P., T.F.C., rapport de stage, etc.).

1.1.1. Objectifs spécifiques

La partie relative au travail scientifique vise entre autres :


- La préparation de l’étudiant (par une série de conseils pédagogiques et techniques) à
envisager ses études avec confiance,
- Lui assurer le plus de chance de réussite,
- Développer chez lui les qualités intellectuelles et morales indispensables à la
production d’un travail scientifique,
- Lui apprendre à connaître et à se servir de façon acceptable, intelligente et méthodique
des instruments de travail
- scientifique, des techniques de récoltes de données, ainsi que des contraintes de
présentation heureuse d’un travail scientifique.
La partie relative aux méthodes et techniques d’enquête apportent à l’étudiant les différents
procédés de collecte des données.

N.B. 1. Objectifs intermédiaires


L’étudiant (le chercheur) devra être capable d’établir les liens, les connexions logiques entre
ce cours et les autres cours vus antérieurement ou à voir. Exemple : La démographie et la
géographie, la comptabilité et l’économie politique, les mathématiques et les statistiques, etc.

1
« Classique » dans le sens du « modèle orthodoxe » (tel que défini en particulier par M. Audet et al. « Science
et résolution de problèmes... », Philosophie des Sciences Sociales, 16, 1986, p. 409-440) considérant « la »
science comme une, objective, extérieure, s'appliquant à des « objets » neutres etc. Modèle dont nous ne
partageons le bien-fondé qu'en tant qu'appliqué à des domaines relevant des sciences de la nature, domaine
pouvant comprendre des objets inertes, constants, isolables...

Page 2 sur 102


2. Objectifs institutionnels
L’étudiant doit être capable de mettre en pratique les enseignements ainsi que les exigences
professionnelles.

* Aux étudiants :
Ce cours tentera de répondre aux nombreuses questions et angoisse en rapport par exemple
avec le choix du sujet, la préparation, la rédaction et la présentation d’un travail scientifique.
Dans le but de diminuer cette angoisse nous avons jugé nécessaire de préparer ce cours en
l’étoffant.

* Aux chercheurs confirmés


Ils pourront s’en servir pour se rafraîchir la mémoire. En peu de mots, nous insistons sur le
caractère essentiellement pratique de ce cours. Il se borne à donner des conseils simples et
utiles. Inutiles donc de le considérer comme un « Traité » d’initiation au travail scientifique.

02. Méthodologie

02.1. La didactique de ce présent module se présente de la manière suivante : La


méthodologie est participative
a. Exposés et débats houleux
b. Travaux pratiques individuels ou en groupes,
c. Simulations et échanges d’expériences ;
d. Enseignement axé sur les compétences ;
e. Recherches personnelles dans les bibliothèques et exposés ;

02.2. Le mode d’évaluation des connaissances ou docimologie de notre séminaire :


Travaux pratiques et examens.

03. Contenu minimal du cours


Introduction générale

- Importance du cours
- Objectifs : - Général, spécifiques, intermédiaires, institutionnels, etc ;
- Méthodologie pour notre enseignement ;
- Contenu minimal du cours.

Chapitre I : QUELQUES CONCEPTS FONDAMENTAUX

Chapitre II : COMMENT CONSTRUIRE UNE RECHERCHE


2.1. De l’identification d’un thème de départ à la construction d’un objet de
recherche
2.2. La revue de la littérature et l’exploration
2.3. L’élaboration du design de recherche
2.4. Le recueil et l’analyse des données
2.5. Un exemple d’application d’une démarche de recherche

Chapitre III : LES FONDAMENTS EPISTEMOLOGIQUES DE LA RECHERCHE

Page 3 sur 102


3.1. Le positivisme
3.2. La sociologie compréhensive
3.3. Le Fonctionnalisme
3.4. Le constructivisme
3.5. Une approche transversale des différents paradigmes

Chapitre IV : LES METHODES ET TECHNIQUES QUALITATIVES DE


RECHERCHE
4.1. Les stratégies qualitatives d’accès au réel
4.2. Les études de cas
4.3. Les méthodes comparatives
4.4. La recherche expérimentale et la simulation
4.5. La recherche –action
4.6. Le recueil des données qualitatives
4.7. L’entretien
4.8. L’observation
4.9. L’analyse documentaire
4.10. L’analyse des données qualitatives
4.11. L’analyse du contenu
4.12. La Cartographie cognitive

Chapitre V : LA FIABILITE ET LA VALIDITE DE LA RECHERCHE


5.1. La validité de construit
5.2. La fiabilité et la validité de l’instrument de mesure
5.3. La validité interne
5.4. La validité externe
5.6. La fiabilité de la recherche
Conclusion
Bibliographie

Page 4 sur 102


Chapitre I : QUELQUES CONCEPTS FONDAMENTAUX
1. La Méthode

Le concept méthode a reçu et reçoit encore les définitions les plus diverses et diversifiées
selon la facette sociale de chaque chercheur.

Etymologiquement, le mot méthode vient du grec : metho-odos, meta, qui signifie « chemin
menant vers ». Dans le contexte abstrait, le concept méthode s’identifie à l’« ordre, à la
logique  » et désigne la manière dont une activité doit se déployer en suivant un cheminement
réfléchi, logique et déterminé à l’avance.

Etymologiquement ;  « poursuite » ; et par conséquent effort pour atteindre une fin, recherche,
étude d’où chez les modernes deux acceptions très voisines, quoique possibles à distinguer.
1° chemin par lequel on est arrivé à certain résultat, alors même que ce chemin n’avait pas été
fixé d’avance de façon voulue et réfléchie.
«  On appelle ici ordonner, l’action de l’esprit par laquelle, ayant sur un même sujet…
diverses idées, divers arguments et divers raisonnements il les dispose en la manière la plus
propre pour faire connaître ce sujet. C’est ce qu’on appelle encore méthode. Tout cela se fait
naturellement et quelque fois mieux par ceux qui n’ont appris aucune règle de la logique que
par ceux qui les ont apprises. »
Ce mot se dit souvent, en ce sens, des procédés habituels d’un esprit ou d’un groupe d’esprits,
procédés qu’on peut observer et définir par induction, soit pour les pratiquer ensuite plus
souvent, soit pour les critiquer et en faire voir l’invalidité.
2° programme réglant d’avance une suite d’opérations à accomplir et signalant certains
errements à éviter, en vue d’atteindre 1 résultat défini (manquer de méthode, procéder avec
méthode)2

Selon Descartes, il faut une méthode pour toute recherche, car une recherche sans méthode ne
peut jamais atteindre la vérité scientifique. Une méthode est donc, «  selon Descartes, un
ensemble des règles certaines et faciles auxquelles tous ceux qui y font recours et les
observent rigoureusement, ne supposeront jamais vrai ce qui est qui faux ».

La notion de méthode se fonde donc, dans son sens premier sur celle de l’ordre. Or, ce
dernier est difficile à définir car trop relatif. L’ordre dépend de chaque individu et varie avec
les contextes socio-économico-culturels où l’on se trouve.

On parlera généralement de plusieurs types d’ordres :


- L’ordre notionnel : Celui qui consiste à enchaîner les idées les unes aux autres
dans un raisonnement logique, c’est l’ordre cartésien,

2
André LALANDE, Vocabulaire technique et critique de la philosophie , PUF, Paris 1926, pp. 623-
624.

Page 5 sur 102


- L’ordre  de convergence inductive : il consiste à infléchir vers la conclusion
qu’on se propose d’établir, les lignes de considération les plus diverses, issues de
plusieurs points et que l’on rend concourantes,
- L’ordre de construction : qui consiste à disposer les idées à la manière des
musiciens, des maçons et des autres architectes etc ;
- L’ordre dialectique : C’est celui qui évolue du pour au contre, par la thèse,
antithèse et synthèse,
- L’ordre des forces centrifuges de la convergence : Est celui qui désigne un
ensemble des forces parallèlement originées et qui aboutissent à un point central ;
- L’ordre des forces centripèdes de la divergence : il désigne un ensemble des
forces parallèlement originées et qui aboutissent à des points très équidistants,
- L’ordre des forces antipodales de l’extravergence : c’est celui qui désigne un
ensemble des forces diamétralement opposées et qui évoluent un ordre
inversement proportionnel où toutes variations positives de X entrainent des
variables négatives de y et vice-versa etc.

La méthode est définie aujourd’hui comme étant « une voie, un chemin, une démarche
intellectuelle que le chercheur emprunte dans la saisie, l’analyse et l’explication de son objet
d’étude ». La méthode implique des règles de validité interne et externe qu’il faut observer en
vue de résoudre un problème donné. Il y a diversité des méthodes qu’il y a diversité des
problèmes.

Elle est souvent confondue avec la technique. Elle désigne un ensemble de procédures
logiques liées à toutes démarches scientifiques. Ces procédures sont indépendantes de tout
contenu particulier.
- la méthode répond à la question : pourquoi on y est arrivé,
- la technique répond à la question : comment on y est arrivé.

La méthode est donc une stratégie globale qu’on adopte pour appréhender (saisir,
comprendre) la réalité, pour récolter les données, les analyser et vérifier les hypothèses. Elle
peut englober certaines techniques. Cependant au sens étroit (ou strict), la méthode est un plan
concerté d’opérations à effectuer en vue d’atteindre un certain objectif. Elle implique le choix
et la combinaison d’un certain nombre de techniques.
Dans la méthode il y a des techniques et des théories qui permettent de donner la lumière sur
ce que l’on fait. Il s’agit ici d’un programme qui règle à l’avance des opérations à atteindre, à
effectuer pour atteindre certains résultats. Il faut voir dans la méthode l’idée d’une direction,
d’une orientation que l’esprit doit parcourir pour atteindre un objectif à travers une opération.

La méthode est donc liée à un effort d’explication ; elle conditionne la validité des résultats
d’une enquête. Elle comprend une série d’opérations intellectuelles qu’effectue une discipline
qui cherche à atteindre la vérité ou la réalité qu’elle poursuit, qu’elle démontre ou qu’elle
vérifie.

NB : Le choix d’une méthode sera fonction de la nature du problème à résoudre, de


l’objectif à atteindre ainsi que du cadre d’investigation.

Importance de la méthode

Page 6 sur 102


 traduire empiriquement les concepts théoriques : dialogue entre empirique et
théorique. Il y a d’abord une théorie, ensuite le terrain permet de tester l’hypothèse.
Cependant dans la réalité il y a un va-et-vient entre théorie et empirie. C’est un
processus intense qui fait le lien entre le niveau abstrait et général et le niveau concret
et spécifique. Sans méthode le lien est impossible.
 caractérise et distingue la science : la méthode permet de distinguer la science des
autres méthodes de comprendre la réalité.
 permet de faire face à la complexité de la réalité sociale : on construit l'objet de
recherche.

2. La méthodologie

La méthodologie peut se définir comme étant l'étude du bon usage des méthodes et
techniques. Il ne suffit pas de les connaître, encore faut-il savoir les utiliser comme il se doit,
c'est-à-dire savoir comment les adapter, le plus rigoureusement possible, d'une part à l'objet
précis de la recherche ou de l'étude envisagée, et d'autre part aux objectifs poursuivis.

Autrement dit, les méthodes et techniques retenues dans une recherche donnée doivent être les
plus aptes à rendre compte du sujet étudié et à mener le chercheur vers les buts qu'il s'est fixés
en termes d'aboutissement de son travail. Il est inutile de préciser que cela doit faire l'objet de
justifications et d'argumentations serrées de la part du chercheur : pourquoi choisir telle
méthode, telles techniques, tels instruments...
Pour mieux circonscrire sa méthodologie, le chercheur doit définir, formuler et élaborer « au
plus fin » son problème (on appelle « problème » en recherche le point précis, et ses
composantes, que le chercheur veut étudier, il constitue alors « son » problème). Plus les
données du problème seront précisées et plus facile sera l'élaboration de la méthodologie. Il y
a un interconditionnement nécessaire entre le problème, la façon de le poser, la méthode
adoptée et les techniques retenues. En guise d'illustration, considérons l'exemple du chasseur
(que nous empruntons à Pinto-Grawitz) qui peut avoir une approche : ne jamais chasser à
l'affût, ni le gibier arrêté, ni au gîte (c'est sa philosophie de la chasse) ; une ou plusieurs
techniques : la maîtrise du tir sur cible mobile, le tir en pleine course... ; et aussi une ou
plusieurs méthodes : comment approcher le gibier en tenant compte du terrain, du temps, du
travail du chien, du vent, des habitudes de chaque gibier... La coordination, la synthèse de tout
cela serait sa méthodologie.
Il importe de souligner, en conclusion, qu'il n'y a pas de travail scientifique possible sans
méthode et méthodologie. C'est en fait ce qui distingue par exemple le journaliste ou le
reporter du chercheur. Le second se caractérise par une rigueur explicite, absolue et
systématique dans sa quête et son traitement des informations recueillies, c'est là qu'il doit
faire preuve de méthode et c'est par là qu'il s'apparente à la communauté scientifique.

3. La Technique

Comme notion de la méthode, le concept technique a déjà reçu des définitions les plus
diversifiées la rendant ainsi équivoque et le confondant à la méthode.

Page 7 sur 102


Généralement, l’on désigne par technique, l’ensemble d’outils, d’instruments et des procédés
mis en œuvre par le chercheur dans la collecte et l’analyse des données devant le conduire à la
découverte de la vérité par la confirmation ou l’infirmation de ses hypothèses de départ. La
technique, dit-on, est une pensée des mains et des outils.

Est un moyen concret au service de la méthode ; c’est-à-dire un outil, un moyen matériel ou


non matériel utilisé pour atteindre l’objectif préconisé par la méthode et donc pour saisir la
réalité.
On parle entre autres de : La technique d’observation, la technique du questionnaire, la
technique d’enquête, la technique de sondage, etc.
La technique sert donc à entrer en contact avec les données que l’on veut saisir.
Comme Adjectif , la technique signifie ;
Relatif à des procédés( artistiques, scientifique ou industriels) : «  J’appelle éducation
technique celle qui permet à chacun de faire le mieux possible son métier » A CROISET,
dans l’Education de la démocratie, p.23.
Nom :
- Ensemble des procédés bien définis et transmissibles, destinés à produire certains
résultats jugés utiles.
- Ensemble de processus par lesquels s’accomplit une fonction ( en biologie, en
psychologie)
- Méthodes organisées qui reposent sur une connaissance scientifique correspondante.3

4.  Rapport entre la technique et la méthode

La méthode, avons-nous dit, est conceptuelle. Elle est supposée utiliser des outils, des
procédés en vue d’aboutir à la vérité scientifique. La méthode se situe au niveau de la pensée
cheminatoire, tandis que la technique se situe, elle, au niveau de la collecte et d’analyse
exécutoire des données sur terrain.

La méthode se veut donc une connaissance théorique tandis que la technique se définit
essentiellement comme un moyen matériel, un outil de production des données, d’analyse et
cela en suivant les connaissances théoriques et directionnelles de la méthode.

La technique est un moyen alors que la méthode est une voie. La technique répond à la
question de savoir comment concrètement suivre le chemin tracé par la méthode.

5. L’approche par rapport à la méthode

Une autre confusion à lever est celle qui s’établit entre la notion de méthode et celle
d’approche. Bien que ce dernier terme soit utilisé comme synonyme de méthode, une nuance
reste cependant à relever. Une approche désigne la démarche intellectuelle, la disposition
d’esprit du chercheur, la façon dont le chercheur se prend pour étudier son objet. Elle
n’implique donc pas toutes les étapes systématisées et surtout pratique de la méthode.

L'approche est à considérer comme une démarche intellectuelle qui n’implique ni étapes, ni
cheminement systématique, ni rigueur particulière. C'est à peu près un état d'esprit, une sorte

3
Idem, p.105.

Page 8 sur 102


de disposition générale qui situe l'arrière-fond philosophique ou métathéorique du chercheur
ou de la recherche. Dans ce sens, on parle d'approche marxiste, fonctionnaliste, culturaliste,
structuraliste, systémique.

L’approche est surtout une attitude de souplesse, de vigilance, de prudence et de grand respect
dans l’intelligence du phénomène étudié.
C’est en fait l’angle, la vision sous ou selon lesquels le chercheur abordera son sujet.
Exemple : la prostitution : approche médico-sociale.

6. L’état le la question
C’est l’ensemble de questions que se pose le chercheur à propos de son sujet d’étude. Cet
ensemble va l’aider à mieux comprendre et à pénétrer le sujet (la description globale).

A cette étape le chercheur veut savoir et se demande :


- Qu’est-ce qui a déjà été dit, écrit ou fait en rapport avec mon sujet ? (à cette étape ,
songer à faire une synthèse des travaux faits sur le thème qu’on aborde)
- Par qui (les auteurs ayant déjà traité du thème)
- Selon quelles méthodes ?
- Selon quelles techniques ?
- Quel a été ou quel est son impact sur le plan scientifique, social, économique, culturel,
etc. ?
- Quel est la pertinence de mon travail ?
- Que vais-je apporter comme contribution sur le plan scientifique ?
- Etc.

N.B. Il faut penser et répondre à ces préoccupations sans poser des questions dans le texte du
travail, ce qui sera fait dans la problématique. Un homme averti …

7. La problématique
Est une étape très importante dans l’élaboration et la rédaction d’un travail scientifique. Elle
est définie comme un cadre logique d’étude permettant au chercheur (à l’étudiant) de bien
poser le problème relatif à son sujet d’étude.
Elle est en quelque sorte la question ou la série de questions servant de fil conducteur à la
réflexion sur le sujet et annonce d’emblée vers quelle piste de solution s’articulera ou
s’acheminera le travail.

8. La théorie

Une hypothèse confirmée est dite soutenable et prend la forme d’une proposition admise.
Plusieurs propositions admises c’est-à-dire hypothèses confirmées constituent une théorie. La
théorie se définit comme : « un corps de concepts plus ou moins systématiques .» ARON, A.,
affirme que : « la théorie est un ensemble de propositions dont les termes sont rigoureusement
élaborés ; système élaboré à partir d’une conceptualisation de la réalité perçue, vécue et
observée. »

La théorie sert au travail scientifique d’instrument de connaissance notamment en sciences


sociales pour analyser les différentes sociétés, leurs lois de fonctionnement ou de

Page 9 sur 102


développement. D’après Paul FOULQUIE, la théorie est une conception intellectuelle par
laquelle un ensemble de lois particulières est rattaché à un principe qui les explique ou les
justifie et d’où elles peuvent être déduites logiquement.

Pour qu’une théorie soit scientifique, il faut que :


- Ses propositions soient exprimées par des termes et des concepts bien définis, précis
et clairs.
- Elles doivent être compatibles et doivent se succéder d’une manière logique.
- Elles doivent être convaincantes, c’est-à-dire elles doivent convaincre et après
déduction aucune de leurs conséquences ne sera en contradiction avec l’observation.

Elle signifie aussi : Construction spéculative de l’esprit, rattachant des conséquences à des
principes :
a) Par rapport à la pratique, dans l’ordre des faits :
b) Ce qui est l’objet d’une connaissance désintéressée, indépendante de ses
applications. « La pratique s’oppose d’une manière générale à la théorie. Par exemple,
la physique pure est une recherche théorique, et la physique appliquée se rapporte à la
pratique. » L. LEVY-BRUHL, La morale et la science des mœurs, p.9.
c) Par opposition à la pratique, dans l’ordre normatif : ce qui constituerait le droit pur ou
le bien idéal, distincts des obligations communément reconnues.
d) Par opposition à la connaissance vulgaire : ce qui est l’objet d’une conception
méthodique, systématiquement organisée, et dépendante par suite, dans sa forme, de
certaines décisions ou conventions scientifiques qui n’appartiennent pas au sens
commun.
e) Par opposition à la connaissance certaine : construction hypothétique, opinion d’un
savant ou d’un philosophe sur une question controversée : « La théorie cartésienne de
l’erreur. »
f) Par opposition au détail de la science : large synthèse se proposant d’expliquer un
grand nombre de faits, et admise, à titre d’hypothèse vraisemblable, par la plupart des
savants d’une époque : « La théorie atomique ; la théorie cellulaire. »

9. L’explication
Est un développement destiné à éclaircir le sens de quelque chose (un fait ou un phénomène).
Elle est possible en sciences exactes mais difficile en sciences humaines, en sciences sociales
où c’est la compréhension qui intervient en priorité.

- Expliquer dans tous les sens, c’est faire comprendre à l’un des trois premiers sens de
ce terme. Ainsi, le mot expliquer reçoit-il trois degrés :

- Au sens plus large, développer ou décrire, donner une détermination précise de ce qui
était inconnu, vague ou obscur. Ex. : Expliquer le sens d’un mot, d’un texte, expliquer
la marche à suivre dans un problème. »
- Plus spécialement, expliquer un objet de connaissance c’est montrer qu’il est impliqué
par une ou plusieurs vérités déjà admises (à titre assertorique ou hypothétique). Il n’est
pas nécessaire que ce qui explique soit plus général que ce qui est expliqué.
- Au sens fort, c’est nous montrer que ce que l’on explique est impliqué par des
principes non seulement admis mais évidents, autrement dit, à faire voir qu’il dépend
nécessairement de jugements nécessaires.
Page 10 sur 102
Remarque :
On dit quelque fois qu’on explique un fait quand on montre qu’il n’a rien d’extraordinaire ou
de surnaturel, et cela en faisant voir qu’il pourrait être une application de telle loi connue, ou
se produire par tel mécanisme plausible.

10. L’analyse

C’est l’opération intellectuelle qui consiste à décomposer une œuvre en ses éléments
constitutifs dans le but d’en saisir le rapport et de donner un schéma d’ensemble.
En sciences exactes (ex. : en chimie) elle est l’action de décomposer un mélange dont on
sépare les constituants ou une combinaison dont on recherche ou dose les éléments. Exemple :
électrolyse de l’eau : H2O = H2 + O
L’analyse proprement dite signifie :
1. Résolution, solution régressive
2. décomposition
Elle s’oppose à Synthèse

1. Sens qui se rattachent à l’idée de décomposition


a) Décomposition d’un tout en ses parties, soit matériellement : « L’analyse
chimique » soit idéalement : « la définition est l’analyse d’un concept ».
b) Par suite, toute méthode ou étude comportant un examen discursif, même si
elle aboutit dans son ensemble à une synthèse.
c) Plus spécialement, pour TAINE, mais en un sens voisin, « analyser, c’est
traduire ; et traduire, c’est apercevoir sous les signes des fait distincts… Pour
savoir ce qu’est une nature, vous noterez les propriétés et vous verrez que ce
mot nature apparaît au moment où vous avez fait la somme des faits
importants de résolution.
d) « L’analyse consiste à établir une chaîne de propositions commençant à celle
qu’on veut démontrer, finissant à une proposition connue, et telles qu’en
portant de la premier de la premier (i-e celle qu’on veut démontrer) chacune
soit une conséquence nécessaire de celle qui la suit ; d’où il résulte que la
premier est une conséquence de la dernière, et par conséquent, vraie comme
elle. »
DUHAMEL, Des méthodes dans les sciences du raisonnement, I,41.

11. La Synthèse

Est une opération intellectuelle par laquelle on rassemble les éléments de connaissance en un
ensemble cohérent, uni, homogène. Cette opération est courante en chimie. Ex. : H2 + O →
H2O
La synthèse est en fait une suite d’opérations mentales qui permettent d’aller de notions
simples aux notions complexes ou composées et en cela, elle s’oppose à l’analyse.

Sens général : Composition, acte de placer ensemble divers éléments, données d’abord
séparément et de les unir en un tout. S’oppose à analyse.
a) Marche de l’esprit qui va des nations ou de la proposition la plus simple au plus
composées.
b) Marche de l’esprit qui va de propositions certaines à d’autre proposition qui en son la
conséquence nécessaire.
Page 11 sur 102
c) Opération par laquelle on remonte des détails à l’ensemble ; vue générale qui résulte
de cette opération.
d) Fusion d’une thèse et d’une antithèse en une nation ou en une proposition nouvelle qui
retient tout ce qu’elles ont de légitime et les combine grâce à l’introduction d’un point
de vue supérieure.4

12.Recherche Scientifique :

Qu’est-ce que la Recherche scientifique ? En quoi est-elle différente de la connaissance


spontanée ?

Prise au sens général, la recherche est une action ou un effort en vue de trouver quelque
chose, un effort de connaître une vérité cachée.

La recherche scientifique par contre, et D’après (R.Quivy & L.Campenhoudt) cités par
Bienvenu KALUNGA MAWAZO et Timothée KAZADI KIMBU, «  est une opération qui
consiste à trouver des moyens de résoudre, de façon systématique et crédible, les problèmes
que pose la juste appréhension du monde  ».

- Il s’agit le plus souvent en sciences sociales de répondre à des questions des types :
Pourquoi ? Comment ? Qui ? Quoi ? Où ? Combien ?

Ces questions se situent à un niveau superficiel, alors que l’objectif visé en Sciences sociales
comme dans toutes les sciences d’ailleurs, c’est d’atteindre ou d’arriver à l’explication.

- Expliquer : Signifie : montrer pourquoi la réalité est- telle qu’elle est, pourquoi tel
fait s’est produit? Pourquoi tel acteur a-t- il eut telle conséquence ? pourquoi tel
acteur a-t- il agit dans ce sens ? Pourquoi telle institution fonctionne de telle
manière ?

Le but de toute recherche scientifique, est donc la résolution systématique et crédible des
problèmes auxquels les hommes font face dans la société, afin d’y rendre la vie meilleure.
La recherche scientifique implique donc deux niveaux :

- le niveau théorique (la recherche proprement dite) et le niveau pratique (l’action).


C’est le fondement de la recherche- action, pour y arriver, le chercheur devra donc
faire la différence entre le but de la recherche qui est la finalité, la raison d’être
et les objectifs qui sont des étapes intermédiaires permettant d’atteindre le but.
Le chercheur devra donc aboutir à des résultats scientifiques qui sont en fait
conquis sur les préjugés, construits par la raison et constatés par les faits
empiriques.

D’après le Professeur Emile BONGELI Yeikelo ya Ato, «  la recherche scientifique, est une
opération intellectuelle, un effort d’esprit pour comprendre la nature des choses, pour
trouver des connaissances nouvelles, pour découvrir les lois de la nature à travers et au-
delà des apparences qui s’offrent à nos sens et que nous pouvons directement observer  ».

4
Idem, pp. 1091-1092.

Page 12 sur 102


13. Travail scientifique ou travail de recherche

On peut définir le travail de recherche scientifique classique comme étant un effort


analytique, rigoureux, progressif et systématique d'éclaircissement d'une situation, d'un
fait ou d'un ensemble de faits à l'aide d'outils et de techniques spécifiques. Cet effort va de
l'identification et la définition du problème jusqu'à l'aboutissement à une ou plusieurs
solutions ou possibilités de dépassement de la situation initiale (meilleure connaissance,
correction, amélioration, transformation ...). C'est donc ainsi un travail qui peut prendre de
quelques heures à plusieurs années, voire plusieurs décennies avant d'aboutir. Néanmoins,
quel qu'il soit, il se base toujours sur des préalables et des exigences hérités des sciences de la
nature et qui sont :

A – Les préalables
o Maîtrise d'un ensemble de connaissances liées à un champ précis de la science
(ex. : la science économique).

o Maîtrise des plus importantes théories explicatives (même contradictoires)


propres au champ en question (ex. : la théorie du profit naturel de A. Smith et
celle de la plus-value de K. Marx).
o Maîtrise d'un certain nombre d'outils propres à recueillir de façon rigoureuse
les données à étudier.
o Maîtrise d'instruments de vérification et de collecte de données non
directement observables.
o Maîtrise de certains outils de traitement et d'analyses de données aussi bien
qualitatives que quantitatives...

- B – Les exigences
o Unité et clarté du sujet traité : ce qui est soumis à l'étude ou à l'analyse doit
être bien individualisé et identifié.
o Rigueur de la démarche : méthode et techniques conformes aux normes
scientifiques.

o Logique de la démarche : la rigueur ne suffit pas toujours, encore faut-il que


les différentes étapes et parties de la recherche s'articulent les unes aux autres
selon une logique explicite et évidente.
o Justification des outils, techniques, instruments ... qui sont retenus.
o Justification de la pertinence des types de données recueillies par rapport au
problème traité.
o Justification du choix des lieux, personnes ... auprès de qui ces données sont
recueillies.
o Preuves des résultats avancés, de leur authenticité, leur exactitude ...
o Preuves de généralisations possibles des principaux résultats, dans des
conditions équivalentes à celles de la recherche entreprise.
o Justification des interprétations données aux résultats obtenus et précision des
cadres de références scientifiques ayant conduit à ces interprétations.

Page 13 sur 102


Nous allons essayer tout au long de ce cours, de développer ces préalables et ces exigences,
afin de respecter au mieux les critères d'une recherche. Mais qu'est - ce que la recherche ?
La recherche scientifique, que ce soit dans le cadre d'un mémoire, d'une thèse ou toute autre
forme de travail à caractère académique, consiste, à partir d'une interrogation, d'une énigme,
d'une insuffisance de compréhension d'un phénomène, d'un vide dans une théorie... à
construire une articulation complète de cette interrogation de façon à la transformer en
questions qui peuvent être renseignées et traitées dans le cadre d'un champ de connaissance
précis (telle la science économique par exemple).
La recherche est donc une contribution, aussi petite ou modeste soit-elle, à l'édifice des
connaissances générales sur les différents aspects de la réalité.
Elle a pour objet général :
L'analyse des faits, dans le cadre d'une ou de plusieurs théories connues, à l'aide de concepts
déterminés, afin de dégager des lois permettant de construire un ou plusieurs modèles figurant
le réel étudié et rendant compte de ses mécanismes, ses particularités, ses dysfonctions... et,
par la même occasion, enrichissant le champ de connaissances mis en œuvre.
C'est la mise en évidence de constantes et d'invariants liés à un problème donné qui intéresse
le chercheur. Le fugace ou le conjoncturel ne peut constituer une base de connaissances et ne
peut prétendre à la généralisation qui caractérise nécessairement le travail scientifique du
modèle classique. « Il n'y a de science que du général », se plaît-on à répéter depuis Aristote...
14.

Page 14 sur 102


14. L’esprit scientifique :

Est un élan d’âme, un élan ontologique qui nous pousse vers l’idéal de noblesse à tout
moment quels que soient le temps et les circonstances.

L’esprit est aussi une force déployable et /ou déployée pour atteindre une idéale noblesse dans
la recherche.

Dans le contexte praxéologique, l’esprit touche à l’onto (être) du chercheur, son for intérieur.
L’énergie ontologique d’un chercheur se symbolise par Eo. Elle est déployée (e) et déployant
le (n) et se traduit par Eo=e +n.

Un bon chercheur doit actualiser son énergie pour produire (ep) et pour entretenir ses rapports
avec les encadreurs et les enquêtés (ee) durant tout le processus de déploiement de ses efforts
(n=ep +ee).

Dès lors, un esprit scientifique est conçu dans le sens que lui donne le Professeur Tshungu
Bamesa, « C’est un ensemble des dispositions intellectuelles et morales qui portent l’étudiant
ou le chercheur à prendre les mesures propres à assurer à son travail, une valeur scientifique et
à éviter les défauts susceptibles de la gâcher ».

Quiconque veut réaliser un travail scientifique, doit s’armer d’une tournure d’esprit qui
permet de surmonter les illusions de sens et les attitudes partisanes.

Dans l’esprit scientifique, sont contenues toutes les formes de vertu et de valeurs, parmi
lesquelles nous pouvons citer : la rigueur, la précision, l’équilibre, l’esprit critique, de
synthèse et de concision, l’humilité, la probité, l’honnêteté, la sincérité, la liberté, la
tolérance, la confidentialité etc…

Par ailleurs comme le dit le Professeur BAKENGA Shafali, nous pouvons retenir parmi ces
valeurs :

Au plan éthique ¿

Au plan des valeurs modernes,¿

Au plan des valeurs de la connaissance :¿


Les vertus et les valeurs rendent le chercheur capable de décourager les tentatives de fraude,
de tricherie, de brutalité, de facilité, de moindre effort et d’encourager la conscience
professionnelle, la responsabilité, l’amour, la joie, la simplicité, l’endurance, la persévérance
durant toute son entreprise scientifique.

15. Le mémoire 

Nous retenons ici le mémoire comme genre général de rapport de recherche appliquée et
comme première étape que franchit le nouveau et futur chercheur. Le mémoire représente l'un

Page 15 sur 102


des premiers pas dans les travaux prétendus de caractère scientifique. On peut se demander
quelle en est au juste la nature, le rôle, la portée...

- Ce n'est pas un récit car on doit démontrer quelque chose, prouver, argumenter,
analyser, proposer, recommander...

- Ce n'est pas un rapport dans le sens compte rendu, car il suppose un effort
d'investigation et de compréhension derrière l'apparence des faits observés.

- Ce n'est pas une description car, au mieux, on ne ferait que du travail


journalistique, superficiel. Dans un mémoire, il ne s'agit pas de décrire pour
décrire, mais de décrire pour passer au gros du travail qui consiste à analyser,
mesurer, comparer, évaluer, interpréter...

- Ce n'est pas non plus une thèse car une thèse est un apport supplémentaire et
original à la connaissance scientifique dans une discipline particulière. Cela
dépasse assez largement les prétentions d'un mémoire ou même, souvent, de toute
recherche appliquée.

Si ce n'est ni raconter, ni rapporter, ni décrire, ni rédiger une thèse, alors qu'est-ce qu'un
mémoire ?

D'après les dictionnaires de langue française, le mémoire est une « dissertation » scientifique
ou littéraire. Nous pouvons retenir deux termes essentiels dans cette définition : dissertation et
scientifique.

Dissertation implique, en tant que genre littéraire :

— de traiter un sujet précis,


— d'en parler en connaissance de cause (avoir une certaine connaissance préalable sur
le sujet),
— d'appliquer des connaissances pour développer le sujet traité et émettre des idées
originales, personnelles, plus « avancées »...
Scientifique quant à lui, implique (au sens classique toujours) :
— la connaissance des règles et normes scientifiques,
— l'application de ces normes et règles au sujet traité,
— la rigueur et l'exactitude dans le traitement,
— les preuves et la démonstration de ce qui est affirmé ou avancé...

En bref, nous dirions que le mémoire, tout en étant un genre mineur, ne fait pas moins partie
intégrante du travail de recherche. C'est, dans les grandes lignes, une application d'un ou de
plusieurs champs de connaissance (par exemple, la science économique) à un aspect de la
réalité (thème précis du mémoire) pour en comprendre les mécanismes, caractéristiques,
dysfonctions, difficulté ... et suggérer par voie d'analyse et de démonstration une ou plusieurs
possibilités d'amélioration, de correction, de meilleure utilisation... selon la nature du sujet
traité.
16. La thèse
Est une énonciation d’un point de vue qui n’est pas nécessairement vrai. Exemple : Dire que
l’Afrique va mal. Cela demande à être vérifié à travers une démonstration. On peut aussi dire
que la thèse est une vérité première telle que la démonstration en illustrera la véracité.
Page 16 sur 102
Position d’une doctrine qu’on s’engage à soutenir contre les objections qui pourraient y être
faites. D’où l’emploi de ce mot :
1. (avec un sens moins précis) pour désigner la doctrine d’une philosophie (par exemple)
sur un point déterminé, les conclusions soutenues par un avocat dans un plaidoyer,
l’idée défendue par un homme politique dans une discussion, dans un discours, etc. ;
cf. les expressions romanes à thèse, pièces à thèse,
2. (dans l’usage universitaire) pour désigner les mémoires ou les ouvrages composés en
vue d’obtenir le grade de docteur ; ces « thèses » n’ayant consisté, tout d’abord, qu’en
simple feuille, où étaient énoncées en termes formels les propositions que le candidat
s’engageait à soutenir.

17. La totalité
Elle est un concept qui explique un ensemble de plusieurs éléments. Elle est :
a. L’une des idées fondamentales de la pensée. Elle est présentée comme
synthèse de l’unité et la pluralité.
b. (Au sens concret) L’ensemble complet des éléments qui forment un tout.
Remarque
Ce mot, et surtout l’adjectif totalitaire, s’appliquent spécialement, depuis quelques années, à
l’unité organique (opposée à l’unité de ressemblance), e à l’idéal politique qui considère le
Tout social comme ayant seul une valeur par lui-même, et les individus comme n’étant que
des organes à son service.
Loi de totalité
Chez HŐFFDING : Loi psychologique d’après laquelle tout ce qui a fait partie d’un même
tout mental est propre à faire reparaître ce tout.5

18. Le Concept
C’est un mot chargé de sens, une représentation abstraite et générale d’une idée (de quelque
chose), d’un objet ou d’un ensemble d’objets ayant des caractères communs. Exemple : la
liberté, un enfant, un arbre, un fantôme, etc.

19. L’hypothèse
Elle est une idée directrice, une tentative d’explication des faits formulés au début de la
recherche et destinés à guider les investigations maintenues ou abandonnées d’après le
résultat d’observation.
Pour être scientifique l’hypothèse doit être vérifiable c’est-à-dire soumise à une
démonstration. De plus elle doit être plausible (compréhensible) et intelligente. La
confrontation des hypothèses consiste à observer les faits pour manipuler les variables propres
ou phénomènes extérieurs afin d’en démontrer la corrélation. Exemple : La crise politique et
la pauvreté en Mairie de Bujumbura.

Selon LALANDE (1968) l’hypothèse est une : « conjoncture douteuse mais vraisemblable par
laquelle l’imagination anticipe sur la connaissance, et qui est destiné à être ultérieurement
vérifié soit par une observation directe soit par l’accord de toutes ses conséquences avec
l’observation. » L’hypothèse est donc une proposition de réponse à la question « ou aux
questions »
posées dans la problématique. Etant une proposition de réponse à la question posée, elle tend
à formuler une relation des faits significatifs. Même plus ou moins précise, elle aide à

5
Idem, p. 1137.

Page 17 sur 102


sélectionner les faits observés. Ceux-ci rassemblés, elle permet de les interpréter 6. La simple
accumulation d’informations ou des données numériques qui ne sont pas dirigés par une
hypothèse et qui ne conduisent pas à une conclusion ne peuvent être considéré comme une
recherche scientifique.7

En effet, sans hypothèses directrices, les recherches dégénèrent en une accumulation stérile de
données ou d’informations. En général, l’hypothèse est choisie parmi d’autres au cours d’une
mise au point préliminaire, elle peut naître d’observations courantes portant sur des faits de la
vie quotidienne pour des faits découverts dans le cours, les stages ou dans les lectures
personnelles. Elle peut également se présenter comme résultat d’une élaboration purement
théorique. Souvent l’hypothèse ou les hypothèses se modifient en cours de travail ne fût-ce
que parce qu’elles s’enrichissent, se précisent.

L’hypothèse en fait peut être plus générale ou plus spécifique c’est-à-dire précisant la
situation d’observation. Il faut savoir qu’une hypothèse doit être vérifiable et plausible, il faut
se méfier donc des pseudo-faits qui créent des pseudo-problèmes.

20.Environnement sociétal de la recherche

Il y a quatre aspects dans lesquels s’inscrit la recherche dans une optique d’auto surveillance
afin de savoir dans quel contexte on fait de la recherche.

La recherche se développe dans un cadre plus large, elle n'est pas en dehors des influences, il
y a des champs d'influence, des contraintes, des domaines :

1. De la demande sociale : la recherche répond à certaines demandes sociales. L’activité


du chercheur est légitimée par le cadre, la pratique s’insère dans le cadre d’une société
donnée. Il existe des fonds et des programmes qui financent la recherche. Les thèmes
de recherche sont censés être des thèmes d’actualité, car les décideurs politiques ont
besoin d’outils pour prendre des décisions.
2. Axiologique : c’est le rapport aux valeurs, il y des valeurs sociales et individuelles qui
guident la recherche. Chaque chercheur a ses propres valeurs. Le chercheur doit
essayer de se mettre distance de l'objet, et ne pas le mettre sous la lumière de nos
propres idéologies. Weber prône une neutralité axiologique.
3. Doxologie : fait référence à l’opinion publique et plus généralement au sens commun
et au savoir non-systématisé ainsi qu’au langage et aux évidences de la pratique
quotidienne. Il y a une opinion qui est là et qui nous influence en tant que chercheur
ainsi qu’un savoir non-systématisé. C'est le sens commun, qui parfois dans la
recherche se montre comme le mauvais sens. Il est nécessaire selon Bourdieu qu’il
faille opérer une rupture épistémologique, ainsi le premier devoir du chercher est de
rompre avec le sens commun.
4. Épistémique : influence qui est donnée par la connaissance épistémique elle-même,
c'est-à-dire la connaissance des autres chercheurs. C’est l’état de la réflexion
épistémologique et de la méthodologie ainsi que des techniques d’investigation du
domaine étudié et qui ont une influence implicite.

6
GRAWITZ, M., Méthodes en sciences sociales, Ed. Dalloz, 8ème Ed., Paris, 1990, pp. 443 et suiv.
7
TSHIMANGA MWANZA, Initiation à la recherche scientifique, Guide pratique, éd. CERUKI, ISP-Bukavu, 1986, p. 42.
3. Idem, op.cit. p. 42.

Page 18 sur 102


Ce sont quatre sources de contraintes qui pèsent sur la pratique.

Chapitre II : COMMENT CONSTRUIRE UNE RECHERCHE

2.1. De l’identification d’un thème de départ à la construction d’un objet de


recherche

LES MOMENTS OPÉRATIONNELS DANS UNE RECHERCHE SCIENTIFIQUE

Nous en avons deux : Les moments opérationnels assis dans une recherche scientifique
et Les Moments opérationnels début dans une recherche scientifique

Page 19 sur 102


Définition  et compréhension d’un travail de fin d’études :

Le travail de fin d’études : Il s’agit d’un travail monographique. Ce genre de travail consiste
en une analyse approfondie de l’enchaînement des faits, de leurs causes, de leurs
significations et de leurs conséquences. Cette analyse doit permettre de formuler grâce à des
raisonnements éprouvés (réflexions personnelles) des propositions ou conclusions qui sont
l’expression finale du travail ; le tout mené suivant une méthodologie appropriée. 

Outre sa capacité à prouver qu’il a assimilé les matières reçues durant les années de ses études
supérieures ou universitaires, l’étudiant doit faire preuve de maturité scientifique par la
manipulation correcte des concepts et autres règles de rédaction qui lui auront été enseignés
au préalable.
Toute recherche en Sciences sociales et humaines ou autre, comprend plusieurs moments
opérationnels avant d’atteindre la vérité qui constitue l’étape finale. Ces moments
opérationnels sont soit debout, soit assis et se chevauchent incidentiellement.

2.1.1. Les moments opérationnels assis dans une recherche scientifique

Ces étapes de la recherche sont ainsi appelées parce qu’elles constituent la partie
réflexologique de toute recherche. Elles s’effectuent au bureau.

2. L’identification et la définition du problème

Toute recherche scientifique naît autour d’un problème. Le chercheur devra donc clairement
identifier et définir le problème qui se pose et pour lequel l’étude doit être menée en vue
d’une solution. Le problème est généralement défini comme étant l’écart entre ce qui est et ce
qui devrait être. Devant la pauvreté de masse dans un pays immensément et potentiellement
riche comme la République Démocratique du Congo, le problème, c’est écart entre ce qui est :
La pauvreté et ce qui devrait être, la prospérité.

L’identification et la définition du problème permettent au chercheur de saisir son objet


d’étude incarnée par le problème et d’en déterminer les contours.

La définition du problème (objet d’étude) permet ainsi au chercheur de lever l’équivoque et


les confusions entretenues entre l’objet d’étude et le sujet ; ce dernier n’étant que la
formulation synthétique du thème de recherche.

Le recours abusif à la formulation : Présentation du sujet, très en vogue dans les universités
en R.D. Congo, constitue une dénaturation du processus de la recherche. Car ce n’est pas le
sujet qui constitue le problème, mais bien l’objet d’étude. Le chercheur doit donc démarrer
son étude par la présentation du problème ou de l’objet d’étude en précisant sa nature et son
intérêt.

3. La Problématique

La deuxième étape de la logique incidentielle dans toute recherche en Sciences sociales et


humaines, c’est la formulation des questions dont l’ensemble constitue la problématique.
Après avoir constaté l’existence du problème, tout chercheur doit s’interroger sur le pourquoi-
comment de ce problème.

Page 20 sur 102


La problématique est généralement définie par le dictionnaire Robert comme étant l’art de
poser les problèmes, ou, encore, l’art de poser des questions pertinentes à un sujet en vue d’en
faire sortir un ou plusieurs problèmes.

C’est aussi une manière d’interroger les phénomènes en étude ; une étape charnière de la
recherche située entre la rupture et la construction. (Ferreol, G., 2000, p.46).

Dans le cadre de nos analyses, la problématique est entendue comme étant un ensemble
d’interrogations, des questions et des questions et des questionnements que le chercheur se
pose sur son objet d’étude. La problématique peut être formulée en une seule ou plusieurs
questions.
Pour le Professeur MUHIMUZI : « Est une étape très importante dans l’élaboration et la
rédaction d’un travail scientifique. Elle est définie comme un cadre logique d’étude
permettant au chercheur (à l’étudiant) de bien poser le problème relatif à son sujet d’étude.
Elle est en quelque sorte la question ou la série de questions servant de fil conducteur à la
réflexion sur le sujet et annonce d’emblée vers quelle piste de solution s’articulera ou
s’acheminera le travail. »

Après avoir observé un phénomène pendant un temps, le chercheur se posera des questions
telles que :
- Pourquoi tel phénomène se produit-il ?
- Pourquoi se produit-il de cette façon ?
-
Des questions du genre :
- Quels sont les facteurs qui sont à la base de l’absentéisme du personnel dans les
entreprises publiques en RD Congo ?
- Pourquoi la RDC est classée parmi les pays les plus pauvres du monde en dépit de
toutes ses potentialités ?
- Quelles sont les causes du dévergondage sexuel chez les étudiants du Campus de
Lubumbashi ?
- Quels sont les facteurs à la base de la prolifération des sectes religieuses en RDC ? etc.

Doivent être différenciées de celles qui suivent :


- L’absentéisme des agents dans les entreprises publiques de la R.D.Congo n’est-il pas
lié à la modicité de leur salaire ?
- La pauvreté de masse en RD Congo n’est-elle pas liée à l’extraversion de son
économie ?
- Le dévergondage sexuel chez les étudiantes n’est-il pas une micro-stratégie de survie ?
- Le sous-emploi de masse n’est-il pas à la base de la prolifération des sectes en R.D
Congo et en Afrique sub-saharienne ?

Le premier groupe est constitué des questions stricto sensu par contre le deuxième groupe est
constitué des questions portant en elles-mêmes des réponses ; ce sont des questionnements.
Des interrogations sont à l’opposé, très brèves : Quoi ?qui ?où ? Comment ? Avec quoi ? De
quelle manière ? Pourquoi- comment ? Etc.

Le Chercheur doit manier des interrogations, des questions et questionnements afin de cerner
les différents aspects de son objet d’étude.

Les qualités d’une bonne problématique

Page 21 sur 102


- Elle doit être englobante : une bonne problématique doit donner l’extension de
l’objet d’étude en définissant les principaux aspects.

- Elle doit être actuelle : Elle doit prendre en considération l’état le plus récent du
débat théorique et des données empiriques en les mettant dans une perspective
synchronique et diachronique.

- Elle doit être féconde : Une bonne problématique doit être riche. Elle doit contenir
toutes les informations susceptibles d’être hypothétisées en vue de permettre à la
recherche d’avoir un éventail des réponses à confirmer ou à infirmer.

3. Les Hypothèses du travail

Hypothèse, du grec hypothesis qui signifie (hypo = moins, manque et thesis =


opinion : absence d’opinion et de position certaine), est une étape fondamentale dans la
conduite d’un travail scientifique dans ce sens qu’elle permet de tester, de confirmer, de
réviser, d’infirmer ou de rejeter les postulats d’une théorie ou la théorie toute entière.

L’hypothèse de recherche est généralement définie comme étant une réponse


provisoire à une question posée, une prédiction consistant à mettre en relation une variable et
un comportement.

Elle peut aussi être comprise comme étant une réponse préconçue et provisoire
formulée à priori ou à postériori que le chercheur donne à ses questions de ma problématique
en vue de les utiliser comme chaîne dorsale dans la conduite de sa recherche.

On distingue généralement deux façons de formuler les hypothèses. Elles peuvent être
formulées soit à priori soit à postériori. Dans le premier cas, les réponses aux questions de la
problématique sont données sur base des connaissances et de l’expérience personnelles du
chercheur, tandis que dans le second cas, le chercheur formulera ses hypothèses après avoir
recueilli certaines informations. Cette formulation exige une étape supplémentaire appelée :
pré-enquête. Celle-ci est une démarche qui sert à fournir au chercheur des informations sur
son objet d’étude grâce à la reconnaissance préalable du terrain.

Les exigences d’une bonne hypothèse

Une bonne hypothèse doit répondre à certaines exigences :


- La formulation affirmative ;
- La causalité et la directionnalité : une bonne hypothèse doit clairement établir les
corrélations entre les variables (dépendantes et indépendantes ou explicatives) ;
- La parcimonie : Une bonne hypothèse doit être brève et directe ;
- La refutabilité et la testabilité : Une bonne hypothèse doit se prêter à être vérifiée en
vue d’être confirmée, révisée, rejetée ou infirmée ;
- L’adéquacité : une bonne hypothèse doit être en adéquation avec les questions
auxquelles elle se rapporte.

Ex.1 : Problématique et hypothèses

Page 22 sur 102


Si l’on devrait étudier l’incidence de l’absentéisme sur la productivité dans une entreprise,
un chercheur peut, après avoir constaté la recrudescence de ce phénomène qui relève de la
pathologie sociale, se poser la question ou un flot de questions ci-après :

- Pourquoi est-ce les travailleurs s’absentent régulièrement dans cette entreprise ?


- Pourquoi s’absentent-ils à la fin du mois par exemple ?
- Quelles sont les incidences du taux élevé d’absentéisme dans cette entreprise ?
Le chercheur pourra à priori ou à postériori répondre à ces questions en formulant les
hypothèses suivantes ; hypothèses dont les éléments puisés dans l’observation empirique
courante portant sur les faits de la vie de chaque jour ou dans les connaissances personnelles
du chercheur ; connaissances acquises grâce aux lectures, aux voyages, aux conférences, etc.

Il pourra notamment mentionner que :

1. Les travailleurs s’absentent fréquemment parce qu’ils ne sont pas satisfaits par leur
travail (satisfaction matérielle et psychologique).
2. Les travailleurs s’absentent souvent à la fin du mois parce que c’est la seule occasion
dont ils disposent pour se payer suffisamment de bière, la modicité des salaires ne leur
permettent pas de boire chaque jour.
3. La chute de production que connaît cette entreprise est en partie due au taux élevé
d’absentéisme.

Après la formulation des hypothèses de travail, le chercheur s’attellera à démontrer durant


tout le travail la validité de son ou ses hypothèses. Son étude consistera à recueillir les
données qui confirmeront son et ses hypothèses de départ.

2.2. La revue de la littérature et l’exploration

La revue de la littérature : Il s’agit également d’une étape importante, car elle permet au
chercheur de s’informer sur les résultats des recherches connexes ,des recherches dans le
même domaine. La revue doit être continue, c’est-à-dire qu’il s’agit d’apprécier les résultats
des recherches effectuées dans ce domaine par d’autres chercheurs. La revue permet parfois
de continuer la recherche, il est souvent soulevé des problèmes qui n’ont pas être traités et qui
méritent aussi une attention. La revue de la littérature doit être aussi exhaustive que possible.
Cette activité consomme donc beaucoup de temps et le choix de la documentation relative au
sujet à traiter peut se faire de façon économique en lisant l’introduction, la méthodologie et le
résumé de résultats. C’est de cette manière que la documentation relative au travail peut être
choisie. Après cette opération, le lecteur passe à une lecture minutieuse de la documentation
choisie. Il est recommandé de commencer avec la littérature la plus récente pour terminer par
la littérature la plus ancienne.

Le cadre théorique et la revue de la littérature

Il est question dans cette partie de procéder à la présentation des modèles théoriques devant
asseoir les bases de notre recherche. Une sorte de va-et-vient entre la théorie et la pratique, le
cadre théorique a cet avantage, précise P. Ansart, de permettre au chercheur de préciser
son réseau d’influence et d’appartenance8.

8
P. Ansart, Les sociologies contemporaines, Paris, Seuil, 3ème éd., 1990, p.56.

Page 23 sur 102


Cette étape vient après la construction du problème. Elle en est donc, en principe,
indépendante. Cependant, il est plus logique (et recommandé) de travailler à l'élaboration de
cette étape en liaison et en complémentarité avec la précédente : elles doivent être presque
concomitantes. En effet, le cadre théorique global dans lequel s'inscrira la recherche et l'état
des connaissances sur le sujet (que l'on doit clarifier et passer en revue) sont indiqués et tracés
(dans leurs grandes lignes) par l'explicitation du champ de connaissances dans lequel on
insère son problème ainsi que par les limites qu'on a décidé de respecter.

Tout ce qui est hors de ce champ de connaissances et tout ce qui est au- delà de ces limites
sera également hors et au-delà du cadre théorique et de la revue de la littérature.

A – Le cadre théorique

Plus haut, dans ce que nous avons appelé domaine couvert par le champ de connaissances
appliqué au problème, il ne s'agissait que de situer les frontières conceptuelles que l'on se
trace pour conduire sa recherche. Dans notre exemple, il s'agissait des concepts liés à la
psycho-sociologie générale des groupes de travail, donc nous excluons d'une certaine façon la
psychologie clinique, la psychanalyse, la sociologie...

Dans le cas du cadre théorique, il ne s'agit plus de simplement indiquer un champ de


connaissance en y replaçant son sujet, mais plutôt de faire état de sa propre connaissance du
champ en question et surtout, de ce qui, pris dans ce champ, éclaire, généralise, approfondit,
explique, enrichit... les principales dimensions du problème que l'on traite.

C'est à ce stade que l'on apprécie généralement la culture du chercheur, l'étendue et l'actualité
de ses connaissances dans sa spécialité, ainsi que sa capacité à les appliquer pour
l'explicitation, l'élaboration et en un mot, la théorisation de son sujet.

On appelle théorisation le fait de ne plus seulement esquisser les contours d'une situation ou
des éléments d'un problème, mais de les intégrer et de les articuler avec l'ensemble de leurs
tenants et aboutissants à l'intérieur du corps conceptuel que l'on a retenu comme cadre global
(champ de connaissances) applicable dans sa recherche.

Dans notre exemple, il s'est agi de développer l'ensemble des connaissances théoriques
pouvant éclairer les problèmes d'adaptation de l'homme à ses conditions de travail : le bruit, la
température, les intempéries, l'isolement, la vie en camp... tout ce que la psychologie et la
psychologie sociale avaient à nous apprendre sur ces problèmes et sur ceux liés à
l'absentéisme, le retrait du travail, les retards, l'instabilité...

B – L'état des connaissances sur le sujet ou « revue de la littérature »

En général, on met sous la rubrique « revue de la littérature » aussi bien le cadre théorique que
l'état des connaissances. Nous préférons les distinguer, car, dans la pratique, l'état des
connaissances sur le sujet est un chapitre qui doit être réservé à la revue, si possible complète,
exhaustive et critique des travaux spécifiques qui ont été faits sur le problème que l'on veut
traiter (c'est en fait une revue des principales recherches déjà effectuées sur le même sujet).
On doit notamment y indiquer (en partant des travaux les plus généraux vers les plus
particuliers) :

Page 24 sur 102


— La nature de la recherche, l'auteur, la date, l'université ou l'école, le lieu, les
hypothèses de départ.

— La méthodologie suivie.

— Les résultats obtenus et leur interprétation.

— La portée et les retombées de chaque recherche (prévues et réelles).

— Les points faibles et les points forts respectifs...

Cette partie est extrêmement importante car elle permet de situer son apport personnel avec
plus de précision, de réunir (pour le bien du chercheur en premier lieu) de façon synthétique
ce qui a été fait de plus pertinent et de plus récent sur le sujet et surtout de pouvoir s'inspirer
(et aussi profiter des erreurs qui ont pu être faites) d'approches et de méthodologies différentes
appliquées à un même problème.

Bien sûr, il ne s'agit nullement de tout recenser ni de tout savoir mais de montrer qu'en
s'engageant dans l'étude d'un problème donné, on n'ignore pas le plus essentiel, le plus
fondamental de ce qui a été déjà fait, en théorie et en recherches appliquées, sur le même
problème ou sur des problèmes similaires.

2.3. L’élaboration du design de recherche


- Le cycle de la recherche
L'idée de cycle implique qu'il y a départ d'un point précis et retour, après un certain périple, à
ce même point. C'est exactement ce qui est supposé se passer dans toute recherche. Celle-ci
doit avoir pour point de départ un élément très précis qui se présente sous forme d'une
interrogation, d'une énigme, d'une insuffisance, d'une méconnaissance... qu'on appelle, dans le
jargon consacré, le problème. Ce point de départ sera, dans toute recherche convenablement
menée, le point d'aboutissement sous l'aspect d'une nouvelle formulation, d'un progrès dans la
connaissance du sujet traité... Cet aboutissement doit montrer clairement ce que le chercheur
apporte de plus ou de nouveau a ce qui lui a servi de « problème » de départ.

Voici donc, figuré sous forme de diagramme, ce cycle de recherche : chaque case représente
une étape, un moment d'étude, d'analyse, de préparation, de formulation... d'un des éléments
nécessaires à la conduite du travail. Chacune des flèches reliant une case à une autre
représente toute une série d'arguments, de justifications et de raisonnements explicitant les
enchaînements logiques qui relient entre elles les étapes et conduisent le chercheur
graduellement, mais nécessairement, vers des progrès successifs dans la compréhension et
l'enrichissement du sujet traité. Il faut donc concevoir ces flèches non pas comme des liaisons
successives distinctes mais comme une seule et même chaîne (un fil conducteur) depuis le
départ du problème jusqu'au retour à ce même problème, sans jamais perdre le « contact »,
que ce soit avec l'étape précédente ou avec la suivante.

Page 25 sur 102


Le cycle de la recherche est un tout interrelié, homogène et cohérent où chaque partie est
nécessairement une suite logique de celle qui la précède et une préfiguration de celle qui la
suit.

Le cycle de la recherche
– Sujet – – Formulation –

– Problématique –

Page 26 sur 102


– Délimitation du
Champs de travail

Questions soulevées Contexte théorique


Problème
du problème et des
par le problème
questions centrales

Type d’informations
– Revue des écrits – Pré-enquête –
recherchées
sur le sujet –

État des connaissances Données nécessaires


Hypothèses et conditions de
sur le problème vérification la recherche

Plan d’enquête – Plan


d’expérimentation Définition Échantillon – Pré-test de
Méthodologie – Techniques,
de l’instrument et pré- l’instrument
Instruments, Échantillons…
construction

Préparation et « nettoyage »
des données
Élaboration définitive
Instrument(s) Collecte des données

Traitement et analyse des Interprétation des Conclusions générales


données
Résultats

Modèles

Nouvel éclairage, nouvelles


connaissances, nouvelles
possibilités d’action, nouvelles
solutions…

Page 27 sur 102


II — Les étapes de la recherche

On entend par étapes de recherche, les phases successives concrètes, sophistiquées ou banales,
que doit parcourir le chercheur avant d'espérer aboutir à des résultats acceptables. On
distingue trois types d'étapes dans la recherche :

A – Les étapes initiales : les préambules de la recherche.


B – Les étapes intermédiaires : le déroulement de la recherche.
C – Les étapes finales : les travaux sur les fruits de la recherche.

A – Les étapes initiales


1. L'idée de la recherche

Il s'agit de l'élément particulier qui a fait germer la pensée de faire une étude, d'approfondir ou
de s'intéresser à quelque chose de précis. Cette idée de recherche peut provenir d'au moins
quatre sources essentielles :

1) Une partie d'un ensemble en cours de recherche ou de développement et qui


nécessite un travail d'élaboration ou de classification. Par exemple, la structure matricielle est
un ensemble en développement actuellement en contexte de gestion, l'idée de recherche ici
serait peut-être d'étudier les conditions et modalités d'application de la structure matricielle à
des secteurs particuliers tels que les hôpitaux et les institutions culturelles.

2) Un problème immédiat qui nécessite une solution à plus ou moins court terme (il
s'agit ici du type de problèmes pour lesquels aucune solution toute prête n'est envisageable et
qui requièrent donc une solution originale, particulière, qui doit être découverte).

On peut prendre comme exemple tous les problèmes que peuvent connaître à un moment ou
un autre dans leur fonctionnement, différentes organisations (baisse de productivité,
absentéisme, rotation élevée, engorgement de certains services ...).

3) Un problème futur, probable, à contrer ou à minimiser  ; par exemple, étudier


l'installation, dès le démarrage d'une unité, d'un service de comptabilité analytique, pour éviter
plus tard des problèmes de maîtrise des coûts, ou encore étudier une projection des
développements de carrière du personnel pour éviter les plafonnements rapides, des pléthores,
des sous-qualifications...

4) Un besoin d'informations, de connaissances plus précises sur un sujet donné ou sur


un aspect donné d'une situation. Par exemple, on doit avoir des données précises sur le
marché avant de lancer un nouveau produit ; sur le fonctionnement et l'état actuel d'une
entreprise avant d'y implanter une nouvelle organisation...

En tout état de cause, il faut retenir que l'origine d'une idée de recherche influence
toujours le déroulement futur et les objectifs de celle-ci, dans le sens où tout ce qui sera
entrepris devra contribuer directement ou indirectement à éclairer le problème originel
précis. On ne conduit pas de la même façon une recherche qui a pour but une étude de marché
et une autre qui vise à développer les possibilités théoriques d'application d'un nouveau mode
de gestion...

Page 28 sur 102


2. Les objectifs de la recherche

Après l'idée de recherche, qui est en général une vision assez floue, simple et incomplète ²de
ce que l'on veut étudier (par exemple, dans l'idée de recherche sur les causes d'engorgements
du port de Montréal, il y a une multitude de problèmes et d'aspects particuliers à étudier), il
convient de définir, dans les grandes lignes, les principaux objectifs poursuivis.

Les objectifs principaux (cerner la demande d'un produit, diagnostiquer une situation, corriger
des dysfonctions, tester l'applicabilité d'un système ...) doivent être précisés en termes
d'étendue, de portée, de temps, de moyens, de lieux...

3. Les limites de la recherche

Il s'agit d'expliciter d'où l'on part précisément et où on veut arriver précisément. Quelles sont
les questions qui seront traitées, celles qui ne le seront pas et pourquoi. Quelles sont les
frontières théoriques, méthodologiques, analytiques... que l'on s'impose et pourquoi ? Quelles
sont les limites liées aux moyens disponibles tels que finances, déplacements, enquêtes de
terrains, temps ordinateur... ?

4. Le terrain de la recherche

Le chercheur doit délimiter les critères qui serviront à cerner la ou les populations de l'enquête
(on appelle population le bassin qui contient les éléments sur lesquels porte la recherche, que
ce soit des personnes ou des objets...) et, à l'intérieur de la population, le ou les échantillons
précis qui serviront de base matérielle à l’enquête. La définition préliminaire de ces critères
(qui doivent correspondre aux objectifs poursuivis) aidera le chercheur à vérifier à l'avance, si
oui ou non, avec de tels critères, on a des chances sérieuses de réunir un échantillon
suffisamment grand pour satisfaire aux exigences de rigueur de la recherche.

Page 29 sur 102


5. La budgétisation de la recherche

Cette avant-dernière étape préliminaire concerne surtout la faisabilité matérielle de la


recherche. Le chercheur doit répertorier toutes les actions qu'il aura à entreprendre pour mener
son étude et s'assurer qu'il peut, pour chacune d'entre elles, disposer des ressources
nécessaires en termes de temps, de disponibilité des personnes impliquées, de financement
(d'opérations telles que déplacements, documentation, enquêtes, dactylographie, reproduction,
envois spéciaux...). Tous ces éléments peuvent sembler périphériques ou accessoires par
rapport à la recherche, mais ils n'en sont pas moins indispensables et peuvent, s'ils n'ont pas
été l'objet d'une grande attention préalable, constituer, à un moment ou à un autre, un frein qui
remettrait en cause toute la démarche.

6. Le listage des opérations et formalités initiales

Dans toute forme de recherche (et surtout celles impliquant un travail de terrain), il y a
toujours un certain nombre de formalités et d'actions préalables à entreprendre pour garantir,
ne serait-ce que sur les plans administratif et juridique, la faisabilité d'une recherche. Ici, il
s'agira de se munir d'un minimum de garanties du genre :

— Lettres de recommandation, d'introduction...


— Autorisations écrites d'effectuer les visites nécessaires.
— Autorisations d'interviewer et d'enquêter.
— Engagements d'aide ou de facilitation du travail du chercheur.
— Formalités d'accès à la documentation nécessaire (archives, dossiers,
statistiques...).

Cette dernière étape permet d'éviter les désagréables surprises de se voir fermer des portes que
l'on croyait naturellement ouvertes... Tout ce qui nécessite le recours à un organisme ou à une
institution, quels qu'ils soient, doit faire l’objet, dès le début, de négociations et
d'engagements fermes, précis et si possible écrits.

Retenons, en conclusion partielle, que les étapes préliminaires d'une recherche constituent un
effort systématique de vérification du bien-fondé général de l'idée de recherche, des buts que
l'on veut atteindre (en gros du moins) et surtout des conditions matérielles et des garanties de
réalisation. Si l'un ou l'autre des aspects de ces étapes préliminaires présente des aléas, des
incertitudes, ou même seulement des doutes, il vaut souvent mieux renoncer que s'engager
dans un processus à demi maîtrisé...

Que de projets grandioses et généreux finissent aux oubliettes à cause d'une attention
insuffisante à ces préambules et précautions qui ne demandent pourtant qu'un peu d'esprit
systématique et quelques efforts d'anticipation sur ce qui peut favoriser ou gêner les grandes
lignes du déroulement de la recherche.

B – Les étapes intermédiaires

Après les étapes préliminaires, il s'agit de s'intéresser à ce qui va constituer le corps de la


recherche. On s'est assuré qu'elle vaut la peine d'être entreprise (que l'idée est intéressante et
qu'elle apportera réellement quelque chose à la connaissance et/ou à l'amélioration d'un
problème, d'une situation particulière) et qu'elle peut, matériellement et administrativement
être menée jusqu'au bout, alors on réfléchit à sa faisabilité scientifique.

Page 30 sur 102


Cette faisabilité scientifique, dans le cadre du modèle classique, nécessite le passage par les
six étapes suivantes :

— Formulation opératoire du problème et objectifs généraux.


— Formulation du contexte théorique et état des connaissances.
— Formulation des hypothèses et des objectifs partiels.
— Définition des données requises.
— Définition de la méthode, terrain, instrument(s).
— Tests, passation et cueillette des données.

1. La formulation opératoire du problème et les objectifs généraux

Par formulation opératoire, il faut entendre une formulation dite scientifique du problème
que l’on veut traiter. L'énoncé sous forme de sujet de la recherche ne suffit absolument
pas, il faut véritablement situer son problème dans le cadre d'une théorie réputée
scientifique : Quelles sont les lois en jeu ? Quelles sont les variables ? Les faits ? Quels liens
de causalité objectifs et précis y a-t-il entre les principales variables pour justifier le problème
que l'on veut étudier ? C'est aussi ce que beaucoup d'auteurs appellent la problématique que
nous pourrions (très schématiquement) définir comme étant la précision de l'ensemble des
tenants et aboutissants du problème (ainsi que de la façon de le poser : un même problème ne
sera pas, par exemple, posé de façon identique par un chercheur structuraliste et un chercheur
fonctionnaliste).

2. La formulation du contexte théorique et l'état des connaissances sur le sujet

Il s'agit d'abord de situer dans un champ de savoir précis le sujet à étudier ainsi que la
manière dont on veut le traiter. Si l'on veut traiter, par exemple, un problème concernant la
demande globale pour un produit stratégique donné, va-t-on se situer et situer le problème
dans le cadre de l'économie classique ? marginaliste ? marxiste ? Va-t-on le traiter selon des
mécanismes liés aux notions de libre circulation de l'information, jeu libre de l'offre et de la
demande, ou au contraire, dans un cadre de référence s'appuyant sur les notions de lutte des
classes, de réalisation de plus-value, de monopoles et de monopsones ? Tout cela doit être
explicité, précisé et argumenté.

Par la suite (et souvent simultanément), il faut faire le point des connaissances sur le sujet :
Où en est-on au moment où on doit enclencher sa recherche dans le savoir général sur son
problème ? Quels sont les résultats des recherches essentielles les plus récentes (autant que
possible) sur le sujet ? Que va-t-on, soi-même, apporter de plus ?

3. La formulation des hypothèses : les objectifs précis

À la présente étape, la tâche consiste généralement à effectuer une pré-enquête (sur


documents ou sur terrain) qui va permettre de générer des hypothèses dûment justifiées
quant à ce que l'on compte démontrer ou découvrir. Cette formulation d'hypothèse(s) doit
aussi s'accompagner d'une explicitation des manières et moyens de vérification, confirmation
et/ou infirmation de ces mêmes hypothèses. Cela constituera en fait l'objet véritable de l'effort
de recherche. Cet effort d'explicitation permet une précision indispensable des objectifs
particuliers poursuivis (ce que l'on démontrera, élaborera, mettra à jour...) aussi bien en cours
de route qu'en phase finale.

Page 31 sur 102


4. La définition et la clarification des données nécessaires

Sachant, à peu près dans le détail, ce que l'on veut montrer ou démontrer, il faut encore
préciser quels genres d'informations seront nécessaires, et où les trouver, les cueillir, pour
répondre aux objectifs de la recherche. Quelle est la nature et quelles sont les garanties de
fiabilité des données qui seront utilisées...

5. La méthode, le terrain, l'instrument

Il faudra préciser quels sont les procédés les plus pertinents à utiliser pour collecter les
données ; spécifier où ces données seront recueillies, quelles sont les garanties de
représentativité de l'échantillon ou du terrain choisi, des sources choisies, quel sera
l'instrument le plus adéquat pour recueillir ces données (l'interview, le questionnaire, un test)
et pourquoi.

6. La collecte des données, le pré-test et la passation

Il s'agit, dans cette étape, de s'assurer d'abord que l'instrument fonctionne bien comme on l'a
prévu, et dans le sens des résultats (indicatifs) prévus. Si l'instrument s'avère remplir le rôle
qu'on attendait de lui, sur le terrain prévu, alors on peut lancer l'opération de collecte des
données. C'est ce qu'on appelle la phase de « pré-test et de passation » de l'instrument.

C – Les étapes finales

Ce sont les étapes qui consistent à tirer quelque chose des données rassemblées. C'est
proprement la phase de génération d'éléments nouveaux et originaux montrant que l'on a
contribué à améliorer notre connaissance ou notre compréhension quant au problème abordé.

1. La préparation des données

Une fois rassemblées, les données brutes (réponses à un questionnaire, chiffres,


statistiques ...) doivent faire l'objet d'un minutieux travail de préparation avant d'être traitées
et analysées. Dans ce travail de préparation, il faut trier, dépouiller, nettoyer, regrouper,
coder... de façon que, le moment venu, on n'ait, autant que possible, que des données non
contaminées, non biaisées, c'est-à-dire non susceptibles de générer des erreurs ou des dist
orsions dans les résultats.

2. L'analyse des données

Comme son nom l'indique, cette étape consiste à effectuer un travail de manipulation et de
traitement des données nettoyées. Elle peut consister en toutes formes de calculs,
regroupements, croisements... quantitatifs ou qualitatifs, manuels ou informatisés...

C'est ici que l'on dégagera ce que l'on a découvert par rapport au problème ainsi que les
paramètres statistiques, les indices, les coefficients, les fréquences, les classes... servant à en
spécifier les caractéristiques.

Page 32 sur 102


3. L'interprétation des résultats

C'est la phase d'inférence, de « mise de signification » dans les résultats obtenus à l'étape
précédente. Il s'agit, selon l'expression plus familière, de faire parler les chiffres, indices,
coefficients... dégagés par l'analyse, et exprimer de façon claire, argumentée, comment ces
résultats constituent un progrès par rapport au point de départ.

4. Les conclusions

C'est l'apport propre, total et original du chercheur qui doit apparaître ici :
- A-t-on ou non confirmé ses hypothèses ? Pourquoi ?
- Qu'a-t-on apporté de plus par rapport à ce qui est déjà connu sur le problème ?
- Jusqu'à quel point a-t-on trouvé réponse aux questions posées au départ ? Pourquoi ?
- Quelles sont les déviations ? Les insuffisances ? Pourquoi ?
- Quelles sont les situations particulières où les résultats se vérifient ? Ne se vérifient
pas ? Pourquoi ?
- Quelles sont les possibilités d'applications théoriques et/ou pratiques ?

2.4. Le recueil et l’analyse des données

Il y a deux grandes manières de recueillir des données en sciences sociales :

 Observation : comportements directement observables comme par exemple le degré


de tension. C’est une manière de recueillir l’information qui est relativement rare.
 Interrogation : le choix dépend de plusieurs facteurs c’est-à-dire des choix faits
pendant la question de recherche qui dépend de la question de recherche. C’est le
choix de la manière de recueillir les données ; si par exemple on s’intéresse plus à des
comportements que des opinions ou des valeurs qui ne sont pas observables.

Enquête par sondage

La plupart de la recherche en sciences politiques passe par l’interrogation. La manière


privilégiée dans le paradigme positiviste et post-positiviste est l’enquête par sondage.

Si on est intéressé à étudier le comportement électoral, on passe par des données qui ont été
collectées par quelqu’un d’autre par le biais d’une enquête par sondage soit d’un
questionnaire.

L’enquête par sondage, selon Corbetta, est une manière de recueillir des informations en
interrogeant les individus qui sont les objets de la recherche. Les individus appartiennent à un
échantillon représentatif à travers une procédure standardisée d’interrogations dans le but
d’étudier des relations existantes entre les variables.

L’enquête par sondage se base sur l'interrogation, c’est le fait de poser des questions au gens ;
c’est l’instrument crucial le plus souvent utilisé.

Une enquête par sondage est donc :

 recueillir l’information en interrogeant les gens : on pose et formule des questions.

Page 33 sur 102


 individus objet de la recherche : cela permet de faire une distinction, car il y a
d’autres méthodes de collectes des données qui passent par l’interrogation et/ou les
individus qu’on interroge ne sont pas les individus ou les sujets que l’on souhaite
étudier et notamment les entretiens de type « key informations » c’est-à-dire
l’interrogation de personnes qui peuvent nous donner des informations concernant le
sujet étudié.
 échantillon représentatif : on interroge une partie de la population, si on s’intéresse
au comportement électoral des Suisses on ne va pas interroger les sept millions de
Suisses, c’est pourquoi on interroge seulement une partie de la population. Toutefois
on peut tomber dans les erreurs de sélections et notamment les erreurs
d’échantillonnages. Dès lors l’enquête par sondage procède par l’interrogation d’un
échantillon représentatif de la population que l’on souhaite étudier.
 procédure standardisée de la manière de poser la question : il y a une
standardisation de la procédée, car dans l’optique la recherche quantitative on veut
standardiser l’information, car on veut comparer les réponses entre elles, c’est
pourquoi on pose les mêmes questions à tout le monde et de la même manière. Cela
vise à pouvoir traiter les réponses à travers les outils offerts par la statistique. Les
choix dépendent de la perspective dans laquelle on s’inscrit, le choix entre une
approche quantitative et qualitative est dicter par la question de recherche, mais aussi
par les préférences ainsi que les la tradition dans laquelle on s’inscrit. En d’autres
termes, la standardisation permet le traitement statistique et la comparaison.
 étudier les relations entre les variables : on met les concepts en relations, ensuite on
a l’opérationnalisation et à travers cette procédure on arrive à des variables qui
permettent d’étudier des relations entre variables. Cette caractéristique permet de
distinguer « l’enquête par sondage » du « sondage ». Un sondage n’a pas pour objectif
de tester les hypothèses alors que l’enquête par sondage permet de tester les
hypothèses. Le sondage est principalement descriptif. On veut vérifier empiriquement
des hypothèses et non pas seulement explorer et décrire.

Types de recueil des données à travers l’interrogation

Réponses : standardisées/libres

Il y a une manière de classer les différents types de recueils de données à travers


l’interrogation. La typologie repose sur le degré de standardisation des questions, mais aussi

Page 34 sur 102


des réponses. On peut dire que lorsqu’on procède par interrogation dans la recherche en
sciences sociales, on peut poser des questions qui sont standardisées c’est-à-dire les mêmes
pour tout le monde.

On peut aussi poser des questions différentes en fonction des sujets qui varient. On pourrait
par exemple poser des questions différentes aux hommes et aux femmes si l’on souhaite
s’intéresser aux différents rôles dans la famille ou la société.

Il est aussi possible d’envisager un type d’interrogation ou l’on pose des questions différentes
à des personnes différentes, car on n’est pas intéressé à standardiser.

En ce qui concerne la standardisation, la formalisation ainsi que la séquence des questions est
la même.

Questions : standardisées/libres

On a aussi une distinction entre les questions standardisées ou libres. On peut faire en sorte
que les réponses soient pareilles pour tout le monde ou laisser un degré de liberté à chacun
quant aux réponses.

La réponse standardisée présente des modalités de réponses, on demande de choisir entre


différentes modalités.

Typologie

 dans le questionnaire : les questions et réponses sont standardisées.


 l'entretien libre : sans standardisation pour les réponses ni pour les questions.
 l'entretien structure : on a les mêmes types de questions cependant chacun peut
répondre comme il veut. Les questions sont standardisées, mais on ne donne pas les
modalités de réponses, ceci a évidemment des avantages et des désavantages.

Ce sont trois types de procédures afin de tester des hypothèses à travers l’interrogation.

Problèmes de fonds du recueil d’informations à travers l’interrogation

Il faut être conscient d’un certain nombre de problèmes de fonds.

Problèmes liés à la standardisation

La standardisation découle du paradigme positiviste, on est dans une approche


épistémologique objectiviste, on essaie d’uniformiser. Cela a un certain nombre de contre-
indications dont surgissent des problèmes : lorsqu’on standardise on gagne d’une part et l’on
perd de l’autre côté avec notamment une dépersonnalisation entre l’enquêteur et l’enquêté.

Pour ceux qui s’inscrivent dans ce paradigme, il est préférable qu’il y ait différenciation, car
le chercheur doit être séparé du sujet.

Page 35 sur 102


Cet objectif d’essayer de se rapprocher d’une neutralité de l’instrument pour obtenir une
comparabilité des personnes pose un certain nombre de problèmes, nous sommes dans le
cadre des réflexions épistémologiques.

Fiabilité du comportement verbal

Si on observe des comportements, on est sûr qu’on l’ait observé ayant une idée de validité de
ce qui est observé. Il faut mettre en œuvre tout un appareil méthodologique qui permet de
diminuer les sources d’erreurs liées à l’interviewés :

 désirabilité sociale des réponses : les individus tendent à répondre d’une manière à
offrir une image positive de soi ou de façon à ne pas heurter la sensibilité de la
personne qui administre la question.
 absence d’opinion : lié à la question des « pseudo-opinions ». Lorsqu’on pose des
questions aux individus, si l’on pose la même question à deux individus avec un qui a
déjà réfléchi sur la question et s’est formé une opinion et que l’autre personne est
confrontée pour la première fois à la question, dans ce cas on se forme une opinion sur
le moment qui n’en est peut-être pas une ; dès lors l’absence d’opinion est un
problème fondamental dans les démarches d’interrogations. Si on est dans des
démarches plus qualitatives on a le temps d’interagir avec la personne lui permettant
de se former une opinion et évitant le problème de « pseudo-opinion ».

Quatre aspects de l’enquête par sondage


Types de questions

Substance

Il y a un aspect lié à la substance du contenu de la question ainsi que sa forme.

 données sociodémographiques : il y a différents aspects abordés, dont les


caractéristiques sociodémographiques des personnes interrogées. C’est quelque chose
qu’il ne faut jamais oublier. Les caractéristiques des individus affectent des autres
comportements.
 attitudes : c'est une prédisposition acquise par rapport à un enjeu politique. Cela
permet par exemple d’étudier les valeurs.
 comportements : on peut les observer, mais si on ne peut pas les observer il faut
interroger les individus. On oriente la recherche sur le comportement de gens par
exemple poser des questions sur la participation des individus. Ces données sont plus
contrôlables que les « attitudes », car elles sont moins soumises à des variations et plus
faciles à observer. On distingue les « questions factuelles » qui portent sur les faits des
« questions sur les motivations ». L’idée est que, si possible, il est préférable de poser
des questions factuelles et qui concernent les comportements.

Forme

Questions ouvertes

On laisse la liberté de répondre aux personnes interrogées ; elles sont moins standardisées
dans la réponse.

Page 36 sur 102


Avantages Désavantages

 permettent la liberté  réponses vagues : chacun peut


d'expression : tout le monde s'y répondre de la manière qu’il souhaite.
retrouve, l’individu n’est pas  absence d’homogénéité dans
enfermé dans un choix prédéfini. l'intervention des interviewers.
 profondeur des informations : on  difficultés dans la phase
va dans l’intensif plutôt que dans d'interprétation et de codification
l’extensif. des réponses : sur un échantillon de
 plus proches de la donnée réelle : beaucoup de personnes, il est difficile
on ne renferme pas la personne de classer les questions ouvertes, il est
dans des modalités de réponses mieux de le faire au préalable avec
préétablies avec le danger des des questions fermées.
« pseudo opinions », dès lors on  suppose un travail de codage pour
est plus proche de la réalité. standardiser.

Questions fermées

Ne prévoient pas des modalités de réponses spécifiques, dans les enquêtes par sondage
(questionnaire) cette méthode est plus utilisée, car on peut comparer les réponses puisqu’elles
sont déjà standardisées.

Avantages Désavantages

 excluent toutes les alternatives de


réponses que le chercheur n'a pas
 donnent à tous le même cadre de
prévues : il faut faire en sorte que
référence : tout le monde a le
toutes les modalités de réponses
même cadre de référence.
doivent être incluses.
 facilitent le souvenir : permet de
 les alternatives proposées
faciliter le souvenir, toutefois cela
influencent parfois les réponses : on
peut être vu comme un
influence l’interviewé et on s’éloigne
désavantage, car cela peut
de la vraie valeur que l’on souhaite
influencer les réponses.
observer.
 stimulent l'analyse et la
 les réponses n’ont pas la même
réflexion : on réfléchit sur les
signification pour tous : la
différents systèmes de réponses.
définition doit être comprise par tous
de la même manière.

Page 37 sur 102


Questions mixtes

Il y a un item de réponses style « autre » et on a en même temps la question fermée avec les
modalités de réponses présentées à la personne interviewée. Dans ce cas on flexibilise
l’instrument ; on a la fois la standardisation et on évite l’oublie d’offrir certaines modalités de
réponses qui est une erreur fatale, car on ne peut la réparer. D’autre part en cas de doute cela
permet de laisser une réponse ouverte.

Question « cafeteria  »

Renvoie aux questions fermées avec à une liste plus longue de réponses, d’autre part les
modalités de réponses peuvent être unique ou multiples.

Formulation des questions

Il n’y a pas de bonnes et de mauvaises questions, toutefois il existe un certain nombre


d’astuces et de biais afin de les rendre plus pertinentes. On essaie de réduire un certain
nombre d’erreurs à travers différentes recettes.

La manière dont on pose la question a des répercussions sur la réponse. Aux États-Unis a été
posé la question sur la liberté de parole en ces termes : pensez-vous que les États-Unis
devraient permettre les déclarations publiques contre la démocratie ? Les individus ont
répondu à 75% « non ». Une autre question a été posée : pensez-vous que les États-Unis
devraient interdire les déclarations publiques qui vont contre la démocratie ? Les individus ont
répondu à 54% « oui ».

Le résultat est assez diffèrent tandis que dans la première question ¾ des personnes sont
d’accord pour ne pas laisser les gens proférer des propos contre la démocratie ; pour la même
question posée différemment les individus répondent « oui » à 54%.

Une autre question est : si une situation comme celle du Viêtnam devait se développer dans
une autre partie du monde, pensez-vous que les États-Unis devraient envoyer ou ne pas
envoyer de troupes ? 18% des gens étaient d’accord. La même question a été posée à un autre
groupe, c’est un autre dessin expérimenta par splitage de l’échantillon d’une autre manière :
les États-Unis devraient intervenir ou pas en envoyant des troupes pour arrêter une prise de
pouvoir de la part des communistes ? Dans ce cas, 33% avait dit « oui ». Ainsi la manière de
poser la question est cruciale et change la réponse ; en d’autres termes la manière dont les
questions sont posées peut créer des biais.

 simplicité du langage : on construit une question que l’on va donner aux personnes
interviewées, il faut utiliser un langage simple et qui s’adapte à la personne ou au
groupe interviewé.
 longueur des questions : il faut essayer de poser des questions courtes.
 nombre d’alternatives de réponses : dans le cadre des questions « cafeteria » il faut
essayer de ne pas donner une liste trop longue de réponses, en d’autres termes limiter
le nombre de réponses.
 expressions en jargon : lorsqu’on étudie des subcultures, il faut éviter d’utiliser leur
langage.

Page 38 sur 102


 définitions ambigües : il faut les éviter comme, par exemple, « avez-vous un travail
stable ? » ; il faut avant tout préciser ce qu’est un travail stable ; il faut être le plus
spécifique possible dans la formulation de la question.
 mots à forte connotation négative : si on fait une recherche sur les relations entre
parents et enfants et les sanctions appliquées à ces derniers, une question mal posée
serait « frappez-vous vos enfants ».
 questions syntaxiquement complexes : éviter les questions négatives et notamment
celles impliquant une double négation ; par exemple « êtes-vous d’accord ou pas
d’accord avec l’affirmation suivante : ce n’est pas vrai que les travailleurs sont dans
une si mauvaise situation comme le dise les syndicats aujourd’hui ? ». Il est préférable
de poser les questions selon une forme affirmative.
 questions avec réponse non-univoque : « vos parents sont-ils religieux ? » ; le
problème étant qu’on a deux parents et qu’il y ait une distinction entre mère et père.
 questions non-discriminantes : éviter les questions qui ne font pas de différences
entre les sujets, car une question qui débouche ensuite sur une réponse presque
unanime ne donne plus lieu à une variable, mais à une constante. Afin de travailler
dans la recherche quantitative, il faut des variations dans les sujets. Par exemple,
« auquel des groupes suivants faites-vous le plus confiance ? » tout le monde fait
confiance aux proches ; il faut élargir les possibilités de réponse.
 questions tendancieuses : éviter les questions qui suggèrent une réponse, « dans notre
pays 700 prêtres ont déclaré que la bible est le message des pauvres et des exploités
donc de ceux travaillant dans les usines, participant activement dans les syndicats et
organisations politiques afin d’obtenir plus de droits sociaux, pensez-vous que les
prêtres ont raison ? ». Il y a trop de termes tendancieux.
 comportements présumés : éviter de donner comme acquis certains comportements,
par exemple « pour quelle partie avez-vous voté lors de la dernière élection ? », avant
tout il faut demander s’individu interrogé peut voter. On appelle aussi ce type de
question les « questions filtres ».
 focalisation dans le temps : en général, il faut éviter de poser des questions qui sont
vagues, par exemple « combien de fois lisez-vous des journaux par mois ? ». il est
toujours difficile de se souvenir et de fixer un repère. En général on trouve une
question standard qui permet de spécifier le contexte et de fixer un repère temporel
permettant ainsi la compatibilité des réponses.
 questions abstraites : « pensez-vous que la peine de mort doit être appliquée dans le
cas de crimes particulièrement graves ? » Le concept de « crime grave » varie selon
l'individu et les groupes d’individus interrogés. Selon que la question est formulée en
terme abstrait ou concret influe la réponse, la question la plus valide sera posée par la
concrétisation des exemples.
 comportements et attitudes : il est toujours mieux de se focaliser sur les
comportements que sur les attitudes plus difficiles à déterminer. Par exemple plutôt
que dire « êtes-vous intéressé par la politique » on dirait « lisez-vous les actualités
politiques dans les journaux ?». Toutefois il n’y a pas d’unanimité. Les
comportements donnent un repère factuel qui donne la réponse plus facile, valide et
comparable.
 désirabilité sociale des réponses : il y a surestimation systématique.
 questions embarrassantes : en sociologie dans le cadre d’études notamment
sexologiques certaines questions peuvent être embarrassantes.
 absence d’opinion et « je ne sais pas » : dans le cadre de pseudo-opinions, un
individu répond parce qu’il était forcé de répondre quelque chose. Il faut laisser la

Page 39 sur 102


possibilité à la personne interviewée de dire qu’il n’a pas d’opinion. Il est possible que
l’échantillon interrogé dans une grande proportion n’ait pas d’opinion. C’est un point
véritablement problématique.
 intensité des attitudes : souvent, il manque une mesure d’intensité des attitudes par
rapport à des enjeux spécifiques alors on construit des échelles permettant de donner
une mesure de l’intensité de la réponse.
 acquiescence : tendance des répondants à dire « oui ». Les individus ont tendance à
dire « oui », selon la manière dont on pose la question on peut avoir des réponses
différentes.
 effet mémoire : le souvenir n'est pas précis, renvoie à la question de donner des
repères temporels et factuels. Si possible il faut donner des items de réponses afin de
fixer la mémoire du répondant.
 séquence des questions : la séquence des questions peut aussi influencer les réponses.
Des erreurs peuvent s’infiltrer dans le fait de répondre. Il faut tenir compte de la
dynamique du rapport entre l’intervieweur et l’interviewé, de la fatigue de l’interviewé
qui permet une pertinence de la réponse, de la séquence de l’interview en termes de
savoir ou poser les questions les plus importantes, de « l’effet contamination », car la
réponse d’une question peut être influencé par une réponse immédiatement
précédente. La réponse à une question ne dépend pas de la question elle-même, mais
des questions posées précédemment.

Batteries de questions

On pose une question avec différents items de réponses :

 épargnent de l’espace et du temps.


 facilitent la compréhension du mécanisme de réponse.
 améliorent la validité de la réponse puisqu’il y a un cadre unique donné s’appliquant à
un cycle de sous-questions.
 permettent de construire des indices synthétiques.

Quand on fait un questionnaire standardisé, il faut passer beaucoup de temps à formuler les
bonnes questions qui vont nous permettre d’obtenir les bonnes données.

Modalités d’administration du questionnaire

On distingue quatre grandes manières de faire une enquête par sondage :

 face à face : coprésence


 interview téléphonique
 questionnaire auto administré
 questionnaire online

Interview face-à-face (CAPI : Computer-Assisted Personnal Interviewing /PAPAI :


Paper And Pencil Interviewing)

Avantages Désavantages

Page 40 sur 102


 il y a une interaction entre interviewé et
interviewer, il faut éviter d’influencer le
répondant, il est nécessaire d’avoir un
 si on voit qu’une personne a
certain équilibre.
mal comprise la question on
 il faut bien préparer l’entretien afin que
peut lui expliquer et même lui
les interviewer soient instruits sur la
montrer des items de réponses.
manière dont ils doivent se comporter
 on peut moduler le temps de
agissant tous de la même manière.
l’interview.
 lorsqu’on pose des questions face à face
il faut éviter une attitude passive, fatiguée
et démotivée.

Interview téléphonique (Computer-Assisted Telephone Interviewing)

L’enquête par téléphone est une méthode qui assure une rapide collecte des données, c’est
pourquoi c’est la méthode la plus populaire.

Avantages Désavantages

 il y a moins de concentration des gens qui


répondent et donc d’implication des personnes
 il y a moins de interviewées.
résistance des personnes
 les réponses sont plus superficielles.
interviewées avec un
 certains groupes sans téléphone ne sont pas
certain anonymat.
atteignables excluant certains secteurs sociaux
 permet d'atteindre des
introduisant une erreur de sélection et
réponses à la périphérie.
notamment une erreur de couverture de la
 permet de faciliter la population sélectionnée.
logistique par la
 il faut garder l’attention des interviewés, à partir
centralisation des
de 20 minutes les réponses deviennent moins
enquêteurs.
pertinentes.
 permet d’informatiser
 on ne peut pas utiliser de la matière visuelle.
les données.
 on ne peut pas récolter de la matière non-
verbale.

Questionnaire auto administré : (Computer-Assisted Web Interviewing)

Avantages Désavantages

Page 41 sur 102


 réduction des coûts : n’implique  risque d’erreur dans les réponses : on
que les coûts liés à l’impression ne peut pas savoir comment la
du questionnaire et aux frais personne a répondu.
d’envois qui sont généralement  faible taux de réponse : c’est important,
beaucoup plus réduit que les car l’erreur de non-réponse est une
coûts reliés au fait d’engager des source d’erreur importante pouvant
enquêteurs. Les frais de amener à un problème de
personnels sont réduits. représentativité. Si les personnes qui
 il peut être rempli quand on veut. répondent sont égales en termes de
 donne des garanties d’anonymat caractéristiques alors le problème est
plus importantes. moindre, on a moins de cas, mais il
 pas de distorsions liées à reste représentatif de la population en
l’interface interviewée – général, car pas diffèrent de la
interviewer. population qui a répondue.

Nota bene : la forme la plus rependue est le questionnaire postal. Un examen est un
questionnaire auto administré avec une contrainte de restitution.

Questionnaire online

C’est une modalité qui devient de plus en plus importante, mais qui est critiquée, car il y a un
problème de couverture lié à un problème de représentativité de l’échantillon.

Le taux de pénétration d’internet est tellement élevé en occident notamment ce qui justifie que
la population est suffisamment bien couverte.

D’autre part les autres types d’administration de questionnaires disposent d’autant de biais
que les questionnaires onlines.

Phases qui précèdent le recueil des données

 Étude exploratoire

C’est une étape très importante dans l’approche quantitative et dans le cadre d’une enquête
par sondage ne serait-ce que pour bien définir des modalités de réponses à mettre dans le
questionnaire.

Il n’est jamais aisé de définir les questions essentielles, c’est pourquoi il faut procéder à des
entretiens qualitatifs qui permettent de dégager quelles sont les réponses possibles des
personnes et ceci est d’autant plus important si le sujet n’a pas été exploré auparavant.

 Prétest

C’est le fait de tester le questionnaire avant de l'utiliser dans la recherche. L’échantillon doit
être semblable à la population étudiée.

Page 42 sur 102


 Préparation et supervision des interviewers

Préparation des interviewers, il faut avoir une bonne préparation et une bonne supervision.

 Contact initial

Il faut clarifier le mandataire de l’enquête, définir clairement les objectifs de l’interview,


garantir l’anonymat, souligner l‘importance de la collaboration, mais aussi envoyer plusieurs
rappelles afin de faire en sorte que la personne réponde et de manière fiable dans l’optique de
baisser le taux de non-réponses.

 Forme graphique du questionnaire

Il est nécessaire d’avoir une présentation soignée afin de maintenir la concentration et l’intérêt
de la personne qui y répond.

Échantillonnage

On procède par échantillonnage plutôt que d’étudier toute une population dans son ensemble
ce qui permet de faire des inférences sur l’ensemble de la population.

Définition

Selon Corbetta, l’échantillonnage est une procédure à travers laquelle on extrait à partir d’un
ensemble d’unités qui constituent l’objet de l’étude en un nombre réduit de cas appelés
« échantillon » choisit avec ou selon des critères qui permettent la généralisation à l’ensemble
de la population des résultats obtenus sur l’échantillon.

L'enquête par sondage se fait sur une population. On sélectionne un certain nombre de
personnes à partir d'une population que l’on souhaite étudier. Dès lors on sélectionne en
fonction d’un certain nombre de critères. Pour cela il faut pouvoir inférer les résultats.

Avantages Désavantages

 le coût du recueil des  on perd une certaine quantité


données diminue d’informations : si on interview toutes
drastiquement. les personnes qui constituent l’objet
 la durée du recueil des d’étude, on n’a pas de marge d’erreur
données et du traitement des possible.
données est inférieure.
 l’organisation de l’enquête
est plus aisée.
 la précision est
l’approfondissement de

Page 43 sur 102


l’enquête s’améliore.

La technique de l’échantillonnage n’a au fond que des avantages. Dans l‘échantillonnage on


peut extraire des personnes qui permettent d’estimer la différence entre ce que l’on trouve
dans l’échantillon et ce que l’on trouverait dans la population.

Principaux types d’échantillons

Les types d’échantillons découlent de la manière dont on extrait l’échantillon de la


population. La manière de calculer et d’estimer la marge d’erreur s’applique seulement aux
échantillons probabilistes.

Ce sont différents types d’extractions d’une « population mère » qui sont différentes ; la
grande distinction est entre les échantillons probabilistes et non-probabilistes.

Échantillon probabiliste / aléatoires simple / systématique / stratifié

 probabiliste

C’est un échantillon ou chaque unité est extraite avec une probabilité connue, on connait la
probabilité que chaque individu de la population a d'être sélectionné. La probabilité est
différente de 0.

Cela présente un avantage majeur puisqu’on peut calculer la marge d’erreur. Si on infère et
généralise des résultats que l’on trouve dans l’échantillon d’une population, il y a une certaine
marge d'erreur, avec l’échantillon probabiliste on peut calculer la marge d'erreur. Comme il
est difficile de remplir tous les critères, on choisit parfois l’échantillonnage non-probabiliste.

 aléatoire simple

Toutes les unités de la population ont la même probabilité d'être incluses dans l'échantillon.
En d’autres termes, chaque personne à la même probabilité de tomber dans l’échantillon. À
partir de la liste complète, on extrait par tirage au sort ; on s’appuie sur la loi des grands
nombres et on peut démontrer statistiquement que si on extrait de manière aléatoire ces
personnes seront représentatives de la population.

Page 44 sur 102


 systématique

La liste est incomplète, on tire systématiquement tous les individus ; par exemple, sur une
liste d’individus on tire tous les dix individus.

 stratifié

L'idée est la même que l’échantillonnage aléatoire simple, mais on subdivise d'abord la
population en diverses strates puis on choisit en fonction de ce qu'on veut étudier (exemple :
classes sociales). Avec des échantillons simples à l'intérieur de chaque strate, la marge
d'erreur procédant ainsi est minimisée en comparaison aux autres manières de tirer en général,
ainsi la population est plus homogénéisée.

Toutefois, on peut faire des erreurs d’échantillonnage ou encore avoir un problème de non-
réponse.

Il y a des sources d’erreurs de couverture, d’échantillonnage et de non-réponse ; cependant on


a la chance de pouvoir calculer l’un des trois si on n’a pas procédé à un échantillonnage non-
probabiliste : le paramètre qu’on estime dans la population est la somme de l’estimation plus
l’erreur d’échantillonnage. Le paramètre estimé pour la population comporte un niveau de
confiance sur la base duquel on peut estimer la valeur. Par exemple si on s’intéresse au
nombre de fumeurs dans la population suisse et on trouve dans un échantillon de 2000
personnes 30% de Suisses qui fument, on peut dire que 30% de la population suisse est
fumeur, mais avec un certain niveau de confiance.

En allant plus loin, on peut utiliser l’intervalle de confiance, on peut dire que les 30% trouvés
dans l’échantillon sont représentatifs de la population en fonction d’une marge d’erreur si on
veut l’inférer dans la population ; on ne peut pas dire que 30 % de la population suisse, mais
on peut dire qu’entre 30 – 33 et 27% fument ; il y a un intervalle dans lequel on va trouver la
vraie valeur de la population à partir de la valeur observée dans la population.

Il y a une notion liée à l’intervalle et une notion la confiance en cet intervalle. Si le revenu
moyen de la population de Genève est de 5000.- on peut dire que dans la population il va se
trouver entre 4500 et 5500 avec une probabilité de 95% que le paramètre va se trouver dans
cet intervalle. À partir d’une estimation faite dans l’échantillon, on va trouver la valeur dans la
population avec une certaine marge d’erreur et un niveau de confiance.

Échantillons non-probabilistes

On ne connaît pas la probabilité de chaque individu de tomber dans l'échantillon donc on ne


peut pas calculer la marge d'erreur.

 par quota : même logique que pour la stratification, la différence est que dans les
quotas on ne choisit pas les sujets de façon aléatoire.
 dessin factoriel
 « boule de neige »
 sondage téléphonique
 sondage de convenance

Page 45 sur 102


Erreurs d’échantillonnages
Erreur d’échantillonnage pour une moyenne

L'erreur d'échantillonnage dépend surtout de trois facteurs :

1. N, Taille : plus l'échantillon est grand, plus la marge d'erreur est petite ; inversement
proportionnel.
2. S, Écart-type (tendance centrale en fonction de l’hétérogénéité) : dispersion du
paramètre que l’on souhaite estimer ; plus il est élevé, plus la marge d'erreur est
importante cependant ce n’est pas très important s’il y a beaucoup d'échantillons. On
parle de variabilité des paramètres, en d’autres termes c’est un indicateur de
l’homogénéité ou de l’hétérogénéité de l’échantillon. Ce qui est important est que la
marge d’erreur dépend de manière proportionnelle de l’hétérogénéité de l’échantillon,
mais surtout il dépend d’une manière inversement proportionnelle de la taille de
l’échantillon, plus l’échantillon est grand plus la marge d’erreur est petite.
3. Z, Niveau de confiance de l'estimation : c’est un intervalle de confiance, on ne peut
pas savoir la vraie valeur, mais il est possible de s’en approcher. En d’autres termes
c’est le degré de certitude qu'on accepte quand on fait une inférence. Ainsi cela
représente l’intervalle de confiance, on peut montrer que pour un certain niveau de
confiance, par exemple pour 95% la confiance est de 1,96, pour un seuil de confiance
de 99%, z=2,58. Dans le cas d’un seuil de confiance de 95% cela signifie qu’on a 5%
de se tromper.
4. f, s’applique dans le cas de population très petite, c’est un facteur de correction entre
la taille d'échantillon et la population, c’est la division de la taille de l’échantillon par
rapport à la taille de la population. Si la fraction s’approche de zéro, le facteur est
négligeable. De manière plus pratique, on peut dire que dans n’importe quel sondage
l’échantillon est toujours beaucoup plus petit que la population alors que les
échantillons dépassent rarement 10000 personnes ce qui fait qu’on peut généralement
oublier ce facteur. D’autre part si la différence entre l’échantillon et la population est
très petite alors on ne fait pas d’échantillonnage et on interroge tout le monde.

Dès lors, la marge d’erreur dépend :

 de la taille de l’échantillon.
 du degré d’hétérogénéité du paramètre.
 du niveau de confiance que nous sommes disposés à concéder dans l’inférence
statistique.

Page 46 sur 102


Erreur d’échantillonnage pour une proportion

P et Q sont des proportions dans l'échantillon de paramètre que nous voulons expliquer.

Au fond, afin de calculer la marge d’erreur on doit tenir compte en particulier de la taille de
l’échantillon. C’est quelque chose qui peut paraitre surprenante, la taille de la « population
mère » n’apparaît pas dans le calcul de la formule de l’erreur d’échantillonnage. Autrement
dit un échantillon de 1000 personnes sur une population de 50000 personnes donne lieu à la
même marge d’erreur qu’un échantillon de 1000 personnes sur une population de 350 millions
d’habitants. La taille de l’échantillon donne la même marge d’erreur si on fait un échantillon
sur la population des Eaux-Vives ou de la population de l’Australie.

Exemple
n X S

1000 1253000 311000

100 1250000 308000

Il y a deux échantillons, un de 100 et un 1000 et on veut estimer le revenu moyen. Admettons


que tout le monde réponde ; on va essayer de calculer l’erreur d’échantillonnage.

Dans le premier échantillon :

 n : 1000
 x : 1253000
 S: 311000
 e : 1,96 pour 5% (seuil standard en sciences sociales)

18700 est l’erreur d’échantillonnage calculée pour un échantillon de 1000 personnes tirées sur
une population de 10000 personnes. C’est une marge d’erreur pour un estimateur de la
moyenne avec une variabilité qui est calculable et on va trouver une marge d’erreur de 18700.

On interprète 18700 en « plus ou moins » () ; si dans l’échantillon on a trouvé que le revenu
moyen est de 1253000, dans la population on peut être sûr de se tromper à 5% si on dit que
dans la population le revenu moyen est de 1253000 18700 soit

Plus on veut de sécurité dans l’inférence, plus l’intervalle devient grand.

Page 47 sur 102


Dans le second échantillon :

 n : 100
 x: 1250000
 S: 308000
 e : 1,96 pour 5% (seuil standard en sciences sociales)

Nota bene : lorsque les proportions sont différentes, la marge d’erreur est plus petite.

Le tableau suivant montre la taille de l’échantillon pour un échantillon aléatoire simple qui est
nécessaire pour une certaine précision de la mesure. Plus l’intervalle de confiance est étroit,
plus on a une mesure précise, mais il faut à nouveau tenir compte du niveau de confiance.

Si on veut une précision de l’estimateur de 5%, pour une population de 1000 personnes on a
besoin d’une population de 285 personnes, etc.

Source: Corbetta, P. (2003). Social Research. Thousand Oaks, CA: Sage.

On voit entre autres que pour une population de 50000 personnes ou plus nécessite une
population de 2500 personnes afin d’avoir une estimation précise.

Lorsqu’on a la possibilité de faire un échantillon probabiliste, on a la chance de pouvoir


calculer la marge d’erreur et de pouvoir estimer quelle est cette erreur, chose qu’on ne peut
faire avec l’erreur de couverture.

Toutefois il y a un problème. Parfois voire même souvent ce n’est pas possible d’avoir un
échantillon probabiliste. Souvent l’échantillonnage aléatoire simple n’est pas applicable, car
on ne dispose pas de la liste complète des personnes.

Dans ces cas on ne peut procéder à ces types de calculs, alors on procède à d’autres types
d’échantillons :

Page 48 sur 102


 échantillon systématique

On prend une personne à des intervalles réguliers et on peut démontrer que cela se rapproche
d’un échantillon probabilité soit d’un échantillon aléatoire. Un exemple est les « exits polls »,
on rencontre les individus qui sortent des urnes en interviewant toutes les 20 personnes. Un
échantillon systématique a la même propriété qu’un échantillon probabiliste, car chaque
personne a la même probabilité de rentrer dans l’échantillon.

 échantillon starifié

On a subdivisé la population préalablement pour une raison précise parce qu’on veut diminuer
l’hétérogénéité de la population, plus c’est hétérogène plus la marge d’erreur est diminuée.
Dans l’échantillon stratifié on prend une variable qui nous intéresse dont les proportions sont
dans la population sont connues et on tire des échantillons aléatoires à l’intérieur de chaque
catégorie selon ces variables. On a un écart type plus faible et une marge d’erreur plus petite,
combinée à un échantillon on démontre que la marge d’erreur globale est inférieure que
lorsqu’on tire des individus indifféremment.

 échantillons non-probabilistes

Il y a des erreurs de non-réponses et des erreurs de couvertures de la population. De plus en


plus de chercheurs faisant des sondages disent que les autres sources d’erreurs sont aussi
déterminantes. Il n’est pas vraiment nécessaire de faire ces calculs, mais il faut plutôt aller
vers des échantillons non-probabilistes.

Selon Corbetta, un échantillon non-probabiliste est un échantillon qui ne se base pas sur le
nombre d’individus ; le plus connu est l’échantillon par quota : à l’intérieur de chaque strate,
on choisit un certain nombre de personnes qui vont composer l’échantillon. Si on sait que
dans la population que l’on veut étudier il y a 60% de femmes et 40% d’homme, on va faire
en sorte qu’il y ait la même proportion dans l’échantillon. On va choisir selon les critères que
l’on veut, mais en respectant le quota soit la proportion dans l’échantillon.

Cet échantillon devient de plus en plus fréquent, car il est moins cher et moins laborieux, mais
a le désavantage de ne pas pouvoir calculer la marge d’erreur.

2.5. Un exemple d’application d’une démarche de recherche

Il y a certes plusieurs approches quant à l’application d’une démarche de recherche, cela


dépend d’une école à l’autre, mais aussi du contexte, néanmoins, nous pouvons avoir une
approche plus pragmatique et chronologique de la recherche :

Les étapes de la démarche

Page 49 sur 102


Les étapes de la démarche :
 Étape 1 : poser une question de départ
 Étape 2 : phase d'exploration :
o lecture des travaux d’un domaine spécifique
o entretiens exploratoires, prendre connaissance des travaux similaires.
Ces deux phases permettent d’aider à formuler une problématique
 Étape 3 : problématique
 Étape 4 : construction du modèle d’analyse afin de définir les concepts et de postuler
des liens entre les concepts
Étapes cruciales
 Étape 5 : l'observation, récolte des donnés
 Étape 6 : analyse de l’information grâce aux informations récoltées préalablement
 Étape 7 : conclusions.

Nota bene : cette chronologie n’est pas unidirectionnelle. Par exemple la formulation de la
problématique peut mettre en évidence des carences et susciter de nouvelles recherches pour
l’affiner.

Page 50 sur 102


Chapitre III : LES FONDAMENTS EPISTEMOLOGIQUES DE
LA RECHERCHE

L’épistémologie désigne, dans les pays anglophones, la théorie de la


connaissance. Dans les pays francophones, elle désigne la science de la science,
c’est-à-dire, une science ayant pour objet de soumettre à un examen critique les
fondements, les principes, les hypothèses et les résultats de diverses sciences.

3.1. Le positivisme

Le positivisme est un courant philosophique fondé au XIXe siècle par Auguste Comte, à la


fois héritier et critique des Lumières du XVIIIe siècle et qui soumet de manière rigoureuse
les connaissances acquises à l'épreuve des faits.

Le positivisme scientifique d'Auguste Comte s'en tient donc aux relations entre les
phénomènes et ne cherche pas à connaître leur nature intrinsèque : il met l'accent sur les lois
scientifiques et refuse la recherche des causes premières.

Auguste Comte construit une philosophie des sciences qui part des mathématiques pour aller
jusqu'à la sociologie et la science politique, ainsi qu'une philosophie de l'histoire qui conçoit
le processus historique comme une avancée vers davantage de rationalité scientifique
(« positive ») et moins de théologie et de spéculation métaphysique sur les réalités
transcendantes (« la loi des trois états »).

Après la mort de Comte, en 1857, le courant fut bientôt en proie à de nombreuses tensions
internes ; cependant, le positivisme a marqué de nombreux domaines de la pensée du
XIXe siècle, exerçant une influence entre autres sur la médecine, l'empirisme logique, et sur
divers courants qui ne sont pas tous liés entre eux (comme le positivisme juridique, certains
courants anglais qui dérivent de l'altruisme comtien, ou encore le néopositivisme
contemporain).

 La philosophie positive est l’ensemble du savoir humain, disposé suivant un certain ordre
qui permet d’en saisir les connexions et l’unité et d’en tirer les directions générales pour
chaque partie comme pour le tout. Elle se distingue de la philosophie théologique et de la
philosophie métaphysique en ce qu’elle est d’une même nature que les sciences dont elle
procède, tandis que la théologie et la métaphysique sont d’une autre nature et ne peuvent ni
guider les sciences ni en être guidées ; les sciences, la théologie et la métaphysique n’ont
point entre elles de nature commune. Cette nature commune n’existe qu’entre la philosophie
positive et les sciences.

Mais comment définirons-nous le savoir humain ? Nous le définirons par l’étude des forces
qui appartiennent à la matière, et des conditions ou lois qui régissent ces forces. Nous ne
connaissons que la matière et ses forces ou propriétés ; nous ne connaissons ni matière sans
propriétés ou propriétés sans matière. Quand nous avons découvert un fait général dans
quelques-unes de ces forces ou propriétés, nous disons que nous sommes en possession
d’une loi, et cette loi devient aussitôt pour nous une puissance mentale et une puissance
matérielle  ; une puissance mentale, car elle se transforme dans l’esprit en instrument de

Page 51 sur 102


logique  ; une puissance matérielle, car elle se transforme dans nos mains en moyens de
diriger les forces naturelles.  »

2.2. La sociologie compréhensive

La sociologie compréhensive de Max Weber est une démarche scientifique permettant la


compréhension d’un fait social. Elle peut être comprise comme une démarche en trois
étapes: la compréhension, l’interprétation et l’explication du fait social.

Selon Weber, le monde social est une agrégation d’actions sociales, qui représentent des
comportements humains auxquels l’acteur attribue un sens subjectif. Ces actions sont guidées
par les intentions et attentes de l’acteur. La dimension sociale d’une action implique qu’un
comportement doit être orienté vers un ou plusieurs autres individus. Par exemple, une
discussion entre amis est une action sociale, en revanche, une collision entre deux cyclistes ne
l’est pas car les individus ne se sont pas dirigés volontairement l’un vers l’autre.

Phase compréhensive

La première phase de la démarche compréhensive sert à comprendre le sens visé par


l’acteur lors de ses actions sociales. Il s’agit alors d’adopter une vision empathique afin de trouver
ce sens subjectif immédiat: un motif accordé par l’individu à son action. Lors de cette étape, on
accorde à l’individu une grande autonomie et on ne cherche pas encore à interpréter ou
déchiffrer son action. Ce travail est effectué lors de la seconde phase, la phase
interprétative.

Phase interprétative

Une fois le sens identifié, le chercheur passe donc à la phase dite interprétative. Il s’agit alors
d’objectiver le sens identifié dans la première phase. On adopte alors une posture
extérieure dans le but de pouvoir créer des concepts ou modèles utiles à l’analyse. Il s’agit
là d’une tâche difficile, à cause de l’implication du chercheur dans le monde qu’il étudie.
Weber a donc élaboré des outils théoriques permettant au chercheur de se distancier de son
objet d’étude et d’avoir un regard plus extérieur.

Le premier de ces outils est le rapport aux valeurs: il consiste à faire prendre conscience au
chercheur qu’il est lui-même inséré dans le monde social. Après cette prise de conscience, il
s’agit pour lui d’analyser la subjectivité de ses propres choix, de ses partis pris ainsi que de
ses valeurs, pour tendre vers plus d’objectivité. Une fois conscient de ses propre valeurs, le
chercheur fait appel à la neutralité axiologique (second outil de distanciation), qui consiste
à ne pas émettre de jugement ni de hiérarchisation des valeurs.

Dès que l’extériorisation est effectuée grâce à ces deux outils de distanciation, le chercheur va
pouvoir élaborer des concepts tirés de ses observations. Néanmoins, ces observations étant
issues du monde social, lui-même composé d’une infinité de faits, elles sont donc d’une
complexité difficilement déchiffrable. Weber recourt donc à un autre principe
méthodologique, l’idéal-type, pour faciliter la lecture du réel. Il s’agit alors de concevoir des
catégories d’analyse isolant les traits les plus fondamentaux, distinctifs et significatifs d’un
phénomène social. Attention, il ne s’agit pas de faire des moyennes ; mais bel et bien d’une

Page 52 sur 102


exagération de certains traits significatifs d’un fait social, de créer une utopie qui n’existera
jamais à l’état pur dans le monde réel mais qui aide le chercheur à désenchevêtrer le monde
social.

Par exemple, dans ses travaux sur la formation de l’Etat, Weber cherche à expliquer le rôle
de la domination de l’Etat sur ses « sujets » grâce à son outil bureaucratique. Pour
expliquer cela, il définit trois idéaux-types de domination:

- le premier idéal-type est celui de la domination charismatique. Dans ce cas, la


domination repose sur le charisme d’une personne (et non sur les règles ou les lois),
comme par exemple Che Guevara ou Jésus.

- Le deuxième idéal-type de domination est la domination traditionnelle, qui repose sur


la soumission et la croyance en la tradition. On peut retrouver celle-ci notamment dans
des communautés religieuses.

- Enfin, la domination légale rationnelle, repose sur la croyance en la légitimité des


règlements et de ceux qui les exercent. Pour Weber, la forme la plus pure de la
domination légale-rationnelle serait la bureaucratie étatique. En effet, les
fonctionnaires bénéficient de conditions qui leur permettent d’exercer des fonctions de
domination. Le système bureaucratique est hiérarchique, basé sur les qualifications et
sur l’impersonnalité de l’accomplissement de la tâche: n’importe quelle personne
compétente peut donc exercer cette tâche. L’Etat moderne repose sur cette forme de
domination. Il est important de rappeler que, bien que certains cas tendent vers l’idéal-
type (on y retrouve des caractéristiques marquantes), jamais un de ces trois types de
domination ne se manifeste sous sa forme la plus pure dans la réalité.

Phase explicative

La troisième et dernière étape de la démarche compréhensive est la phase explicative, qui


vise à établir une compréhension causale de la réalité sociale (Fleury, 2001, p.30), c’est-à-
dire à détecter les causalités entre les phénomènes. Cette étape nécessite donc de
l’imagination: il faut alors configurer diverses causes et conséquences imaginaires entre
elles pour déterminer la réelle causalité entre deux phénomènes. Weber s’intéresse dans cette
étape aux conséquences voulues et non-voulues.

Cette étape peut être illustrée par l’ouvrage « L’éthique protestante et l’esprit du capitalisme
», où Weber établit un lien entre deux phénomènes: le développement de valeurs protestantes
liées à la Réforme et l’avènement du capitalisme. Ainsi, la Réforme aurait permis le
développement de certains comportements liés à l’accumulation de l’argent et peu présents
dans l’environnement catholique (celui-ci valorisait plutôt la dépense, la pauvreté, l’aumône
et non le travail). Une nouvelle conception du travail naît alors et comprend des
comportements de type plus disciplinaire et ascétique. Ceci cause une valorisation de
mécanismes permettant l’accumulation de l’argent, comme l’épargne ou l’investissement,
encore peu présents dans la vision catholique dominante de cette époque. Weber établit alors
un lien entre ces deux phénomènes, mais nous met cependant en garde contre une explication
seule et unique d’un phénomène. En effet, pour définir le lien entre ces deux phénomènes, il
parle « d’affinité élective », c’est-à-dire qu’il existe des circonstances favorables pour que
l’éthique protestante engendre le capitalisme, mais qu’il ne s’agit pas « d’une cause suffisante
et nécessaire » (Delas & Milly, 2005, p.165).

Page 53 sur 102


Bibliographie commentée

Weber, M. (1989). L’éthique protestante et l’esprit du capitalisme. Paris: Pocket.

Paru en deux parties en 1904 et 1905, cet ouvrage est l’un des plus importants de la
sociologie moderne. Weber y montre que la Réforme a été importante pour le développement
du capitalisme. Dans une première partie, il constate à l’aide de statistiques que les
protestants sont surreprésentés dans les classes entrepreneuriales. Il fait l’hypothèse que la
mentalité calviniste influence la carrière professionnelle, et construit un idéal-type de l’esprit
capitaliste. Dans le second chapitre, il montre que cet esprit capitaliste est bien lié à l’essor
des valeurs protestantes comme le travail et l’ascèse. Cet ouvrage sera traduit en anglais par
un des fondateurs du fonctionnalisme, Talcott Parsons.

Weber, M. (2003). Economie et société (2 vol.). Paris: Pocket.

Cet ouvrage posthume est publié en plusieurs volumes entre 1921 et 1922, par sa femme et
son éditeur. Il s’agit d’un essai qui recueille divers écrits de la sociologie de Max Weber
rédigé tout au long de sa vie, formant ainsi une large synthèse de son oeuvre. Il aborde les
thèmes économique et sociétal à travers les principaux concepts et notions développés par
Weber, tels que les différents types d’action, le concept d’idéal-type, les formes de
domination, la bureaucratie ou encore la rationalisation des conduites.

Références

Delas, J.-P., & Milly, B. (2005). Histoire des pensées sociologiques. Paris: Armand Colin.

Fleury, L. (2001). Max Weber. Paris: Presses universitaires de France.

2.3. Le Fonctionnalisme
Théorie d’origine anthropologique, le fonctionnalisme a été récupéré et
atténué en sociologie par R.K. Merton. Il admet que des usages peuvent être, dans la même
société, fonctionnels pour certains groupes mais pas pour d’autres. Pour expliquer les
survivances, il propose la distinction entre fonction-manifeste : activité adaptée à un but
officiellement reconnu comme aller à la messe pour prier et une fonction latente : activité dont
l’efficacité s’est déplacée. La cérémonie n’est plus qu’une tradition ayant pour fonction
souvent inconsciente, le maintien de lien de la communauté.
Le fonctionnalisme est ainsi considéré comme une analyse de systèmes auto-
régulateurs. Les éléments du système se modifient en fonction de menace contre l’équilibre de
l’ensemble pour le maintenir.

Le fonctionnalisme représente d’une part une théorie synchronique opposée à


l’évolutionnisme, d’autre : part, une conception holistique : tout élément social est solidaire de
tous les autres, l’équilibre perturbé doit se rétablir, les dysfonctions peuvent être absorbées,
mais on ne sait ni pourquoi ni comment.

Page 54 sur 102


Autrement, Le fonctionnalisme est une approche assez récente qui caractérise la démarche
scientifique occidentale en général et américaine en particulier, surtout dans le domaine des
sciences sociales. Cette démarche part de la notion centrale de fonction dérivée des travaux
des anthropologues des écoles anglaises et américaines modernes   : les mythes, rites,
habitudes... «  bizarres  » des primitifs ne sont pas des actes gratuits et absurdes mais sont,
au contraire, des actes qui remplissent chacun une fonction dans un complexe culturel
particulier. Par exemple, les rites d'initiation font passer les individus d'une classe d'âge à
une autre ; les chants au cours de certains travaux pénibles, selon certains rythmes, ont pour
fonction d'augmenter le volume d'air respiré pendant l'effort...

Le postulat du fonctionnalisme est le suivant : « À tout élément de toute culture


correspond une fonction et à toute fonction correspond un élément ». Sa démarche globale
en sciences sociales consiste à identifier les dysfonctions dans les situations analysées et à
préconiser les solutions propres à les dépasser.
Scientifiquement donc, le fonctionnalisme se présente comme une approche qui dégage
d'abord le mode de fonctionnement des systèmes étudiés (leurs fonctions) et ensuite ce qui
gêne ce fonctionnement (les dysfonctions) et enfin trouver les moyens de rétablir la
fonctionnalité de l'ensemble. Les sciences de l'organisation, par exemple, et les sciences
sociales (sociologie, économie ...) occidentales sont avant tout fonctionnalistes.
2.4. Le constructivisme

Le structuralisme constructiviste d’Elias, Bourdieu et Giddens.

Elias NORBERT

Norbert Elias montre que la représentation contemporaine de l’individu ainsi que la


conscience de soi de ce dernier, conscience qui établit une rupture entre l’individualité
subjective et l’extériorité sociale, sont des construits historiques, des fruits de l’évolution des
sociétés occidentales.

L’homme est fondamentalement social et donc il est contraint par l’ordre invisible. L’ordre de
cette vie sociale que l’on ne perçoit pas directement avec ses sens, n’offre à l’individu qu’une
gamme très restreinte de comportements et de fonctions possibles. Le caractère d’être humain,
en premier lieu, le contrôle de la conscience et la personnalité individuelle prend sa forme
spécifique en relation avec les autres et au travers de relation avec eux.

La société est ici conçue comme un tissu d’interdépendances multiples et mouvantes.


L’action sociale n’a de signification que restituée dans la relation sociale, ou autrement dit
l’interdépendance qui constitue selon Elias l’objet spécifique de la sociologie.

Les sociétés modernes seraient donc caractérisées par une complexification


considérable des interdépendances fonctionnelles entre les individus, l’allongement des
chaînes d’interdépendance et la naissance d’une conscience individuelle à la société, bref du
sujet. Les individus n’existent pas sans la société « l’histoire est toujours l’histoire d’une
société, mais toujours aussi d’une société d’individus » (1991, p. 86)

Page 55 sur 102


L’objet de la sociologie que propose Elias a une double face : celles des
comportements individuels et celles des réseaux d’interdépendance dans lesquels ils
inscrivent et sont de ce fait activés et fluctuants. « La racine de tous les malentendus sur le
rapport entre individus et sociétés réside en ceci que la société, les relations entre les individus
ont une structure et une loi propre qui certes ne peuvent pas s’expliquer par la nature des
différents individus, mais qui, par ailleurs, n’ont pas de corps, pas de substance en dehors des
individus » (idem, p. 86).

2.5. Une approche transversale des différents paradigmes

Le paradigme positiviste et le paradigme interprétatif

Il faut faire un certain nombre de choix quand on fait une recherche. Le chercheur doit faire
cinq choix : 

1. ontologique et épistémologique : c’est-à-dire avoir une certaine conception de la


société, on touche presque au domaine de la philosophie et moins au domaine de la
recherche pratique. 
2. avoir une conception de la science : la science fait partie de la société, il n’y a pas
une seule manière de concevoir la société et la science. Il est possible d'assimiler ce
choix à la notion de paradigme.
3. trouver un mode d'explication adéquat : pour un phénomène que l'on veut étudier,
on va du plan le plus général et abstrait au plan le plus près des objets étudiés. Il
dépend des conceptions de la société et de la science que l’on doit avoir. 
4. s'inscrire dans une théorie : renvoie au choix précèdent. 
5. choisir une méthodologie : chacun de ces choix dépend du choix préalable que l'on
fait. La manière dont on conçoit la société détermine le choix méthodologique qu'on
fait sur une recherche. Toute une série de choix en découle concernant les techniques.

Deux paradigmes de la recherche sociale : Distinction entre le paradigme


(post-)positiviste et le paradigme interprétatif

Paradigme

C’est un concept qui provient de Thomas Kuhn. Il essaie de développer une théorie sur la
science, sur la base de la notion de paradigme, c’est-à-dire sur la manière dont la société se
développe à partir d’un paradigme. C’est une perspective théorique qui est partagée et
reconnue par la communauté des chercheurs d'une discipline, qui est fondée sur des
acquis précédents de la discipline et qui oriente la recherche en termes de choix des faits à
étudier, de l'objet, de la formulation des hypothèses et de la mise en place méthodologie des
outils de recherche scientifique.

Cela est lié à la formulation d’une théorie, mais de façon plus générale, c'est la manière de se
rapprocher d’une théorie sociale qui permet de définir les outils théoriques et
méthodologiques à utiliser pour promouvoir sa théorie.

Page 56 sur 102


Le paradigme est une vision du monde, une grille de lecture qui précède l’élaboration
théorique. Kuhn fait une distinction fondamentale entre la science normale et les révolutions
scientifiques.

 science normale : longue phase ou un paradigme donné dans l’histoire de l’occident a


dominé.
 révolution scientifique : changement de paradigme.

Si on abandonne l’idée de développement historique de Kuhn et qu’on l’applique à la science


sociale, aujourd’hui, il y a plusieurs paradigmes qu’il faut choisir et dans lesquels il faut
s’inscrire.

Il y a une coexistence de paradigmes qui s’opposent entre eux pouvant être caractérisés de
manières différentes. Les paradigmes caractérisent la recherche en science sociale, les choix
méthodologiques découlent du choix de paradigme dans lequel on s’inscrit.

Une théorie au sens général du terme et la méthodologie sont intiment liées, on ne peut penser
à l’une sans l’autre. Ces paradigmes se trouvent dans le pôle théorique dont on dénombre
quatre paradigmes :

 positiviste ;
 compréhension ;
 fonctionnaliste ;
 structuraliste.

Ontologie

C’est une manière de concevoir et d’élaborer la science permettant d’étudier la société


comme, par exemple, les phénomènes politiques.

Selon Charles Tilly, il y a quatre « ontologies », c’est-à-dire des manières à travers lesquelles
les chercheurs ont abordé le phénomène à expliquer, de concevoir et d’élaborer la science soit
concevoir et élaborer la réalité :

1. Individualisme phénoménologique: la conscience individuelle est le seul lieu de la


vie sociale, l'observation n'est pas la meilleure technique à suivre, car on ne peut pas
voir dans les consciences individuelles. C’est une interrogation sur la réalité sociale
qui se trouve dans la conscience individuelle sur la manière dont les hommes
construisent leur monde.
2. Individualisme méthodologique : ce sont les individus comme réalité sociale
fondamentale, voire unique, on se centre dans leur comportement et pas dans ce qu'ils
pensent. On doit trouver le sens des choses dans les individus, ce n’est pas dans la
conscience des individus, mais dans les comportements et les faits des individus.
3. Holisme : la structure sociale, horlogeries qui s'autosoutiennent, Durkheim est un
exemple, il faut analyser les phénomènes comme un tout unique (approche
systémique). On ne peut comprendre la société si on ne considère pas toutes les
différentes parties dans son ensemble. L’approche systémique en science sociale va
par exemple dans cette direction. Il faut considérer la société dans son entier, en
d’autres termes c’est un paradigme social généralisant.

Page 57 sur 102


4. Réalisme relationnel : les liens sociaux constituent l'élément fondamental de la vie
sociale On a plusieurs manières de classer ces paradigmes et conceptions de la société.

On ne va pas étudier un phénomène de la même manière si on pense que l’essence de ce


phénomène va se retrouver dans la conscience des gens et dans leurs relations ou on le
retrouve dans l’ensemble d’un phénomène dans lequel une personne s’insère.

Traditions sociologiques

Selon Collins, on peut différencier quatre traditions sociologiques :

1. tradition du conflit : c'est à travers l'analyse de conflits qu'on peut expliquer les
phénomènes sociaux. La société est par essence conflictuelle, les théories de Marx
sont des exemples célèbres.
2. tradition utilitariste-rationaliste : les êtres humains sont rationnels.
3. tradition holiste : « durkheimienne ».
4. micro-interactionniste : il faut analyser les interactions au niveau microrelationnel.

Quand on parle de méthode, on ne peut pas faire d‘abstractions, les réflexions ne concernent
pas seulement la théorie ; il faut penser aux paradigmes, aux manières de concevoir la société,
mais en même temps, il y a diverses formes afin de comprendre les approches.

Nous allons faire la distinction entre deux grands paradigmes :

 paradigme positiviste : empiriste, objectiviste, explicatif. Ici, le terme « positiviste »


n’a pas de connotation négative.
 paradigme interprétatif : humaniste, du subjectivisme, de la compréhension.

Ces paradigmes sont des conceptions générales de la nature de la science sociale


permettant d’appréhender et de connaître la réalité sociale.

Il y a une opposition entre Durkheim et Weber (approche des faits ou de la compréhension).


Ce sont diverses manières par lesquelles on peut connaître la réalité sociale. Ces deux
approches nous montrent la différence entre démarche quantitative et démarche
qualitative.

On élabore ces paradigmes autour de trois questions :


 question ontologique : est-ce que la réalité sociale existe, est qu’elle est sa nature ? ;
concerne la réalité sociale et sa nature.
 question épistémologique : est-ce que cette réalité sociale est connaissable ?
pouvons-nous la connaître ?
 question méthodologique : si cette réalité existe et elle est connaissable, comment
pouvons-nous la connaître ?
Chacun de ces paradigmes apporte des réponses différentes à ces trois questions.

Page 58 sur 102


Question ontologique

Est-ce que la réalité sociale existe ? - Ontologie.

(Post-) positiviste Interprétatif

 Réalisme (critique)
La société existe, on peut l'observer,  Constructivisme / relativisme
mais elle ne peut être connue que de La réalité n'existe pas en tant que fait objectif,
manière probabilistique, l'observation mais elle est construite ; la réalité n’existe pas
dépend de la théorie elle-même (post-). en tant que tel, c’est une construction sociale.
 La réalité sociale est objective  La réalité est construite
et objectivable Chacun a sa propre réalité sociale dans sa tête.
C’est la position positiviste, on cherche Le monde qu'on peut connaître c'est celui qui
juste à connaître la position, la définition est construit par le sens que les gens donnent
ontologique que les deux paradigmes au monde.
donnent.

Question épistémologique

Est-ce que si la réalité existe, elle est connaissable ? - Épistémologie : manières de connaître.

(Post-) positiviste Interprétatif

 Dualisme / objectivité  Non dualisme / non objectivité


D'un côté la réalité, de l'autre le chercheur. On nie le dualisme et on nie l'objectivité, car
Pour connaître le monde, il faut essayer de la réalité est construite, chacun donne sa
se détacher, car le monde social existe et signification, elle ne peut pas être objective.
est réel. En d’autres termes c’est un Il n'y a pas de division entre le chercheur et
dualisme entre les chercheurs et la réalité. la recherche. Le monde n’est pas objectif, il
 Science expérimentale en quête est par définition subjectif.
de lois  Science interprétative en quête de
Pouvoir contrôler tous les facteurs, il faut significations
se rapprocher le plus possible. Il y a l’idée On ne cherche pas de lois, mais on cherche
de l’expérimentation et de l’expérience. du sens. Le but n’est pas d’expérimenter la
On essaie de répliquer ce qu’on fait dans réalité et d’arriver à des lois. On cherche à
les sciences dures en les appliquant aux comprendre et à interpréter en faisant
sciences sociales. C’est une volonté de ressortir le sens profond des phénomènes
faire des expériences en manipulant la observés.
réalité.  Objectif : compréhension

Page 59 sur 102


On veut comprendre, pour mieux le faire il
 Objectif : explication
faut participer à la réalité.
On veut expliquer les faits qui sont là,
 Généralisations
objectivement, on le fait en s'éloignant. On
Énoncés de (probabilistes, provisoires)
recherche une logique de cause à effet.
possibilité, types idéaux (caricatures de la
 Généralisations
réalité) ; on ne peut pas établir de lois, on
Loi dans les sciences humaines ; il faut
peut essayer d'avoir une certaine abstraction.
trouver une loi. Loi provisoire (post-), la
Cette généralisation se fait par les énoncés
falsification de l'hypothèse (une bonne
de possibilités et des « types idéaux » c’est-
hypothèse doit pouvoir être soumise à des
à-dire une sorte de caricature de la réalité ou
tests empiriques et être falsifiée).
l’on fait ressortir les traits essentiels.

Dans un cadre on vise à expliquer les phénomènes et dans l’autre à les comprendre. Les
méthodes de collecte et d’analyse de données vont évidemment être différentes.
Question méthodologique
Comment est-ce que la réalité peut être elle connue ? - Méthodologie : quels sont les outils ?

(Post-) positiviste Interprétatif

 Expérimentale-manipulative
On veut manipuler tous les facteurs  Interaction emphatique entre le
explicatifs. Le chercheur intervient sur la chercheur et l'objet d'étude
réalité à travers l’expérience en essayant La motivation est de mieux comprendre la
d’arriver aux objectifs d’explication et de motivation profonde des acteurs à se
généralisation d’une loi. comporter plus d’une telle façon qu’une
 Observation autre.
La réalité peut être observée de l'extérieur.  Interprétation
 Méthode hypothético-déductive Il s'agit d'interpréter les faits observés.
On a des hypothèses, on part d'une théorie,  Méthode inductive
et on essaie de les tester avec l'observation On essaie de partir de la réalité pour
de la réalité objective. On part des idées générer des théories, à la fin on veut arriver
pour ensuite les tester afin de trouver une à une théorie. On part de l’empirique pour
confirmation ou une vérification empirique essayer de générer des théories. On part des
des idées sur le terrain. sujets pour remonter vers une théorie,
 Techniques quantitatives c’est-à-dire générer une théorie.
Comme on vise une généralisation, on  Techniques qualitatives
privilégie ces méthodes au sens technique. On privilégie les techniques qualitatives.
 Analyses par variables  Analyses par sujets
La réalité sociale est analysée par des L'unité d'analyse, ce sont des individus, le
variables. Par exemple on s'intéresse de terme sujet devient important. On
savoir si l'origine sociale influence ceux qui s’intéresse à un ensemble de
sont plus attentifs au cours. Ce qui intéresse caractéristiques c’est-à-dire à l’ensemble
le chercheur ne sont pas les individus, mais de l’individu.
la variable.

Dans son ouvrage, Corbetta parle de trois paradigmes :

Page 60 sur 102


 paradigme positiviste : n'existe plus en sciences sociales, personne ne pense que les
sciences sociales doivent être comme les sciences exactes.
 post-positiviste : est plus nuancé, c'est la critique du positivisme notamment faite par
Karl Popper. Cette reformulation critique a nuancé de plusieurs manières le paradigme
positiviste pur. La réalité sociale est externe, mais ne peut être connue que de manière
probabiliste. D’autre part l’observation empirique dépend de la théorie.
 paradigme interprétatif

À partir de ces deux paradigmes découlent deux manières de faire de la recherche en sciences
sociales qui sont des radicalisations de ces positions :
 recherche quantitative
 recherche qualitative
Recherche quantitative et recherche qualitative
L'École de Chicago va produire des études systématisées avec les premiers efforts d'étudier
d'une manière quantitative les phénomènes sociaux sans pour autant mettre de côté les études
qualitatives. Dans la même université, on rencontre deux écoles. Dans les années 1940 –
1950, il y a une domination de la recherche quantitative notamment avec l'utilisation des
sondages dans le cadre des élections. Dans les années 1960, aux États-Unis, il y a une
résurgence de l'approche qualitative avec un retour de la perspective qualitative en produisant
des analyses historiques.
Approche générale

Recherche quantitative Recherche qualitative

 Relations ouvertes et
plus interactives
Il n y'a pas l'idée qu'il faille
d'abord avoir une hypothèse,
 Relations structurées on peut d'abord commencer
Suivent des phases logiquement par le terrain. Il y a un degré
séquentielles (certains phases de structuration inférieur.
doivent arriver avant que des C’est une approche plus
autres). ex. Il faut d'abord avoir ouverte et interactive, ce ne
une hypothèse pour après la sont pas des moments
Relation théorie tester. L’important est le degré distincts. Tout le processus
– et le processus de structuration. C’est la mise en est beaucoup plus flexible.
de recherche forme de la recherche. On a un  Induction
dessin de recherche fortement La théorie émerge de
structuré avec des phases l’observation, mais pas
séquentielles. nécessairement tout le temps,
 Déduction car cette approche est plus
La théorie précède l’observation souple. Les deux phases
selon une logique linéaire. peuvent se succéder l’une
après l’autre dans une logique
plus cyclique. C’est un va-et-
vient entre la théorie et
l’empirie.

Page 61 sur 102


 Auxiliaire
Elle est auxiliaire, dans le
processus de recherche elle
est moins importante par
 Fondamentale
rapport à des autres aspects.
Elle est fondamentale pour la
Au début il est possible de se
définition de la théorie et la
contenter d’une connaissance
formulation des hypothèses. Cela
moins importante du champ
soutient la logique de linéarité et
Fonction de la par rapport à la recherche
de phases séquentielles.
literature quantitative, car on n’a pas
besoin de formuler des
Nb : Les hypothèses découlent
hypothèses.
de la littérature, l'observation du
terrain et de la créativité des
Nb : ignorer la littérature peut
sociologues.
permettre d’aboutir à une
meilleure théorie. Pour
certains la littérature est
négative pour la recherche.

 Orientatifs
Concepts orientatifs, ils sont
ouverts, en construction, la
 Opérationnalisés relation entre théorie
Ils sont opérationnalisés, recherche est interactive,
permettent de passer du niveau donc les concepts aussi. Ils
Concepts théorique au niveau empirique ; doivent donner une direction
ils permettent de traduire à l’analyse et peuvent se
empiriquement des concepts modifier au cours de la
théoriques. recherche. Ils sont en
construction permettant une
meilleure définition du
concept.

Rapport avec  Approche manipulative  Approche


l’environnement Le chercheur intervient dans la naturaliste
réalité et il essaie de modifier Il n'y a pas l'idée de
quelque chose, notamment dans manipulation, le chercheur
les études expérimentales. Le fait partie de la réalité. On
chercheur est externe, il veut manipuler les variables
intervient à travers des outils dans leur état naturel sans
méthodologiques. intervenir. Cela pose le
problème méthodologique de
savoir comment étudier un
objet sans modifier
l’environnement étudié,

Page 62 sur 102


d’autant plus que les
personnes réagissent à la
manière dont on les étudie.

 Identification
empathique dans la
perspective de
l’objet étudié
 Observation scientifique On essaie de se mettre dans la
Interaction Détachée et neutre. Aspect veste des gens de qui nous
psychologique axiologique, on essaie de voulons expliquer les
chercheur – neutraliser nos valeurs pour voir comportements. On recherche
objet d’étude cette distance d'interaction, je ne une identification empathique
fais pas partie de « cette » réalité. dans la perspective de l’objet
étudié. Cela permet de
comprendre les actions des
autres à travers une
identification empathique.

 Proximité, contact
Interaction  Distance, séparation C'est beaucoup plus rare
physique Le chercheur qui fait l'analyse ne qu'un chercheur essaie
chercheur – doit pas être celui qui fait la d’analyser des données
objet d’étude collecte des données. produites par quelqu’un
d'autre.

 Sujet a un rôle actif


Rôle du sujet Action, aider les groupes à
 Sujet a un rôle passif
étudié s'engager dans un processus
de transformation.

Recueil des données


Recherche quantitative Recherche qualitative

Dessin de  Structuré, fermé  Processus plus


recherché Précède la recherche elle- déstructuré, ouvert,
même. D'abord dessin, après la construit au cours de
recherche. Avant de pouvoir la recherche
aller sur le terrain il faut que le On n'a pas besoin d'avoir un
dessin de recherche soit dessin de recherche préétablie,
définitif. il peut changer en fonction des

Page 63 sur 102


interactions qu’on a avec le
sujet étudié. Comme les
concepts sont ouverts, la
manière à travers laquelle nous
allons étudier une certaine
réalité est construite au cours
de la recherche. Idée de non-
linéarité de la recherche.

 Echantillon  Cas singuliers


statistiquement statistiquement non-
représentatif représentatifs
Surtout dans l'approche La représentativité n'est pas
individuelle, on fait un sondage essentielle, ce sont plutôt les
pour qu'il soit le plus singularités qui nous
Représentativité représentatif possible. L’idée intéressent. On cherche à
est de partir d’un échantillon étudier des cas singuliers qui ne
pour en tirer des conclusions sont pas statistiquement
plus larges. Les résultats de la représentatifs. On ne veut pas
recherche sont censés être de représentativité, car on
généralisés à l’univers dont on a chercher à identifier des cas
tiré les individus. spécifiques.

 Varie selon l’intérêt


 Instrument uniforme
des sujets
pour tous les sujets
On ne tend pas à la
Le but est d'avoir une
standardisation, on varie selon
représentativité objective par un
les sujets qu'on a devant, en
instrument maitrisé qui permet
Instrument de fonction des objectifs de
d’arriver à une matrice de
recueil recherche. On ne va pas
données. C’est à travers
appliquer le même instrument
l’uniformisation et la
de recueils à tous les sujets, on
standardisation que l’on peut
le varie en fonction de l’intérêt
atteindre la représentativité
spécifique et de ce que l’on
statistique.
veut faire ressortir de l’analyse.

Nature des  Hard, données  Soft, données riches et


données objectives et profondes
standardisées Les données ont de la
L’opposition principale se profondeur en opposition à la
retrouve au niveau de superficialité ; il faut que les
l’objectivité en opposition à la données soient les plus
subjectivité. Il faut que les profondes possible.
données soient les plus

Page 64 sur 102


objectives possible.

Traitement des données

Recherche quantitative Recherche qualitative

 Variable (variable
oriented analysis)  Individu (variable
Analyse par variables et oriented analysis)
Objet de impersonnelle. L’unité Il est au centre de l’analyse,
l’analyse d’analyse principale est c’est une approche holiste. On
l’individu, mais avant tout les veut capturer et saisir les
caractéristiques de ces individus dans leur ensemble.
différents individus.

Expliquer la variation
 Comprendre les objets
des variables
Objectif de Traitement des données, c’est
0n recherche des corrélations
l’analyse un paradigme de la
entre variables, ce sont des
compréhension.
covariations.

 Usage intensif des


techniques
mathématiques et
Techniques
statistiques
mathématiques  Aucun usage
Ils veulent recueillir les
et statistiques
données d'une manière
standardisée (il faut travailler
sur un nombre large de cas)

Résultats

Recherche quantitative Recherche qualitative

Présentation  Tableaux  Extraits d’interviews, des


des résultats (perspective extraits de textes
relationnelle) (perspective-narrative)
Le but de l'opération est de Mise en relation des certains
trouver des relations entre les attributs, ils essaient de construire
variables, on présente un récit. C’est une approche
l'information de façon holiste afin de comprendre la

Page 65 sur 102


numérique. (cependant la
narration est aussi présente).
On recherche des corrélations personne. On se base sur des
ou des covariations. extraits d’entretiens, c’est une
perspective narrative comme, par
Nb : la narration – il est exemple, reconstruire le parcours
important d'avoir une sorte de d’une personne pour expliquer ses
récit, il faut montrer une habitudes de vote.
certaine histoire de ce que
l’on veut expliquer.

 Corrélations
 Classifications et
On cherche à établir des
typologies, types idéaux
modèles causaux, lois. ex. il
(Max Weber)
est plus probable que ceux
C'est une représentation
qui ont un niveau
schématique de la société qui nous
universitaire élevé participent
permet d'aller au-delà du cadre
à la politique. Ils ont comme
Généralisations spécifique étudié. Ils ne veulent
objectif prioritaire de
pas nécessairement généraliser
généraliser.
leurs résultats.
 Logique de la
 Logique de classification
causalité
L’idée est de garder l’entièreté de
On va parler de causes, on va
leurs caractéristiques dans une
rechercher des relations cause
logique de la classification.
- effet.

 Généralité
On veut inférer le résultat à  Spécificité
Portée des un ensemble plus large que On tend à la spécificité c’est-à-
résultats l’on peut caractérisé de dire qu’on tend vers une
nomothétique c’est-à-dire que description idiographique.
l’on recherche des lois.

Quelques exemples : recherche quantitative

Souvent lorsque l’on parle de méthode, presque toujours, on discute des différentes approches
et presque systématiquement on se retrouve sur des oppositions entre professionnels. Bien
qu’ici ces deux approches soient traitées comme étant distinctes, il ne faut pas sortir avec une
idée figée des deux démarches, car il y a aussi certaines caractéristiques qui appartiennent à la
fois à l’une et à l’autre ou à l’autre ou à l’une.

Une recherche a été faite sur l’engagement individuel dans les mouvements sociaux en
essayant d’expliquer pourquoi les individus participent aux mouvements sociaux.

Page 66 sur 102


Deux questions ont émergé ; il y aurait peut-être à travers ces deux démarches des réponses
différentes :

 pourquoi les gens vont dans des mouvements sociaux ? quels sont les facteurs
explicatifs ? idée de la démarche quantitative
 quels sont les processus et les mécanismes qui font que les gens s’engagent dans les
mouvements ? comment s’engage-t-on ? idée de la démarche qualitative

Recherche quantitative : l'engagement dans les


mouvements sociaux
1ière étape - d'abord on va s’intéresser à des facteurs explicatifs. Lectures qui ont permis de
faire ressortir trois grands ordres de facteurs :

 caractéristiques sociodémographiques : dépends des valeurs.


 insertion dans des réseaux sociaux préalables : les individus s’insèrent dans des
mouvements pas nécessairement parce qu’ils partagent des valeurs, mais parce qu’ils
sont insérés dans des réseaux sociaux préalables ; ce sont des liens que la personne
peut avoir avec d’autres personnes indépendamment de ses valeurs et de ses
caractéristiques sociodémographiques.
 perception que la personne a de la réalité externe : les personnes qui ont le
sentiment d’être efficace et d’avoir un impact s’ils se mobilisent fait qu’ils se
mobilisent.

Cela a permis la construction d’un cadre théorique qui permet de formuler des hypothèses.

2ème étage - définition du dessin de recherche et tests des hypothèses :

 enquête par sondage : envoi de sondages et de questionnaires selon des critères


stricts. C’est un processus logiquement séquentiel.
 analyses statistiques : collecte des données et construction d’une matrice de
données qui permette de procéder à des analyses statistiques. À partir des
résultats on a cherché à les généraliser en recherchant des corrélations entre le
niveau d'intégration et participation, etc.
 généralisations : l'objectif était d'aller du particulier au général en appliquant la
recherche à toutes les personnes engagées dans des mouvements sociaux.
 explication : l’idée est d’expliquer le degré de l’engagement et de mettre en évidence
une logique de cause à effet et d’en tirer des corrélations à travers des relations entre
deux variables. Dans ce cas ont été mis en évidence des coefficients de régressions.
Ainsi on a une mesure de la relation entre les variables.
 conclusion : la relation existe non seulement dans l’échantillon, mais aussi dans la
population en général.

Recherche qualitative : l'engagement dans les mouvements


sociaux

Page 67 sur 102


On s’intéresse plutôt à savoir quels sont les parcours des militants, les processus et les
mécanismes qui conduisent à l’engagement :

 entretiens en profondeur avec des activistes : il y a une proximité à travers l’étude


des cas personnels et cela par l’analyse des récits-vies. On a essayé de reconstruire la
vie de quelque uns des membres engagés afin de déterminer ce qui les ont amenés à
s’engager. L’idée était que l’engagement était lié au fait que les personnes font des
liens entre leurs différentes sphères de vie. C’est une démarche holistique en
considérant le fait que l’on s’intéresse à la subjectivité des personnes et en ayant une
approche empathique afin de comprendre les raisons de leurs engagements ainsi que,
pour certains, leurs désengagements.
 à travers des entretiens on a généré une théorie : l’hypothèse est que l’engagement
provient d’une dysfonction entre les sphères de l’individu. A été généré une Théorie
de l'Activisme – il est plus probable que les gens restent engagés sur une longue
période dans un mouvement si les divers sphères de vie sont liées entre elles, il faut
qu'il y ait une certaine cohérence.
 les extraits d'entretiens ont été utilisés pour présenter les résultats : a été rédigé un
récit permettant de ressortir que lorsque les militants avaient une vision holistique,
alors il était plus probable qu’ils restent engagés dans le mouvement. Alors que les
personnes qui déconnectent les sphères ont une plus grande propension à se
désengager. Ainsi les extraits permettent de corroborer un propos.
 conclusion : on a certaines idées qui nous guident et qui montrent comment cette
démarche a pour objectif de générer une théorie.

Page 68 sur 102


Chapitre IV : LES METHODES ET TECHNIQUES
QUALITATIVES DE RECHERCHE

4.1. Les stratégies qualitatives d’accès au réel


a) - L’analyse stratégique

L’analyse stratégique étudie les relations de pouvoir dans l’organisation. C’est d’abord
reconnaître qu’il y a coopération entre les acteurs, c’est –à- dire que l’action collective repose
sur un minimum d’intégration. Et alors l’organisation n’est pas un donné naturel mais un
construit d’actions collectives, lequel ne détermine pas totalement le comportement des
acteurs. S’il y a contraintes, il y a place aussi pour des zones d’incertitudes. C’est dans ces
jeux structurés que les acteurs choisiront une stratégie gagnante parmi une pluralité de
possibles.

L’analyse stratégie rejette toute idée de déterminisme structurel ou social. Il n’y a pas de
systèmes sociaux entièrement réglés ou contrôlés. Les acteurs individuels ou collectifs qui
les composent ne peuvent jamais être réduits à des actions abstraites et désincarnées. Ce sont
des acteurs à part entière qui, à l’intérieur des contraintes souvent très lourdes que leur
impose le système disposant d’une marge de liberté qu’ils utilisent de façon stratégique dans
leurs interactions avec les autres. La persistance de cette liberté défait les réglages les plus
savants.

A partir de cette liberté et des sources d’incertitude que chaque acteur s’attache à accroître,
l’analyse stratégique conclut au caractère toujours contingent du résultat des interactions et de
tout construit social. Après avoir critiqué le rationalisme des sciences de l’organisation et la
phénoménologie de l’interactionnisme goffenanien et ethno-méthodologique.

Le vocabulaire scientifique
Dans ce vocabulaire, on peut distinguer, au minimum :

A– Le fait.
B– La loi.
C– La théorie.
D– Le concept.
E– Le modèle.
A – Le fait scientifique 9

9
Il faut avertir le lecteur que nous nous plaçons dans un cadre très général, encore une fois dans un but de
simple initiation. La difficulté fait observable/construit doit renvoyer à la différence entre donnée brute et
donnée insérée dans un système d'explication préétabli (champ disciplinaire du chercheur). Nous n'entrons pas
non plus dans les problèmes (importants) de distinction entre nature du fait en sciences de la nature et nature
du fait en sciences humaines... Ce sera l'objet de la seconde partie du présent ouvrage.

Page 69 sur 102


Pour le modèle classique, tout réel observable constitue un fait. L'unité analysable dans le
cadre de toute science est un fait. Il s'agit surtout d'isoler convenablement ces unités.

Si on étudie par exemple le comportement d'achat d'un produit donné par une catégorie de
personnes donnée, chaque acte observable entrant dans ce comportement sera un fait.
Cependant, un fait n'est pas identique pour toutes les sciences. Il n'est pas porteur de
signification univoque et universelle. On dit que le fait brut n'existe pas ; mais qu'il est
construit dans le cadre de la science ou de la théorie qui sert de référence à l'observateur.

Ainsi, on peut dire que le même fait (ou ensemble de faits) « achat d'une automobile » aura un
sens différent selon qu'on l'étudie dans un cadre économique, sociologique ou
psychanalytique ... Le fait doit être placé dans une chaîne de causalité propre à une discipline
donnée pour être construit. Cette discipline et les théories qui la constituent doivent être
présentées et servir de cadre de signification déjà dans les phases d'observation et de réunion
des faits à analyser.

B – La loi scientifique

C'est la mise en relation causale (en explicitant les liens de cause à effet) des faits observés et
analysés, et la généralisation (à l'aide de méthodes et de preuves) de ces relations à toutes
sortes de situations équivalentes. Par exemple, la loi de l'offre et de la demande exprime des
relations causales entre les faits liés aux actes de vente et d'achat de produits, les quantités et
les prix ... De même, elle généralise ces relations qui sont alors réputées pouvoir se vérifier
dans toutes situations équivalentes, en tout lieu.

C – La théorie

La théorie est la réunion d'un ensemble de lois concernant un phénomène donné en un corps
explicatif global et synthétique. Par exemple, l'ensemble des lois newtoniennes sur la
mécanique constitue la théorie mécanique classique. L'ensemble des lois du marché, offre-
demande, rareté, avantages comparatifs, profit ... constitue la théorie économique classique.
Les lois de fonctionnement du psychisme inconscient forment la théorie psychanalytique et
ainsi de suite ...

D – Le concept

Les concepts sont à la théorie ce que les faits sont à la réalité : ce sont les unités non
décomposables (ou composées d'éléments simples précis et bien connus) sur lesquelles
s'articule la théorie. Ce sont des termes qui ont un sens construit complet et univoque dans le
cadre d'un champ scientifique ou d'une théorie donnée. Par exemple, la science économique
se base sur les concepts de marché, surplus, échange, revenu, valeur, prix ... qui ont un sens
précis et arrêté. De même, la psychanalyse se base sur les concepts de refoulement,
inconscient, conflit, libido ... Il convient cependant de bien noter que ces concepts presque
absolus, dont nous venons de donner quelques exemples, peuvent et doivent voir leur sens
précisé, rétréci ou élargi ... dans le cadre de travaux spécifiques sur des situations déterminées.
Ainsi, il faut distinguer plusieurs niveaux de concepts (Althusser, 1972 ; Tremblay, 1968) :

— Concept abstrait-général : concept tel que cité plus haut et qui constitue le corps
de théories générales (ex. : économie classique).

Page 70 sur 102


— Concept abstrait-concret : concept construit pour l'étude d'une situation
particulière ou d'un concept abstrait-général redéfini pour caractériser une
réalité particulière (ex. : le concept de marché en contexte planifié).

— Concept descriptif : caractérise un aspect de la réalité étudiée en tant que telle


(biologie, ethnologie).

— Concept analytique : résultat d'une opération mentale, d'un modèle déductif,


formel (mathématique, physique).

— Concept théorique : concept appartenant, sous forme d'abstraction, à une théorie


(générale ou non).

— Concept opératoire : concept dont le contenu est opérationnalisé dans le cadre, et


en fonction de la situation précise observée. On se sert alors de dimensions
(aspects différents du concept une fois décomposé : pratique religieuse, attitudes
religieuses, croyances religieuses ... dans le concept « sentiment religieux ») et
d'indicateurs (indices concrets de réalité d'une dimension : appartenir à une Église,
assister au culte, dévotions privées ... pour la dimension « pratique religieuse »).

Dans tout travail réputé scientifique, il importe que les concepts utilisés soient clairement
définis et placés avec précision dans le cadre d'une théorie précise. Par exemple, les concepts
de marché, produit, valeur, salaire... en économie n'ont pas du tout le même sens ni les mêmes
contenus selon qu'on se place dans le cadre de la théorie classique, ou dans celui de la théorie
substantiviste, ou encore dans celui de l'économie marxiste.

E – Le modèle

Un modèle est une représentation figurée d'une réalité. Cela peut aller de la maquette à la
formalisation mathématique d'un comportement humain. En sciences humaines, cette
représentation s'effectue à l'aide des invariants mis en évidence à partir de l'observation et de
l'analyse des faits qui ont permis de dégager des lois et des théories. Sur un grand nombre de
faits, des constantes sont isolées, généralisées puis modélisées. Par exemple, on peut
construire un modèle du comportement d'achat du consommateur moyen en observant,
analysant et isolant les principaux éléments ou actes qui se retrouvent dans la majorité des
comportements observés au sein d'un échantillon déterminé de consommateurs.

Toute recherche scientifique doit en principe aboutir à modéliser ce qu'elle a pris comme objet
d'étude. Le principe directeur qui peut y mener, c'est ce qu'on appelle la méthode.

4.2. Les études de cas

L’étude de cas est une méthode utilisée dans les études qualitatives en sciences humaines et
sociales, en psychologie ou en psychanalyse, mais elle peut être utilisée dans les études pour
se pencher sur un cas en particulier. Elle vise l'étude approfondie d'un cas spécifié, qu'il soit
une personne, un groupe ou un sujet spécifique.

Page 71 sur 102


 Elle peut être considérée à juste titre comme l’une des plus stimulantes d’entre elles
tant par ce qu’elle comporte d’exigences pour le chercheur, que par les défis
théoriques et méthodologiques qu’elle pose et enfin, par les connaissances du social
qu’elle permet d’élaborer.

 En effet, l’étude de cas compte parmi les rares démarches de recherche qui conjugue
l’observation directe (participante ou non) et différentes sources documentaires
relatives aux pratiques et aux discours pertinents à l’objet d’étude.

 La construction et l’analyse de ces données ont comme visées de saisir l’objet à


l’étude dans ses dimensions de temps et d’espace tels qu’ils s’élaborent dans un milieu
social donné. Par ses particularités, l’étude de cas pose avec acuité les spécificités de
la production de la connaissance dans le domaine des sciences sociales en général et
en sociologie, en particulier.

 Dans le cadre des entretiens de recrutement des cabinets de conseil en général et en


particulier des cabinets de conseil en stratégie, l’étude de cas est la pierre angulaire du
processus de sélection. Le candidat consultant est mis en situation sur une
problématique d'entreprise spécifique afin de démontrer ses capacités d'analyse,
d'adaptation et de restitution1.

Étude de cas : Il s'agit ici du genre de problème qui nécessite l'étude complète, détaillée
et approfondie d'un nombre limité d'objets, d'individus, d'événements ...

Par exemple, l'analyse du travail de direction du personnel à travers l'observation des


directeurs de personnel de dix grandes entreprises ou les études des problèmes du transit
dans le port de Montréal ; le cas du transit des produits pétroliers...

C’est une méthode plus qualitative, elle diffère des autres méthodes, car elles s‘orientent plus
vers la recherche quantitative-positiviste. Il y a quelques distinctions faites par Arend
Lipihart, il y a une sorte de clivage, une distinction entre les données expérimentales et
d’autre part les données d’observations.

Alors que la méthode expérimentale s’appuie sur l’idée de grand nombre, la méthode
comparative un certain nombre de cas qui peuvent varier, l’étude de cas ne s’appuie que sur
un seul cas. Toutefois on peut envisager une étude de cas qui peut s’étendre sur plus d’un cas,
car la frontière est parfois souple.

L'étude de cas n'est que l'étude d'un seul cas, il n'a pas de la comparaison. Un cas peut
être beaucoup des choses comme un parti, une personne ou encore un pays. On essaie
d'étudier en profondeur un cas particulier, mais pas de façon extensive comme les trois
autres méthodes qui n’étudient pas les cas autant en profondeur.

En d’autres termes, le grand avantage de l’étude de cas est qu’on peut aller beaucoup plus
en profondeur dans la connaissance du cas. Une étude de cas est par définition intensive
alors que l’étude quantitative est extensive. Une méthode est basée sur la standardision
avec l’idée de généraliser tandis que l’autre s’appuie sur l’interprétation en profondeur
d’un cas spécifique.

Page 72 sur 102


Si la méthode statistique a pour objectif de généraliser, l’étude de cas par définition ne
permet pas de généralisation, l’objectif est un autre. Il existe différentes études de cas et
différentes modalités afin de mener une étude de cas. On peut en mentionner 6 variantes :

 les deux première ayant pour objectif de s’intéresser au cas précis.


 les quatre autres modalités ont un objectif de créer ou générer une théorie.

L’étude de cas peut servir pour atteindre des buts différents, d’une part on veut connaitre
mieux une situation particulière de manière descriptive, d’autre part on peut étudier plusieurs
cas permettant de générer à terme une théorie.

Selon Arend Lipihart, le but de la recherche est de tester et vérifier une théorie ainsi que de
généraliser des résultats.

Ces deux cas ne veulent créer des hypothèses, l’idée est d'éclairer quelque chose par rapport à
un cas :

 athéorique : il n’y a pas de théorie, c’est purement descriptif. C'est une recherche
exploratoire, par exemple, l'étude d'une nouvelle organisation, on ne veut que la
connaître et la décrire, dans ce cas on ne peut pas généraliser les résultats, car ils sont
liés à un cas étudié en particulier. On l’utilise dans des situations ou des cas qui n’ont
jamais été étudiés auparavant.
 interprétatif : on utilise des propositions théoriques qui existent dans la littérature,
dans cette démarche qualitative le rôle de la littérature est moins important, on
applique une généralisation existante à un cas donné, ici le cas porte sur un cas précis,
sans volonté de créer une théorie tout comme l'athéorie. L'objectif n'est pas de
confirmer ou de l'infirmer, mais c'est de l'appliquer seulement. On utilise des
propositions ou des théories existantes qu’on applique à un cas ; on lui applique des
généralisations existantes afin de voir si la généralisation tient de ce cas spécifique. On
interprète une situation particulière à la lumière d’une théorie existante.

Le quatre qui suivent veulent créer une théorie ou tirer quelque chose des cas. Leur objectif
est de créer ou de générer des théories ou des hypothèses :

 générant des hypothèses : on veut de créer des hypothèses là où il n'y en a pas.


J’étudie un cas pas seulement parce qu’il m'intéresse, mais parce que je veux formuler
des hypothèses que je vais après tester ailleurs. Ex : d'organisation qui s'engage en
politique. On étudie une situation donnée, car on veut des hypothèses qu’on n’arrive
pas à trouver par ailleurs. On explore un cas dans l’objectif de formuler des
hypothèses. Les hypothèses ont essentiellement trois sources : la littérature existante,
l’imagination sociologique, les études exploratoires.
 confirmant une théorie : tester une théorie sur un cas particulier pour confirmer cette
théorie, ce type d'étude de cas n'est pas très utile, car ce n'est pas le fait qu’il y ait un
cas qui reflète une théorie existante qui va renforcer la théorie faisant que ce système
n'est pas très utile.
 infirmant une théorie : ceci a beaucoup plus de valeur, il y a une théorie qui est
appliquée dans un cas spécifique, on ne cherche pas à confirmer la théorie, mais
prouver qu'elle ne fonctionne pas, on cherche à infirmer une théorie. Ceci nous pousse
à réfléchir sur la théorie, c’est quelque chose d’important dans le but d'élaborer une
théorie.

Page 73 sur 102


 cas déviant : pourquoi un cas dévie de la généralisation, ce cas est très utile quand on
veut infirmer une théorie. On cherche une situation qui dévie d’une situation existante,
l’étude de cas cherche à montrer pourquoi ce cas dévie de la généralisation.

Références
Elisabeth Wood - An Insurgent Path to Democracy: Popular Mobilization, Economic Interests
and Regime Transition in South Africa and El Salvador,"

4.3. Les méthodes comparatives

C’est une méthode chère à Auguste COMTE et à Emile DURKHEIM. Elle s’explique par la
difficulté de rendre mathématiques les faits sociaux car, l’homme change chaque fois et à
chaque lieu. Elle consiste dans l’analyse des ressemblances et des différences et procède
comme suit  :
- Dans un premier temps, la méthode comparative consiste à confronter les phénomènes
analogues, étudiés suivant une même technique d’analyse. Elle n’est possible qu’entre
phénomènes de titres et de structures analogues.

- Dans un deuxième temps, elle consiste à étudier un même phénomène par des techniques
diversifiées de saisie des ressemblances et des dissemblances de résultats.

On peut par exemple étudier une entreprise par : une analyse documentaire, une analyse du
contenu de publication (rapport, compte-rendu, etc.), une enquête d’opinion, par la biographie
des chefs, etc.

Le travail se fait en équipe avec un groupe de chercheurs spécialisés afin de comparer les
résultats obtenus. La méthode comparative vise à faciliter la compréhension d’une réalité
sociale (ou scientifique) en la mettant en rapport avec une autre réalité plus connue et
semblable.

Toute recherche en science sociale est de par sa nature comparative. On compare toujours
implicitement ou explicitement quelque chose. On peut s'interroger sur les objectifs de la
comparaison. Nous avons vu que les objectifs de toute méthode scientifique essaient d'établir
des propositions empiriques générales en contrôlant toutes les autres variables, mais selon
certains, comme Tilly, il y a quatre objectifs à la comparaison, c’est-à-dire que l'on confronte
des unités d’observation.

Les buts de la comparaison selon Charles Tilly sont :

 Individualiser (individualizing) – comparaison individualisante : le but est de


souligner et de mettre en lumière les caractéristiques d’une unité d’analyse donnée
sur un certain phénomène  ; l’idée est de trouver des comparaisons, pour donner une
spécificité à un certain cas donné exemple - dans les études de politique comparative,
le cas est le pays, on compare des pays ; le but est par exemple de montrer certaines
caractéristiques du système politique en Suisse par rapport aux autres pays. La
démocratie directe détermine des valeurs politiques ; on peut comparer la démocratie
directe suisse avec des pays qui ne l'ont pas. On pourra analyser l'impact de cette

Page 74 sur 102


caractéristique sur les gens. Caractériser, individualiser, rendre plus spécifiques les
caractéristiques d'un pays par rapport à un autre.
 Généraliser (generalizing) : on compare non pour individualiser, mais pour
généraliser, on inclut le plus grand nombre de cas, établir des propositions empiriques
générales. Pour certains, la généralisation est l’un des deux objectifs principaux de la
méthode comparative. On étudie des comportements que l’on compare, on veut voir si
les configurations et les effets que l’on trouve dans un contexte sont retrouvés dans un
autre contexte.
 Chercher des variations systématiques (variation-finding) : le but est de chercher
des variations systématiques et tester une théorie en écartant des théories concurrentes
de celle qu'on veut mettre en évidence. Selon Tilly c'est la meilleure manière de
comparer. On essaie de tester une hypothèse causale, ainsi on écarter des hypothèses
rivales.
 Globaliser (encompassing) : le but est de globaliser (approche systémique) on inclut
tous les pays du monde, ou toutes les unités de comparaison possible. L'idée est que si
on enlève une de ces unités de comparaison, tout le système change. Pour le
professeur Giugni, ceci n'est pas une approche comparative, car on ne compare pas.

Il y a des objectifs différents de la comparaison ; agir sur la sélection des cas c'est comparer.

Stratégies de comparaison pour chercher des variations systématiques (Przeworski et Teune)


On peut faire une distinction entre deux stratégies de comparaisons, ce sont des logiques et
des manières de procéder méthodologiquement dans le choix des cas. Ce sont des manières de
traiter la question de la causalité lorsqu'on possède des données d'observation. On fait une
distinction entre deux designs de recherche comparatifs, c'est la comparaison par cas analogue
(similar) et par cas contraste (different). Chacune des possibilités a ses avantages et
désavantages.

 Comparaison entre cas contrastés (most different systems design) : on choisit des


cas qui sont les plus différents possibles
 Comparaison entre cas analogues (most similar systems design) : vise à contrôler
toutes les variables sauf celle qu'on veut analyser (exemple France - Suisse).

4.4. La recherche expérimentale et la simulation

Chères aux sciences naturelles, les méthodes expérimentales consistent à introduire dans un
milieu social donné un stimulus qui permet d’obtenir des résultats qui seront comparés à ceux
qui seront obtenus grâce à ce même stimulus dans un autre milieu social.

C'est la méthode généralement considérée comme la plus scientifique et la plus exacte. Elle
est née en physique et dans les sciences de la nature. Elle consiste à mener une
expérimentation (en laboratoire ou sur le terrain) et à tenter de dégager des lois généralisables
à partir de l'analyse des observations recueillies durant l'expérimentation. Ici, il y a toujours
une préparation, un arrangement préalable de la part du chercheur. Ne serait-ce que
l'introduction (ou le contrôle) d'un élément ou d'une variable qui serviront de « déclencheurs »
de conséquences ou de réactions à observer (par exemple, le choc électrique sur les nerfs d'un
animal décérébré, la goutte d'acide sur la langue du chien de Pavlov, l'intensité de l'éclairage
sur le rendement d'un atelier de dessinateurs...

Page 75 sur 102


Principes

 Attribution aléatoire : on prend au hasard, tous les individus ont la même chance
d'être dans le groupe expérimental ou de contrôle des sujets (dans les groupes
expérimentaux et de contrôle non-expérimentale). Cette idée née du principe de la loi
des grands nombres : la variable aléatoire est censée écarter toute autre explication.
 Manipulation de la variable indépendante (traitement), en quoi les groupes sont-ils
égaux ? le chercheur, à un certain moment, introduit un input dans l’un des deux
groupes.

On sépare deux groupes faisant en sorte que les deux groupes soient pareils sur toutes les
dimensions sauf sur un qui est celui sur lequel on veut tester l’effet. Le fait de choisir une
personne et de l’attribuer d’une manière aléatoire fait que les deux groupes sont semblables.
Si, ensuite, est introduit un traitement dans l’un des deux groupes et qu’on observe un
changement qui n’est pas dans le groupe de contrôle, il se peut qu’il y ait un effet causal allant
dans une réflexion cause à effet. On peut dès lors conclure qu’il y a un effet causal dans la
variable introduite.

Types des experiments

 En laboratoire (laboratory experiment) : ce sont les expériences faites dans des


laboratoires puis on divise les individus en groupes auxquels on applique des stimulus
pour arriver à une constatation de l’effet ou du non-effet. Cependant, on sort les
individus de leurs conditions naturelles pouvant mener à des résultats relevant de
l’artificialité des conditions expérimentales.
 Sur le champ (field experiment) : contexte naturel, il peut y avoir d’autres facteurs
qui interviennent. Ce sont des expérimentations qui ont été appliquées en science
politique. Les principes restent les mêmes avec une distribution aléatoire des sujets en
deux groupes ; on manipule la variable indépendante et ensuite on constate s’il y a eu
un effet du traitement sur le groupe expérimental et non pas sur le groupe de contrôle.
Dès lors on peut éviter la critique de l’artificialité des expérimentations en laboratoire.
 Dessin quasi-expérimental (quasi-experiment) : ce dessin garde à l’idée que le
chercheur manipule la variable indépendante, mais il n’y a pas d’attributions aléatoires
des sujets à un groupe expérimental et un groupe de contrôle. Si on fait cela, c’est
qu’on ne peut pas distribuer aléatoirement en deux groupes, on est forcé de prendre les
groupes qui existent en réalité. En d’autres termes, le chercheur contrôle le traitement,
mais ne peut pas attribuer les sujets de manière aléatoire. Parfois, quand nous sommes
sur le terrain, il est difficile de faire différemment. Généralement c'est cette méthode
qu'on utilise, car il y a un facteur que nous ne pouvons pas contrôler.

Exemple

Un psychosociologue a voulu tester les effets des objectifs collectifs sur les relations
interpersonnelles. Il voulait voir dans quelle mesure, lorsqu’on dit à un groupe de personne
qu’il y a un objectif, les stéréotypes négatifs conflictuels disparaissent. C’est une expérience
sur-le-champ dans des conditions naturelles. Il a laissé les enfants interagir entre eux, on fait
coopérer les enfants entre eux ; le chercheur a essayé de créer une identité collective et a
subdivisé le groupe en deux de manière aléatoire. Il les a fait jouer au football ; on a constaté
l’émergence de rivalités voire même de stéréotypes négatifs vis-à-vis de l’autre équipe.

Page 76 sur 102


Ensuite, il a remis le groupe ensemble est- il a redéfini un objectif commun qui requiert la
coopération. Après coup il a constaté que ces conflits, ces stéréotypes négatifs, ces hostilités
se transformaient en une véritable coopération.

Difficultés

Les méthodes expérimentales ont été difficiles à appliquer en sciences sociales et humaines
par le fait que ces dernières portent sur des hommes. Les résultats qu’elles ont donnés ne
pouvaient pas être les mêmes qu’en sciences naturelles étant donné que les faits et les rapports
sociaux qui en sont géniteurs ne sont pas de choses. Il est difficile de constituer des groupes
homogènes en sciences sociales sur lesquels on peut faire l’expérimentation. En dépit de cette
faiblesse, les méthodes expérimentales restent d’une grande application en sciences naturelles
où elles constituent le fondement méthodologique.

4.5. La recherche – action


. Les recherches appliquées et les recherches - actions :
- Recherches appliquées :
Se préoccupent d’avantage des sujets qui conduisent à des découvertes d’utilité immédiates.
Elles visent l’acquisition des connaissances utilisables à court, moyen et long terme. C’est une
forme de recherche qui est souvent financée, du moins dans les pays qui en saisissent
l’importance, car étant plus pertinente, elle s’applique à résoudre des problèmes quotidiens,
elle répond à des préoccupations précises qui intéressent les utilisateurs potentiels
(gouvernements, entreprises… )
Exemples :
- Prof Albert KALONGA, a mené une recherche appliquée sur les enfants-soldats
dans la province du Sud-Kivu,
- Une enquête sur le panier de la ménagère dont le but est d’aider le législateur à
élaborer une meilleure politique salariale,
- Les recherches pour l’amélioration de la qualité de l’enseignement universitaire,
- Les recherches-actions
La recherche-action se veut explicitement engagée à la résolution du problème sous-
examen. Pour y parvenir, elle fonde ses racines dans les faits ci-après :
- Les situations sociales et les interactions humaines constituent son point de
départ ;
- La recherche significative de l’agir humain ;
- Le recours à l’éclectisme méthodologique dans la compréhension ;
- Le recours à l’ethnométhodologie et à l’interactionnisme symbolique dans la mise
sur pied des modèles-pratiques ;
- L’usage du langage des participants ;
- La mise en pratique du modèle choisi pour la résolution du problème.
La recherche-action, par son principe moteur : théorisation – mise en action pratique, a
souvent été considérée comme à la base des productions engagées donc partant, non
scientifiques. L’engagement est jugé dans ce contexte comme étant un over-flow de
subjectivité. Quels sont alors les vrais critères de scientificité ?

Page 77 sur 102


Ces deux recherches appliquées et actions, peuvent se confondre à celle qu’on
appelle «  recherche –développement ». Celle-ci est entendue comme l’ensemble de
processus qui, de la recherche fondamentale à la recherche appliquée et au développement
industriel, permet la découverte, l’invention de nouvelles connaissances dans divers
domaines. Elles complètent et peuvent être considérées comme substantielles ; la théorie et la
pratique se complètent, s’enrichissent mutuellement. Ces deux formes ont pour but, d’agir sur
l’environnement humain en vue d’améliorer le sort de l’homme par une liaison dialectique
entre théorie et pratique. Ainsi donc, les recherches développement, sont des recherches
d’application régulière dans le domaine technologique, ce genre de recherches vise l’efficacité
instrumentale. Elles sont généralement focalisées sur la recherche de la performance et de la
rentabilité des organisations.

4.6. Le recueil des données qualitatives ( cfr les matières vues plus haut
et les quelques techniques que nous allons analyser avec force ci-
dessous )

3.7. Interview

L’interview est, selon Albert Brumo 10 « une technique dont le but est d’établir un rapport de
communication verbale entre deux personnes, l’enquêteur et l’enquêté, afin de permettre à
l’enquêteur de recueillir certaines informations de l’enquêté concernant un objet précis de son
étude ».

Cette technique consiste en un jeu des questions-réponses à sens unique entre deux personnes
ou plusieurs (l’enquêteur d’une part et les enquêtés d’autre part) pour obtenir des informations
de l’interviewé ou des interviewés.

En considérant à la fois la liberté laissée au sujet enquêté et le niveau d’informations


recherchées par l’enquêteur A. Brimo11 distingue cinq principales formes d’interview :
l’interview structurée, l’interview non structurée, (centrée ou libre), l’interview directe on
indirecte, l’interview répétée ou panel, l’’nterview clinique ou en profondeur.

1.
L’interview structurée.
Elle consiste à poser à l’interviewé (enquêté) des questions dont le sujet, le nombre et
l’ordre ont été arrêtés l’à l’avance. Aucune question non prévue n’en peut être soulevée par
l’enquêteur.
L’interview structurée est celle dans laquelle l’enquêté répond à une série de questions
dont le nombre l’ordre, l’énoncé ont été fixés à l’avance dans le protocole d’interview.
L’enquêteur est appelé, ici à recueillir les réponses données soit textuellement soit sous forme
codée.
2. L’interview non structurée.
L’interview non structurée est caractérisée essentiellement par la liberté existant entre
l’enquêteur et son enquêté mais aussi par le fait que le nombre, l’ordre, et la formulation des

10
A. Brimo, Les méthodes des sciences sociales, Paris, Ed. Montchrestien, 1972, p.207.
11
Idem, pp. 208-217.

Page 78 sur 102


questions que l’enquêteur pose ne sont pas fixés à l’avance. L’entretien entre l’enquêteur et
l’enquêté est plus ou moins libre. L’interview non structurée peut se faire soit sous forme
d’entretien libre soit sous forme d’entretien centré. L’entretien libre est utilisé pour obtenir
des renseignements sur un problème, un événement, sur des motivations, des sentiments, des
attitudes, des comportements individuels. L’entretien centré est cette forme d’interview non
structurée où l’enquêteur pose à l’enquêté des questions sur les thèmes qu’il a initialement
fixés. Tout en laissant au sujet enquêté une grande liberté d’expression, l’enquêteur s’arrange
pour axer la conversation sur ses thèmes. L’entretien centré demande, comme on le voit,
beaucoup d’habileté de la part de l’enquêteur. Au stade actuel le chercheur recourt bonnement
soit à l’interview libre soit à l’interview dirigée dans le cadre de ses enquêtes de terrain, car
les autres formes d’interviews se retrouvent dans l’une ou l’autre de ces deux principales.

3. L’interview directe ou indirecte.


L’interview directe est celle dont les questions visent à savoir directement ce que les sujets
enquêtés pensent, ressentent, savent, ou font. L’interview indirecte est celle dont les questions
posées par l’enquêteur permettent, à partir des réponses données par l’enquêté, de recueillir
des renseignements sur son attitude, son opinion, etc.et ce, sans qu’il ne désire donner
directement ces renseignements. Les réponses données sont, ici, des indications à partir
desquelles l’enquêteur déduit certaines conséquences.

4. L’interview répétée ou panel.

L’interview répétée est comme l’indique son nom, cette forme d’interview où l’enquêteur
interroge l’enquêté plusieurs fois, au cours du développement du phénomène étudié, à
intervalles plus ou moins longs. Il s’agit, ici, de poser les mêmes questions, à intervalles
réguliers, aux mêmes personnes. Ce qui permet de discerner l’évolution ou la constance des
attitudes des individus au cours du développement d’un phénomène social.

5. L’interview clinique en profondeur.


L’interview clinique en profondeur est cette forme d’interview où l’enquêteur pose
spontanément à l’enquêté des questions non fixées à l’avance, questions dont les réponses
permettent à l’enquêteur de recueillir des informations fouillées sur les motivations, la
personnalité et la psychologie de l’enquêté. Il ne s’agit pas, ici, des interviews multipliées
comme le cas précédent, mais essentiellement d’une même interview qui se fait en plusieurs
séances.

6. La technique d’interview de groupe.


Quand on réunit dans un même endroit plusieurs personnes, en nombre assez limité,
huit ou dix au maximum, et qu’on les fait parler toutes sur une ou plusieurs questions que l’on
désire étudier, on réalise ce qu’on appelle une interview de groupe. Les interviews de groupe
ne ressortissent pas aux techniques de dynamique de groupe et n’ont aucune finalité
thérapeutique. Il s’agit seulement d’obtenir un certain éclairage sur des problèmes mal
connus. On espère que, des conversations qu’on enregistre, surgiront des points de vue
auxquels on n’aurait pas pensé au départ.

Bien qu’on puisse les utiliser de manière indépendante, et les prendre pour des moyens
d’enquête en soi, ces techniques servent fréquemment lors des étapes préparatoires, en vue de
compléter la connaissance du sujet préalable à l’établissement des hypothèses du travail.

4.8. L’entretien

Page 79 sur 102


La technique d’interview s’adresse généralement aux personnes instruites et ayant des
connaissances larges sur le sujet. Lorsque le chercheur doit recueillir des informations au sein
des populations moins instruites, leurs points de vue et leurs sentiments, il est fait souvent
recours à la technique d’entretien. Celle-ci est définie comme étant une technique de
recherche dont le but est de recueillir des données (informations, les ressentis, les récits, les
sentiments, les témoignages) appelées matériaux afin de les analyser par rapport au sujet
d’étude.

1. L’entretien non directif : Egalement appelé entretien libre ou


en profondeur, l’entretien non directif consiste pour le
chercheur (enquêteur) à introduire le sujet et à laisser l’enquêté
ou le groupe enquêté, développer ses points de vue, ses opinions
sans interférence de l’enquêteur.

2. L’entretien semi-directif ou partiellement structuré : cette


technique consiste à présenter le guide d’entretien (les
questions, le cheminement) à l’enquêté et à lui laisser de temps
en temps la liberté de sortir du guide afin de donner toutes
autres considérations n’ayant pas trait au sujet mais qui le
tiennent au cœur.

3. L’entretien directif ou standardisé :

C’est celui qui consiste à échanger avec un ou plusieurs enquêtés sur un sujet, selon un
guide d’entretien bien arrêté et à rester strictement dans le cadre de ce guide.
L’enquêteur arrête l’enquête chaque fois que celui-ci veut déborder du cadre prédéfini.
L’entretien directif présente cet inconvénient d’étouffer les enquêtes qui voudraient
bien se défouler en abordant d’autres points similaires. Son avantage est celui d’éviter
des égarements et autres dérapages de la part des enquêtes.
L’information recherchée peut être recueillie au moyen d’entretiens individuels, ou avec de
petits groupes.

Comment organiser un canevas d’entretiens ?

Il faut d’abord déterminer quels sont les personnes à interviewer :

- les bénéficiaires : une typologie des acteurs de base devrait permettre de déterminer un
échantillon représentatif de personnes à rencontrer.
Par exemple, des notables, des chefs de famille, des femmes chefs de famille, des Femmes
dépendantes, des jeunes dépendants, le responsable du comité d’entretien du puits, le gérant
de la boutique.

- Les non-bénéficiaires : il est important de connaître l’opinion des personnes qui ne seront
pas touchées par une action, ou dont il n’est pas prévu qu’elles y participent.
Par exemple, des entretiens avec des paysans qui ne peuvent participer à une action de culture
attelée au Ghana, parce qu’ils n’ont pas assez de terres et pas de bœufs, ont permis de
conclure que l’action prévue avec des paysans plus aisés peut leur faire du tort et les entraîner
dans une relation de plus grande dépendance vis-à-vis de ces derniers.

Page 80 sur 102


- Les personnes ressources : l’interview des personnes ressources permet de trouver des
informations qui n’existent pas dans la documentation écrite, et d’apporter un éclairage ou
une interprétation différente des renseignements obtenus des autres personnes interviewées.

Les entretiens peuvent être formels ou informels :


- Les entretiens formels sont ceux décrits comme « enquêtes ».
- Les entretiens informels sont de simples visites, des conversations au cours desquelles on
pose des questions plus indirectes.
L’interlocuteur est alors plus détendu et sera naturel comme dans une discussion à bâtons
rompus.

Si l’on a bonne mémoire, il est préférable de ne pas utiliser son bloc-notes. Sinon on peut le
faire, mais d’une façon discrète, après les présentations et le démarrage de la discussion. On
peut aussi utiliser un magnétophone, mais ceci présent l’inconvénient d’être long à décrypter.
Il convient d’être le moins protocolaire possible.
Quelques conseils et principes de base pour le déroulement de l’entretien :

- Interlocuteur > le prendre tout seul. Eviter l’influence d’autres personnes qui vont répondre
à sa place.

Exemple, le notable va influencer le paysan, l’homme va diriger la femme.

- Suivre son interlocuteur. L’écouter, c’est-à-dire ne pas trop parler soi-même, l’interview
n’étant pas un exposé ni un cours.

Ceci a l’air simple, mais n’est pas facile à réaliser. On a toujours tendance à en dire trop, ce
qui noie l’interviewé. Suivre la logique de sa pensée, l’enchaînement de ses idées. Il ne faut
pas nécessairement imposer un ordre apparemment logique des thèmes à traiter avec
l’interlocuteur, mais plutôt lui laisser la liberté de les aborder comme il le souhaite, quitte à
les réordonner ensuite.

- Poser des questions ouvertes. Et non des questions qui contiennent déjà la réponse.

Par exemple, un évaluateur dans un programme de promotion de la culture attelée, voulant


connaître l’opinion des paysans sur ce mode d’exploitation, demandait « il se privait ainsi
d’éventuelles critiques à l’encontre de la culture attelée.

- Etre progressif. Ne pas poser questions personnelles trop tôt.


- Si on doit utiliser les services d’un interprète, il faut lui demander de traduire par tranches
courtes : l’interprète risquerait de faire des synthèses indésirables.

Par exemple, lors d’une évaluation avec des paysans membres d’une association de
rizicultures, l’évaluateur a laissé l’entretien se développer pendant plus d’un quart d’heure. Il
n’a pu tirer de l’interprète que lapidaire : ils disent qu’ils cultivent du riz.

Il est aussi utile de travailler avec l’interprète avant l’entretien afin de bien appréhender
ensemble ce que l’évaluateur cherche à apprendre et à comprendre.

4.9. Les Technique d’observation.

Page 81 sur 102


Il y a évidemment, observation et observation. Il y a, d’abord, l’observation pure et simple.
On regarde, on écoute, on enregistre, c’est tout. On ne participe pas soi-même au spectacle.
Mais on tente de déchiffrer, parce que cela peut toujours servir à quelque chose.

Dans de nombreux cas, cependant, le sociologue participe à l’action, au sens dramatique du


terme, dont il veut rendre compte. Traditionnellement, on distingue alors entre observation
participante et participation observation, selon Claude Javeau. Sous la première appellation,
on ranger les observations qui sont faites par des intrus à l’action, qui s’y mêlent dans le but
précis d’en tirer des observations. Sous la seconde, on rangera les observations faites par des
acteurs qui décident, par surcroit, de profiter de leur situation pour se livrer à des
observations. La première version s’applique, notamment aux ethnologues qui se rendent dans
des peuplades dites primitives pour s’y séjourner pendant un temps plus ou moins long, et qui
s’efforcent au cours de leur séjours de rassembler le plus d’informations possible sur la
peuplade, afin d’en dresser le portrait ethnographique. Mais on peut aussi s’imaginer un
sociologue appelé à juger de certaines situations conflictuelles dans une entreprise, par
exemple, et qui se mêlerait pendant un certain temps au personnel de cette entreprise.
L’insertion dans un milieu de travail étranger est souvent pratiquée.

Notons, cependant, qu’il n’est loisible au sociologue de pénétrer dans tout milieu qu’il se
proposerait d’étudier. Certains milieux lui sont interdits, soit de manière réglementaire, les
prisons par exemple, soit parce que son introduction serait ressentie comme une véritable
intrusion, ce qui ne lui permettrait pas de se livrer à de bonnes observantins, le milieu de la
prostitution par exemple.

La technique de la participation observation ou observante est pratiquée par des membres


d’un certain milieu, qui exercent pendant qu’ils y jouent leur rôle leurs facultés d’observation,
et qui proposent ensuite une interprétation des conduites qu’ils ont observées et des autres
faits qu’ils ont relevés. Pour enrichir le débat sur la notion d’observation essayons maintenant
de présenter la typologie de différentes formes d’observation selon Mulumbati Ngasha.12

L’observation directe et indirecte.

L’observation est directe lorsqu’elle porte directement sur les phénomènes étudiés (les
individus, les groupes, les institutions, etc.…). Dans ce cas, l’observation est libre soit dirigée,
soit participante. Elle est indirecte lorsqu’elle porte sur les faits qui portent ou qui sont des
traces des phénomènes que l’on veut étudier et qui permettent de recueillir des informations
sur ces derniers phénomènes. Il s’agit dans pareil cas, essentiellement de l’observation
documentaire.

L’observation libre.
L’observation libre ou spontanée est celle qui est faite sans plan d’observation précis.
L’observation libre est utilisée soit pour fonder les affirmations théoriques sur des faits soit
pour connaître un sujet ou une situation dans leur complexité.

L’observation dirigée.

12
Mulumbati Ngasha, op. cit., pp.26-28.

Page 82 sur 102


L’observation dirigée est celle qui est faite selon un plan, une grille d’observations. Ce qui
permet de noter rapidement un grand nombre de faits recherchés et facilite le travail
d’élaboration des résultats.

L’observation participante.

L’observation participante est cette forme d’observation où l’observateur participe, c’est-à-


dire est accepté au point de s’intégrer au groupe et de se faire oublier en tant qu’observateur.
Il faut noter à propos de l’observation participante que lorsque l’enquêteur ne peut pas
s’intégrer au groupe qu’il veut observer, il peut faire appel à des participants observateurs
appelés en d’autre terme facilitateurs.

L’observation documentaire.
L’observation documentaire consiste à étudier et analyser les documents pour arriver à
déterminer les faits ou phénomènes dont ces documents sont ou portent des traces. On
distingue deux catégories de documents : les documents écrits et les documents non écrits.

Les documents écrits comprennent : les documents officiels, (statistiques, archives publiques,
correspondances administratives, actes d’état-civil, archives judiciaires, débats des
assemblées, etc.) , les documents rendus publics ( presse nationale, locale ou propre à un
groupement, tracts, affiches publicitaires et politiques, romans, livres scolaires, littérature
populaire), les documents privés (correspondance privée, archives personnelles, archives de
certains groupements comme les partis politiques, les syndicats, les Eglises).

Les documents non écrits comprennent : les objets (poterie, masques, objets rituels,
automobiles, modes, etc.….), les moyens d’expression non écrits (récits, discours, radio,
télévision, cinéma, théâtre, dessins, musiques, chansons, etc.).

Ces différents documents peuvent fournir des informations très précieuses sur les faits ou
phénomènes que l’on veut étudier, si on les soumet à deux techniques empruntées à l’histoire,
à savoir la critique externe et la critique interne.

4.10. L’analyse documentaire ou les techniques documentaires


C’est celle qui consiste à consulter les documents, les statistiques sociales ou tous
autres écrits (résultats de recherche, revues, périodiques, thèses, mémoires, livres,
etc.) contenant des informations sur l’objet en étude. Le chercheur devra à ce niveau
faire recours aux techniques historiques de critique externe , critique interne ou autre
d’authenticité pour recueillir des informations.

4.11. L’analyse des données qualitatives

Une fois les diverses informations recueillies, il faut les analyser. Pour ce faire, on recourt
au codage et à la construction des tableaux. Le codage est «  la réduction sous une forme
normalisée des informations recueillies sur le terrain. Cela peut consister soit en une
conversion de données qualitatives en données quantitatives, soit en un classement de
données qualitatives en un nombre limité de catégories, soit à une réduction des données
quantitatives à une forme plus simple13  ». La construction des tableaux consiste dans la
présentation simultanée de données fournies par deux codes ou plus, confirme T. Caplow.
13
T. Caplow, L’enquête sociologique, op. cit., p. 134.

Page 83 sur 102


Il faut remarquer qu’un tableau peut comprendre deux ou plusieurs variables. Mais la forme
la plus simple et la plus courante est celle d’un tableau croisé avec deux variables, l’une
indépendante et l’autre dépendante.

3.3.11. Le dépouillement des questionnaires.

Les enquêtes, tout le monde le sait, sont actuellement dépouillées par ordinateurs. C’est sans
doute, mais la formule, en soi, est un peu lapidaire. Tout d’abord, il n’est pas nécessaire de
disposer tout le temps d’un ordinateur pour dépouiller une enquête. Cela peut se faire
également à la main, tout simplement ou avec une bonne trieuse mécanographique. Ensuite, le
passage sur ordinateur ne se situe qu’à la fin d’une série d’opérations.

Pour commencer, il faut traduire les réponses dans un langage chiffré, qui est proprement un
code  : c’est le codage, dit aussi codification, ou encore chiffrement. Il faut, en effet, que les
réponses puissent être lues par les machines qui serviront au dépouillement. C’est pour cette
raison que la rédaction d’un code revêt une grande importance. Les réponses codées sont
reportées sur une carte perforée, qui comporte quatre-vingts colonnes à douze positions
chacune. Il est donc nécessaire de préciser à la fois la ou les colonnes qui correspondent à
chaque réponse possible. Prenons un exemple. Soit la question suivante :

Votre épouse a-t-elle fait des études :


- de même que le vôtre ?
- d’un niveau inférieur aux vôtres ?
- d’un niveau supérieur aux vôtres ?
- Je ne sais pas.
On pourra décider que la réponse « de même niveau » sera représentée par la position 1, la
réponse « d’un niveau inférieur », par la position 2, et ainsi de suite, et 0 pour l’absence de
réponse. En même temps, on peut supposer que c’est la colonne 16 qui représente cette
question. L’ordre d’attribution des colonnes sur la ou les cartes correspond habituellement à
l’ordre de succession des questions sur le questionnaire. Lorsque les réponses sont codées, les
cartes sont perforées conformément aux grilles de codage ; leur destin sera d’alimenter les
machines qui doivent fournir les résultats de l’enquête.
Ces résultats se présentent le plus souvent sous forme de tableaux qui mettent en
correspondance deux ou plusieurs séries de fréquences. Sur un tableau dont les but est de
montrer l’influence du niveau d’étude atteint par la mère sur le nombre d’enfants, on peut lire
verticalement, par exemple, les niveaux d’études, et horizontalement, le nombre d’enfants. Un
tel tableau, est dit à double entrée. C’est le type de tableau qu’on rencontre le plus
fréquemment dans les analyses de résultats d’enquêtes.

*. DEPOUILLEMENT DU QUESTIONNAIRE

1. Généralités
Le travail de dépouillement du questionnaire a pour but d’établir des tableaux
numériques par comptage des réponses aux questions de l’enquête. Ce traitement peut être
fait :
a. manuellement dans le cas d’un nombre restreint de questions ou des questionnaires,
b. par traitement automatisé en utilisant un logiciel adapté.

Page 84 sur 102


2. Méthode de dépouillement

a. Le tri à plat
Le dépouillement commence obligatoirement par le comptage pour chaque question :
a. du nombre de personnes ayant répondu,
b. de la ventilation de ces réponses selon les possibilités offertes (modalités).
Exemple : Grille de dépouillement manuel d’une question.14

Question n°1 Quelle est votre situation de famille Total


Non réponses ��� 3
- Célibataire ���������� 10
- Marié(e) ������� 7
- Divorcé(e) ���� 4
- Séparé(e) �� 2
- Veuf(ve) ����� 6

b. Le tri croisé ou mise en corrélation


Il consiste en la mise en corrélation d’une ou plusieurs questions entre elles, pour voir
comment une variable se combine à une autre. Exemple : Grille de dépouillement manuel de
deux questions.

Question n° 1 : Dans quelle catégorie d’âge vous


situez-vous ?
0 à 15 ans � 36 à 45 ans �
16 à 25 ans � 46 à 55 ans �
26 à 35 ans � plus de 55 ans
Question n° 2 : Avez-vous été satisfait de votre
formation ?
Oui � Non � Ne sait pas

Q. N°1 0 à 16 à 26 à 36 à 46 à Plus de Total


Q. 15 ans 25 35 45 ans 55 ans 55 ans
N°2. ans ans

Non réponses � / � � / � 4

- Oui � � � � ��� �� ��� 13


- Non �� / �� ��� / � 10
- Ne sait pas � � �� / / 2
� /
/
Total des 5 2 8 7 2 5 29
réponses

14
Les chiffres donnés dans cet exemple le sont à titre purement illustratif. Qu’on aille pas se casser le tiroir à chercher leur
provenance !

Page 85 sur 102


LE DEPOUILLEMENT DES QUESTIONS OUVERTES
Il nécessite au préalable une analyse de contenu des réponses obtenues pour déterminer les
grandes catégories de réponses possibles. Ensuite chaque est classée dans une de ces
catégories selon son contenu.
On peut alors procéder comme précédemment à des tris à plat et des tris croisés.
LE DEPOUILLEMENT INFORMATISE
Les opérations de tri à plat et de tri croisé sont effectuées automatiquement par le logiciel
après la saisie des réponses codées des questionnaires.
EXPLOITATION DES RESULTATS

1. Analyse des résultats

a. Présentation des tableaux statistiques.


Les données numériques issues du comptage sont mises en forme :
1. par calcul statistiques (sommes, moyennes, taux, pourcentage, indices, …)
2. par construction de tableaux et graphiques en respectant les règles de présentation.

b. Commentaires
Ils reprennent les points les plus importants mis en évidence dans les tableaux. Des
explications des phénomènes sont proposées.

1. Rédaction du rapport d’enquête

Le rapport d’enquête comprend :

a) La présentation de l’enquête
a. Objet de l’enquête,
b. Description du champ de l’enquête,
c. Composition de l’échantillon,
d. Méthode utilisée pour l’enquête,
e. Présentation du questionnaire.

b) La présentation des résultats


f. Les points dégagés lors de l’analyse : tableaux, graphiques et commentaires
repris.

c) Les conclusions
g. Les observations les plus importantes sont résumées à la fin de chaque chapitre
et dans une conclusion générale à la fin du rapport.

d) Les annexes
h. On y place les éléments qu’on préfère ne pas inclure dans le corps du rapport :
le questionnaire, les tableaux des résultats bruts, etc.

- Etablir un programme de travail : réparation dans le temps (calendrier) et dans l’espace (le
lieu) des différents enquêteurs ou équipe d’enquêteurs et de contrôleurs.

Page 86 sur 102


- Prévenir officiellement les autorités ex : Maire de la Ville, Chef de Zone, Chef du Village,
Chef de quartier, Chef d’entreprise, personnes concernées par le programme de l’enquête.

3.12. L’analyse du contenu

En guise de synthèse sur l'instrumentation et les techniques de recherche, il nous semble


utile d'approfondir quelque peu un des instruments les plus complets, les plus riches et les
plus utilisés (surtout en phase de dépouillement-interprétation) en sciences sociales. Il s'agit
de l'analyse de contenu, une technique qui peut être extrêmement utile au chercheur tout au
long de son travail, depuis la pré-enquête jusqu'au dépouillement/ traitement d'un
questionnaire.

I — Définition

L'analyse de contenu est une technique d'étude détaillée des contenus de documents. Elle a
pour rôle d'en dégager les significations, associations, intentions... non directement
perceptibles à la simple lecture des documents (le terme document doit être pris au sens très
large du terme, allant du texte au microfilm en passant par la bande magnétique...). Tout
chercheur en sciences sociales y aura recours à un moment ou à un autre de son travail.

Cependant, la majorité des matériaux travaillés par les chercheurs en sciences sociales (que ce
soit en économie, en histoire, en sociologie, en psychologie, en droit, en gestion...) sont des
documents écrits tels qu'interviews, questionnaires, discours, archives, formulaires, comptes
rendus, rapports, dossiers (En tout état de cause, les données exprimant des conduites, des
opinions, des tendances, des attitudes... sont presque toujours des données verbales qu'on
transforme en écrits).

Il est donc de première importance de disposer d'une technique alliant rigueur et procédures
simples pour analyser ces contextes d'actions et de situations que sont les mots agencés dans
un discours signifiant. L'exégèse et la dissection interprétative ne suffisent pas à rendre tout le
sous-jacent, l'implicite, dans le sens d'un texte, sur des bases autres que seulement subjectives
et approximatives. L'analyse de contenu sert à combler cette insuffisance.

Nous en retiendrons la définition générale suivante : l'analyse de contenu est une


«  technique de recherche pour la description objective, systématique et quantitative du
contenu manifeste des communications ayant pour but de les interpréter  15 ».

C'est, en fait, une étude de texte qui se veut :

— Objective : Tous les analystes poursuivant les mêmes objectifs de recherche


devraient aboutir aux mêmes résultats en analysant les mêmes textes.

15
Voir, entre autres, Pinto et Grawitz, 1969.

Page 87 sur 102


— Systématique : Tout le contenu doit être analysé, ordonné et intégré. Toutes les
possibilités signifiantes par rapport aux objectifs du chercheur doivent être
recensées, répertoriées et explorées, ou du moins il s'agira d'omettre le moins
possible d'unités de signification pertinentes.

— Quantitative : On peut dénombrer les éléments significatifs, effectuer des calculs,


des comparaisons statistiques, des pondérations, des corrélations, des fréquences,
des moyennes...

L'analyse de contenu est donc une technique qui peut servir à traiter :

— Tout matériel de communication verbale tels que livres, journaux, rapports,


documents administratifs... et même films, émissions de radio, émissions de
télévision, discours, formulaires...

— Tout matériel spécialement créé par le chercheur, tels que protocoles d'interviews,
questionnaires, discussions de groupe, tests verbaux, associations libres...

II — Les types d'analyse de contenu

Il existe en gros six types d'analyse de contenu selon le but visé et le genre de résultats
escomptés par le chercheur.

1. L'analyse de contenu d'exploration

Comme son nom l'indique, il s'agit d'explorer un domaine, des possibilités, rechercher des
hypothèses, des orientations. On a recours à ce premier type, par exemple, dans l'étude des
voies de recherches que peuvent suggérer des interviews préliminaires sur un échantillon
réduit d'une population-cible. On se sert des résultats pour construire alors des questionnaires
plus réalistes, moins entachés des distorsions personnelles du chercheur et plus près des
dimensions concrètes du problème étudié, de la population d'enquête...

2. L'analyse de contenu de vérification

Ici, il s'agit de vérifier le réalisme, le bien-fondé, le degré de validité... d'hypothèses déjà


arrêtées. Ce type d'analyse de contenu suppose des objectifs de recherche bien établis, ainsi
que des suppositions précises et préalablement définies et argumentées.

3. L'analyse de contenu qualitative

Ce type d'analyse s'intéresse au fait que des thèmes, des mots ou des concepts soient ou non
présents dans un contenu. L'importance à accorder à ces thèmes, mots ou concepts ne se
mesure pas alors au nombre ou à la fréquence, mais plutôt à l'intérêt particulier, la nouveauté
ou le poids sémantique par rapport au contexte.

Par exemple, cette phrase perdue dans un discours de propagande nazie au début de la défaite
allemande : « Cette victoire (celle des U. boats ayant coulé des navires alliés) ne doit pas nous

Page 88 sur 102


laisser naïvement voir le futur en rose », illustrait une nouveauté dans l'attitude officielle des
chefs nazis destinée à préparer le peuple allemand à des mauvais jours à venir... 16

Signalons en passant que l'analyse de contenu était très employée durant la Deuxième Guerre
mondiale pour juger de l'état du moral de l'ennemi, de ses changements d'attitudes... à travers
les discours, les propagandes...

4. L'analyse de contenu quantitative

Ici, par contre, l'importance est directement reliée aux quantités  : il s'agit de dénombrer,
d'établir des fréquences (et des comparaisons entre les fréquences) d'apparition des éléments
retenus comme unités d'information ou de signification. Ces éléments peuvent être des mots,
des membres de phrases, des phrases entières... Le plus significatif, le plus déterminant est ce
qui apparaît le plus souvent.

5. L'analyse de contenu directe

On parle d'analyse directe lorsque l'on se contente de prendre au sens littéral  , la signification
de ce qui est étudié. On ne cherche pas, dans ce cas, à dévoiler un éventuel sens latent des
unités analysées ; on reste simplement et directement au niveau du sens manifeste.

6. L'analyse de contenu indirecte

Ici, l'analyste cherchera, inversement, à dégager le contenu non directement perceptible, le


latent qui se cacherait derrière le manifeste ou le littéral. Le chercheur aura alors recours à une
interprétation de sens des éléments, de leurs fréquences, leurs agencements, leurs
associations...

Par exemple, les fréquences de certains stéréotypes, de slogans, de clauses de styles... sont
déterminantes de l'état d'esprit, des intentions, de la stratégie... de l'auteur du texte, du
discours, de l'interview... que le chercheur étudie.

Voici un exemple illustrant ce genre d'analyse : l'opposition française a fait ressortir que le
mot socialisme ne figurait dans aucun des discours du Président socialiste français durant les
années du plus fort de la crise économique 1982-1986, pour y déceler une sorte de virage
politique...

III — Les étapes de l'analyse de contenu

En nous intéressant à présent aux étapes concrètes de réalisation d'une analyse de contenu,
nous nous rendons compte que, dans les faits, les distinctions que nous venons d'effectuer sont
beaucoup plus théoriques qu'utiles sur le plan opérationnel. En effet, lorsque l'on s'attaque à
l'analyse proprement dite d'un document, il est presque systématiquement nécessaire de
combiner tout ou partie des différents types que nous avons énumérés. La combinaison
quantitative — qualitatif est, elle, une nécessité quasi absolue.

16
Exemple tiré de Pinto et Grawitz, 1969.

Page 89 sur 102


Voici les étapes essentielles que l'on doit parcourir dans la réalisation d'une analyse de
contenu.

1. La lecture du document  17

Il s'agit de lire littéralement, très attentivement et à plusieurs reprises le document à étudier.


Cette lecture répétée permettra une indispensable familiarisation du chercheur avec le
contenu, avec les différents thèmes discernables possibles, principaux et accessoires, les
différentes tendances, positions, attitudes, opinions... exprimées ou sous-entendues...

2. La définition de catégories

La deuxième étape consiste à préciser les catégories (en nature, nombre, subdivisions...) selon
lesquelles on regroupera les unités d'information que l'on s'attachera à extraire des documents
analysés.

On appelle catégorie la caractéristique selon laquelle on regroupera un certain nombre de


répondants ou d'éléments. Cette caractéristique étant commune à tous ces répondants ou ces
éléments (si nous étudions des opinions par exemple, on pourra les regrouper en catégories du
genre positif, neutre, négatif...).

À ce niveau, les catégories peuvent être prévues ou non. Ainsi, on peut prévoir de ranger tous
les répondants à un questionnaire d'opinion selon trois catégories : favorable, défavorable,
indifférent. Il suffira alors de ranger les différentes réponses selon leur sens plus ou moins
favorable à l'objet de l'enquête.

Dans le cas où il n'y a pas de catégories prévues, il s'agit alors de les découvrir dans les
documents à étudier (ce qui revient à une analyse d'exploration) et d'être systématique afin de
n'omettre aucune position possible qui départage les sujets (Dans notre exemple, il nous a
fallu découvrir les différentes attitudes principales vis-à-vis des loisirs par des questions
ouvertes.). C'est une étape cruciale où l'on établira les charnières véritables entre les objectifs
et les résultats de l'enquête. C'est donc ici d'un travail méticuleux qu'il s'agit ; l'on comprendra
donc l'utilité d'avoir recours à plusieurs lectures avant de décider définitivement des
catégories à retenir.

Les catégories doivent posséder les qualités suivantes :

- Exclusives  : Aucun chevauchement ne doit être possible entre catégories. Chaque


contenu isolé ne doit pouvoir être rangé que dans une catégorie et une seule.

- Exhaustives : L'ensemble des catégories doit épuiser toutes les positions, attitudes...
exprimées (directement ou non) à travers la totalité des documents analysés. De plus,
chaque catégorie doit englober tout le contenu qu'elle est censée recouvrir. Par
exemple, si on a prévu une catégorie favorable, elle devra contenir tout ce qui peut
prêter à position positive par rapport à l'objet en question dans l'étude.

- Évidentes : N'importe quel autre analyste devrait pouvoir, sans difficulté, classer les
mêmes éléments, de la même façon, dans les mêmes catégories.
17
Précisons que le terme « lecture » comme le terme « document » sont à prendre dans leur sens le plus
large.

Page 90 sur 102


- Pertinentes : Avoir un rapport direct et univoque aux objectifs de la recherche et au
contenu spécifique analysé. Elles doivent être significatives de positions tranchées,
ayant une incidence directe sur la discrimination des sujets et sur le positionnement
sans hésitation des éléments de signification. Sinon, comme pour les questions
multivoques d'un questionnaire, il faudra songer à subdiviser ou à démultiplier la
catégorie.

En tout état de cause, une catégorie est pertinente dès l'instant où elle fait faire un pas
supplémentaire à la recherche, aussi petit soit-il, dans le sens de l'atteinte d'un des objectifs
fixés. Il convient donc de se poser la question, à chaque fois qu'on isolera une catégorie :
Apporte-t-elle quelque chose de plus pour la recherche ? Si oui, est-elle la seule catégorie à
apporter ce qu'elle apporte ?

Avant de clore cette question de l'établissement des catégories, il convient d'attirer


l'attention du chercheur sur des travers dans lesquels il peut tomber et qui peuvent être très
préjudiciables à la suite de l'analyse. Il faut éviter soigneusement  :

1. Des catégories trop rigides, ou trop fermées, ou en nombre insuffisant (cela se


produit souvent quand on fixe des catégories à l'avance), on perd alors
beaucoup en finesse, en variété et en richesse d'information.

2. Des catégories, à l'inverse, trop nombreuses, trop détaillées ou trop


subdivisées... (cela se produit surtout quand on a recours à l'analyse
exploratoire), on perd plus dans ce cas en synthèse et en pertinence.

3. La détermination de l'unité d'information

On appelle unité d'information l'élément le plus petit possible qui sera retenu pour signifier
l'appartenance d'un sujet à une catégorie ou à une autre. C'est ce qui, dans chaque texte ou
partie de texte, sera retenu comme unité signifiante d'une attitude, d'une position, d'une
opinion... Ce peut être des mots, des phrases, des idées générales de passages complets... Si on
utilise trois catégories simples, favorable, défavorable, indifférent, il s'agira de préciser si l'on
retient comme unité tout mot, toute phrase ou toute idée générale, positif, négatif ou neutre
par rapport à l'élément considéré.

4. La détermination de l'unité d'enregistrement

Il s'agit de l'élément unitaire qui servira de base à la quantification ultérieure, même s'il ne
s'agit que d'un simple décompte. Cette unité d'enregistrement peut être un thème (abordé —
non abordé), le mot, le concept, la phrase, l'idée... ou une fréquence d'apparition de mots,
phrases. Pour plus de commodité, on retiendra une unité d'enregistrement identique à l'unité
d'information.

5. La détermination de l'unité de numération

L'unité de numération, c'est la façon dont on doit compter les éléments de signification et de
fréquence retenus plus haut. Cette unité, porte sur l'espace et le temps, ou l'un ou l'autre,
unitaires dans lesquels seront retenues les récurrences des éléments recherchés :

Page 91 sur 102


— La simple apparition ou non par page ? par texte ? par paragraphe ? par ligne ?
— Le nombre total d'apparitions par page ?

— Le nombre d'apparitions par unité de temps (par exemple films, discours...


subdivisés en heures/minutes...).

En bref, l'unité de numération sera la méthode de base de décompte par paragraphe, par ligne,
par page, par minute, par centimètre carré... (voir l'exemple illustratif plus loin).

6. La quantification

Dans cette dernière étape, il s'agit de transformer en quantités mathématiquement traitables


les éléments retenus et décomptés dans les étapes précédentes :

• On dénombrera les unités d'information par unité d'enregistrement et de


numération.
• On accordera à chaque sorte d'unité d'information un poids relatif, un coefficient
chiffré.
• On dégagera les fréquences des différentes unités d'information par catégorie.
• On pondérera ces fréquences par le coefficient accordé à chaque unité
d'information.

Enfin, on comparera, avec tests statistiques ou non, entre elles les fréquences pondérées ainsi
obtenues (s'il entre bien sûr dans les objectifs de la recherche de comparer les éléments ou les
sujets...).

IV — Une illustration

Dans notre exemple de recherche sur les chantiers pétroliers, nous avons (à partir de dix
interviews directives et dix non directives), effectué une analyse de contenu pour établir les
hypothèses les plus réalistes quant aux sources des difficultés d'adaptation ressenties par les
employés dans les chantiers pétroliers sahariens. Notre matériel documentaire était donc
constitué de vingt protocoles d'interviews (dix pages en moyenne) contenant l'expression de
sujets de mécontentement par rapport à la vie professionnelle et sociale en chantier pétrolier
du Sahara. Voici les étapes suivies pour chaque type d'interviews :

1) Lecture répétée des dix protocoles.

2) Dégagement de onze catégories « sources de mécontentement dans la vie en


chantier », d'après le contenu des protocoles (analyse exploratoire) :

1– Moral
2– Relations employeur/ employé
3– Décalage cadres/non cadres
4– Salaire
5– Loisirs
6– Congés
7– Transports
8– Sécurité
9– Logement (en chantier)

Page 92 sur 102


10– Climat
11– Nourriture

3) Unités d'information : toutes les propositions exprimant un avis ou un jugement sur


chacune de ces catégories.
4) Unité d'enregistrement : la proposition complète (phrase) ou tout le passage
concernant chaque catégorie.
5) Unité de numération : le protocole d'interview au complet.
6) Quantification : attribution de coefficients à trois types de propositions pour classer
sujets et catégories.
Proposition très négative : coefficient 2
Proposition moyennement négative : coefficient 1
Proposition neutre : coefficient 0

(Il n'y a pas de proposition positive car il s'agit d'opinions sur des sources de
problèmes et de difficultés).

7) Décompte et fréquence : Il restait seulement à mettre dans les cases d'un tableau à
double entrée catégories/sujets les scores de chaque sujet à chaque catégorie et à
faire la sommation des chiffres ainsi obtenus pour chaque catégorie. Toutes les
catégories obtenant un score total supérieur à dix (dix sujets) seront retenues comme
sources hypothétiques de problèmes à approfondir et à vérifier.

DÉCOMPTE ET FRÉQUENCE (interviews non directives)

Catégories
Nourritur Relation
Moral Logement Transports Loisirs Salaires
e s
Sujets
1 2 2 0 0 2 2 2
2 2 1 0 1 2 0 0
3 2 2 1 0 2 2 2
4 1 2 1 0 2 1 1
5 0 0 0 1 0 0 2
6 2 2 0 0 0 2 1
7 0 2 0 0 0 0 1
8 2 2 0 0 2 2 2
9 1 0 0 0 2 2 0
10 2 0 0 0 2 1 0
2x6 2x6 2x0 2x0 2x7 2x5 2x4
1x2 1x1 1x2 1x2 0x0 1x2 1x3
0x2 0x3 0x8 0x8 0x3 0x3 0x3
14 13 2 2 14 12 11
N° 2 N° 3 N° 1 N° 4 N° 5

Page 93 sur 102


PTE ET FRÉQUENCE (interviews semi-directives)

Catégori Décalag
es e Relations
Nourritur Clima Logeme Sécurit Transpor Congé Loisir Salaire Mora
Cadres Compagni
e t nt é ts s s s l
Sujets Ouvrier e
s
1 1 0 1 1 1 1 2 2 0 2 2
2 0 1 2 0 1 0 2 2 0 2 2
3 1 0 2 1 0 0 2 2 0 2 2
4 1 0 2 0 0 0 2 1 1 1 1
5 0 0 0 0 1 0 2 2 0 2 0
6 1 0 2 2 0 0 2 1 2 2 2
7 0 0 2 0 0 0 0 1 0 1 1
8 0 0 2 2 0 0 2 2 1 2 1
9 0 0 0 0 0 0 2 0 0 1 2
10 0 0 0 0 0 0 2 0 0 2 0
2x0 2x0 2x6 2x2 2x0 2x0 2x4 2x5 2x1 2x7 2x5
Total 1x4 1x1 1x1 1x2 1x3 1x1 1x0 1x3 1x1 1x3 1x3
0x6 0x9 0x3 0 x6 0x7 0x9 0x1 0x2 0x8 0x0 0x2
4 1 13 6 3 1 18 13 3 17 13
N° 5 N° 1 N° 3 N° 2 N° 4

3.13. La Cartographie cognitive

La cartographie cognitive est une méthode de planification stratégique, Cas d’une stratégie
nationale de développement durable d’un pays en développement.

C’est une recherche qui vise à mettre à l’épreuve une nouvelle méthode d’aide à la
décision stratégique utilisant la cartographie cognitive «ThinkShop» permettant de réduire
considérablement la durée de la production des orientations d’actions stratégiques à moins
de 5 jours d’atelier.

Cette méthode permet d’obtenir une plus grande convergence entre des perspectives
différentes des membres d’un groupe hétérogène de travail autour d’une question ou d’une
vision stratégique.

Plus largement, cette méthode permet de mieux répondre aux attentes des chercheurs, des
consultants en exercice et des décideurs des organisations qui se préoccupent à la fois, de la
qualité de la stratégie émergente, des délais de sa production, de l’engagement des individus
de son organisation dans sa mise en œuvre; et de la divergence de points de vues qui
émergentes suite à l’utilisation des méthodes actuelles de formulation de stratégies.

La méthodologie employée utilise le concept de cartographie cognitive collective en la


distinguant de la cartographie cognitive individuelle qui est largement répandue
actuellement. La mise à l’épreuve de la méthode s’est faite dans le cadre d’un programme
de développement international visant à développer une stratégie émergente et complexe de
développement durable.

Page 94 sur 102


Les résultats de la recherche ont permis de produire une analyse convergente de la situation
du développement durable et de pouvoir aboutir rapidement à des orientations d’actions
stratégiques consensuelles entre tous les membres du groupe de travail en question.

Objectif de recherche

Le but de cette recherche est de concevoir et mettre à l’épreuve une Méthode d’Aide
à la Décision Stratégique Participative de Groupe « Thinkshop ». Cette méthode se
distingue de toutes les autres méthodes existantes par son utilisation exclusive de la
cartographie cognitive collective « Participative ».

La mise à l’épreuve de la méthode a pour but de produire une stratégie de


développement durable en réponse à une situation complexe de prise de décision
multiacteur à travers le cas de la gestion des déchets solides au Sénégal dans un
contexte de développement international.

La conception d’une nouvelle Méthode d’Aide à la Décision Stratégique Participative


de Groupe « Thinkshop » s’intègre parfaitement au Système d’Aide à la Décision
Stratégique de Groupe (SADG) proposé par EDEN et BANVILLE (1994) tout en
rejetant la phase de cartographie individuelle de la méthode « Strategic Options
Development and Analysis » (SODA) proposée par EDEN et ACKERMANN (1989).
Nous considérons que pour comprendre et traiter une réalité complexe telle que celle
du développement durable, il faut s’écarter des approches simplificatrices et adopter
les principes de la complexité que la cartographie cognitive collective permet de
représenter.
• Hypothèse 1 : Il est possible d’élaborer une cartographie cognitive collective sans
passer par l’étape de la cartographie individuelle comme l’exigent les autres méthodes.

• Hypothèse 2 : Il est possible de réduire à quelques jours le délai de construction d’une


stratégie complexe et multiacteur grâce à la cartographie cognitive participative.

4. Méthodologie

La stratégie de recherche adoptée est une stratégie qualitative souple. Elle est
nettement subjectiviste même si la méthode utilisée possède un caractère
constructiviste. La stratégie de recherche s’apparente à une Recherche-Action sans
pour autant prétendre l’adopter formellement. Elle vise à initier un processus de
changement au sein du groupe de travail qui s’est prêté à l’exercice de la méthode de
planification mise à l’épreuve. Par contre, il ne s’agit pas de pouvoir mesurer les
changements occasionnés au sein du groupe en question, mais le but est de produire
une lecture interprétative et explicative à travers l’exploration d’une nouvelle méthode.
La recherche est donc essentiellement exploratoire. La méthodologie employée suit
une approche d’étude de cas jusqu’à saturation du cas unique en question.

Page 95 sur 102


4.1. Les principales étapes de la méthode d’analyse avec ThinkShop

Étape de la préparation d’un atelier de planification stratégique


La méthode « ThinkShop » est un mélange entre « Think » (réflexion) et « Workshop
» (Atelier de travail). Le principe étant de mobiliser des outils d’aide à la décision en
temps réel lors d’un atelier de réflexion pour développer une stratégie, un programme
ou tout autre projet en situation multiacteurs. La méthode consiste à organiser un
atelier participatif de réflexion et de prise de décision consensuelle au cours duquel les
participants sont les acteurs clés concernés directement ou indirectement par un thème
spécifique.

L’objectif de la démarche consiste à prendre la meilleure décision selon les


participants dans le cas d’une situation complexe (multiagents) où plusieurs
scénarios sont possibles, et où sévit une forte divergence de points de vue.

L’objectif étant de produire une stratégie de façon participative et consensuelle


rapidement, en l’espace de quelques jours d’atelier (4 à 5 jours). En partant d’une
analyse qualitative de tous les éléments du système de prise de décision de façon
intégrée jusqu’à l’évaluation de tous les scénarios possibles. La méthode utilise
différents outils basés sur l’andragogie et le développement durable, ainsi que
l’approche systémique et une série d’outils Progiciels (logiciels professionnels)
appelés Think Tools. Chaque étape du processus de planification stratégique peut
mobiliser un ou plusieurs outils de la suite Think Tools, les mieux adaptés au contexte
et à l’objectif spécifique de chaque étape de la réflexion à produire.

Page 96 sur 102


Chapitre IV : LA FIABILITE ET LA VALIDITE DE LA
RECHERCHE
4.1. La validité de construit

Une science est définie comme étant un ensemble des connaissances ayant un objet propre,
un champ d’investigation propre et des méthodes et techniques de recherche propre.

Un travail scientifique désigne alors toute production ayant un objet défini et ayant été
conduite selon une méthodologie telle que tout autre chercheur, qui emprunte la même
méthode peut aboutir aux mêmes résultats.

Pour établir la validité de leurs résultats, les chercheurs en sciences quantitatives se sont
attachés à trois critères fondamentaux :
- Le critère de la validité interne : qui assure la justesse des résultats ;
- Le critère de validité externe : qui spécifie les limites de la généralisation des
résultats ainsi obtenus ;
- Le critère de fiabilité : qui assure que les résultats ne sont pas liés aux
circonstances fortuites et que d’autres chercheurs, empruntant les mêmes méthodes
dans des champs empiriques similaires, peuvent arriver aux mêmes résultats.

La combinaison de ces trois critères garantirait, selon ces auteurs, défenseurs des méthodes
expérimentales et quantitatives, l’objectivité humaine.

Kirl et Miller (1986, p.20) iront même plus loin en fixant à quatre les critères de scientificité
dont :
- La valeur de vérité,
- L’applicabilité,
- La cohérence,
- La neutralité ;
Pour asseoir la scientificité de leurs œuvres, les chercheurs en Sciences sociales et humaines
feront recours à la standardisation des instruments et des résultats de recherche, au contrôle
des variables et à l’échantillonnage probabiliste. L’objectif primordial étant celui de
neutraliser l’influence de la subjectivité dans les résultats.

La recherche absolue de l’objectivité par la neutralisation de la subjectivité humaine, a produit


souvent des résultats très éloignés de la réalité sociale à laquelle ces résultats doivent être
rattachés.

4.2. La fiabilité et la validité de l’instrument de mesure


Des indicateurs peuvent être plus ou moins fiables et valides. La question est de savoir dans
quelle mesure une « mesure » est fiable et valide ?
 Fiabilité
La notion de fiabilité se réfère à la possibilité de reproduire la même mesure c’est-à-dire à la
reproductibilité de la mesure. C’est le degré auquel une certaine procédure de traduction d’un
concept en variable produit les mêmes résultats dans des essais répétés avec le même
instrument de mesure (stabilité) ou avec des instruments équivalents (équivalence).
Page 97 sur 102
D’autre part, il y a une fiabilité liée à la cohérence interne lorsqu’on a une série de variables
qui sont censées faire partie d’un même concept ou de mesurer un même concept. Dans ce cas
il y a des coefficients qui permettent de mesurer cette fiabilité comme l’alpha de Cronbar.
 Validité
C’est une Adéquation, le degré auquel une certaine procédure de traduction d’un concept en
variable effectivement mesure le concept qu’on entend mesurer. Un indicateur valide est un
indicateur qui mesure vraiment ce que l’on désire mesurer.
À la question de savoir dans quelle mesure la variable qu’on a opérationnalisé, saisie, capture
et mesure le concept ainsi que la réalité que l’on veut découvrir, pour cela il faut se référer à
une adéquation.
Dans le cadre de la recherche, on veut trouver des indicateurs qui soient à la fois fiables et
valides.
1. La validité de contenu

Le contenu détaillé de l'instrument (par exemple celui des questions, s'il s'agit d'un
questionnaire) doit être conforme à ce que l'on cherche à mesurer. Chaque question de
l'instrument doit correspondre à un indicateur précis et prouvé de la dimension mesurée
(chaque question doit couvrir une sous-dimension des différentes dimensions recensées
comme constituant la variable mesurée). L'appartenance religieuse par exemple, si c'est cela
qui est mesuré, devra être éclatée en plusieurs dimensions couvertes par plusieurs questions.

2. La validité interne

La validité, c'est, comme on l'a vu, la qualité de l'instrument telle qu'il mesure effectivement
ce qu'il est supposé mesurer. Les observations et mesures recueillies doivent être précisément
celles que cherche l'observateur et celles qui le conduiront à atteindre les objectifs fixés à la
recherche.

Cette validité mesure le degré de convergence de l'ensemble des questions d'un instrument.
Les différentes questions et sous-questions du questionnaire doivent toutes aller dans le même
sens pour former un ensemble cohérent couvrant les différentes dimensions de la variable
mesurée.
3. La validité externe

Il s'agit de la possibilité de prédiction ou de généralisation externes (en dehors des situations


précises observées) que peut conférer l'instrument. Comment, et jusqu'à quel point est-on
fondé à prédire des comportements, des conséquences... ou de les généraliser à d'autres
situations ? Par exemple, peut-on affirmer que si telles ou telles conditions se trouvent réunies
(n'importe où), nous aurons tel ou tel degré d'appartenance religieuse ? Ces conditions, qui ont
été mises en évidence dans un univers d'enquête particulier, ne sont-elles pas uniques ?
L'instrument permet-il de transcender les spécificités ?

Comme pour la fidélité, il existe plusieurs moyens de cerner et de prouver la validité d'un
outil. Parmi eux notons :

Page 98 sur 102


— La méthode des juges (ou des experts qui testent les questions-formulations de
notre instrument au fur et à mesure).

— La corrélation interne entre résultats aux questions, un à un, de l'ensemble de


l'instrument.

— La corrélation entre les résultats aux questions et le score total d'un même sujet.

— La corrélation entre résultats de l'instrument mis au point et résultats (dans les


mêmes conditions et pour les mêmes mesures) d'instruments déjà prouvés et
dûment validés dans le même domaine...

Bien entendu, plus ces corrélations sont élevées, plus les chances de validité sont grandes.

5.3. La fiabilité de la recherche

Alors qu’elle est assurée, selon les méthodes positivistes ; par la reproductibilité des résultats
dans des conditions analogues, les méthodes qualitatives estiment l’assurer par une
reproductibilité signifiant une applicabilité extensive spatio-temporelle. Elles provoquent
ainsi :
- La texturation des situations ;
- La prise en compte des aléas ;
- La répétition des recherches à long terme sur les mêmes terrains ;
- L’application de la triangulation pour assurer la concordance des résultats ;
- La facilitation de la reproduction et de l’évaluation par d’autres chercheurs.
-
5.3.1. Nouvelle grille de lecture des critères de la scientificité

Les critères de scientificité positiviste et quantitative se fondent sur le principe de


base : l’intersubjectivité. Les critères de la validité interne , la validité externe et celui de la
fiabilité fondent leurs racines dans la justesse , la pertinence , la généralisation et la
reproductivité des résultats de leurs recherches par d’autres chercheurs placés dans les
mêmes conditions et travaillant sur des populations ayant les caractéristiques similaires.

La scientificité des productions est donc fondamentalement intersubjective étant donné qu’il
est quasi-impossible de réaliser une rupture épistémologique entre le chercheur et la
population d’étudie, ou le fait qu’il analyse.

Le chercheur observe sa population d’étude, non de manière neutre, mais selon ses propres
prismes de valeurs, de sentiments, d’expérience et d’appréhension du monde.

Quel que soit le degré de rigueur dans l’application du principe de la décentralisation, le


chercheur laisse toujours quelque chose de lui – même dans les résultats comme il est en
retour et restera marqué par les effets de son objet d’étude.

L’interaction entre les sujets et le chercheur se clôture toujours avec des effets réciproques.
Car l’évacuation totale de la subjectivité ou sa neutralisation s’avère impossible en sciences
sociales et humaines.

Page 99 sur 102


La scientificité d’une production doit être à la fois liée aux buts et objectifs de la recherche,
aux méthodes et techniques de saisie du problème et au degré de sa mise en œuvre pour la
résolution du problème. Il en va sans dire que les recherches en sciences sociales et humaines
dans la mesure où elles prennent leur départ de l’existence des problèmes, elles doivent
aboutir à la résolution de ceux –ci.

Elles sont et doivent être engagées. L’engagement scientifique étant entendu comme un
processus à travers lequel le chercheur, identifie et formule son problème en terme d’objet
d’étude, se choisit les cadres et les outils théoriques pour sa réalisation, récolte les données
de terrain, les analyse pour confirmer ou infirmer ses hypothèses de travail, formule son
modèle théorique et s’engage à assurer son schéma explicatif.

Du point de vue de la socio-cinématique explicative, les critères de la scientificité doivent


être élargis allant de la formulation du problème à la mise en œuvre du modèle théorique
conçu pour sa résolution. Ces critères  seraient :
- La cohérence ou la validité interne,
- La reproductibilité,
- La généralisabilité,
- L’irréductibilité ;
- La réfutabilité ;
- La fiabilité,
- La prédictibilité,
- La correspondance ;
- L’interdépendance ;
- L’objectivabilité,
- L’indissociabilité
- La vérifiabilité ;
- La falsifiabilité ;
- La contextualité.
1. La cohérence
Elle tient à la pertinence de l’objet d’étude, à la logique de la démonstration et à la manière
dont les conclusions et modèle théorique découlent des prémices de l’observation et de
l’expérimentation.
La pertinence qui fonde la cohérence de la recherche se justifie également par la juxtaposition
heureuse et logique de la démonstration.
Les différentes étapes de la démonstration doivent s’accorder par des liaisons logiques et
incidentielles.

2. La reproductibilité
Elle est définie comme le caractère d’une étude qui, toute condition étant égale par ailleurs,
garantit que les mêmes causes produisent les mêmes effets dans des circonstances analogues
ou similaires.
Toute étude scientifique doit être reproductible par des mécanismes des similarités
méthodologiques et diachroniques.
3. La généralisabilité
Pour asseoir sa scientificité, toute recherche scientifique doit aboutir à des conclusions
généralisables à des phénomènes ou milieux sociaux présentant des homologies contextuelles.
4. L’irréductibilité

Page 100 sur 102


Les conclusions d’une recherche scientifique doivent jouir de leur identité irréductible, c’est –
à –dire qu’elles ne peuvent pas être amenées à d’autres interprétations différentielles.

5. La réfutabilité
Egalement appelée la falsiabilité, la réfutabilité se veut un domaine ouvert à toute critique et
à toute modification lorsque les circonstances qui ont sous-tendu la production des premiers
phénomènes ont subi de changement profond.

Pour étayer sa scientificité, toute étude scientifique doit être à des sondages de vérification
par d’autres chercheurs, sondage pouvant entraîner la remise en cause ou la modification de
résultat de l’étude.
6. La fiabilité
Un autre critère de scientificité, c’est la fiabilité, celle- ci se matérialise par la crédibilité des
données, la méthodologie utilisée, la personnalité de l’auteur ainsi que la hauteur et les
dimensions des échantillons sur lesquels le chercheur tire ses données d’analyse.
7. La prédictibilité
Le critère téléologique de toute recherche scientifique se résume dans sa prédictibilité, celle –
ci consiste à produire des résultats qui peuvent dans des circonstances homologues être
reproduites dans leurs moindres détails.
Toute recherche scientifique doit donc prédire l’avenir par ses conclusions.

8. La correspondance
La scientificité d’une étude est également liée à son degré de correspondance. Celle-ci se
matérialise par la similitude de résultats de même stimuli, introduits dans des contextes
socio-analogues.
9. L’interdépendance

Toute recherche scientifique doit être connectée à des recherches antérieures desquelles elle
tire ses données de départ et dont elle dépend et constitue le relais avec les recherches
postérieures. L’interdépendance fait aussi le mariage entre la passéologie et la futurologie.

10. L’objectivabilité
Toute recherche scientifique doit se dévêtir des préjugés et de toutes partialités dans la
manipulation des données.
11. L’indissociabilité
Les méthodes quantitatives de recherche considèrent que l’engagement du chercheur est un
processus de subjectivation de recherche. Il est aujourd’hui démontré que la dissociation du
chercheur de son objet d’étude a produit souvent des résultats irréels tant il est vrai qu’il est
difficile si pas impossible de dépouiller le chercheur de ses prismes culturels et autres
sentiments qui sont profondéments ancrés en lui et constituent une part entières de sa
personnalité.

L’indissociabilité constitue donc, un critère de scientificité dans la mesure où elle amène le


chercheur non seulement à interpréter et à comprendre le phénomène ou le fait en étude mais
surtout elle le conduit à la mise sur pied d’un modèle théorique explicatif dont l’objectif est
de résoudre de manière concrète le problème soulevé par l’objet de l’étude.

Le chercheur, tout en cherchant à produire des œuvres fiables, crédibles, reproductibles et


réfutables doit être engagé à résoudre d’une manière concrète les questions, les interrogations
et les questionnements.

Page 101 sur 102


Conclusion

Bibliographie
1. Alain PAGES et alii, Lettres, Textes, Méthodes, Histoire littéraire 2 e, Nathan, Paris,
1995.
2. BAKENGA Shafali, Cours d’initiation à la Recherche Scientifique (IRS), G1 en
Sociologie, RI et SPA, UOB-Bukavu ,2015-2016
3. DE GOURMONT, R., La dissertation philosophique. Conseils pour préparer et rédiger
une dissertation philosophique, suivis d’exemples de dissertation, d’énoncés de sujets
et d’une annexe documentaire, Edition Lanore, Paris, 1974.
4. DE SAINT-EXUPERY, A., Le petit prince
5. DEFOUR, G., Travail de fin d’études : Projet de développement, Bulletin de
pédagogie universitaire, janvier 1984, nº 17, 129-136.
6. KALIKA Michel, Le mémoire de Master, Projet d’étude. Rapport de stage, 2éd,
Dunod, Paris, 2008.
7. KALUNGA, M., et KAZADI, K., Les méthodes de Recherche et d’analyse en
Sciences Sociales et Humaine, Une relecture de la critologie de la scientificité, EDUC,
Lubumbashi, 2013.
8. KASHINDI M., Cours d’Initiation à la Recherche Scientifique, G1, Sciences
économiques et de Gestion, UEA-Bukavu, 2015-2016.
9. MUHIMUZI, M., Cours de méthodes et techniques de recherche scientifique  destine
aux étudiants candidats au diplôme d’études supérieures en politiques de
développement socio-économique, Bujumbura, Burundi, 2008.
10. MULOWAYI, D., Manuel et Lexique de Sociologie générale, Presses Universitaires
de Kananga, Kananga, 2013.
11. PAGÈS, A. et alii, Lettres, Textes, Méthodes, Histoire littéraire, 2è, Nathan, Paris,
1995, p.44.
12. TSHIMANGA MWANZA, Initiation à la recherche scientifique, Guide pratique, éd.
CERUKI, ISP- Bukavu, 1986.

Page 102 sur 102

Vous aimerez peut-être aussi