Cours de Methodologie Qualitative de La Recherche-1
Cours de Methodologie Qualitative de La Recherche-1
Cours de Methodologie Qualitative de La Recherche-1
RECHERCHE
Destiné aux Etudiants de Master de recherche
Par
Prof. Albert B.KALONGA Luse - Lua- Nzambi
Dr en Sociologie des Conflits Armés, DDR et Stratégies de réintégration
socio-économique des couches vulnérables
O. INTRODUCTION GENERALE
Il est certainement au moins aussi important et aussi difficile — sinon plus — de mener à bien
la préparation et la conduite d'une recherche, que d'en traiter, de façons même très
sophistiquées, les résultats.
Le présent cours vise donc à fournir l'essentiel de la matière à couvrir dans la préparation de
chercheurs, de praticiens d'études sociales ou d'étudiants finissants en programmes
universitaires qui doivent, en étape finale, présenter un mémoire, une thèse ou un rapport
d'étude sur un sujet précis relevant de leur discipline.
Il s'agit de permettre à de jeunes chercheurs d'être capables de faire un usage systématique des
connaissances acquises en vue de mieux comprendre et de mieux intervenir sur des aspects
particuliers de leur domaine.
L'objectif général est aussi d'ordre pratique : faire en sorte que le futur chercheur puisse
préparer, élaborer et conduire une activité de recherche (ou d'intervention un tant soit peu
rigoureuse) sur une situation réelle et devant déboucher sur une action.
Par ailleurs, nous voulons développer et élargir les horizons d'application de l'outil
statistique / quantitatif et donner un minimum de culture générale nécessaire au chercheur de
tout niveau (et à toute personne) ayant pour tâche d'intervenir sur des situations après études
préalables. Le tout étant susceptible de relativiser, voire de faire reculer, la trop envahissante
« mathématisation de la réflexion » à laquelle nous assistons de plus en plus dans nos
domaines : s'évertuer à tout exprimer et analyser en termes de rapports, de coefficients,
d'équations, de distributions, de « modèles »... quantitatifs pour mieux paraître
« scientifique ».
De façon plus précise, nous partirons de la notion de mémoire, ses exigences et ses limites,
pour ensuite parcourir pas à pas, dans le sens de son déroulement logique, l'ensemble du
Il doit cependant bien être admis que le présent ouvrage n'est nullement un traité de
statistiques appliquées ou d'analyse de données. Il sera en ce sens, fort peu technique et
presque pas quantitatif.
L’objectif de ce cours est de montrer aux étudiants (futurs chercheurs), les méthodes à suivre
et les techniques appropriées, adaptées à l’élaboration d’un travail scientifique ; mais aussi et
surtout de leur fournir les éléments importants qui interviennent dans tout travail de
recherche, de leur apprendre comment les acquérir, les ranger et les utiliser à bon escient (de
façon adéquate). Ce cours n’a ni l’ambition ni la prétention d’être exhaustif. Il vise à donner
une vue globale et synthétique des quelques méthodes quantitatives et techniques à l’œuvre
dans la recherche scientifique. Il s’adresse donc aux futurs hommes de terrain et va les aider,
dans le cadre purement scientifique, les préparer à la rédaction des travaux académiques
courants (ex. : T.P., T.F.C., rapport de stage, etc.).
1
« Classique » dans le sens du « modèle orthodoxe » (tel que défini en particulier par M. Audet et al. « Science
et résolution de problèmes... », Philosophie des Sciences Sociales, 16, 1986, p. 409-440) considérant « la »
science comme une, objective, extérieure, s'appliquant à des « objets » neutres etc. Modèle dont nous ne
partageons le bien-fondé qu'en tant qu'appliqué à des domaines relevant des sciences de la nature, domaine
pouvant comprendre des objets inertes, constants, isolables...
* Aux étudiants :
Ce cours tentera de répondre aux nombreuses questions et angoisse en rapport par exemple
avec le choix du sujet, la préparation, la rédaction et la présentation d’un travail scientifique.
Dans le but de diminuer cette angoisse nous avons jugé nécessaire de préparer ce cours en
l’étoffant.
02. Méthodologie
- Importance du cours
- Objectifs : - Général, spécifiques, intermédiaires, institutionnels, etc ;
- Méthodologie pour notre enseignement ;
- Contenu minimal du cours.
Le concept méthode a reçu et reçoit encore les définitions les plus diverses et diversifiées
selon la facette sociale de chaque chercheur.
Etymologiquement, le mot méthode vient du grec : metho-odos, meta, qui signifie « chemin
menant vers ». Dans le contexte abstrait, le concept méthode s’identifie à l’« ordre, à la
logique » et désigne la manière dont une activité doit se déployer en suivant un cheminement
réfléchi, logique et déterminé à l’avance.
Etymologiquement ; « poursuite » ; et par conséquent effort pour atteindre une fin, recherche,
étude d’où chez les modernes deux acceptions très voisines, quoique possibles à distinguer.
1° chemin par lequel on est arrivé à certain résultat, alors même que ce chemin n’avait pas été
fixé d’avance de façon voulue et réfléchie.
« On appelle ici ordonner, l’action de l’esprit par laquelle, ayant sur un même sujet…
diverses idées, divers arguments et divers raisonnements il les dispose en la manière la plus
propre pour faire connaître ce sujet. C’est ce qu’on appelle encore méthode. Tout cela se fait
naturellement et quelque fois mieux par ceux qui n’ont appris aucune règle de la logique que
par ceux qui les ont apprises. »
Ce mot se dit souvent, en ce sens, des procédés habituels d’un esprit ou d’un groupe d’esprits,
procédés qu’on peut observer et définir par induction, soit pour les pratiquer ensuite plus
souvent, soit pour les critiquer et en faire voir l’invalidité.
2° programme réglant d’avance une suite d’opérations à accomplir et signalant certains
errements à éviter, en vue d’atteindre 1 résultat défini (manquer de méthode, procéder avec
méthode)2
Selon Descartes, il faut une méthode pour toute recherche, car une recherche sans méthode ne
peut jamais atteindre la vérité scientifique. Une méthode est donc, « selon Descartes, un
ensemble des règles certaines et faciles auxquelles tous ceux qui y font recours et les
observent rigoureusement, ne supposeront jamais vrai ce qui est qui faux ».
La notion de méthode se fonde donc, dans son sens premier sur celle de l’ordre. Or, ce
dernier est difficile à définir car trop relatif. L’ordre dépend de chaque individu et varie avec
les contextes socio-économico-culturels où l’on se trouve.
2
André LALANDE, Vocabulaire technique et critique de la philosophie , PUF, Paris 1926, pp. 623-
624.
La méthode est définie aujourd’hui comme étant « une voie, un chemin, une démarche
intellectuelle que le chercheur emprunte dans la saisie, l’analyse et l’explication de son objet
d’étude ». La méthode implique des règles de validité interne et externe qu’il faut observer en
vue de résoudre un problème donné. Il y a diversité des méthodes qu’il y a diversité des
problèmes.
Elle est souvent confondue avec la technique. Elle désigne un ensemble de procédures
logiques liées à toutes démarches scientifiques. Ces procédures sont indépendantes de tout
contenu particulier.
- la méthode répond à la question : pourquoi on y est arrivé,
- la technique répond à la question : comment on y est arrivé.
La méthode est donc une stratégie globale qu’on adopte pour appréhender (saisir,
comprendre) la réalité, pour récolter les données, les analyser et vérifier les hypothèses. Elle
peut englober certaines techniques. Cependant au sens étroit (ou strict), la méthode est un plan
concerté d’opérations à effectuer en vue d’atteindre un certain objectif. Elle implique le choix
et la combinaison d’un certain nombre de techniques.
Dans la méthode il y a des techniques et des théories qui permettent de donner la lumière sur
ce que l’on fait. Il s’agit ici d’un programme qui règle à l’avance des opérations à atteindre, à
effectuer pour atteindre certains résultats. Il faut voir dans la méthode l’idée d’une direction,
d’une orientation que l’esprit doit parcourir pour atteindre un objectif à travers une opération.
La méthode est donc liée à un effort d’explication ; elle conditionne la validité des résultats
d’une enquête. Elle comprend une série d’opérations intellectuelles qu’effectue une discipline
qui cherche à atteindre la vérité ou la réalité qu’elle poursuit, qu’elle démontre ou qu’elle
vérifie.
Importance de la méthode
2. La méthodologie
La méthodologie peut se définir comme étant l'étude du bon usage des méthodes et
techniques. Il ne suffit pas de les connaître, encore faut-il savoir les utiliser comme il se doit,
c'est-à-dire savoir comment les adapter, le plus rigoureusement possible, d'une part à l'objet
précis de la recherche ou de l'étude envisagée, et d'autre part aux objectifs poursuivis.
Autrement dit, les méthodes et techniques retenues dans une recherche donnée doivent être les
plus aptes à rendre compte du sujet étudié et à mener le chercheur vers les buts qu'il s'est fixés
en termes d'aboutissement de son travail. Il est inutile de préciser que cela doit faire l'objet de
justifications et d'argumentations serrées de la part du chercheur : pourquoi choisir telle
méthode, telles techniques, tels instruments...
Pour mieux circonscrire sa méthodologie, le chercheur doit définir, formuler et élaborer « au
plus fin » son problème (on appelle « problème » en recherche le point précis, et ses
composantes, que le chercheur veut étudier, il constitue alors « son » problème). Plus les
données du problème seront précisées et plus facile sera l'élaboration de la méthodologie. Il y
a un interconditionnement nécessaire entre le problème, la façon de le poser, la méthode
adoptée et les techniques retenues. En guise d'illustration, considérons l'exemple du chasseur
(que nous empruntons à Pinto-Grawitz) qui peut avoir une approche : ne jamais chasser à
l'affût, ni le gibier arrêté, ni au gîte (c'est sa philosophie de la chasse) ; une ou plusieurs
techniques : la maîtrise du tir sur cible mobile, le tir en pleine course... ; et aussi une ou
plusieurs méthodes : comment approcher le gibier en tenant compte du terrain, du temps, du
travail du chien, du vent, des habitudes de chaque gibier... La coordination, la synthèse de tout
cela serait sa méthodologie.
Il importe de souligner, en conclusion, qu'il n'y a pas de travail scientifique possible sans
méthode et méthodologie. C'est en fait ce qui distingue par exemple le journaliste ou le
reporter du chercheur. Le second se caractérise par une rigueur explicite, absolue et
systématique dans sa quête et son traitement des informations recueillies, c'est là qu'il doit
faire preuve de méthode et c'est par là qu'il s'apparente à la communauté scientifique.
3. La Technique
Comme notion de la méthode, le concept technique a déjà reçu des définitions les plus
diversifiées la rendant ainsi équivoque et le confondant à la méthode.
La méthode, avons-nous dit, est conceptuelle. Elle est supposée utiliser des outils, des
procédés en vue d’aboutir à la vérité scientifique. La méthode se situe au niveau de la pensée
cheminatoire, tandis que la technique se situe, elle, au niveau de la collecte et d’analyse
exécutoire des données sur terrain.
La méthode se veut donc une connaissance théorique tandis que la technique se définit
essentiellement comme un moyen matériel, un outil de production des données, d’analyse et
cela en suivant les connaissances théoriques et directionnelles de la méthode.
La technique est un moyen alors que la méthode est une voie. La technique répond à la
question de savoir comment concrètement suivre le chemin tracé par la méthode.
Une autre confusion à lever est celle qui s’établit entre la notion de méthode et celle
d’approche. Bien que ce dernier terme soit utilisé comme synonyme de méthode, une nuance
reste cependant à relever. Une approche désigne la démarche intellectuelle, la disposition
d’esprit du chercheur, la façon dont le chercheur se prend pour étudier son objet. Elle
n’implique donc pas toutes les étapes systématisées et surtout pratique de la méthode.
L'approche est à considérer comme une démarche intellectuelle qui n’implique ni étapes, ni
cheminement systématique, ni rigueur particulière. C'est à peu près un état d'esprit, une sorte
3
Idem, p.105.
L’approche est surtout une attitude de souplesse, de vigilance, de prudence et de grand respect
dans l’intelligence du phénomène étudié.
C’est en fait l’angle, la vision sous ou selon lesquels le chercheur abordera son sujet.
Exemple : la prostitution : approche médico-sociale.
6. L’état le la question
C’est l’ensemble de questions que se pose le chercheur à propos de son sujet d’étude. Cet
ensemble va l’aider à mieux comprendre et à pénétrer le sujet (la description globale).
N.B. Il faut penser et répondre à ces préoccupations sans poser des questions dans le texte du
travail, ce qui sera fait dans la problématique. Un homme averti …
7. La problématique
Est une étape très importante dans l’élaboration et la rédaction d’un travail scientifique. Elle
est définie comme un cadre logique d’étude permettant au chercheur (à l’étudiant) de bien
poser le problème relatif à son sujet d’étude.
Elle est en quelque sorte la question ou la série de questions servant de fil conducteur à la
réflexion sur le sujet et annonce d’emblée vers quelle piste de solution s’articulera ou
s’acheminera le travail.
8. La théorie
Une hypothèse confirmée est dite soutenable et prend la forme d’une proposition admise.
Plusieurs propositions admises c’est-à-dire hypothèses confirmées constituent une théorie. La
théorie se définit comme : « un corps de concepts plus ou moins systématiques .» ARON, A.,
affirme que : « la théorie est un ensemble de propositions dont les termes sont rigoureusement
élaborés ; système élaboré à partir d’une conceptualisation de la réalité perçue, vécue et
observée. »
Elle signifie aussi : Construction spéculative de l’esprit, rattachant des conséquences à des
principes :
a) Par rapport à la pratique, dans l’ordre des faits :
b) Ce qui est l’objet d’une connaissance désintéressée, indépendante de ses
applications. « La pratique s’oppose d’une manière générale à la théorie. Par exemple,
la physique pure est une recherche théorique, et la physique appliquée se rapporte à la
pratique. » L. LEVY-BRUHL, La morale et la science des mœurs, p.9.
c) Par opposition à la pratique, dans l’ordre normatif : ce qui constituerait le droit pur ou
le bien idéal, distincts des obligations communément reconnues.
d) Par opposition à la connaissance vulgaire : ce qui est l’objet d’une conception
méthodique, systématiquement organisée, et dépendante par suite, dans sa forme, de
certaines décisions ou conventions scientifiques qui n’appartiennent pas au sens
commun.
e) Par opposition à la connaissance certaine : construction hypothétique, opinion d’un
savant ou d’un philosophe sur une question controversée : « La théorie cartésienne de
l’erreur. »
f) Par opposition au détail de la science : large synthèse se proposant d’expliquer un
grand nombre de faits, et admise, à titre d’hypothèse vraisemblable, par la plupart des
savants d’une époque : « La théorie atomique ; la théorie cellulaire. »
9. L’explication
Est un développement destiné à éclaircir le sens de quelque chose (un fait ou un phénomène).
Elle est possible en sciences exactes mais difficile en sciences humaines, en sciences sociales
où c’est la compréhension qui intervient en priorité.
- Expliquer dans tous les sens, c’est faire comprendre à l’un des trois premiers sens de
ce terme. Ainsi, le mot expliquer reçoit-il trois degrés :
- Au sens plus large, développer ou décrire, donner une détermination précise de ce qui
était inconnu, vague ou obscur. Ex. : Expliquer le sens d’un mot, d’un texte, expliquer
la marche à suivre dans un problème. »
- Plus spécialement, expliquer un objet de connaissance c’est montrer qu’il est impliqué
par une ou plusieurs vérités déjà admises (à titre assertorique ou hypothétique). Il n’est
pas nécessaire que ce qui explique soit plus général que ce qui est expliqué.
- Au sens fort, c’est nous montrer que ce que l’on explique est impliqué par des
principes non seulement admis mais évidents, autrement dit, à faire voir qu’il dépend
nécessairement de jugements nécessaires.
Page 10 sur 102
Remarque :
On dit quelque fois qu’on explique un fait quand on montre qu’il n’a rien d’extraordinaire ou
de surnaturel, et cela en faisant voir qu’il pourrait être une application de telle loi connue, ou
se produire par tel mécanisme plausible.
10. L’analyse
C’est l’opération intellectuelle qui consiste à décomposer une œuvre en ses éléments
constitutifs dans le but d’en saisir le rapport et de donner un schéma d’ensemble.
En sciences exactes (ex. : en chimie) elle est l’action de décomposer un mélange dont on
sépare les constituants ou une combinaison dont on recherche ou dose les éléments. Exemple :
électrolyse de l’eau : H2O = H2 + O
L’analyse proprement dite signifie :
1. Résolution, solution régressive
2. décomposition
Elle s’oppose à Synthèse
11. La Synthèse
Est une opération intellectuelle par laquelle on rassemble les éléments de connaissance en un
ensemble cohérent, uni, homogène. Cette opération est courante en chimie. Ex. : H2 + O →
H2O
La synthèse est en fait une suite d’opérations mentales qui permettent d’aller de notions
simples aux notions complexes ou composées et en cela, elle s’oppose à l’analyse.
Sens général : Composition, acte de placer ensemble divers éléments, données d’abord
séparément et de les unir en un tout. S’oppose à analyse.
a) Marche de l’esprit qui va des nations ou de la proposition la plus simple au plus
composées.
b) Marche de l’esprit qui va de propositions certaines à d’autre proposition qui en son la
conséquence nécessaire.
Page 11 sur 102
c) Opération par laquelle on remonte des détails à l’ensemble ; vue générale qui résulte
de cette opération.
d) Fusion d’une thèse et d’une antithèse en une nation ou en une proposition nouvelle qui
retient tout ce qu’elles ont de légitime et les combine grâce à l’introduction d’un point
de vue supérieure.4
12.Recherche Scientifique :
Prise au sens général, la recherche est une action ou un effort en vue de trouver quelque
chose, un effort de connaître une vérité cachée.
La recherche scientifique par contre, et D’après (R.Quivy & L.Campenhoudt) cités par
Bienvenu KALUNGA MAWAZO et Timothée KAZADI KIMBU, « est une opération qui
consiste à trouver des moyens de résoudre, de façon systématique et crédible, les problèmes
que pose la juste appréhension du monde ».
- Il s’agit le plus souvent en sciences sociales de répondre à des questions des types :
Pourquoi ? Comment ? Qui ? Quoi ? Où ? Combien ?
Ces questions se situent à un niveau superficiel, alors que l’objectif visé en Sciences sociales
comme dans toutes les sciences d’ailleurs, c’est d’atteindre ou d’arriver à l’explication.
- Expliquer : Signifie : montrer pourquoi la réalité est- telle qu’elle est, pourquoi tel
fait s’est produit? Pourquoi tel acteur a-t- il eut telle conséquence ? pourquoi tel
acteur a-t- il agit dans ce sens ? Pourquoi telle institution fonctionne de telle
manière ?
Le but de toute recherche scientifique, est donc la résolution systématique et crédible des
problèmes auxquels les hommes font face dans la société, afin d’y rendre la vie meilleure.
La recherche scientifique implique donc deux niveaux :
D’après le Professeur Emile BONGELI Yeikelo ya Ato, « la recherche scientifique, est une
opération intellectuelle, un effort d’esprit pour comprendre la nature des choses, pour
trouver des connaissances nouvelles, pour découvrir les lois de la nature à travers et au-
delà des apparences qui s’offrent à nos sens et que nous pouvons directement observer ».
4
Idem, pp. 1091-1092.
A – Les préalables
o Maîtrise d'un ensemble de connaissances liées à un champ précis de la science
(ex. : la science économique).
- B – Les exigences
o Unité et clarté du sujet traité : ce qui est soumis à l'étude ou à l'analyse doit
être bien individualisé et identifié.
o Rigueur de la démarche : méthode et techniques conformes aux normes
scientifiques.
Est un élan d’âme, un élan ontologique qui nous pousse vers l’idéal de noblesse à tout
moment quels que soient le temps et les circonstances.
L’esprit est aussi une force déployable et /ou déployée pour atteindre une idéale noblesse dans
la recherche.
Dans le contexte praxéologique, l’esprit touche à l’onto (être) du chercheur, son for intérieur.
L’énergie ontologique d’un chercheur se symbolise par Eo. Elle est déployée (e) et déployant
le (n) et se traduit par Eo=e +n.
Un bon chercheur doit actualiser son énergie pour produire (ep) et pour entretenir ses rapports
avec les encadreurs et les enquêtés (ee) durant tout le processus de déploiement de ses efforts
(n=ep +ee).
Dès lors, un esprit scientifique est conçu dans le sens que lui donne le Professeur Tshungu
Bamesa, « C’est un ensemble des dispositions intellectuelles et morales qui portent l’étudiant
ou le chercheur à prendre les mesures propres à assurer à son travail, une valeur scientifique et
à éviter les défauts susceptibles de la gâcher ».
Quiconque veut réaliser un travail scientifique, doit s’armer d’une tournure d’esprit qui
permet de surmonter les illusions de sens et les attitudes partisanes.
Dans l’esprit scientifique, sont contenues toutes les formes de vertu et de valeurs, parmi
lesquelles nous pouvons citer : la rigueur, la précision, l’équilibre, l’esprit critique, de
synthèse et de concision, l’humilité, la probité, l’honnêteté, la sincérité, la liberté, la
tolérance, la confidentialité etc…
Par ailleurs comme le dit le Professeur BAKENGA Shafali, nous pouvons retenir parmi ces
valeurs :
Au plan éthique ¿
15. Le mémoire
Nous retenons ici le mémoire comme genre général de rapport de recherche appliquée et
comme première étape que franchit le nouveau et futur chercheur. Le mémoire représente l'un
- Ce n'est pas un récit car on doit démontrer quelque chose, prouver, argumenter,
analyser, proposer, recommander...
- Ce n'est pas un rapport dans le sens compte rendu, car il suppose un effort
d'investigation et de compréhension derrière l'apparence des faits observés.
- Ce n'est pas non plus une thèse car une thèse est un apport supplémentaire et
original à la connaissance scientifique dans une discipline particulière. Cela
dépasse assez largement les prétentions d'un mémoire ou même, souvent, de toute
recherche appliquée.
Si ce n'est ni raconter, ni rapporter, ni décrire, ni rédiger une thèse, alors qu'est-ce qu'un
mémoire ?
D'après les dictionnaires de langue française, le mémoire est une « dissertation » scientifique
ou littéraire. Nous pouvons retenir deux termes essentiels dans cette définition : dissertation et
scientifique.
En bref, nous dirions que le mémoire, tout en étant un genre mineur, ne fait pas moins partie
intégrante du travail de recherche. C'est, dans les grandes lignes, une application d'un ou de
plusieurs champs de connaissance (par exemple, la science économique) à un aspect de la
réalité (thème précis du mémoire) pour en comprendre les mécanismes, caractéristiques,
dysfonctions, difficulté ... et suggérer par voie d'analyse et de démonstration une ou plusieurs
possibilités d'amélioration, de correction, de meilleure utilisation... selon la nature du sujet
traité.
16. La thèse
Est une énonciation d’un point de vue qui n’est pas nécessairement vrai. Exemple : Dire que
l’Afrique va mal. Cela demande à être vérifié à travers une démonstration. On peut aussi dire
que la thèse est une vérité première telle que la démonstration en illustrera la véracité.
Page 16 sur 102
Position d’une doctrine qu’on s’engage à soutenir contre les objections qui pourraient y être
faites. D’où l’emploi de ce mot :
1. (avec un sens moins précis) pour désigner la doctrine d’une philosophie (par exemple)
sur un point déterminé, les conclusions soutenues par un avocat dans un plaidoyer,
l’idée défendue par un homme politique dans une discussion, dans un discours, etc. ;
cf. les expressions romanes à thèse, pièces à thèse,
2. (dans l’usage universitaire) pour désigner les mémoires ou les ouvrages composés en
vue d’obtenir le grade de docteur ; ces « thèses » n’ayant consisté, tout d’abord, qu’en
simple feuille, où étaient énoncées en termes formels les propositions que le candidat
s’engageait à soutenir.
17. La totalité
Elle est un concept qui explique un ensemble de plusieurs éléments. Elle est :
a. L’une des idées fondamentales de la pensée. Elle est présentée comme
synthèse de l’unité et la pluralité.
b. (Au sens concret) L’ensemble complet des éléments qui forment un tout.
Remarque
Ce mot, et surtout l’adjectif totalitaire, s’appliquent spécialement, depuis quelques années, à
l’unité organique (opposée à l’unité de ressemblance), e à l’idéal politique qui considère le
Tout social comme ayant seul une valeur par lui-même, et les individus comme n’étant que
des organes à son service.
Loi de totalité
Chez HŐFFDING : Loi psychologique d’après laquelle tout ce qui a fait partie d’un même
tout mental est propre à faire reparaître ce tout.5
18. Le Concept
C’est un mot chargé de sens, une représentation abstraite et générale d’une idée (de quelque
chose), d’un objet ou d’un ensemble d’objets ayant des caractères communs. Exemple : la
liberté, un enfant, un arbre, un fantôme, etc.
19. L’hypothèse
Elle est une idée directrice, une tentative d’explication des faits formulés au début de la
recherche et destinés à guider les investigations maintenues ou abandonnées d’après le
résultat d’observation.
Pour être scientifique l’hypothèse doit être vérifiable c’est-à-dire soumise à une
démonstration. De plus elle doit être plausible (compréhensible) et intelligente. La
confrontation des hypothèses consiste à observer les faits pour manipuler les variables propres
ou phénomènes extérieurs afin d’en démontrer la corrélation. Exemple : La crise politique et
la pauvreté en Mairie de Bujumbura.
Selon LALANDE (1968) l’hypothèse est une : « conjoncture douteuse mais vraisemblable par
laquelle l’imagination anticipe sur la connaissance, et qui est destiné à être ultérieurement
vérifié soit par une observation directe soit par l’accord de toutes ses conséquences avec
l’observation. » L’hypothèse est donc une proposition de réponse à la question « ou aux
questions »
posées dans la problématique. Etant une proposition de réponse à la question posée, elle tend
à formuler une relation des faits significatifs. Même plus ou moins précise, elle aide à
5
Idem, p. 1137.
En effet, sans hypothèses directrices, les recherches dégénèrent en une accumulation stérile de
données ou d’informations. En général, l’hypothèse est choisie parmi d’autres au cours d’une
mise au point préliminaire, elle peut naître d’observations courantes portant sur des faits de la
vie quotidienne pour des faits découverts dans le cours, les stages ou dans les lectures
personnelles. Elle peut également se présenter comme résultat d’une élaboration purement
théorique. Souvent l’hypothèse ou les hypothèses se modifient en cours de travail ne fût-ce
que parce qu’elles s’enrichissent, se précisent.
L’hypothèse en fait peut être plus générale ou plus spécifique c’est-à-dire précisant la
situation d’observation. Il faut savoir qu’une hypothèse doit être vérifiable et plausible, il faut
se méfier donc des pseudo-faits qui créent des pseudo-problèmes.
Il y a quatre aspects dans lesquels s’inscrit la recherche dans une optique d’auto surveillance
afin de savoir dans quel contexte on fait de la recherche.
La recherche se développe dans un cadre plus large, elle n'est pas en dehors des influences, il
y a des champs d'influence, des contraintes, des domaines :
6
GRAWITZ, M., Méthodes en sciences sociales, Ed. Dalloz, 8ème Ed., Paris, 1990, pp. 443 et suiv.
7
TSHIMANGA MWANZA, Initiation à la recherche scientifique, Guide pratique, éd. CERUKI, ISP-Bukavu, 1986, p. 42.
3. Idem, op.cit. p. 42.
Nous en avons deux : Les moments opérationnels assis dans une recherche scientifique
et Les Moments opérationnels début dans une recherche scientifique
Le travail de fin d’études : Il s’agit d’un travail monographique. Ce genre de travail consiste
en une analyse approfondie de l’enchaînement des faits, de leurs causes, de leurs
significations et de leurs conséquences. Cette analyse doit permettre de formuler grâce à des
raisonnements éprouvés (réflexions personnelles) des propositions ou conclusions qui sont
l’expression finale du travail ; le tout mené suivant une méthodologie appropriée.
Outre sa capacité à prouver qu’il a assimilé les matières reçues durant les années de ses études
supérieures ou universitaires, l’étudiant doit faire preuve de maturité scientifique par la
manipulation correcte des concepts et autres règles de rédaction qui lui auront été enseignés
au préalable.
Toute recherche en Sciences sociales et humaines ou autre, comprend plusieurs moments
opérationnels avant d’atteindre la vérité qui constitue l’étape finale. Ces moments
opérationnels sont soit debout, soit assis et se chevauchent incidentiellement.
Ces étapes de la recherche sont ainsi appelées parce qu’elles constituent la partie
réflexologique de toute recherche. Elles s’effectuent au bureau.
Toute recherche scientifique naît autour d’un problème. Le chercheur devra donc clairement
identifier et définir le problème qui se pose et pour lequel l’étude doit être menée en vue
d’une solution. Le problème est généralement défini comme étant l’écart entre ce qui est et ce
qui devrait être. Devant la pauvreté de masse dans un pays immensément et potentiellement
riche comme la République Démocratique du Congo, le problème, c’est écart entre ce qui est :
La pauvreté et ce qui devrait être, la prospérité.
Le recours abusif à la formulation : Présentation du sujet, très en vogue dans les universités
en R.D. Congo, constitue une dénaturation du processus de la recherche. Car ce n’est pas le
sujet qui constitue le problème, mais bien l’objet d’étude. Le chercheur doit donc démarrer
son étude par la présentation du problème ou de l’objet d’étude en précisant sa nature et son
intérêt.
3. La Problématique
C’est aussi une manière d’interroger les phénomènes en étude ; une étape charnière de la
recherche située entre la rupture et la construction. (Ferreol, G., 2000, p.46).
Dans le cadre de nos analyses, la problématique est entendue comme étant un ensemble
d’interrogations, des questions et des questions et des questionnements que le chercheur se
pose sur son objet d’étude. La problématique peut être formulée en une seule ou plusieurs
questions.
Pour le Professeur MUHIMUZI : « Est une étape très importante dans l’élaboration et la
rédaction d’un travail scientifique. Elle est définie comme un cadre logique d’étude
permettant au chercheur (à l’étudiant) de bien poser le problème relatif à son sujet d’étude.
Elle est en quelque sorte la question ou la série de questions servant de fil conducteur à la
réflexion sur le sujet et annonce d’emblée vers quelle piste de solution s’articulera ou
s’acheminera le travail. »
Après avoir observé un phénomène pendant un temps, le chercheur se posera des questions
telles que :
- Pourquoi tel phénomène se produit-il ?
- Pourquoi se produit-il de cette façon ?
-
Des questions du genre :
- Quels sont les facteurs qui sont à la base de l’absentéisme du personnel dans les
entreprises publiques en RD Congo ?
- Pourquoi la RDC est classée parmi les pays les plus pauvres du monde en dépit de
toutes ses potentialités ?
- Quelles sont les causes du dévergondage sexuel chez les étudiants du Campus de
Lubumbashi ?
- Quels sont les facteurs à la base de la prolifération des sectes religieuses en RDC ? etc.
Le premier groupe est constitué des questions stricto sensu par contre le deuxième groupe est
constitué des questions portant en elles-mêmes des réponses ; ce sont des questionnements.
Des interrogations sont à l’opposé, très brèves : Quoi ?qui ?où ? Comment ? Avec quoi ? De
quelle manière ? Pourquoi- comment ? Etc.
Le Chercheur doit manier des interrogations, des questions et questionnements afin de cerner
les différents aspects de son objet d’étude.
- Elle doit être actuelle : Elle doit prendre en considération l’état le plus récent du
débat théorique et des données empiriques en les mettant dans une perspective
synchronique et diachronique.
- Elle doit être féconde : Une bonne problématique doit être riche. Elle doit contenir
toutes les informations susceptibles d’être hypothétisées en vue de permettre à la
recherche d’avoir un éventail des réponses à confirmer ou à infirmer.
Elle peut aussi être comprise comme étant une réponse préconçue et provisoire
formulée à priori ou à postériori que le chercheur donne à ses questions de ma problématique
en vue de les utiliser comme chaîne dorsale dans la conduite de sa recherche.
On distingue généralement deux façons de formuler les hypothèses. Elles peuvent être
formulées soit à priori soit à postériori. Dans le premier cas, les réponses aux questions de la
problématique sont données sur base des connaissances et de l’expérience personnelles du
chercheur, tandis que dans le second cas, le chercheur formulera ses hypothèses après avoir
recueilli certaines informations. Cette formulation exige une étape supplémentaire appelée :
pré-enquête. Celle-ci est une démarche qui sert à fournir au chercheur des informations sur
son objet d’étude grâce à la reconnaissance préalable du terrain.
1. Les travailleurs s’absentent fréquemment parce qu’ils ne sont pas satisfaits par leur
travail (satisfaction matérielle et psychologique).
2. Les travailleurs s’absentent souvent à la fin du mois parce que c’est la seule occasion
dont ils disposent pour se payer suffisamment de bière, la modicité des salaires ne leur
permettent pas de boire chaque jour.
3. La chute de production que connaît cette entreprise est en partie due au taux élevé
d’absentéisme.
La revue de la littérature : Il s’agit également d’une étape importante, car elle permet au
chercheur de s’informer sur les résultats des recherches connexes ,des recherches dans le
même domaine. La revue doit être continue, c’est-à-dire qu’il s’agit d’apprécier les résultats
des recherches effectuées dans ce domaine par d’autres chercheurs. La revue permet parfois
de continuer la recherche, il est souvent soulevé des problèmes qui n’ont pas être traités et qui
méritent aussi une attention. La revue de la littérature doit être aussi exhaustive que possible.
Cette activité consomme donc beaucoup de temps et le choix de la documentation relative au
sujet à traiter peut se faire de façon économique en lisant l’introduction, la méthodologie et le
résumé de résultats. C’est de cette manière que la documentation relative au travail peut être
choisie. Après cette opération, le lecteur passe à une lecture minutieuse de la documentation
choisie. Il est recommandé de commencer avec la littérature la plus récente pour terminer par
la littérature la plus ancienne.
Il est question dans cette partie de procéder à la présentation des modèles théoriques devant
asseoir les bases de notre recherche. Une sorte de va-et-vient entre la théorie et la pratique, le
cadre théorique a cet avantage, précise P. Ansart, de permettre au chercheur de préciser
son réseau d’influence et d’appartenance8.
8
P. Ansart, Les sociologies contemporaines, Paris, Seuil, 3ème éd., 1990, p.56.
Tout ce qui est hors de ce champ de connaissances et tout ce qui est au- delà de ces limites
sera également hors et au-delà du cadre théorique et de la revue de la littérature.
A – Le cadre théorique
Plus haut, dans ce que nous avons appelé domaine couvert par le champ de connaissances
appliqué au problème, il ne s'agissait que de situer les frontières conceptuelles que l'on se
trace pour conduire sa recherche. Dans notre exemple, il s'agissait des concepts liés à la
psycho-sociologie générale des groupes de travail, donc nous excluons d'une certaine façon la
psychologie clinique, la psychanalyse, la sociologie...
C'est à ce stade que l'on apprécie généralement la culture du chercheur, l'étendue et l'actualité
de ses connaissances dans sa spécialité, ainsi que sa capacité à les appliquer pour
l'explicitation, l'élaboration et en un mot, la théorisation de son sujet.
On appelle théorisation le fait de ne plus seulement esquisser les contours d'une situation ou
des éléments d'un problème, mais de les intégrer et de les articuler avec l'ensemble de leurs
tenants et aboutissants à l'intérieur du corps conceptuel que l'on a retenu comme cadre global
(champ de connaissances) applicable dans sa recherche.
Dans notre exemple, il s'est agi de développer l'ensemble des connaissances théoriques
pouvant éclairer les problèmes d'adaptation de l'homme à ses conditions de travail : le bruit, la
température, les intempéries, l'isolement, la vie en camp... tout ce que la psychologie et la
psychologie sociale avaient à nous apprendre sur ces problèmes et sur ceux liés à
l'absentéisme, le retrait du travail, les retards, l'instabilité...
En général, on met sous la rubrique « revue de la littérature » aussi bien le cadre théorique que
l'état des connaissances. Nous préférons les distinguer, car, dans la pratique, l'état des
connaissances sur le sujet est un chapitre qui doit être réservé à la revue, si possible complète,
exhaustive et critique des travaux spécifiques qui ont été faits sur le problème que l'on veut
traiter (c'est en fait une revue des principales recherches déjà effectuées sur le même sujet).
On doit notamment y indiquer (en partant des travaux les plus généraux vers les plus
particuliers) :
— La méthodologie suivie.
Cette partie est extrêmement importante car elle permet de situer son apport personnel avec
plus de précision, de réunir (pour le bien du chercheur en premier lieu) de façon synthétique
ce qui a été fait de plus pertinent et de plus récent sur le sujet et surtout de pouvoir s'inspirer
(et aussi profiter des erreurs qui ont pu être faites) d'approches et de méthodologies différentes
appliquées à un même problème.
Bien sûr, il ne s'agit nullement de tout recenser ni de tout savoir mais de montrer qu'en
s'engageant dans l'étude d'un problème donné, on n'ignore pas le plus essentiel, le plus
fondamental de ce qui a été déjà fait, en théorie et en recherches appliquées, sur le même
problème ou sur des problèmes similaires.
Voici donc, figuré sous forme de diagramme, ce cycle de recherche : chaque case représente
une étape, un moment d'étude, d'analyse, de préparation, de formulation... d'un des éléments
nécessaires à la conduite du travail. Chacune des flèches reliant une case à une autre
représente toute une série d'arguments, de justifications et de raisonnements explicitant les
enchaînements logiques qui relient entre elles les étapes et conduisent le chercheur
graduellement, mais nécessairement, vers des progrès successifs dans la compréhension et
l'enrichissement du sujet traité. Il faut donc concevoir ces flèches non pas comme des liaisons
successives distinctes mais comme une seule et même chaîne (un fil conducteur) depuis le
départ du problème jusqu'au retour à ce même problème, sans jamais perdre le « contact »,
que ce soit avec l'étape précédente ou avec la suivante.
Le cycle de la recherche
– Sujet – – Formulation –
– Problématique –
Type d’informations
– Revue des écrits – Pré-enquête –
recherchées
sur le sujet –
Préparation et « nettoyage »
des données
Élaboration définitive
Instrument(s) Collecte des données
Modèles
On entend par étapes de recherche, les phases successives concrètes, sophistiquées ou banales,
que doit parcourir le chercheur avant d'espérer aboutir à des résultats acceptables. On
distingue trois types d'étapes dans la recherche :
Il s'agit de l'élément particulier qui a fait germer la pensée de faire une étude, d'approfondir ou
de s'intéresser à quelque chose de précis. Cette idée de recherche peut provenir d'au moins
quatre sources essentielles :
2) Un problème immédiat qui nécessite une solution à plus ou moins court terme (il
s'agit ici du type de problèmes pour lesquels aucune solution toute prête n'est envisageable et
qui requièrent donc une solution originale, particulière, qui doit être découverte).
On peut prendre comme exemple tous les problèmes que peuvent connaître à un moment ou
un autre dans leur fonctionnement, différentes organisations (baisse de productivité,
absentéisme, rotation élevée, engorgement de certains services ...).
En tout état de cause, il faut retenir que l'origine d'une idée de recherche influence
toujours le déroulement futur et les objectifs de celle-ci, dans le sens où tout ce qui sera
entrepris devra contribuer directement ou indirectement à éclairer le problème originel
précis. On ne conduit pas de la même façon une recherche qui a pour but une étude de marché
et une autre qui vise à développer les possibilités théoriques d'application d'un nouveau mode
de gestion...
Après l'idée de recherche, qui est en général une vision assez floue, simple et incomplète ²de
ce que l'on veut étudier (par exemple, dans l'idée de recherche sur les causes d'engorgements
du port de Montréal, il y a une multitude de problèmes et d'aspects particuliers à étudier), il
convient de définir, dans les grandes lignes, les principaux objectifs poursuivis.
Les objectifs principaux (cerner la demande d'un produit, diagnostiquer une situation, corriger
des dysfonctions, tester l'applicabilité d'un système ...) doivent être précisés en termes
d'étendue, de portée, de temps, de moyens, de lieux...
Il s'agit d'expliciter d'où l'on part précisément et où on veut arriver précisément. Quelles sont
les questions qui seront traitées, celles qui ne le seront pas et pourquoi. Quelles sont les
frontières théoriques, méthodologiques, analytiques... que l'on s'impose et pourquoi ? Quelles
sont les limites liées aux moyens disponibles tels que finances, déplacements, enquêtes de
terrains, temps ordinateur... ?
4. Le terrain de la recherche
Le chercheur doit délimiter les critères qui serviront à cerner la ou les populations de l'enquête
(on appelle population le bassin qui contient les éléments sur lesquels porte la recherche, que
ce soit des personnes ou des objets...) et, à l'intérieur de la population, le ou les échantillons
précis qui serviront de base matérielle à l’enquête. La définition préliminaire de ces critères
(qui doivent correspondre aux objectifs poursuivis) aidera le chercheur à vérifier à l'avance, si
oui ou non, avec de tels critères, on a des chances sérieuses de réunir un échantillon
suffisamment grand pour satisfaire aux exigences de rigueur de la recherche.
Dans toute forme de recherche (et surtout celles impliquant un travail de terrain), il y a
toujours un certain nombre de formalités et d'actions préalables à entreprendre pour garantir,
ne serait-ce que sur les plans administratif et juridique, la faisabilité d'une recherche. Ici, il
s'agira de se munir d'un minimum de garanties du genre :
Cette dernière étape permet d'éviter les désagréables surprises de se voir fermer des portes que
l'on croyait naturellement ouvertes... Tout ce qui nécessite le recours à un organisme ou à une
institution, quels qu'ils soient, doit faire l’objet, dès le début, de négociations et
d'engagements fermes, précis et si possible écrits.
Retenons, en conclusion partielle, que les étapes préliminaires d'une recherche constituent un
effort systématique de vérification du bien-fondé général de l'idée de recherche, des buts que
l'on veut atteindre (en gros du moins) et surtout des conditions matérielles et des garanties de
réalisation. Si l'un ou l'autre des aspects de ces étapes préliminaires présente des aléas, des
incertitudes, ou même seulement des doutes, il vaut souvent mieux renoncer que s'engager
dans un processus à demi maîtrisé...
Que de projets grandioses et généreux finissent aux oubliettes à cause d'une attention
insuffisante à ces préambules et précautions qui ne demandent pourtant qu'un peu d'esprit
systématique et quelques efforts d'anticipation sur ce qui peut favoriser ou gêner les grandes
lignes du déroulement de la recherche.
Par formulation opératoire, il faut entendre une formulation dite scientifique du problème
que l’on veut traiter. L'énoncé sous forme de sujet de la recherche ne suffit absolument
pas, il faut véritablement situer son problème dans le cadre d'une théorie réputée
scientifique : Quelles sont les lois en jeu ? Quelles sont les variables ? Les faits ? Quels liens
de causalité objectifs et précis y a-t-il entre les principales variables pour justifier le problème
que l'on veut étudier ? C'est aussi ce que beaucoup d'auteurs appellent la problématique que
nous pourrions (très schématiquement) définir comme étant la précision de l'ensemble des
tenants et aboutissants du problème (ainsi que de la façon de le poser : un même problème ne
sera pas, par exemple, posé de façon identique par un chercheur structuraliste et un chercheur
fonctionnaliste).
Il s'agit d'abord de situer dans un champ de savoir précis le sujet à étudier ainsi que la
manière dont on veut le traiter. Si l'on veut traiter, par exemple, un problème concernant la
demande globale pour un produit stratégique donné, va-t-on se situer et situer le problème
dans le cadre de l'économie classique ? marginaliste ? marxiste ? Va-t-on le traiter selon des
mécanismes liés aux notions de libre circulation de l'information, jeu libre de l'offre et de la
demande, ou au contraire, dans un cadre de référence s'appuyant sur les notions de lutte des
classes, de réalisation de plus-value, de monopoles et de monopsones ? Tout cela doit être
explicité, précisé et argumenté.
Par la suite (et souvent simultanément), il faut faire le point des connaissances sur le sujet :
Où en est-on au moment où on doit enclencher sa recherche dans le savoir général sur son
problème ? Quels sont les résultats des recherches essentielles les plus récentes (autant que
possible) sur le sujet ? Que va-t-on, soi-même, apporter de plus ?
Sachant, à peu près dans le détail, ce que l'on veut montrer ou démontrer, il faut encore
préciser quels genres d'informations seront nécessaires, et où les trouver, les cueillir, pour
répondre aux objectifs de la recherche. Quelle est la nature et quelles sont les garanties de
fiabilité des données qui seront utilisées...
Il faudra préciser quels sont les procédés les plus pertinents à utiliser pour collecter les
données ; spécifier où ces données seront recueillies, quelles sont les garanties de
représentativité de l'échantillon ou du terrain choisi, des sources choisies, quel sera
l'instrument le plus adéquat pour recueillir ces données (l'interview, le questionnaire, un test)
et pourquoi.
Il s'agit, dans cette étape, de s'assurer d'abord que l'instrument fonctionne bien comme on l'a
prévu, et dans le sens des résultats (indicatifs) prévus. Si l'instrument s'avère remplir le rôle
qu'on attendait de lui, sur le terrain prévu, alors on peut lancer l'opération de collecte des
données. C'est ce qu'on appelle la phase de « pré-test et de passation » de l'instrument.
Ce sont les étapes qui consistent à tirer quelque chose des données rassemblées. C'est
proprement la phase de génération d'éléments nouveaux et originaux montrant que l'on a
contribué à améliorer notre connaissance ou notre compréhension quant au problème abordé.
Comme son nom l'indique, cette étape consiste à effectuer un travail de manipulation et de
traitement des données nettoyées. Elle peut consister en toutes formes de calculs,
regroupements, croisements... quantitatifs ou qualitatifs, manuels ou informatisés...
C'est ici que l'on dégagera ce que l'on a découvert par rapport au problème ainsi que les
paramètres statistiques, les indices, les coefficients, les fréquences, les classes... servant à en
spécifier les caractéristiques.
C'est la phase d'inférence, de « mise de signification » dans les résultats obtenus à l'étape
précédente. Il s'agit, selon l'expression plus familière, de faire parler les chiffres, indices,
coefficients... dégagés par l'analyse, et exprimer de façon claire, argumentée, comment ces
résultats constituent un progrès par rapport au point de départ.
4. Les conclusions
C'est l'apport propre, total et original du chercheur qui doit apparaître ici :
- A-t-on ou non confirmé ses hypothèses ? Pourquoi ?
- Qu'a-t-on apporté de plus par rapport à ce qui est déjà connu sur le problème ?
- Jusqu'à quel point a-t-on trouvé réponse aux questions posées au départ ? Pourquoi ?
- Quelles sont les déviations ? Les insuffisances ? Pourquoi ?
- Quelles sont les situations particulières où les résultats se vérifient ? Ne se vérifient
pas ? Pourquoi ?
- Quelles sont les possibilités d'applications théoriques et/ou pratiques ?
Si on est intéressé à étudier le comportement électoral, on passe par des données qui ont été
collectées par quelqu’un d’autre par le biais d’une enquête par sondage soit d’un
questionnaire.
L’enquête par sondage, selon Corbetta, est une manière de recueillir des informations en
interrogeant les individus qui sont les objets de la recherche. Les individus appartiennent à un
échantillon représentatif à travers une procédure standardisée d’interrogations dans le but
d’étudier des relations existantes entre les variables.
L’enquête par sondage se base sur l'interrogation, c’est le fait de poser des questions au gens ;
c’est l’instrument crucial le plus souvent utilisé.
Réponses : standardisées/libres
On peut aussi poser des questions différentes en fonction des sujets qui varient. On pourrait
par exemple poser des questions différentes aux hommes et aux femmes si l’on souhaite
s’intéresser aux différents rôles dans la famille ou la société.
Il est aussi possible d’envisager un type d’interrogation ou l’on pose des questions différentes
à des personnes différentes, car on n’est pas intéressé à standardiser.
En ce qui concerne la standardisation, la formalisation ainsi que la séquence des questions est
la même.
Questions : standardisées/libres
On a aussi une distinction entre les questions standardisées ou libres. On peut faire en sorte
que les réponses soient pareilles pour tout le monde ou laisser un degré de liberté à chacun
quant aux réponses.
Typologie
Ce sont trois types de procédures afin de tester des hypothèses à travers l’interrogation.
Pour ceux qui s’inscrivent dans ce paradigme, il est préférable qu’il y ait différenciation, car
le chercheur doit être séparé du sujet.
Si on observe des comportements, on est sûr qu’on l’ait observé ayant une idée de validité de
ce qui est observé. Il faut mettre en œuvre tout un appareil méthodologique qui permet de
diminuer les sources d’erreurs liées à l’interviewés :
désirabilité sociale des réponses : les individus tendent à répondre d’une manière à
offrir une image positive de soi ou de façon à ne pas heurter la sensibilité de la
personne qui administre la question.
absence d’opinion : lié à la question des « pseudo-opinions ». Lorsqu’on pose des
questions aux individus, si l’on pose la même question à deux individus avec un qui a
déjà réfléchi sur la question et s’est formé une opinion et que l’autre personne est
confrontée pour la première fois à la question, dans ce cas on se forme une opinion sur
le moment qui n’en est peut-être pas une ; dès lors l’absence d’opinion est un
problème fondamental dans les démarches d’interrogations. Si on est dans des
démarches plus qualitatives on a le temps d’interagir avec la personne lui permettant
de se former une opinion et évitant le problème de « pseudo-opinion ».
Substance
Forme
Questions ouvertes
On laisse la liberté de répondre aux personnes interrogées ; elles sont moins standardisées
dans la réponse.
Questions fermées
Ne prévoient pas des modalités de réponses spécifiques, dans les enquêtes par sondage
(questionnaire) cette méthode est plus utilisée, car on peut comparer les réponses puisqu’elles
sont déjà standardisées.
Avantages Désavantages
Il y a un item de réponses style « autre » et on a en même temps la question fermée avec les
modalités de réponses présentées à la personne interviewée. Dans ce cas on flexibilise
l’instrument ; on a la fois la standardisation et on évite l’oublie d’offrir certaines modalités de
réponses qui est une erreur fatale, car on ne peut la réparer. D’autre part en cas de doute cela
permet de laisser une réponse ouverte.
Question « cafeteria »
Renvoie aux questions fermées avec à une liste plus longue de réponses, d’autre part les
modalités de réponses peuvent être unique ou multiples.
La manière dont on pose la question a des répercussions sur la réponse. Aux États-Unis a été
posé la question sur la liberté de parole en ces termes : pensez-vous que les États-Unis
devraient permettre les déclarations publiques contre la démocratie ? Les individus ont
répondu à 75% « non ». Une autre question a été posée : pensez-vous que les États-Unis
devraient interdire les déclarations publiques qui vont contre la démocratie ? Les individus ont
répondu à 54% « oui ».
Le résultat est assez diffèrent tandis que dans la première question ¾ des personnes sont
d’accord pour ne pas laisser les gens proférer des propos contre la démocratie ; pour la même
question posée différemment les individus répondent « oui » à 54%.
Une autre question est : si une situation comme celle du Viêtnam devait se développer dans
une autre partie du monde, pensez-vous que les États-Unis devraient envoyer ou ne pas
envoyer de troupes ? 18% des gens étaient d’accord. La même question a été posée à un autre
groupe, c’est un autre dessin expérimenta par splitage de l’échantillon d’une autre manière :
les États-Unis devraient intervenir ou pas en envoyant des troupes pour arrêter une prise de
pouvoir de la part des communistes ? Dans ce cas, 33% avait dit « oui ». Ainsi la manière de
poser la question est cruciale et change la réponse ; en d’autres termes la manière dont les
questions sont posées peut créer des biais.
simplicité du langage : on construit une question que l’on va donner aux personnes
interviewées, il faut utiliser un langage simple et qui s’adapte à la personne ou au
groupe interviewé.
longueur des questions : il faut essayer de poser des questions courtes.
nombre d’alternatives de réponses : dans le cadre des questions « cafeteria » il faut
essayer de ne pas donner une liste trop longue de réponses, en d’autres termes limiter
le nombre de réponses.
expressions en jargon : lorsqu’on étudie des subcultures, il faut éviter d’utiliser leur
langage.
Batteries de questions
Quand on fait un questionnaire standardisé, il faut passer beaucoup de temps à formuler les
bonnes questions qui vont nous permettre d’obtenir les bonnes données.
Avantages Désavantages
L’enquête par téléphone est une méthode qui assure une rapide collecte des données, c’est
pourquoi c’est la méthode la plus populaire.
Avantages Désavantages
Avantages Désavantages
Nota bene : la forme la plus rependue est le questionnaire postal. Un examen est un
questionnaire auto administré avec une contrainte de restitution.
Questionnaire online
C’est une modalité qui devient de plus en plus importante, mais qui est critiquée, car il y a un
problème de couverture lié à un problème de représentativité de l’échantillon.
Le taux de pénétration d’internet est tellement élevé en occident notamment ce qui justifie que
la population est suffisamment bien couverte.
D’autre part les autres types d’administration de questionnaires disposent d’autant de biais
que les questionnaires onlines.
Étude exploratoire
C’est une étape très importante dans l’approche quantitative et dans le cadre d’une enquête
par sondage ne serait-ce que pour bien définir des modalités de réponses à mettre dans le
questionnaire.
Il n’est jamais aisé de définir les questions essentielles, c’est pourquoi il faut procéder à des
entretiens qualitatifs qui permettent de dégager quelles sont les réponses possibles des
personnes et ceci est d’autant plus important si le sujet n’a pas été exploré auparavant.
Prétest
C’est le fait de tester le questionnaire avant de l'utiliser dans la recherche. L’échantillon doit
être semblable à la population étudiée.
Préparation des interviewers, il faut avoir une bonne préparation et une bonne supervision.
Contact initial
Il est nécessaire d’avoir une présentation soignée afin de maintenir la concentration et l’intérêt
de la personne qui y répond.
Échantillonnage
On procède par échantillonnage plutôt que d’étudier toute une population dans son ensemble
ce qui permet de faire des inférences sur l’ensemble de la population.
Définition
Selon Corbetta, l’échantillonnage est une procédure à travers laquelle on extrait à partir d’un
ensemble d’unités qui constituent l’objet de l’étude en un nombre réduit de cas appelés
« échantillon » choisit avec ou selon des critères qui permettent la généralisation à l’ensemble
de la population des résultats obtenus sur l’échantillon.
L'enquête par sondage se fait sur une population. On sélectionne un certain nombre de
personnes à partir d'une population que l’on souhaite étudier. Dès lors on sélectionne en
fonction d’un certain nombre de critères. Pour cela il faut pouvoir inférer les résultats.
Avantages Désavantages
Ce sont différents types d’extractions d’une « population mère » qui sont différentes ; la
grande distinction est entre les échantillons probabilistes et non-probabilistes.
probabiliste
C’est un échantillon ou chaque unité est extraite avec une probabilité connue, on connait la
probabilité que chaque individu de la population a d'être sélectionné. La probabilité est
différente de 0.
Cela présente un avantage majeur puisqu’on peut calculer la marge d’erreur. Si on infère et
généralise des résultats que l’on trouve dans l’échantillon d’une population, il y a une certaine
marge d'erreur, avec l’échantillon probabiliste on peut calculer la marge d'erreur. Comme il
est difficile de remplir tous les critères, on choisit parfois l’échantillonnage non-probabiliste.
aléatoire simple
Toutes les unités de la population ont la même probabilité d'être incluses dans l'échantillon.
En d’autres termes, chaque personne à la même probabilité de tomber dans l’échantillon. À
partir de la liste complète, on extrait par tirage au sort ; on s’appuie sur la loi des grands
nombres et on peut démontrer statistiquement que si on extrait de manière aléatoire ces
personnes seront représentatives de la population.
La liste est incomplète, on tire systématiquement tous les individus ; par exemple, sur une
liste d’individus on tire tous les dix individus.
stratifié
L'idée est la même que l’échantillonnage aléatoire simple, mais on subdivise d'abord la
population en diverses strates puis on choisit en fonction de ce qu'on veut étudier (exemple :
classes sociales). Avec des échantillons simples à l'intérieur de chaque strate, la marge
d'erreur procédant ainsi est minimisée en comparaison aux autres manières de tirer en général,
ainsi la population est plus homogénéisée.
Toutefois, on peut faire des erreurs d’échantillonnage ou encore avoir un problème de non-
réponse.
En allant plus loin, on peut utiliser l’intervalle de confiance, on peut dire que les 30% trouvés
dans l’échantillon sont représentatifs de la population en fonction d’une marge d’erreur si on
veut l’inférer dans la population ; on ne peut pas dire que 30 % de la population suisse, mais
on peut dire qu’entre 30 – 33 et 27% fument ; il y a un intervalle dans lequel on va trouver la
vraie valeur de la population à partir de la valeur observée dans la population.
Il y a une notion liée à l’intervalle et une notion la confiance en cet intervalle. Si le revenu
moyen de la population de Genève est de 5000.- on peut dire que dans la population il va se
trouver entre 4500 et 5500 avec une probabilité de 95% que le paramètre va se trouver dans
cet intervalle. À partir d’une estimation faite dans l’échantillon, on va trouver la valeur dans la
population avec une certaine marge d’erreur et un niveau de confiance.
Échantillons non-probabilistes
par quota : même logique que pour la stratification, la différence est que dans les
quotas on ne choisit pas les sujets de façon aléatoire.
dessin factoriel
« boule de neige »
sondage téléphonique
sondage de convenance
1. N, Taille : plus l'échantillon est grand, plus la marge d'erreur est petite ; inversement
proportionnel.
2. S, Écart-type (tendance centrale en fonction de l’hétérogénéité) : dispersion du
paramètre que l’on souhaite estimer ; plus il est élevé, plus la marge d'erreur est
importante cependant ce n’est pas très important s’il y a beaucoup d'échantillons. On
parle de variabilité des paramètres, en d’autres termes c’est un indicateur de
l’homogénéité ou de l’hétérogénéité de l’échantillon. Ce qui est important est que la
marge d’erreur dépend de manière proportionnelle de l’hétérogénéité de l’échantillon,
mais surtout il dépend d’une manière inversement proportionnelle de la taille de
l’échantillon, plus l’échantillon est grand plus la marge d’erreur est petite.
3. Z, Niveau de confiance de l'estimation : c’est un intervalle de confiance, on ne peut
pas savoir la vraie valeur, mais il est possible de s’en approcher. En d’autres termes
c’est le degré de certitude qu'on accepte quand on fait une inférence. Ainsi cela
représente l’intervalle de confiance, on peut montrer que pour un certain niveau de
confiance, par exemple pour 95% la confiance est de 1,96, pour un seuil de confiance
de 99%, z=2,58. Dans le cas d’un seuil de confiance de 95% cela signifie qu’on a 5%
de se tromper.
4. f, s’applique dans le cas de population très petite, c’est un facteur de correction entre
la taille d'échantillon et la population, c’est la division de la taille de l’échantillon par
rapport à la taille de la population. Si la fraction s’approche de zéro, le facteur est
négligeable. De manière plus pratique, on peut dire que dans n’importe quel sondage
l’échantillon est toujours beaucoup plus petit que la population alors que les
échantillons dépassent rarement 10000 personnes ce qui fait qu’on peut généralement
oublier ce facteur. D’autre part si la différence entre l’échantillon et la population est
très petite alors on ne fait pas d’échantillonnage et on interroge tout le monde.
de la taille de l’échantillon.
du degré d’hétérogénéité du paramètre.
du niveau de confiance que nous sommes disposés à concéder dans l’inférence
statistique.
P et Q sont des proportions dans l'échantillon de paramètre que nous voulons expliquer.
Au fond, afin de calculer la marge d’erreur on doit tenir compte en particulier de la taille de
l’échantillon. C’est quelque chose qui peut paraitre surprenante, la taille de la « population
mère » n’apparaît pas dans le calcul de la formule de l’erreur d’échantillonnage. Autrement
dit un échantillon de 1000 personnes sur une population de 50000 personnes donne lieu à la
même marge d’erreur qu’un échantillon de 1000 personnes sur une population de 350 millions
d’habitants. La taille de l’échantillon donne la même marge d’erreur si on fait un échantillon
sur la population des Eaux-Vives ou de la population de l’Australie.
Exemple
n X S
n : 1000
x : 1253000
S: 311000
e : 1,96 pour 5% (seuil standard en sciences sociales)
18700 est l’erreur d’échantillonnage calculée pour un échantillon de 1000 personnes tirées sur
une population de 10000 personnes. C’est une marge d’erreur pour un estimateur de la
moyenne avec une variabilité qui est calculable et on va trouver une marge d’erreur de 18700.
On interprète 18700 en « plus ou moins » () ; si dans l’échantillon on a trouvé que le revenu
moyen est de 1253000, dans la population on peut être sûr de se tromper à 5% si on dit que
dans la population le revenu moyen est de 1253000 18700 soit
n : 100
x: 1250000
S: 308000
e : 1,96 pour 5% (seuil standard en sciences sociales)
Nota bene : lorsque les proportions sont différentes, la marge d’erreur est plus petite.
Le tableau suivant montre la taille de l’échantillon pour un échantillon aléatoire simple qui est
nécessaire pour une certaine précision de la mesure. Plus l’intervalle de confiance est étroit,
plus on a une mesure précise, mais il faut à nouveau tenir compte du niveau de confiance.
Si on veut une précision de l’estimateur de 5%, pour une population de 1000 personnes on a
besoin d’une population de 285 personnes, etc.
On voit entre autres que pour une population de 50000 personnes ou plus nécessite une
population de 2500 personnes afin d’avoir une estimation précise.
Toutefois il y a un problème. Parfois voire même souvent ce n’est pas possible d’avoir un
échantillon probabiliste. Souvent l’échantillonnage aléatoire simple n’est pas applicable, car
on ne dispose pas de la liste complète des personnes.
Dans ces cas on ne peut procéder à ces types de calculs, alors on procède à d’autres types
d’échantillons :
On prend une personne à des intervalles réguliers et on peut démontrer que cela se rapproche
d’un échantillon probabilité soit d’un échantillon aléatoire. Un exemple est les « exits polls »,
on rencontre les individus qui sortent des urnes en interviewant toutes les 20 personnes. Un
échantillon systématique a la même propriété qu’un échantillon probabiliste, car chaque
personne a la même probabilité de rentrer dans l’échantillon.
échantillon starifié
On a subdivisé la population préalablement pour une raison précise parce qu’on veut diminuer
l’hétérogénéité de la population, plus c’est hétérogène plus la marge d’erreur est diminuée.
Dans l’échantillon stratifié on prend une variable qui nous intéresse dont les proportions sont
dans la population sont connues et on tire des échantillons aléatoires à l’intérieur de chaque
catégorie selon ces variables. On a un écart type plus faible et une marge d’erreur plus petite,
combinée à un échantillon on démontre que la marge d’erreur globale est inférieure que
lorsqu’on tire des individus indifféremment.
échantillons non-probabilistes
Selon Corbetta, un échantillon non-probabiliste est un échantillon qui ne se base pas sur le
nombre d’individus ; le plus connu est l’échantillon par quota : à l’intérieur de chaque strate,
on choisit un certain nombre de personnes qui vont composer l’échantillon. Si on sait que
dans la population que l’on veut étudier il y a 60% de femmes et 40% d’homme, on va faire
en sorte qu’il y ait la même proportion dans l’échantillon. On va choisir selon les critères que
l’on veut, mais en respectant le quota soit la proportion dans l’échantillon.
Cet échantillon devient de plus en plus fréquent, car il est moins cher et moins laborieux, mais
a le désavantage de ne pas pouvoir calculer la marge d’erreur.
Nota bene : cette chronologie n’est pas unidirectionnelle. Par exemple la formulation de la
problématique peut mettre en évidence des carences et susciter de nouvelles recherches pour
l’affiner.
3.1. Le positivisme
Le positivisme scientifique d'Auguste Comte s'en tient donc aux relations entre les
phénomènes et ne cherche pas à connaître leur nature intrinsèque : il met l'accent sur les lois
scientifiques et refuse la recherche des causes premières.
Auguste Comte construit une philosophie des sciences qui part des mathématiques pour aller
jusqu'à la sociologie et la science politique, ainsi qu'une philosophie de l'histoire qui conçoit
le processus historique comme une avancée vers davantage de rationalité scientifique
(« positive ») et moins de théologie et de spéculation métaphysique sur les réalités
transcendantes (« la loi des trois états »).
Après la mort de Comte, en 1857, le courant fut bientôt en proie à de nombreuses tensions
internes ; cependant, le positivisme a marqué de nombreux domaines de la pensée du
XIXe siècle, exerçant une influence entre autres sur la médecine, l'empirisme logique, et sur
divers courants qui ne sont pas tous liés entre eux (comme le positivisme juridique, certains
courants anglais qui dérivent de l'altruisme comtien, ou encore le néopositivisme
contemporain).
La philosophie positive est l’ensemble du savoir humain, disposé suivant un certain ordre
qui permet d’en saisir les connexions et l’unité et d’en tirer les directions générales pour
chaque partie comme pour le tout. Elle se distingue de la philosophie théologique et de la
philosophie métaphysique en ce qu’elle est d’une même nature que les sciences dont elle
procède, tandis que la théologie et la métaphysique sont d’une autre nature et ne peuvent ni
guider les sciences ni en être guidées ; les sciences, la théologie et la métaphysique n’ont
point entre elles de nature commune. Cette nature commune n’existe qu’entre la philosophie
positive et les sciences.
Mais comment définirons-nous le savoir humain ? Nous le définirons par l’étude des forces
qui appartiennent à la matière, et des conditions ou lois qui régissent ces forces. Nous ne
connaissons que la matière et ses forces ou propriétés ; nous ne connaissons ni matière sans
propriétés ou propriétés sans matière. Quand nous avons découvert un fait général dans
quelques-unes de ces forces ou propriétés, nous disons que nous sommes en possession
d’une loi, et cette loi devient aussitôt pour nous une puissance mentale et une puissance
matérielle ; une puissance mentale, car elle se transforme dans l’esprit en instrument de
Selon Weber, le monde social est une agrégation d’actions sociales, qui représentent des
comportements humains auxquels l’acteur attribue un sens subjectif. Ces actions sont guidées
par les intentions et attentes de l’acteur. La dimension sociale d’une action implique qu’un
comportement doit être orienté vers un ou plusieurs autres individus. Par exemple, une
discussion entre amis est une action sociale, en revanche, une collision entre deux cyclistes ne
l’est pas car les individus ne se sont pas dirigés volontairement l’un vers l’autre.
Phase compréhensive
Phase interprétative
Une fois le sens identifié, le chercheur passe donc à la phase dite interprétative. Il s’agit alors
d’objectiver le sens identifié dans la première phase. On adopte alors une posture
extérieure dans le but de pouvoir créer des concepts ou modèles utiles à l’analyse. Il s’agit
là d’une tâche difficile, à cause de l’implication du chercheur dans le monde qu’il étudie.
Weber a donc élaboré des outils théoriques permettant au chercheur de se distancier de son
objet d’étude et d’avoir un regard plus extérieur.
Le premier de ces outils est le rapport aux valeurs: il consiste à faire prendre conscience au
chercheur qu’il est lui-même inséré dans le monde social. Après cette prise de conscience, il
s’agit pour lui d’analyser la subjectivité de ses propres choix, de ses partis pris ainsi que de
ses valeurs, pour tendre vers plus d’objectivité. Une fois conscient de ses propre valeurs, le
chercheur fait appel à la neutralité axiologique (second outil de distanciation), qui consiste
à ne pas émettre de jugement ni de hiérarchisation des valeurs.
Dès que l’extériorisation est effectuée grâce à ces deux outils de distanciation, le chercheur va
pouvoir élaborer des concepts tirés de ses observations. Néanmoins, ces observations étant
issues du monde social, lui-même composé d’une infinité de faits, elles sont donc d’une
complexité difficilement déchiffrable. Weber recourt donc à un autre principe
méthodologique, l’idéal-type, pour faciliter la lecture du réel. Il s’agit alors de concevoir des
catégories d’analyse isolant les traits les plus fondamentaux, distinctifs et significatifs d’un
phénomène social. Attention, il ne s’agit pas de faire des moyennes ; mais bel et bien d’une
Par exemple, dans ses travaux sur la formation de l’Etat, Weber cherche à expliquer le rôle
de la domination de l’Etat sur ses « sujets » grâce à son outil bureaucratique. Pour
expliquer cela, il définit trois idéaux-types de domination:
Phase explicative
Cette étape peut être illustrée par l’ouvrage « L’éthique protestante et l’esprit du capitalisme
», où Weber établit un lien entre deux phénomènes: le développement de valeurs protestantes
liées à la Réforme et l’avènement du capitalisme. Ainsi, la Réforme aurait permis le
développement de certains comportements liés à l’accumulation de l’argent et peu présents
dans l’environnement catholique (celui-ci valorisait plutôt la dépense, la pauvreté, l’aumône
et non le travail). Une nouvelle conception du travail naît alors et comprend des
comportements de type plus disciplinaire et ascétique. Ceci cause une valorisation de
mécanismes permettant l’accumulation de l’argent, comme l’épargne ou l’investissement,
encore peu présents dans la vision catholique dominante de cette époque. Weber établit alors
un lien entre ces deux phénomènes, mais nous met cependant en garde contre une explication
seule et unique d’un phénomène. En effet, pour définir le lien entre ces deux phénomènes, il
parle « d’affinité élective », c’est-à-dire qu’il existe des circonstances favorables pour que
l’éthique protestante engendre le capitalisme, mais qu’il ne s’agit pas « d’une cause suffisante
et nécessaire » (Delas & Milly, 2005, p.165).
Paru en deux parties en 1904 et 1905, cet ouvrage est l’un des plus importants de la
sociologie moderne. Weber y montre que la Réforme a été importante pour le développement
du capitalisme. Dans une première partie, il constate à l’aide de statistiques que les
protestants sont surreprésentés dans les classes entrepreneuriales. Il fait l’hypothèse que la
mentalité calviniste influence la carrière professionnelle, et construit un idéal-type de l’esprit
capitaliste. Dans le second chapitre, il montre que cet esprit capitaliste est bien lié à l’essor
des valeurs protestantes comme le travail et l’ascèse. Cet ouvrage sera traduit en anglais par
un des fondateurs du fonctionnalisme, Talcott Parsons.
Cet ouvrage posthume est publié en plusieurs volumes entre 1921 et 1922, par sa femme et
son éditeur. Il s’agit d’un essai qui recueille divers écrits de la sociologie de Max Weber
rédigé tout au long de sa vie, formant ainsi une large synthèse de son oeuvre. Il aborde les
thèmes économique et sociétal à travers les principaux concepts et notions développés par
Weber, tels que les différents types d’action, le concept d’idéal-type, les formes de
domination, la bureaucratie ou encore la rationalisation des conduites.
Références
Delas, J.-P., & Milly, B. (2005). Histoire des pensées sociologiques. Paris: Armand Colin.
2.3. Le Fonctionnalisme
Théorie d’origine anthropologique, le fonctionnalisme a été récupéré et
atténué en sociologie par R.K. Merton. Il admet que des usages peuvent être, dans la même
société, fonctionnels pour certains groupes mais pas pour d’autres. Pour expliquer les
survivances, il propose la distinction entre fonction-manifeste : activité adaptée à un but
officiellement reconnu comme aller à la messe pour prier et une fonction latente : activité dont
l’efficacité s’est déplacée. La cérémonie n’est plus qu’une tradition ayant pour fonction
souvent inconsciente, le maintien de lien de la communauté.
Le fonctionnalisme est ainsi considéré comme une analyse de systèmes auto-
régulateurs. Les éléments du système se modifient en fonction de menace contre l’équilibre de
l’ensemble pour le maintenir.
Elias NORBERT
L’homme est fondamentalement social et donc il est contraint par l’ordre invisible. L’ordre de
cette vie sociale que l’on ne perçoit pas directement avec ses sens, n’offre à l’individu qu’une
gamme très restreinte de comportements et de fonctions possibles. Le caractère d’être humain,
en premier lieu, le contrôle de la conscience et la personnalité individuelle prend sa forme
spécifique en relation avec les autres et au travers de relation avec eux.
Il faut faire un certain nombre de choix quand on fait une recherche. Le chercheur doit faire
cinq choix :
Paradigme
C’est un concept qui provient de Thomas Kuhn. Il essaie de développer une théorie sur la
science, sur la base de la notion de paradigme, c’est-à-dire sur la manière dont la société se
développe à partir d’un paradigme. C’est une perspective théorique qui est partagée et
reconnue par la communauté des chercheurs d'une discipline, qui est fondée sur des
acquis précédents de la discipline et qui oriente la recherche en termes de choix des faits à
étudier, de l'objet, de la formulation des hypothèses et de la mise en place méthodologie des
outils de recherche scientifique.
Cela est lié à la formulation d’une théorie, mais de façon plus générale, c'est la manière de se
rapprocher d’une théorie sociale qui permet de définir les outils théoriques et
méthodologiques à utiliser pour promouvoir sa théorie.
Il y a une coexistence de paradigmes qui s’opposent entre eux pouvant être caractérisés de
manières différentes. Les paradigmes caractérisent la recherche en science sociale, les choix
méthodologiques découlent du choix de paradigme dans lequel on s’inscrit.
Une théorie au sens général du terme et la méthodologie sont intiment liées, on ne peut penser
à l’une sans l’autre. Ces paradigmes se trouvent dans le pôle théorique dont on dénombre
quatre paradigmes :
positiviste ;
compréhension ;
fonctionnaliste ;
structuraliste.
Ontologie
Selon Charles Tilly, il y a quatre « ontologies », c’est-à-dire des manières à travers lesquelles
les chercheurs ont abordé le phénomène à expliquer, de concevoir et d’élaborer la science soit
concevoir et élaborer la réalité :
Traditions sociologiques
1. tradition du conflit : c'est à travers l'analyse de conflits qu'on peut expliquer les
phénomènes sociaux. La société est par essence conflictuelle, les théories de Marx
sont des exemples célèbres.
2. tradition utilitariste-rationaliste : les êtres humains sont rationnels.
3. tradition holiste : « durkheimienne ».
4. micro-interactionniste : il faut analyser les interactions au niveau microrelationnel.
Quand on parle de méthode, on ne peut pas faire d‘abstractions, les réflexions ne concernent
pas seulement la théorie ; il faut penser aux paradigmes, aux manières de concevoir la société,
mais en même temps, il y a diverses formes afin de comprendre les approches.
Réalisme (critique)
La société existe, on peut l'observer, Constructivisme / relativisme
mais elle ne peut être connue que de La réalité n'existe pas en tant que fait objectif,
manière probabilistique, l'observation mais elle est construite ; la réalité n’existe pas
dépend de la théorie elle-même (post-). en tant que tel, c’est une construction sociale.
La réalité sociale est objective La réalité est construite
et objectivable Chacun a sa propre réalité sociale dans sa tête.
C’est la position positiviste, on cherche Le monde qu'on peut connaître c'est celui qui
juste à connaître la position, la définition est construit par le sens que les gens donnent
ontologique que les deux paradigmes au monde.
donnent.
Question épistémologique
Est-ce que si la réalité existe, elle est connaissable ? - Épistémologie : manières de connaître.
Dans un cadre on vise à expliquer les phénomènes et dans l’autre à les comprendre. Les
méthodes de collecte et d’analyse de données vont évidemment être différentes.
Question méthodologique
Comment est-ce que la réalité peut être elle connue ? - Méthodologie : quels sont les outils ?
Expérimentale-manipulative
On veut manipuler tous les facteurs Interaction emphatique entre le
explicatifs. Le chercheur intervient sur la chercheur et l'objet d'étude
réalité à travers l’expérience en essayant La motivation est de mieux comprendre la
d’arriver aux objectifs d’explication et de motivation profonde des acteurs à se
généralisation d’une loi. comporter plus d’une telle façon qu’une
Observation autre.
La réalité peut être observée de l'extérieur. Interprétation
Méthode hypothético-déductive Il s'agit d'interpréter les faits observés.
On a des hypothèses, on part d'une théorie, Méthode inductive
et on essaie de les tester avec l'observation On essaie de partir de la réalité pour
de la réalité objective. On part des idées générer des théories, à la fin on veut arriver
pour ensuite les tester afin de trouver une à une théorie. On part de l’empirique pour
confirmation ou une vérification empirique essayer de générer des théories. On part des
des idées sur le terrain. sujets pour remonter vers une théorie,
Techniques quantitatives c’est-à-dire générer une théorie.
Comme on vise une généralisation, on Techniques qualitatives
privilégie ces méthodes au sens technique. On privilégie les techniques qualitatives.
Analyses par variables Analyses par sujets
La réalité sociale est analysée par des L'unité d'analyse, ce sont des individus, le
variables. Par exemple on s'intéresse de terme sujet devient important. On
savoir si l'origine sociale influence ceux qui s’intéresse à un ensemble de
sont plus attentifs au cours. Ce qui intéresse caractéristiques c’est-à-dire à l’ensemble
le chercheur ne sont pas les individus, mais de l’individu.
la variable.
À partir de ces deux paradigmes découlent deux manières de faire de la recherche en sciences
sociales qui sont des radicalisations de ces positions :
recherche quantitative
recherche qualitative
Recherche quantitative et recherche qualitative
L'École de Chicago va produire des études systématisées avec les premiers efforts d'étudier
d'une manière quantitative les phénomènes sociaux sans pour autant mettre de côté les études
qualitatives. Dans la même université, on rencontre deux écoles. Dans les années 1940 –
1950, il y a une domination de la recherche quantitative notamment avec l'utilisation des
sondages dans le cadre des élections. Dans les années 1960, aux États-Unis, il y a une
résurgence de l'approche qualitative avec un retour de la perspective qualitative en produisant
des analyses historiques.
Approche générale
Relations ouvertes et
plus interactives
Il n y'a pas l'idée qu'il faille
d'abord avoir une hypothèse,
Relations structurées on peut d'abord commencer
Suivent des phases logiquement par le terrain. Il y a un degré
séquentielles (certains phases de structuration inférieur.
doivent arriver avant que des C’est une approche plus
autres). ex. Il faut d'abord avoir ouverte et interactive, ce ne
une hypothèse pour après la sont pas des moments
Relation théorie tester. L’important est le degré distincts. Tout le processus
– et le processus de structuration. C’est la mise en est beaucoup plus flexible.
de recherche forme de la recherche. On a un Induction
dessin de recherche fortement La théorie émerge de
structuré avec des phases l’observation, mais pas
séquentielles. nécessairement tout le temps,
Déduction car cette approche est plus
La théorie précède l’observation souple. Les deux phases
selon une logique linéaire. peuvent se succéder l’une
après l’autre dans une logique
plus cyclique. C’est un va-et-
vient entre la théorie et
l’empirie.
Orientatifs
Concepts orientatifs, ils sont
ouverts, en construction, la
Opérationnalisés relation entre théorie
Ils sont opérationnalisés, recherche est interactive,
permettent de passer du niveau donc les concepts aussi. Ils
Concepts théorique au niveau empirique ; doivent donner une direction
ils permettent de traduire à l’analyse et peuvent se
empiriquement des concepts modifier au cours de la
théoriques. recherche. Ils sont en
construction permettant une
meilleure définition du
concept.
Identification
empathique dans la
perspective de
l’objet étudié
Observation scientifique On essaie de se mettre dans la
Interaction Détachée et neutre. Aspect veste des gens de qui nous
psychologique axiologique, on essaie de voulons expliquer les
chercheur – neutraliser nos valeurs pour voir comportements. On recherche
objet d’étude cette distance d'interaction, je ne une identification empathique
fais pas partie de « cette » réalité. dans la perspective de l’objet
étudié. Cela permet de
comprendre les actions des
autres à travers une
identification empathique.
Proximité, contact
Interaction Distance, séparation C'est beaucoup plus rare
physique Le chercheur qui fait l'analyse ne qu'un chercheur essaie
chercheur – doit pas être celui qui fait la d’analyser des données
objet d’étude collecte des données. produites par quelqu’un
d'autre.
Variable (variable
oriented analysis) Individu (variable
Analyse par variables et oriented analysis)
Objet de impersonnelle. L’unité Il est au centre de l’analyse,
l’analyse d’analyse principale est c’est une approche holiste. On
l’individu, mais avant tout les veut capturer et saisir les
caractéristiques de ces individus dans leur ensemble.
différents individus.
Expliquer la variation
Comprendre les objets
des variables
Objectif de Traitement des données, c’est
0n recherche des corrélations
l’analyse un paradigme de la
entre variables, ce sont des
compréhension.
covariations.
Résultats
Corrélations
Classifications et
On cherche à établir des
typologies, types idéaux
modèles causaux, lois. ex. il
(Max Weber)
est plus probable que ceux
C'est une représentation
qui ont un niveau
schématique de la société qui nous
universitaire élevé participent
permet d'aller au-delà du cadre
à la politique. Ils ont comme
Généralisations spécifique étudié. Ils ne veulent
objectif prioritaire de
pas nécessairement généraliser
généraliser.
leurs résultats.
Logique de la
Logique de classification
causalité
L’idée est de garder l’entièreté de
On va parler de causes, on va
leurs caractéristiques dans une
rechercher des relations cause
logique de la classification.
- effet.
Généralité
On veut inférer le résultat à Spécificité
Portée des un ensemble plus large que On tend à la spécificité c’est-à-
résultats l’on peut caractérisé de dire qu’on tend vers une
nomothétique c’est-à-dire que description idiographique.
l’on recherche des lois.
Souvent lorsque l’on parle de méthode, presque toujours, on discute des différentes approches
et presque systématiquement on se retrouve sur des oppositions entre professionnels. Bien
qu’ici ces deux approches soient traitées comme étant distinctes, il ne faut pas sortir avec une
idée figée des deux démarches, car il y a aussi certaines caractéristiques qui appartiennent à la
fois à l’une et à l’autre ou à l’autre ou à l’une.
Une recherche a été faite sur l’engagement individuel dans les mouvements sociaux en
essayant d’expliquer pourquoi les individus participent aux mouvements sociaux.
pourquoi les gens vont dans des mouvements sociaux ? quels sont les facteurs
explicatifs ? idée de la démarche quantitative
quels sont les processus et les mécanismes qui font que les gens s’engagent dans les
mouvements ? comment s’engage-t-on ? idée de la démarche qualitative
Cela a permis la construction d’un cadre théorique qui permet de formuler des hypothèses.
L’analyse stratégique étudie les relations de pouvoir dans l’organisation. C’est d’abord
reconnaître qu’il y a coopération entre les acteurs, c’est –à- dire que l’action collective repose
sur un minimum d’intégration. Et alors l’organisation n’est pas un donné naturel mais un
construit d’actions collectives, lequel ne détermine pas totalement le comportement des
acteurs. S’il y a contraintes, il y a place aussi pour des zones d’incertitudes. C’est dans ces
jeux structurés que les acteurs choisiront une stratégie gagnante parmi une pluralité de
possibles.
L’analyse stratégie rejette toute idée de déterminisme structurel ou social. Il n’y a pas de
systèmes sociaux entièrement réglés ou contrôlés. Les acteurs individuels ou collectifs qui
les composent ne peuvent jamais être réduits à des actions abstraites et désincarnées. Ce sont
des acteurs à part entière qui, à l’intérieur des contraintes souvent très lourdes que leur
impose le système disposant d’une marge de liberté qu’ils utilisent de façon stratégique dans
leurs interactions avec les autres. La persistance de cette liberté défait les réglages les plus
savants.
A partir de cette liberté et des sources d’incertitude que chaque acteur s’attache à accroître,
l’analyse stratégique conclut au caractère toujours contingent du résultat des interactions et de
tout construit social. Après avoir critiqué le rationalisme des sciences de l’organisation et la
phénoménologie de l’interactionnisme goffenanien et ethno-méthodologique.
Le vocabulaire scientifique
Dans ce vocabulaire, on peut distinguer, au minimum :
A– Le fait.
B– La loi.
C– La théorie.
D– Le concept.
E– Le modèle.
A – Le fait scientifique 9
9
Il faut avertir le lecteur que nous nous plaçons dans un cadre très général, encore une fois dans un but de
simple initiation. La difficulté fait observable/construit doit renvoyer à la différence entre donnée brute et
donnée insérée dans un système d'explication préétabli (champ disciplinaire du chercheur). Nous n'entrons pas
non plus dans les problèmes (importants) de distinction entre nature du fait en sciences de la nature et nature
du fait en sciences humaines... Ce sera l'objet de la seconde partie du présent ouvrage.
Si on étudie par exemple le comportement d'achat d'un produit donné par une catégorie de
personnes donnée, chaque acte observable entrant dans ce comportement sera un fait.
Cependant, un fait n'est pas identique pour toutes les sciences. Il n'est pas porteur de
signification univoque et universelle. On dit que le fait brut n'existe pas ; mais qu'il est
construit dans le cadre de la science ou de la théorie qui sert de référence à l'observateur.
Ainsi, on peut dire que le même fait (ou ensemble de faits) « achat d'une automobile » aura un
sens différent selon qu'on l'étudie dans un cadre économique, sociologique ou
psychanalytique ... Le fait doit être placé dans une chaîne de causalité propre à une discipline
donnée pour être construit. Cette discipline et les théories qui la constituent doivent être
présentées et servir de cadre de signification déjà dans les phases d'observation et de réunion
des faits à analyser.
B – La loi scientifique
C'est la mise en relation causale (en explicitant les liens de cause à effet) des faits observés et
analysés, et la généralisation (à l'aide de méthodes et de preuves) de ces relations à toutes
sortes de situations équivalentes. Par exemple, la loi de l'offre et de la demande exprime des
relations causales entre les faits liés aux actes de vente et d'achat de produits, les quantités et
les prix ... De même, elle généralise ces relations qui sont alors réputées pouvoir se vérifier
dans toutes situations équivalentes, en tout lieu.
C – La théorie
La théorie est la réunion d'un ensemble de lois concernant un phénomène donné en un corps
explicatif global et synthétique. Par exemple, l'ensemble des lois newtoniennes sur la
mécanique constitue la théorie mécanique classique. L'ensemble des lois du marché, offre-
demande, rareté, avantages comparatifs, profit ... constitue la théorie économique classique.
Les lois de fonctionnement du psychisme inconscient forment la théorie psychanalytique et
ainsi de suite ...
D – Le concept
Les concepts sont à la théorie ce que les faits sont à la réalité : ce sont les unités non
décomposables (ou composées d'éléments simples précis et bien connus) sur lesquelles
s'articule la théorie. Ce sont des termes qui ont un sens construit complet et univoque dans le
cadre d'un champ scientifique ou d'une théorie donnée. Par exemple, la science économique
se base sur les concepts de marché, surplus, échange, revenu, valeur, prix ... qui ont un sens
précis et arrêté. De même, la psychanalyse se base sur les concepts de refoulement,
inconscient, conflit, libido ... Il convient cependant de bien noter que ces concepts presque
absolus, dont nous venons de donner quelques exemples, peuvent et doivent voir leur sens
précisé, rétréci ou élargi ... dans le cadre de travaux spécifiques sur des situations déterminées.
Ainsi, il faut distinguer plusieurs niveaux de concepts (Althusser, 1972 ; Tremblay, 1968) :
— Concept abstrait-général : concept tel que cité plus haut et qui constitue le corps
de théories générales (ex. : économie classique).
Dans tout travail réputé scientifique, il importe que les concepts utilisés soient clairement
définis et placés avec précision dans le cadre d'une théorie précise. Par exemple, les concepts
de marché, produit, valeur, salaire... en économie n'ont pas du tout le même sens ni les mêmes
contenus selon qu'on se place dans le cadre de la théorie classique, ou dans celui de la théorie
substantiviste, ou encore dans celui de l'économie marxiste.
E – Le modèle
Un modèle est une représentation figurée d'une réalité. Cela peut aller de la maquette à la
formalisation mathématique d'un comportement humain. En sciences humaines, cette
représentation s'effectue à l'aide des invariants mis en évidence à partir de l'observation et de
l'analyse des faits qui ont permis de dégager des lois et des théories. Sur un grand nombre de
faits, des constantes sont isolées, généralisées puis modélisées. Par exemple, on peut
construire un modèle du comportement d'achat du consommateur moyen en observant,
analysant et isolant les principaux éléments ou actes qui se retrouvent dans la majorité des
comportements observés au sein d'un échantillon déterminé de consommateurs.
Toute recherche scientifique doit en principe aboutir à modéliser ce qu'elle a pris comme objet
d'étude. Le principe directeur qui peut y mener, c'est ce qu'on appelle la méthode.
L’étude de cas est une méthode utilisée dans les études qualitatives en sciences humaines et
sociales, en psychologie ou en psychanalyse, mais elle peut être utilisée dans les études pour
se pencher sur un cas en particulier. Elle vise l'étude approfondie d'un cas spécifié, qu'il soit
une personne, un groupe ou un sujet spécifique.
En effet, l’étude de cas compte parmi les rares démarches de recherche qui conjugue
l’observation directe (participante ou non) et différentes sources documentaires
relatives aux pratiques et aux discours pertinents à l’objet d’étude.
Étude de cas : Il s'agit ici du genre de problème qui nécessite l'étude complète, détaillée
et approfondie d'un nombre limité d'objets, d'individus, d'événements ...
C’est une méthode plus qualitative, elle diffère des autres méthodes, car elles s‘orientent plus
vers la recherche quantitative-positiviste. Il y a quelques distinctions faites par Arend
Lipihart, il y a une sorte de clivage, une distinction entre les données expérimentales et
d’autre part les données d’observations.
Alors que la méthode expérimentale s’appuie sur l’idée de grand nombre, la méthode
comparative un certain nombre de cas qui peuvent varier, l’étude de cas ne s’appuie que sur
un seul cas. Toutefois on peut envisager une étude de cas qui peut s’étendre sur plus d’un cas,
car la frontière est parfois souple.
L'étude de cas n'est que l'étude d'un seul cas, il n'a pas de la comparaison. Un cas peut
être beaucoup des choses comme un parti, une personne ou encore un pays. On essaie
d'étudier en profondeur un cas particulier, mais pas de façon extensive comme les trois
autres méthodes qui n’étudient pas les cas autant en profondeur.
En d’autres termes, le grand avantage de l’étude de cas est qu’on peut aller beaucoup plus
en profondeur dans la connaissance du cas. Une étude de cas est par définition intensive
alors que l’étude quantitative est extensive. Une méthode est basée sur la standardision
avec l’idée de généraliser tandis que l’autre s’appuie sur l’interprétation en profondeur
d’un cas spécifique.
L’étude de cas peut servir pour atteindre des buts différents, d’une part on veut connaitre
mieux une situation particulière de manière descriptive, d’autre part on peut étudier plusieurs
cas permettant de générer à terme une théorie.
Selon Arend Lipihart, le but de la recherche est de tester et vérifier une théorie ainsi que de
généraliser des résultats.
Ces deux cas ne veulent créer des hypothèses, l’idée est d'éclairer quelque chose par rapport à
un cas :
athéorique : il n’y a pas de théorie, c’est purement descriptif. C'est une recherche
exploratoire, par exemple, l'étude d'une nouvelle organisation, on ne veut que la
connaître et la décrire, dans ce cas on ne peut pas généraliser les résultats, car ils sont
liés à un cas étudié en particulier. On l’utilise dans des situations ou des cas qui n’ont
jamais été étudiés auparavant.
interprétatif : on utilise des propositions théoriques qui existent dans la littérature,
dans cette démarche qualitative le rôle de la littérature est moins important, on
applique une généralisation existante à un cas donné, ici le cas porte sur un cas précis,
sans volonté de créer une théorie tout comme l'athéorie. L'objectif n'est pas de
confirmer ou de l'infirmer, mais c'est de l'appliquer seulement. On utilise des
propositions ou des théories existantes qu’on applique à un cas ; on lui applique des
généralisations existantes afin de voir si la généralisation tient de ce cas spécifique. On
interprète une situation particulière à la lumière d’une théorie existante.
Le quatre qui suivent veulent créer une théorie ou tirer quelque chose des cas. Leur objectif
est de créer ou de générer des théories ou des hypothèses :
Références
Elisabeth Wood - An Insurgent Path to Democracy: Popular Mobilization, Economic Interests
and Regime Transition in South Africa and El Salvador,"
C’est une méthode chère à Auguste COMTE et à Emile DURKHEIM. Elle s’explique par la
difficulté de rendre mathématiques les faits sociaux car, l’homme change chaque fois et à
chaque lieu. Elle consiste dans l’analyse des ressemblances et des différences et procède
comme suit :
- Dans un premier temps, la méthode comparative consiste à confronter les phénomènes
analogues, étudiés suivant une même technique d’analyse. Elle n’est possible qu’entre
phénomènes de titres et de structures analogues.
- Dans un deuxième temps, elle consiste à étudier un même phénomène par des techniques
diversifiées de saisie des ressemblances et des dissemblances de résultats.
On peut par exemple étudier une entreprise par : une analyse documentaire, une analyse du
contenu de publication (rapport, compte-rendu, etc.), une enquête d’opinion, par la biographie
des chefs, etc.
Le travail se fait en équipe avec un groupe de chercheurs spécialisés afin de comparer les
résultats obtenus. La méthode comparative vise à faciliter la compréhension d’une réalité
sociale (ou scientifique) en la mettant en rapport avec une autre réalité plus connue et
semblable.
Toute recherche en science sociale est de par sa nature comparative. On compare toujours
implicitement ou explicitement quelque chose. On peut s'interroger sur les objectifs de la
comparaison. Nous avons vu que les objectifs de toute méthode scientifique essaient d'établir
des propositions empiriques générales en contrôlant toutes les autres variables, mais selon
certains, comme Tilly, il y a quatre objectifs à la comparaison, c’est-à-dire que l'on confronte
des unités d’observation.
Il y a des objectifs différents de la comparaison ; agir sur la sélection des cas c'est comparer.
Chères aux sciences naturelles, les méthodes expérimentales consistent à introduire dans un
milieu social donné un stimulus qui permet d’obtenir des résultats qui seront comparés à ceux
qui seront obtenus grâce à ce même stimulus dans un autre milieu social.
C'est la méthode généralement considérée comme la plus scientifique et la plus exacte. Elle
est née en physique et dans les sciences de la nature. Elle consiste à mener une
expérimentation (en laboratoire ou sur le terrain) et à tenter de dégager des lois généralisables
à partir de l'analyse des observations recueillies durant l'expérimentation. Ici, il y a toujours
une préparation, un arrangement préalable de la part du chercheur. Ne serait-ce que
l'introduction (ou le contrôle) d'un élément ou d'une variable qui serviront de « déclencheurs »
de conséquences ou de réactions à observer (par exemple, le choc électrique sur les nerfs d'un
animal décérébré, la goutte d'acide sur la langue du chien de Pavlov, l'intensité de l'éclairage
sur le rendement d'un atelier de dessinateurs...
Attribution aléatoire : on prend au hasard, tous les individus ont la même chance
d'être dans le groupe expérimental ou de contrôle des sujets (dans les groupes
expérimentaux et de contrôle non-expérimentale). Cette idée née du principe de la loi
des grands nombres : la variable aléatoire est censée écarter toute autre explication.
Manipulation de la variable indépendante (traitement), en quoi les groupes sont-ils
égaux ? le chercheur, à un certain moment, introduit un input dans l’un des deux
groupes.
On sépare deux groupes faisant en sorte que les deux groupes soient pareils sur toutes les
dimensions sauf sur un qui est celui sur lequel on veut tester l’effet. Le fait de choisir une
personne et de l’attribuer d’une manière aléatoire fait que les deux groupes sont semblables.
Si, ensuite, est introduit un traitement dans l’un des deux groupes et qu’on observe un
changement qui n’est pas dans le groupe de contrôle, il se peut qu’il y ait un effet causal allant
dans une réflexion cause à effet. On peut dès lors conclure qu’il y a un effet causal dans la
variable introduite.
Exemple
Un psychosociologue a voulu tester les effets des objectifs collectifs sur les relations
interpersonnelles. Il voulait voir dans quelle mesure, lorsqu’on dit à un groupe de personne
qu’il y a un objectif, les stéréotypes négatifs conflictuels disparaissent. C’est une expérience
sur-le-champ dans des conditions naturelles. Il a laissé les enfants interagir entre eux, on fait
coopérer les enfants entre eux ; le chercheur a essayé de créer une identité collective et a
subdivisé le groupe en deux de manière aléatoire. Il les a fait jouer au football ; on a constaté
l’émergence de rivalités voire même de stéréotypes négatifs vis-à-vis de l’autre équipe.
Difficultés
Les méthodes expérimentales ont été difficiles à appliquer en sciences sociales et humaines
par le fait que ces dernières portent sur des hommes. Les résultats qu’elles ont donnés ne
pouvaient pas être les mêmes qu’en sciences naturelles étant donné que les faits et les rapports
sociaux qui en sont géniteurs ne sont pas de choses. Il est difficile de constituer des groupes
homogènes en sciences sociales sur lesquels on peut faire l’expérimentation. En dépit de cette
faiblesse, les méthodes expérimentales restent d’une grande application en sciences naturelles
où elles constituent le fondement méthodologique.
4.6. Le recueil des données qualitatives ( cfr les matières vues plus haut
et les quelques techniques que nous allons analyser avec force ci-
dessous )
3.7. Interview
L’interview est, selon Albert Brumo 10 « une technique dont le but est d’établir un rapport de
communication verbale entre deux personnes, l’enquêteur et l’enquêté, afin de permettre à
l’enquêteur de recueillir certaines informations de l’enquêté concernant un objet précis de son
étude ».
Cette technique consiste en un jeu des questions-réponses à sens unique entre deux personnes
ou plusieurs (l’enquêteur d’une part et les enquêtés d’autre part) pour obtenir des informations
de l’interviewé ou des interviewés.
1.
L’interview structurée.
Elle consiste à poser à l’interviewé (enquêté) des questions dont le sujet, le nombre et
l’ordre ont été arrêtés l’à l’avance. Aucune question non prévue n’en peut être soulevée par
l’enquêteur.
L’interview structurée est celle dans laquelle l’enquêté répond à une série de questions
dont le nombre l’ordre, l’énoncé ont été fixés à l’avance dans le protocole d’interview.
L’enquêteur est appelé, ici à recueillir les réponses données soit textuellement soit sous forme
codée.
2. L’interview non structurée.
L’interview non structurée est caractérisée essentiellement par la liberté existant entre
l’enquêteur et son enquêté mais aussi par le fait que le nombre, l’ordre, et la formulation des
10
A. Brimo, Les méthodes des sciences sociales, Paris, Ed. Montchrestien, 1972, p.207.
11
Idem, pp. 208-217.
L’interview répétée est comme l’indique son nom, cette forme d’interview où l’enquêteur
interroge l’enquêté plusieurs fois, au cours du développement du phénomène étudié, à
intervalles plus ou moins longs. Il s’agit, ici, de poser les mêmes questions, à intervalles
réguliers, aux mêmes personnes. Ce qui permet de discerner l’évolution ou la constance des
attitudes des individus au cours du développement d’un phénomène social.
Bien qu’on puisse les utiliser de manière indépendante, et les prendre pour des moyens
d’enquête en soi, ces techniques servent fréquemment lors des étapes préparatoires, en vue de
compléter la connaissance du sujet préalable à l’établissement des hypothèses du travail.
4.8. L’entretien
C’est celui qui consiste à échanger avec un ou plusieurs enquêtés sur un sujet, selon un
guide d’entretien bien arrêté et à rester strictement dans le cadre de ce guide.
L’enquêteur arrête l’enquête chaque fois que celui-ci veut déborder du cadre prédéfini.
L’entretien directif présente cet inconvénient d’étouffer les enquêtes qui voudraient
bien se défouler en abordant d’autres points similaires. Son avantage est celui d’éviter
des égarements et autres dérapages de la part des enquêtes.
L’information recherchée peut être recueillie au moyen d’entretiens individuels, ou avec de
petits groupes.
- les bénéficiaires : une typologie des acteurs de base devrait permettre de déterminer un
échantillon représentatif de personnes à rencontrer.
Par exemple, des notables, des chefs de famille, des femmes chefs de famille, des Femmes
dépendantes, des jeunes dépendants, le responsable du comité d’entretien du puits, le gérant
de la boutique.
- Les non-bénéficiaires : il est important de connaître l’opinion des personnes qui ne seront
pas touchées par une action, ou dont il n’est pas prévu qu’elles y participent.
Par exemple, des entretiens avec des paysans qui ne peuvent participer à une action de culture
attelée au Ghana, parce qu’ils n’ont pas assez de terres et pas de bœufs, ont permis de
conclure que l’action prévue avec des paysans plus aisés peut leur faire du tort et les entraîner
dans une relation de plus grande dépendance vis-à-vis de ces derniers.
Si l’on a bonne mémoire, il est préférable de ne pas utiliser son bloc-notes. Sinon on peut le
faire, mais d’une façon discrète, après les présentations et le démarrage de la discussion. On
peut aussi utiliser un magnétophone, mais ceci présent l’inconvénient d’être long à décrypter.
Il convient d’être le moins protocolaire possible.
Quelques conseils et principes de base pour le déroulement de l’entretien :
- Interlocuteur > le prendre tout seul. Eviter l’influence d’autres personnes qui vont répondre
à sa place.
- Suivre son interlocuteur. L’écouter, c’est-à-dire ne pas trop parler soi-même, l’interview
n’étant pas un exposé ni un cours.
Ceci a l’air simple, mais n’est pas facile à réaliser. On a toujours tendance à en dire trop, ce
qui noie l’interviewé. Suivre la logique de sa pensée, l’enchaînement de ses idées. Il ne faut
pas nécessairement imposer un ordre apparemment logique des thèmes à traiter avec
l’interlocuteur, mais plutôt lui laisser la liberté de les aborder comme il le souhaite, quitte à
les réordonner ensuite.
- Poser des questions ouvertes. Et non des questions qui contiennent déjà la réponse.
Par exemple, lors d’une évaluation avec des paysans membres d’une association de
rizicultures, l’évaluateur a laissé l’entretien se développer pendant plus d’un quart d’heure. Il
n’a pu tirer de l’interprète que lapidaire : ils disent qu’ils cultivent du riz.
Il est aussi utile de travailler avec l’interprète avant l’entretien afin de bien appréhender
ensemble ce que l’évaluateur cherche à apprendre et à comprendre.
Notons, cependant, qu’il n’est loisible au sociologue de pénétrer dans tout milieu qu’il se
proposerait d’étudier. Certains milieux lui sont interdits, soit de manière réglementaire, les
prisons par exemple, soit parce que son introduction serait ressentie comme une véritable
intrusion, ce qui ne lui permettrait pas de se livrer à de bonnes observantins, le milieu de la
prostitution par exemple.
L’observation est directe lorsqu’elle porte directement sur les phénomènes étudiés (les
individus, les groupes, les institutions, etc.…). Dans ce cas, l’observation est libre soit dirigée,
soit participante. Elle est indirecte lorsqu’elle porte sur les faits qui portent ou qui sont des
traces des phénomènes que l’on veut étudier et qui permettent de recueillir des informations
sur ces derniers phénomènes. Il s’agit dans pareil cas, essentiellement de l’observation
documentaire.
L’observation libre.
L’observation libre ou spontanée est celle qui est faite sans plan d’observation précis.
L’observation libre est utilisée soit pour fonder les affirmations théoriques sur des faits soit
pour connaître un sujet ou une situation dans leur complexité.
L’observation dirigée.
12
Mulumbati Ngasha, op. cit., pp.26-28.
L’observation participante.
L’observation documentaire.
L’observation documentaire consiste à étudier et analyser les documents pour arriver à
déterminer les faits ou phénomènes dont ces documents sont ou portent des traces. On
distingue deux catégories de documents : les documents écrits et les documents non écrits.
Les documents écrits comprennent : les documents officiels, (statistiques, archives publiques,
correspondances administratives, actes d’état-civil, archives judiciaires, débats des
assemblées, etc.) , les documents rendus publics ( presse nationale, locale ou propre à un
groupement, tracts, affiches publicitaires et politiques, romans, livres scolaires, littérature
populaire), les documents privés (correspondance privée, archives personnelles, archives de
certains groupements comme les partis politiques, les syndicats, les Eglises).
Les documents non écrits comprennent : les objets (poterie, masques, objets rituels,
automobiles, modes, etc.….), les moyens d’expression non écrits (récits, discours, radio,
télévision, cinéma, théâtre, dessins, musiques, chansons, etc.).
Ces différents documents peuvent fournir des informations très précieuses sur les faits ou
phénomènes que l’on veut étudier, si on les soumet à deux techniques empruntées à l’histoire,
à savoir la critique externe et la critique interne.
Une fois les diverses informations recueillies, il faut les analyser. Pour ce faire, on recourt
au codage et à la construction des tableaux. Le codage est « la réduction sous une forme
normalisée des informations recueillies sur le terrain. Cela peut consister soit en une
conversion de données qualitatives en données quantitatives, soit en un classement de
données qualitatives en un nombre limité de catégories, soit à une réduction des données
quantitatives à une forme plus simple13 ». La construction des tableaux consiste dans la
présentation simultanée de données fournies par deux codes ou plus, confirme T. Caplow.
13
T. Caplow, L’enquête sociologique, op. cit., p. 134.
Les enquêtes, tout le monde le sait, sont actuellement dépouillées par ordinateurs. C’est sans
doute, mais la formule, en soi, est un peu lapidaire. Tout d’abord, il n’est pas nécessaire de
disposer tout le temps d’un ordinateur pour dépouiller une enquête. Cela peut se faire
également à la main, tout simplement ou avec une bonne trieuse mécanographique. Ensuite, le
passage sur ordinateur ne se situe qu’à la fin d’une série d’opérations.
Pour commencer, il faut traduire les réponses dans un langage chiffré, qui est proprement un
code : c’est le codage, dit aussi codification, ou encore chiffrement. Il faut, en effet, que les
réponses puissent être lues par les machines qui serviront au dépouillement. C’est pour cette
raison que la rédaction d’un code revêt une grande importance. Les réponses codées sont
reportées sur une carte perforée, qui comporte quatre-vingts colonnes à douze positions
chacune. Il est donc nécessaire de préciser à la fois la ou les colonnes qui correspondent à
chaque réponse possible. Prenons un exemple. Soit la question suivante :
*. DEPOUILLEMENT DU QUESTIONNAIRE
1. Généralités
Le travail de dépouillement du questionnaire a pour but d’établir des tableaux
numériques par comptage des réponses aux questions de l’enquête. Ce traitement peut être
fait :
a. manuellement dans le cas d’un nombre restreint de questions ou des questionnaires,
b. par traitement automatisé en utilisant un logiciel adapté.
a. Le tri à plat
Le dépouillement commence obligatoirement par le comptage pour chaque question :
a. du nombre de personnes ayant répondu,
b. de la ventilation de ces réponses selon les possibilités offertes (modalités).
Exemple : Grille de dépouillement manuel d’une question.14
Non réponses � / � � / � 4
14
Les chiffres donnés dans cet exemple le sont à titre purement illustratif. Qu’on aille pas se casser le tiroir à chercher leur
provenance !
b. Commentaires
Ils reprennent les points les plus importants mis en évidence dans les tableaux. Des
explications des phénomènes sont proposées.
a) La présentation de l’enquête
a. Objet de l’enquête,
b. Description du champ de l’enquête,
c. Composition de l’échantillon,
d. Méthode utilisée pour l’enquête,
e. Présentation du questionnaire.
c) Les conclusions
g. Les observations les plus importantes sont résumées à la fin de chaque chapitre
et dans une conclusion générale à la fin du rapport.
d) Les annexes
h. On y place les éléments qu’on préfère ne pas inclure dans le corps du rapport :
le questionnaire, les tableaux des résultats bruts, etc.
- Etablir un programme de travail : réparation dans le temps (calendrier) et dans l’espace (le
lieu) des différents enquêteurs ou équipe d’enquêteurs et de contrôleurs.
I — Définition
L'analyse de contenu est une technique d'étude détaillée des contenus de documents. Elle a
pour rôle d'en dégager les significations, associations, intentions... non directement
perceptibles à la simple lecture des documents (le terme document doit être pris au sens très
large du terme, allant du texte au microfilm en passant par la bande magnétique...). Tout
chercheur en sciences sociales y aura recours à un moment ou à un autre de son travail.
Cependant, la majorité des matériaux travaillés par les chercheurs en sciences sociales (que ce
soit en économie, en histoire, en sociologie, en psychologie, en droit, en gestion...) sont des
documents écrits tels qu'interviews, questionnaires, discours, archives, formulaires, comptes
rendus, rapports, dossiers (En tout état de cause, les données exprimant des conduites, des
opinions, des tendances, des attitudes... sont presque toujours des données verbales qu'on
transforme en écrits).
Il est donc de première importance de disposer d'une technique alliant rigueur et procédures
simples pour analyser ces contextes d'actions et de situations que sont les mots agencés dans
un discours signifiant. L'exégèse et la dissection interprétative ne suffisent pas à rendre tout le
sous-jacent, l'implicite, dans le sens d'un texte, sur des bases autres que seulement subjectives
et approximatives. L'analyse de contenu sert à combler cette insuffisance.
15
Voir, entre autres, Pinto et Grawitz, 1969.
L'analyse de contenu est donc une technique qui peut servir à traiter :
— Tout matériel spécialement créé par le chercheur, tels que protocoles d'interviews,
questionnaires, discussions de groupe, tests verbaux, associations libres...
Il existe en gros six types d'analyse de contenu selon le but visé et le genre de résultats
escomptés par le chercheur.
Comme son nom l'indique, il s'agit d'explorer un domaine, des possibilités, rechercher des
hypothèses, des orientations. On a recours à ce premier type, par exemple, dans l'étude des
voies de recherches que peuvent suggérer des interviews préliminaires sur un échantillon
réduit d'une population-cible. On se sert des résultats pour construire alors des questionnaires
plus réalistes, moins entachés des distorsions personnelles du chercheur et plus près des
dimensions concrètes du problème étudié, de la population d'enquête...
Ce type d'analyse s'intéresse au fait que des thèmes, des mots ou des concepts soient ou non
présents dans un contenu. L'importance à accorder à ces thèmes, mots ou concepts ne se
mesure pas alors au nombre ou à la fréquence, mais plutôt à l'intérêt particulier, la nouveauté
ou le poids sémantique par rapport au contexte.
Par exemple, cette phrase perdue dans un discours de propagande nazie au début de la défaite
allemande : « Cette victoire (celle des U. boats ayant coulé des navires alliés) ne doit pas nous
Signalons en passant que l'analyse de contenu était très employée durant la Deuxième Guerre
mondiale pour juger de l'état du moral de l'ennemi, de ses changements d'attitudes... à travers
les discours, les propagandes...
Ici, par contre, l'importance est directement reliée aux quantités : il s'agit de dénombrer,
d'établir des fréquences (et des comparaisons entre les fréquences) d'apparition des éléments
retenus comme unités d'information ou de signification. Ces éléments peuvent être des mots,
des membres de phrases, des phrases entières... Le plus significatif, le plus déterminant est ce
qui apparaît le plus souvent.
On parle d'analyse directe lorsque l'on se contente de prendre au sens littéral , la signification
de ce qui est étudié. On ne cherche pas, dans ce cas, à dévoiler un éventuel sens latent des
unités analysées ; on reste simplement et directement au niveau du sens manifeste.
Par exemple, les fréquences de certains stéréotypes, de slogans, de clauses de styles... sont
déterminantes de l'état d'esprit, des intentions, de la stratégie... de l'auteur du texte, du
discours, de l'interview... que le chercheur étudie.
Voici un exemple illustrant ce genre d'analyse : l'opposition française a fait ressortir que le
mot socialisme ne figurait dans aucun des discours du Président socialiste français durant les
années du plus fort de la crise économique 1982-1986, pour y déceler une sorte de virage
politique...
En nous intéressant à présent aux étapes concrètes de réalisation d'une analyse de contenu,
nous nous rendons compte que, dans les faits, les distinctions que nous venons d'effectuer sont
beaucoup plus théoriques qu'utiles sur le plan opérationnel. En effet, lorsque l'on s'attaque à
l'analyse proprement dite d'un document, il est presque systématiquement nécessaire de
combiner tout ou partie des différents types que nous avons énumérés. La combinaison
quantitative — qualitatif est, elle, une nécessité quasi absolue.
16
Exemple tiré de Pinto et Grawitz, 1969.
1. La lecture du document 17
2. La définition de catégories
La deuxième étape consiste à préciser les catégories (en nature, nombre, subdivisions...) selon
lesquelles on regroupera les unités d'information que l'on s'attachera à extraire des documents
analysés.
À ce niveau, les catégories peuvent être prévues ou non. Ainsi, on peut prévoir de ranger tous
les répondants à un questionnaire d'opinion selon trois catégories : favorable, défavorable,
indifférent. Il suffira alors de ranger les différentes réponses selon leur sens plus ou moins
favorable à l'objet de l'enquête.
Dans le cas où il n'y a pas de catégories prévues, il s'agit alors de les découvrir dans les
documents à étudier (ce qui revient à une analyse d'exploration) et d'être systématique afin de
n'omettre aucune position possible qui départage les sujets (Dans notre exemple, il nous a
fallu découvrir les différentes attitudes principales vis-à-vis des loisirs par des questions
ouvertes.). C'est une étape cruciale où l'on établira les charnières véritables entre les objectifs
et les résultats de l'enquête. C'est donc ici d'un travail méticuleux qu'il s'agit ; l'on comprendra
donc l'utilité d'avoir recours à plusieurs lectures avant de décider définitivement des
catégories à retenir.
- Exhaustives : L'ensemble des catégories doit épuiser toutes les positions, attitudes...
exprimées (directement ou non) à travers la totalité des documents analysés. De plus,
chaque catégorie doit englober tout le contenu qu'elle est censée recouvrir. Par
exemple, si on a prévu une catégorie favorable, elle devra contenir tout ce qui peut
prêter à position positive par rapport à l'objet en question dans l'étude.
- Évidentes : N'importe quel autre analyste devrait pouvoir, sans difficulté, classer les
mêmes éléments, de la même façon, dans les mêmes catégories.
17
Précisons que le terme « lecture » comme le terme « document » sont à prendre dans leur sens le plus
large.
En tout état de cause, une catégorie est pertinente dès l'instant où elle fait faire un pas
supplémentaire à la recherche, aussi petit soit-il, dans le sens de l'atteinte d'un des objectifs
fixés. Il convient donc de se poser la question, à chaque fois qu'on isolera une catégorie :
Apporte-t-elle quelque chose de plus pour la recherche ? Si oui, est-elle la seule catégorie à
apporter ce qu'elle apporte ?
On appelle unité d'information l'élément le plus petit possible qui sera retenu pour signifier
l'appartenance d'un sujet à une catégorie ou à une autre. C'est ce qui, dans chaque texte ou
partie de texte, sera retenu comme unité signifiante d'une attitude, d'une position, d'une
opinion... Ce peut être des mots, des phrases, des idées générales de passages complets... Si on
utilise trois catégories simples, favorable, défavorable, indifférent, il s'agira de préciser si l'on
retient comme unité tout mot, toute phrase ou toute idée générale, positif, négatif ou neutre
par rapport à l'élément considéré.
Il s'agit de l'élément unitaire qui servira de base à la quantification ultérieure, même s'il ne
s'agit que d'un simple décompte. Cette unité d'enregistrement peut être un thème (abordé —
non abordé), le mot, le concept, la phrase, l'idée... ou une fréquence d'apparition de mots,
phrases. Pour plus de commodité, on retiendra une unité d'enregistrement identique à l'unité
d'information.
L'unité de numération, c'est la façon dont on doit compter les éléments de signification et de
fréquence retenus plus haut. Cette unité, porte sur l'espace et le temps, ou l'un ou l'autre,
unitaires dans lesquels seront retenues les récurrences des éléments recherchés :
En bref, l'unité de numération sera la méthode de base de décompte par paragraphe, par ligne,
par page, par minute, par centimètre carré... (voir l'exemple illustratif plus loin).
6. La quantification
Enfin, on comparera, avec tests statistiques ou non, entre elles les fréquences pondérées ainsi
obtenues (s'il entre bien sûr dans les objectifs de la recherche de comparer les éléments ou les
sujets...).
IV — Une illustration
Dans notre exemple de recherche sur les chantiers pétroliers, nous avons (à partir de dix
interviews directives et dix non directives), effectué une analyse de contenu pour établir les
hypothèses les plus réalistes quant aux sources des difficultés d'adaptation ressenties par les
employés dans les chantiers pétroliers sahariens. Notre matériel documentaire était donc
constitué de vingt protocoles d'interviews (dix pages en moyenne) contenant l'expression de
sujets de mécontentement par rapport à la vie professionnelle et sociale en chantier pétrolier
du Sahara. Voici les étapes suivies pour chaque type d'interviews :
1– Moral
2– Relations employeur/ employé
3– Décalage cadres/non cadres
4– Salaire
5– Loisirs
6– Congés
7– Transports
8– Sécurité
9– Logement (en chantier)
(Il n'y a pas de proposition positive car il s'agit d'opinions sur des sources de
problèmes et de difficultés).
7) Décompte et fréquence : Il restait seulement à mettre dans les cases d'un tableau à
double entrée catégories/sujets les scores de chaque sujet à chaque catégorie et à
faire la sommation des chiffres ainsi obtenus pour chaque catégorie. Toutes les
catégories obtenant un score total supérieur à dix (dix sujets) seront retenues comme
sources hypothétiques de problèmes à approfondir et à vérifier.
Catégories
Nourritur Relation
Moral Logement Transports Loisirs Salaires
e s
Sujets
1 2 2 0 0 2 2 2
2 2 1 0 1 2 0 0
3 2 2 1 0 2 2 2
4 1 2 1 0 2 1 1
5 0 0 0 1 0 0 2
6 2 2 0 0 0 2 1
7 0 2 0 0 0 0 1
8 2 2 0 0 2 2 2
9 1 0 0 0 2 2 0
10 2 0 0 0 2 1 0
2x6 2x6 2x0 2x0 2x7 2x5 2x4
1x2 1x1 1x2 1x2 0x0 1x2 1x3
0x2 0x3 0x8 0x8 0x3 0x3 0x3
14 13 2 2 14 12 11
N° 2 N° 3 N° 1 N° 4 N° 5
Catégori Décalag
es e Relations
Nourritur Clima Logeme Sécurit Transpor Congé Loisir Salaire Mora
Cadres Compagni
e t nt é ts s s s l
Sujets Ouvrier e
s
1 1 0 1 1 1 1 2 2 0 2 2
2 0 1 2 0 1 0 2 2 0 2 2
3 1 0 2 1 0 0 2 2 0 2 2
4 1 0 2 0 0 0 2 1 1 1 1
5 0 0 0 0 1 0 2 2 0 2 0
6 1 0 2 2 0 0 2 1 2 2 2
7 0 0 2 0 0 0 0 1 0 1 1
8 0 0 2 2 0 0 2 2 1 2 1
9 0 0 0 0 0 0 2 0 0 1 2
10 0 0 0 0 0 0 2 0 0 2 0
2x0 2x0 2x6 2x2 2x0 2x0 2x4 2x5 2x1 2x7 2x5
Total 1x4 1x1 1x1 1x2 1x3 1x1 1x0 1x3 1x1 1x3 1x3
0x6 0x9 0x3 0 x6 0x7 0x9 0x1 0x2 0x8 0x0 0x2
4 1 13 6 3 1 18 13 3 17 13
N° 5 N° 1 N° 3 N° 2 N° 4
La cartographie cognitive est une méthode de planification stratégique, Cas d’une stratégie
nationale de développement durable d’un pays en développement.
C’est une recherche qui vise à mettre à l’épreuve une nouvelle méthode d’aide à la
décision stratégique utilisant la cartographie cognitive «ThinkShop» permettant de réduire
considérablement la durée de la production des orientations d’actions stratégiques à moins
de 5 jours d’atelier.
Cette méthode permet d’obtenir une plus grande convergence entre des perspectives
différentes des membres d’un groupe hétérogène de travail autour d’une question ou d’une
vision stratégique.
Plus largement, cette méthode permet de mieux répondre aux attentes des chercheurs, des
consultants en exercice et des décideurs des organisations qui se préoccupent à la fois, de la
qualité de la stratégie émergente, des délais de sa production, de l’engagement des individus
de son organisation dans sa mise en œuvre; et de la divergence de points de vues qui
émergentes suite à l’utilisation des méthodes actuelles de formulation de stratégies.
Objectif de recherche
Le but de cette recherche est de concevoir et mettre à l’épreuve une Méthode d’Aide
à la Décision Stratégique Participative de Groupe « Thinkshop ». Cette méthode se
distingue de toutes les autres méthodes existantes par son utilisation exclusive de la
cartographie cognitive collective « Participative ».
4. Méthodologie
La stratégie de recherche adoptée est une stratégie qualitative souple. Elle est
nettement subjectiviste même si la méthode utilisée possède un caractère
constructiviste. La stratégie de recherche s’apparente à une Recherche-Action sans
pour autant prétendre l’adopter formellement. Elle vise à initier un processus de
changement au sein du groupe de travail qui s’est prêté à l’exercice de la méthode de
planification mise à l’épreuve. Par contre, il ne s’agit pas de pouvoir mesurer les
changements occasionnés au sein du groupe en question, mais le but est de produire
une lecture interprétative et explicative à travers l’exploration d’une nouvelle méthode.
La recherche est donc essentiellement exploratoire. La méthodologie employée suit
une approche d’étude de cas jusqu’à saturation du cas unique en question.
Une science est définie comme étant un ensemble des connaissances ayant un objet propre,
un champ d’investigation propre et des méthodes et techniques de recherche propre.
Un travail scientifique désigne alors toute production ayant un objet défini et ayant été
conduite selon une méthodologie telle que tout autre chercheur, qui emprunte la même
méthode peut aboutir aux mêmes résultats.
Pour établir la validité de leurs résultats, les chercheurs en sciences quantitatives se sont
attachés à trois critères fondamentaux :
- Le critère de la validité interne : qui assure la justesse des résultats ;
- Le critère de validité externe : qui spécifie les limites de la généralisation des
résultats ainsi obtenus ;
- Le critère de fiabilité : qui assure que les résultats ne sont pas liés aux
circonstances fortuites et que d’autres chercheurs, empruntant les mêmes méthodes
dans des champs empiriques similaires, peuvent arriver aux mêmes résultats.
La combinaison de ces trois critères garantirait, selon ces auteurs, défenseurs des méthodes
expérimentales et quantitatives, l’objectivité humaine.
Kirl et Miller (1986, p.20) iront même plus loin en fixant à quatre les critères de scientificité
dont :
- La valeur de vérité,
- L’applicabilité,
- La cohérence,
- La neutralité ;
Pour asseoir la scientificité de leurs œuvres, les chercheurs en Sciences sociales et humaines
feront recours à la standardisation des instruments et des résultats de recherche, au contrôle
des variables et à l’échantillonnage probabiliste. L’objectif primordial étant celui de
neutraliser l’influence de la subjectivité dans les résultats.
Le contenu détaillé de l'instrument (par exemple celui des questions, s'il s'agit d'un
questionnaire) doit être conforme à ce que l'on cherche à mesurer. Chaque question de
l'instrument doit correspondre à un indicateur précis et prouvé de la dimension mesurée
(chaque question doit couvrir une sous-dimension des différentes dimensions recensées
comme constituant la variable mesurée). L'appartenance religieuse par exemple, si c'est cela
qui est mesuré, devra être éclatée en plusieurs dimensions couvertes par plusieurs questions.
2. La validité interne
La validité, c'est, comme on l'a vu, la qualité de l'instrument telle qu'il mesure effectivement
ce qu'il est supposé mesurer. Les observations et mesures recueillies doivent être précisément
celles que cherche l'observateur et celles qui le conduiront à atteindre les objectifs fixés à la
recherche.
Cette validité mesure le degré de convergence de l'ensemble des questions d'un instrument.
Les différentes questions et sous-questions du questionnaire doivent toutes aller dans le même
sens pour former un ensemble cohérent couvrant les différentes dimensions de la variable
mesurée.
3. La validité externe
Comme pour la fidélité, il existe plusieurs moyens de cerner et de prouver la validité d'un
outil. Parmi eux notons :
— La corrélation entre les résultats aux questions et le score total d'un même sujet.
Bien entendu, plus ces corrélations sont élevées, plus les chances de validité sont grandes.
Alors qu’elle est assurée, selon les méthodes positivistes ; par la reproductibilité des résultats
dans des conditions analogues, les méthodes qualitatives estiment l’assurer par une
reproductibilité signifiant une applicabilité extensive spatio-temporelle. Elles provoquent
ainsi :
- La texturation des situations ;
- La prise en compte des aléas ;
- La répétition des recherches à long terme sur les mêmes terrains ;
- L’application de la triangulation pour assurer la concordance des résultats ;
- La facilitation de la reproduction et de l’évaluation par d’autres chercheurs.
-
5.3.1. Nouvelle grille de lecture des critères de la scientificité
La scientificité des productions est donc fondamentalement intersubjective étant donné qu’il
est quasi-impossible de réaliser une rupture épistémologique entre le chercheur et la
population d’étudie, ou le fait qu’il analyse.
Le chercheur observe sa population d’étude, non de manière neutre, mais selon ses propres
prismes de valeurs, de sentiments, d’expérience et d’appréhension du monde.
L’interaction entre les sujets et le chercheur se clôture toujours avec des effets réciproques.
Car l’évacuation totale de la subjectivité ou sa neutralisation s’avère impossible en sciences
sociales et humaines.
Elles sont et doivent être engagées. L’engagement scientifique étant entendu comme un
processus à travers lequel le chercheur, identifie et formule son problème en terme d’objet
d’étude, se choisit les cadres et les outils théoriques pour sa réalisation, récolte les données
de terrain, les analyse pour confirmer ou infirmer ses hypothèses de travail, formule son
modèle théorique et s’engage à assurer son schéma explicatif.
2. La reproductibilité
Elle est définie comme le caractère d’une étude qui, toute condition étant égale par ailleurs,
garantit que les mêmes causes produisent les mêmes effets dans des circonstances analogues
ou similaires.
Toute étude scientifique doit être reproductible par des mécanismes des similarités
méthodologiques et diachroniques.
3. La généralisabilité
Pour asseoir sa scientificité, toute recherche scientifique doit aboutir à des conclusions
généralisables à des phénomènes ou milieux sociaux présentant des homologies contextuelles.
4. L’irréductibilité
5. La réfutabilité
Egalement appelée la falsiabilité, la réfutabilité se veut un domaine ouvert à toute critique et
à toute modification lorsque les circonstances qui ont sous-tendu la production des premiers
phénomènes ont subi de changement profond.
Pour étayer sa scientificité, toute étude scientifique doit être à des sondages de vérification
par d’autres chercheurs, sondage pouvant entraîner la remise en cause ou la modification de
résultat de l’étude.
6. La fiabilité
Un autre critère de scientificité, c’est la fiabilité, celle- ci se matérialise par la crédibilité des
données, la méthodologie utilisée, la personnalité de l’auteur ainsi que la hauteur et les
dimensions des échantillons sur lesquels le chercheur tire ses données d’analyse.
7. La prédictibilité
Le critère téléologique de toute recherche scientifique se résume dans sa prédictibilité, celle –
ci consiste à produire des résultats qui peuvent dans des circonstances homologues être
reproduites dans leurs moindres détails.
Toute recherche scientifique doit donc prédire l’avenir par ses conclusions.
8. La correspondance
La scientificité d’une étude est également liée à son degré de correspondance. Celle-ci se
matérialise par la similitude de résultats de même stimuli, introduits dans des contextes
socio-analogues.
9. L’interdépendance
Toute recherche scientifique doit être connectée à des recherches antérieures desquelles elle
tire ses données de départ et dont elle dépend et constitue le relais avec les recherches
postérieures. L’interdépendance fait aussi le mariage entre la passéologie et la futurologie.
10. L’objectivabilité
Toute recherche scientifique doit se dévêtir des préjugés et de toutes partialités dans la
manipulation des données.
11. L’indissociabilité
Les méthodes quantitatives de recherche considèrent que l’engagement du chercheur est un
processus de subjectivation de recherche. Il est aujourd’hui démontré que la dissociation du
chercheur de son objet d’étude a produit souvent des résultats irréels tant il est vrai qu’il est
difficile si pas impossible de dépouiller le chercheur de ses prismes culturels et autres
sentiments qui sont profondéments ancrés en lui et constituent une part entières de sa
personnalité.
Bibliographie
1. Alain PAGES et alii, Lettres, Textes, Méthodes, Histoire littéraire 2 e, Nathan, Paris,
1995.
2. BAKENGA Shafali, Cours d’initiation à la Recherche Scientifique (IRS), G1 en
Sociologie, RI et SPA, UOB-Bukavu ,2015-2016
3. DE GOURMONT, R., La dissertation philosophique. Conseils pour préparer et rédiger
une dissertation philosophique, suivis d’exemples de dissertation, d’énoncés de sujets
et d’une annexe documentaire, Edition Lanore, Paris, 1974.
4. DE SAINT-EXUPERY, A., Le petit prince
5. DEFOUR, G., Travail de fin d’études : Projet de développement, Bulletin de
pédagogie universitaire, janvier 1984, nº 17, 129-136.
6. KALIKA Michel, Le mémoire de Master, Projet d’étude. Rapport de stage, 2éd,
Dunod, Paris, 2008.
7. KALUNGA, M., et KAZADI, K., Les méthodes de Recherche et d’analyse en
Sciences Sociales et Humaine, Une relecture de la critologie de la scientificité, EDUC,
Lubumbashi, 2013.
8. KASHINDI M., Cours d’Initiation à la Recherche Scientifique, G1, Sciences
économiques et de Gestion, UEA-Bukavu, 2015-2016.
9. MUHIMUZI, M., Cours de méthodes et techniques de recherche scientifique destine
aux étudiants candidats au diplôme d’études supérieures en politiques de
développement socio-économique, Bujumbura, Burundi, 2008.
10. MULOWAYI, D., Manuel et Lexique de Sociologie générale, Presses Universitaires
de Kananga, Kananga, 2013.
11. PAGÈS, A. et alii, Lettres, Textes, Méthodes, Histoire littéraire, 2è, Nathan, Paris,
1995, p.44.
12. TSHIMANGA MWANZA, Initiation à la recherche scientifique, Guide pratique, éd.
CERUKI, ISP- Bukavu, 1986.