Document 2
Document 2
Document 2
universitaire à distance
Pour citer cet article : Redondo, C., Garcin, C., Pironom, J., & Thuilier, O. (2021). Intérêt des tests d’entraînement
en ligne sur Moodle : un dispositif d’évaluation formative dans le cadre d’un enseignement universitaire à distance.
Évaluer. Journal international de recherche en éducation et formation, 7(1), 41-70.
Résumé
Dans le contexte d’enseignements en distanciel en situation de pandémie, cette recherche,
relevant des principes du Scholarship of Teachning and Learning, a été réalisée au sein d’une
université du sud de la France auprès d’étudiants inscrits en première année de licence,
dans le cursus sciences de l’éducation. Notre étude porte sur un dispositif formatif
d’autorégulation des apprentissages à distance dans le cadre d’une unité d’enseignement de
méthodologie du travail universitaire (MTU) transversale à plusieurs disciplines enseignées
en première année. Si l’évaluation certificative a bien été maintenue en fin de semestre,
l’organisation des enseignements partiellement puis entièrement à distance durant le
premier semestre, a motivé la révision des modalités de l’évaluation formative qui ne
pouvait plus se réaliser en présentiel et qui a été transposée en format distanciel. Une
évaluation continue au moyen de tests mis régulièrement à disposition des étudiants sur la
plateforme pédagogique Moodle de l’université a été mise en œuvre pour apporter les
ajustements nécessaires à un scénario pédagogique bouleversé du fait du basculement à
distance des enseignements. Cette stratégie s’avère partiellement fructueuse en termes de
réussite des étudiants puisque l’évaluation des apprentissages en fin de semestre s’en trouve
légèrement améliorée. Notre recherche permet enfin de prospecter des pistes
d’optimisation du dispositif et de nouveaux objets de recherche.
Mots-clés
Évaluation formative, autorégulation des apprentissages, tests en ligne, plateforme Moodle,
enseignement à distance (EAD), méthodologie du travail universitaire (MTU).
Abstract
In the context of distance learning in a pandemic situation, this research, based on the
principles of the Scholarship of Teaching and Learning, was carried out at a university in
the south of France with students enrolled in the first year of a licence in the educational
sciences. Our study concerns a formative device for self-regulation of distance learning
within the framework of a teaching unit of methodology of university work transverse to
several disciplines taught in the first year. If the certificate evaluation was maintained at the
end of the semester, the organization of the teaching partially and then entirely at a distance
during the first semester, motivated the revision of the modalities of the formative
evaluation which could no longer be carried out in person and which was transposed into a
distance format. Continuous assessment by means of tests regularly made available to
students on the university’s Moodle teaching platform was implemented to make the
necessary adjustments to a teaching scenario that had been disrupted by the switch to
distance learning. This strategy has proven to be partially successful in terms of student
success, since the evaluation of learning at the end of the semester has been slightly
improved. Finally, our research allows us to explore ways of optimizing the system and new
research topics.
Keywords
Formative assessment, self-regulation of learning, online tests, Moodle platform, distance
learning, methodology of university work.
1. Introduction
Dans le contexte du passage de l’enseignement en présentiel à l’enseignement en ligne,
cette recherche fait état d’une piste de solution et de propositions permettant de faire face à
la crise éducative exceptionnelle que nous vivons.
Plus précisément, notre contribution s’inscrit dans une démarche de questionnement d’un
dispositif pédagogique spécifique et dans une volonté de partage et de recherche sur les
pratiques enseignantes (Carrupt & Barras, 2019 ; Detroz, Crahay & Fagnant, 2017 ; Detroz
& Younès, 2017) se traduisant par la notion de Scholarship of Teachning and Learning (SoTL)
telle que développée dans la littérature (Biémar, Daele, Malengrez & Oger, 2015 ; Rege
Colet, McAlpine, Fanghanel & Weston, 2011). Il s’agit d’examiner une pratique
pédagogique permettant aux étudiants d’être acteurs de leur apprentissage et de leur
réussite (notamment en période de pandémie) et d’en faire écho auprès de la communauté
scientifique.
En effet, l’enseignement post-secondaire à l’ère de la Covid-19 s’avère bouleversé sur
plusieurs plans : sur le plan pédagogique et de la médiatisation des enseignements ainsi que
sur le plan de l’évaluation des apprentissages réalisés. L’évaluation représente un défi
majeur en pédagogie universitaire au regard de la réussite formatrice qui est une
préoccupation forte pour les enseignants1 comme pour les étudiants. Comment l’évaluation
peut-elle être adaptée, transformée, réinventée dans ce contexte ? À ce titre, l’usage de
certains outils numériques destinés à l’enseignement en ligne comme l’activité « test » de la
plateforme Moodle mérite d’être exploré. Cette piste d’usage de tests évaluatifs et les
propositions que nous faisons pour l’enseignement en contexte universitaire (en dialogue
avec la recherche) visent non à normaliser le mode de fonctionnement exploré, mais à en
apprécier l’intérêt et les limites.
Cette étude exploratoire a ainsi pour objectif de décrire et de vérifier l’intérêt d’un dispositif
permettant le travail et l’entraînement des étudiants à distance, pour leur réussite à l’examen
final. L’organisation d’un dispositif proposant une succession de tests en ligne s’est
effectuée dans l’urgence dans un premier temps (mars 2020) puis, face aux incertitudes
contextuelles, l’équipe pédagogique a anticipé sur la réingénierie des enseignements en
systématisant des tests évaluatifs. La temporalité d’un semestre sur lequel se déroule cette
étude a donc permis une certaine préparation quant à l’adaptation des contenus
d’enseignement au format numérique, et l’élaboration des tests formatifs s’est réalisée de
manière échelonnée, distribuée sur les 12 semaines de cours. L’enseignement ponctué de
tests d’entraînement en ligne est-il favorable à la réussite des étudiants dans le Supérieur ?
Un test de corrélation illustre les liens significatifs existant entre la participation des
étudiants aux tests proposés en ligne et la performance à l’examen terminal. Nos résultats
sont discutés et certains éléments suggèrent des pistes d’amélioration et de nouvelles
recherches.
1 Partout où cela s’impose, il convient de voir derrière la formulation masculine d’un terme que nous utilisons
par souci de lisibilité, sa forme féminine.
2. Contexte
2.1. L’enseignement à distance (EAD)
Depuis quelques années, l’usage du numérique s’impose dans l’enseignement supérieur
depuis les préconisations politiques jusqu’aux études scientifiques qui rendent compte des
expérimentations pédagogiques. Le contexte de la Covid-19 a considérablement amplifié ce
phénomène et conduit les enseignants à adapter leur « pédagogie présentielle » en
« pédagogie numérique ». Les environnements numériques de travail (ENT) et plus
particulièrement les plateformes d’EAD n’ont jamais été autant sollicités.
Ainsi, les pédagogies universitaires intègrent et mobilisent de très nombreuses technologies
numériques permettant la médiatisation des contenus de connaissances et les interactions
entre les usagers. Par exemple :
– la plateforme d’enseignement en ligne Moodle qui, outre la traçabilité de l’activité
des étudiants, permet la mise à disposition de ressources numériques sous différents
formats (audio, vidéo, texte...), de nombreuses activités individuelles ou collectives
(test, dépôt de devoir, wiki, glossaire...) et des interactions synchrones ou
asynchrones avec les étudiants (via le chat, le forum de discussion, le courrier
électronique) ;
– l’application de communication vidéo Zoom qui permet la mise en œuvre et la
planification de vidéoconférences (avec la possibilité d’enregistrement), la
communication multimodale (audio, vidéo, écrit), le partage d’écran, la division
d’un groupe d’étudiants en salles de classe (pour des travaux de groupe) ;
– l’application Wooclap qui est un système de vote interactif permettant de créer des
questionnaires, des brainstorming, des nuages de mots, des exercices
d’appariement, etc.
Outre leur intérêt pédagogique, ces outils numériques autorisent la collecte et l’analyse des
traces des apprentissages effectués par les étudiants (Peraya et al., 2009). C’est en particulier
le cas de la plateforme Moodle.
manière à ce que leur usage soit limité dans le temps afin que l’étudiant puisse les réaliser à
plusieurs reprises (ou pas), que l’évaluation soit automatisée et qu’un feedback (ou
rétroaction automatique immédiate) s’affiche pour chacune des réponses. Proposé à
différents stades de l’apprentissage, ce type d’activité rend possible l’autorégulation des
apprentissages dans une visée formative et l’évaluation certificative des connaissances des
étudiants via des questionnaires (Thual, 2020). Les objectifs sont variés : maintenir
l’attention des étudiants, s’assurer de la compréhension, de l’ancrage et de l’appropriation
des notions, engager les étudiants en situation de révision.
Par ailleurs, l’intérêt de ce type de « test » est qu’il permet de recueillir de manière
automatisée des « traces numériques » d’apprentissage enregistrées (Cisel & Baron, 2019 ;
Coen & Bouzenada Sottas, 2019), ouvrant la voie à des possibilités de suivi individuel et
d’analyses quantitatives voire de rétroactions sur l’activité des utilisateurs en termes de
participation/connexion, « de qualité des réponses, du nombre d’essais réalisés et du temps
passé » (Ladage & Audran, 2011, p. 383). La collecte sous forme numérique de ces indices
matériels, qui témoignent de l’activité des usagers sur la plateforme (les opérations qu’ils
réalisent, voire les interactions qu’ils ont entre eux), ne suffit pas pour expliciter les
processus cachés derrière ces traces numériques « brutes » captées mécaniquement, dont
certaines demeurent relativement opaques. Nous y revenons dans le contexte des learning
analytics (LA) pour ensuite analyser les données sur ces paramètres bruts dans notre propre
protocole. Enfin, les nombreuses fonctionnalités comme la « banque de questions » de
Moodle permettent d’archiver des ressources et de construire des tests spécifiques avec
présentation des questions de manière aléatoire, et de partager avec d’autres enseignants les
contenus.
3. Cadre théorique
3.1. L’intérêt et les limites du concept des learning analytics (LA)
Initialement développée dans la littérature internationale, l’approche des LA peut être
définie comme une « analytique des activités d’apprentissage instrumentées [par le
numérique] » (Peraya, 2019a, p. 3). Son objet est l’étude des traces numériques laissées par
les apprenants dans les ENT ou dans les dispositifs/plateformes de formation où ils
réalisent des activités : des données sont ainsi automatiquement générées lorsque les
apprenants se connectent (date, heure, lieu, durée) et consultent des ressources, répondent
à des questions/quiz, publient des messages dans des forums, produisent du contenu,
échangent entre eux, etc. (Peraya et al., 2009 ; Pierrot, 2019). En général, ces données ont la
caractéristique d’être multimodales (textes en langage naturel, clics, logs de connexion,
votes électroniques, etc.) et abondantes voire massives de type “big data” (Boyer, 2019 ;
Peraya, 2019a ; 2019c ; Pierrot, 2019 ; Tubaro, 2019). Dans le contexte de fort
développement des plateformes numériques d’apprentissage depuis les années 2000, les
chercheurs ont trouvé un intérêt à produire des connaissances sur les
activités/comportements des utilisateurs (à partir des traces enregistrées) en vue aussi de
faciliter le travail d’encadrement des enseignants ou tuteurs et d’améliorer les
enseignements (Mœglin, Grandbastien & Peraya, 2019 ; Peraya, 2019c ; 2019d ; Pierrot,
2019). L’intérêt des LA se porte donc alternativement ou simultanément sur :
1) la description et la modélisation des processus/parcours d’apprentissage des
utilisateurs, des profils d’étudiants, des interactions avec le dispositif de formation,
etc. ;
2) la remédiation via l’amélioration/optimisation des processus d’apprentissage, le
soutien/suivi des apprenants, l’adaptation/personnalisation des parcours, etc. ;
3) l’amélioration et l’optimisation des environnements dans lesquels prennent place
ces processus et ces parcours.
Sur le plan pédagogique, les bénéfices potentiels des LA s’exercent donc aussi bien du
point de vue des apprenants que des enseignants et encadrants, voire de l’institution au sens
large, pour soutenir les processus d’enseignement et d’apprentissage (Gras, 2019 ; Pierrot,
2019 ; Poellhuber & Roy, 2019 ; Romero, 2019 ; Tubaro, 2019).
Le courant des LA est toutefois à envisager avec une certaine prudence au moins du point
de vue de deux préoccupations qui marquent le domaine : la validité des traces numériques
d’apprentissage collectées et l’usage éthique et déontologique des données. La question
critique de la validité des données et des pratiques basées sur ces données se pose face au
caractère partiel et limité des traces numériques qui ne rend pas entièrement compte des
pratiques d’apprentissage comme on pourrait par exemple les observer en classe (Peraya,
2019a ; 2019b ; Pierrot, 2019). Face au développement des approches analytiques des traces
d’apprentissage numériques, la littérature internationale soutient que de fausses
interprétations concernant le comportement des apprenants sont possibles, par exemple
lorsqu’on travaille avec la variable « temps de fréquentation » (Goda et al, 2015) ou « temps
de réponse » (Kalman, Scissors, Gill & Gergle, 2013). Sans compter d’autres biais tels que
ceux liés à l’absence de prise en compte de l’ensemble des apprenants en lien avec les
inégalités d’accès au numérique (Tubaro, 2019), les biais liés à la fabrication par les
apprenants eux-mêmes de traces ne correspondant pas à leur activité réelle et ceux liés aux
problèmes d’authentification de l’identité de la personne et l’ajustement nécessaire du
– la nécessité pour les élèves d’être en mesure de s’autoévaluer et d’évaluer leurs pairs
(dans une visée d’autonomisation) ;
– la reconnaissance de l’influence profonde de l’évaluation sur la motivation et
l’estime de soi des élèves, deux conditions essentielles à leur apprentissage.
Selon Brown (2004, pp. 81-82), l’AfL vise la motivation, l’implication des apprenants et la
communication de conseils en vue d’une correction ou d’une remédiation. Le dispositif que
nous présentons dans la troisième section de cet article correspond en tous points à ces
finalités : dans le contexte précis de notre étude, l’évaluation est conçue comme un soutien
à l’engagement, à l’autonomisation et à l’autorégulation des primo-arrivants au service de
leur apprentissage et de leur réussite lors de l’entrée à l’université.
En lien avec les principes au cœur de la logique de l’AfL, l’approche également traduite par
la formule « évaluation-soutien d’apprentissage » (Allal & Laveault, 2009), explicitant ainsi
sa fonction, rejoint les perspectives de l’évaluation formative (De Ketele, 2013 ; Mottier
Lopez, 2015 ; Stobart, 2011).
5. Méthodologie
5.1. Paramétrage du dispositif de recherche et d’intervention
Le dispositif d’EAD est réglé par un cadrage institutionnel selon les directives
ministérielles : au premier semestre de l’année universitaire 2020-2021, les enseignements
sont passés à distance et ont basculé en ligne dans leur totalité, y compris l’examen final.
Dans le département des SEF où le dispositif est expérimenté, l’organisation et la
configuration des enseignements sont gérées par une équipe composée d’enseignants-
chercheurs (un responsable pédagogique accompagné de trois attachés d’enseignement et
de recherche).
Le dispositif concerne plus précisément l’unité d’enseignement obligatoire MTU lors du
premier semestre de l’année universitaire 2020-2021. Cet enseignement de MTU consiste
en un dispositif d’aide et d’accompagnement à la réussite des étudiants néo-entrants à
l’université en début de cursus de licence (Gettliffe, 2018). Cet enseignement comprend
8 modules pédagogiques correspondant à 8 chapitres thématiques, chacun étant abordé en
EAD en temps synchrone via l’application Zoom et des classes virtuelles organisées chaque
semaine en séance de 2 heures (pour un total de 24 heures réparties en 12 séances). Les
2 Le caractère facultatif des tests se justifie à deux niveaux. Premièrement, il nous semblait intéressant avant
de lancer l’expérimentation, d’examiner l’évolution de la participation aux tests dans la durée (que nous
exploitons d’ailleurs dans l’analyse). Secondairement et a posteriori, le caractère optionnel des tests a
provoqué le partage de l’échantillon d’étudiants en deux sous-groupes d’effectifs assez proches : le sous-
groupe des étudiants ayant réalisé au moins une fois un test et le sous-groupe de ceux n’ayant jamais
participé au dispositif, qui constituent ainsi un point de comparaison/repère intéressant pour la réalisation
des tests statistiques (test de comparaison de moyennes).
chaque étudiant est donc libre de refaire le test autant de fois qu’il le souhaite, de façon
autonome pendant ses heures de travail personnel. Plusieurs incitations à participer ont été
adressées aux étudiants pendant les séances de cours en synchrone et diffusées à distance
via l’ENT, renforçant ainsi la stratégie d’enrôlement.
L’annexe 1 illustre un exemple de test incluant différents types de questions avec plusieurs
choix de réponses et les rétroactions afférentes.
La validation de chaque test se fait par un calcul de score de réussite qui ne contribue pas à
la note finale. En fonction du nombre de tentatives réalisées sont affectées une note
cumulée ainsi que la moyenne pondérée pour l’ensemble des tests. Par ailleurs, les supports
de présentation de type diaporama sur PowerPoint (ainsi que les textes, capsules vidéos,
fiches-guides, ressources web, etc.) ayant servi d’appui aux enseignements et résumant les
éléments clés du cours (notions importantes, concepts clés, procédures de travail), restent
eux aussi accessibles durant toute la durée du semestre, ce qui permet aux étudiants de s’y
référer en cas de besoin. Un forum ouvert pour chaque test permettait une certaine
interactivité (entre étudiants entre eux et entre enseignants et étudiants), ainsi qu’une
rétroaction régulière de l’enseignant sur le travail effectué qui ne pouvait avoir lieu en face-
à-face.
L’organisation de l’examen final participe de la mise en œuvre du dispositif au titre de la
validation de l’UE MTU et de l’évaluation des compétences précitées. En raison de la
situation de pandémie, une solution alternative à l’examen écrit en présentiel initialement
prévu a été proposée : l’examen s’est déroulé entièrement à distance sur une période de
trois jours à l’issue de laquelle s’organisait le dépôt du travail dans un espace dédié de
Moodle. Proposé sous forme d’épreuve écrite, l’examen qui comptait pour l’entièreté de la
note finale comportait cinq parties correspondant aux tâches d’apprentissage soit :
– Prendre des notes au fil de l’écoute de quatre mini-reportages vidéos (d’une durée
de trois à cinq minutes chacun) ;
– Élaborer une carte conceptuelle/mentale à partir de la prise de notes
précédemment établie ;
– Rédiger un résumé structuré de 25 lignes reprenant l’essentiel des informations de
chaque mini-reportage, dans lequel seraient insérées 2 citations (normées APA) sur
le même thème et d’auteurs différents de ceux de la vidéo. Ce résumé serait
complété par une bibliographie des auteurs cités ;
– Expliciter en cinq lignes l’usage des citations insérées dans le résumé ;
– Évaluer une bibliographie comportant des référenciations erronées par rapport aux
normes APA et les corriger.
Les exigences liées à la conception de l’examen terminal imposaient en particulier d’éviter la
triche ou le plagiat3 (Admiraal, Huisman & Pilli, 2015 ; Béland, Bureau & Peters, 2020 ;
Thual, 2020). En permettant la remise d’un travail individuel à distance, il fallait susciter
tout à la fois la mobilisation et le réinvestissement des notions découvertes en cours, mais
également une certaine réflexion garante de la pertinence et de la validité/fiabilité de
l’évaluation terminale. L’enjeu était également de tenir un alignement pédagogique entre
objectifs de formation, activités pédagogiques réalisées pendant les enseignements et
évaluation.
3 Puisque la consultation de tout type de document était possible dans ces conditions.
4
Valeurs données à titre informatif : p-value = 0,21 ; Khi2 = 15,70 ; ddl = 12,00.
5
Valeurs données à titre informatif : p-value = 0,49 ; Khi2 = 23,55 ; ddl = 24,00.
6. Résultats
La présentation des résultats ci-dessous nous conduit à discuter notre hypothèse initiale et à
répondre à notre question de recherche avec prudence au regard du caractère exploratoire
de l’étude et de la démarche SoTL mise en place. Cette section présente de manière
successive le plan statistique attaché au dispositif puis les résultats liés à son intérêt et enfin
les usages du dispositif qu’il est possible de décrire à partir des données recueillies. Des
éléments de discussion sont avancés au fur et à mesure afin d’éviter de perdre le lecteur en
fin d’article en lien avec des éléments de nature différente que nous proposons ici les uns à
la suite des autres.
Tableau 2 : Appropriation du dispositif par les étudiants ayant participé aux tests
Nombre Temps
Note Note
Nombre moyen de moyen
Taux de totale cumulée
Tests total de tentatives par test
participation cumulée moyenne
tentatives par (en
moyenne (/20)
étudiant minutes)
T1 - Prise de notes 50,0% 86 1,6 6,60 29,6 15,2
T2 - Normes APA 36,8% 62 1,6 18,20 18,7 10,9
T3 - Université - Rôle -
41,5% 77 1,8 5,47 24,9 12,7
Mission
T4 - Autour des mots 34,0% 68 1,9 12,95 22,0 10,6
T5 - Décrochage
34,0% 68 1,9 5,85 25,7 12,9
scolaire
T6 - Évaluation 34,0% 67 1,9 15,49 24,2 9,6
T7 - Coopération 27,4% 53 1,8 9,13 28,1 14,4
T8 - Accompagnement 17,9% 27 1,4 3,79 15,8 8,3
La note finale sur 20 points à l’examen terminal de fin d’UE s’étend de 2,6 à 17,2 avec une
moyenne des performances des étudiants qui s’élève à 11,42 (ET = 3,37).
Le test de Spearman établit une corrélation positive faible (CC proche de 0,20) mais
significative de la note à l’examen avec le nombre de tentatives, et tendancielle avec la note
cumulée et la note moyenne aux tests (voir tableau 3).
Tableau 3 : Corrélation entre la participation aux tests formatifs et la note finale
Note à l’examen
CC de Spearman p
Nombre de tentatives aux tests 0,20 0,0434
Note cumulée aux tests 0,19 0,0563
Note moyenne aux tests 0,18 0,0596
la note cumulée et 4) la moyenne aux tests. Les seules différences (tendances) observées
indiquent une meilleure réussite à l’examen final (p = 0,0773) ainsi qu’une meilleure
moyenne à l’entraînement (p = 0,0735) pour les étudiants ne disposant pas d’ordinateur. Ce
résultat qui est plutôt surprenant interroge au regard du type d’équipement utilisé par les
étudiants dans le cadre de leur formation universitaire.
6 Les valeurs extrêmes de type 19 heures de temps passé cumulé ont été écartées car elles affectent l’analyse
statistique (calcul de la moyenne et autres calculs basés sur cette dernière).
7 Ces étudiants qui se sont « surentraînés » aux tests obtiennent une note « moyenne » à l’examen (12.1 pour
l’étudiant aux 34 tentatives, et 10 pour l’étudiant aux 29 tentatives). Ils apparaissent comme des valeurs
extrêmes de notre échantillon qui ne perturbent pas pour autant les tests statistiques (pas de changement
significatif dans les résultats en les excluant).
Cette exploration des données est concordante avec la situation analysée par Ladage et
Audran en 2011 (p. 386) à propos de ce qu’ils avaient appelé « clic curieux » ou « clic de
découverte » en référence aux étudiants qui visitent le test par curiosité en ne passant que
quelques secondes sur la première question et en ne passant pas aux suivantes. Comme
Ladage et Audran (2011), nous faisons le constat d’une certaine lassitude apparue au fur et
à mesure de l’ouverture des tests sur Moodle et, dans le cas où ils sont visités, d’une
utilisation « très superficielle ». Le caractère non obligatoire du dispositif peut expliquer ce
phénomène.
La figure 2 permet, quant à elle, de situer les moments où les tests ont été effectués. Trois
pics d’une amplitude d’environ une semaine chacun sont observables : un premier à
l’ouverture des tests, un deuxième au moment des congés universitaires (début
novembre 2020) et un dernier, plus faible, avant l’examen final (janvier 2021). Une activité
modérée suit la période des congés universitaires (début à fin novembre 2020), elle-même
suivie d’une forte accalmie dans la réalisation des tests.
50
45
40
35
30
25
20
15
10
5
0
16-oct. 23-oct. 30-oct. 06-nov. 13-nov. 20-nov. 27-nov. 04-déc. 11-déc. 18-déc. 25-déc. 01-janv.
Prises de notes Normes APA Université - Rôle - Mission Autour des mots
Décrochage scolaire Évaluation Coopération Accompagnement
Pour les étudiants ayant pris part au dispositif, cela illustre le phénomène d’usure dans la
participation aux tests avec l’avancée du semestre et l’ouverture progressive des différents
tests.
Pour le reste de l’échantillon (44,3 %) nous constatons d’emblée un « non-usage » de
l’activité test, instrumentée pédagogiquement, pouvant traduire plusieurs phénomènes pour
lesquels nous supputons : 1) soit le fait que les étudiants ne se sentent pas concernés par ce
dispositif facultatif, 2) soit « l’absence de perception de l’utilité » ou de l’intérêt d’une
évaluation formative en vue de la réussite à l’examen (Simonian & Audran, 2012, § 10). On
peut en effet rappeler que l’examen final de l’UE ne s’est pas organisé sous forme de tests
mais de devoir à rendre.
6.3.2. Un phénomène de rapidité dans l’exécution des tests
À partir des données générées par la plateforme Moodle concernant la mesure du temps
passé pour chaque test, nous observons que celui-ci oscille entre 0 (pour les étudiants qui
n’ont pas terminé les tests) et 1 h 13 min 05 s8, la médiane se situant à 5 min 06 s. Le temps
moyen passé par test s’élève à 7 min 42 s, c’est à dire moins de 10 minutes par test. Chaque
test comprenant 10 questions, il s’avère que le temps moyen passé par question sur
l’ensemble des tests est de moins d’une minute. Seuls 11 étudiants sur les 59 passent en
moyenne plus de 10 minutes par test.
La figure 3 illustre ce phénomène de rapidité dans l’exécution des tests avec un effectif
important d’étudiants les réalisant en moyenne en moins de 5 minutes, cet effectif étant
presque toujours supérieur à l’effectif des étudiants les réalisant en plus de temps (soit entre
5 et 10 minutes, et au-delà de 10 minutes).
8 Ici aussi les valeurs extrêmes de type 14 heures de temps passé pour un test ont été écartées car elles
affectent l’analyse statistique (calcul de la moyenne et autres calculs basés sur cette dernière).
Figure 3. Temps moyen passé par test regroupé en trois classes de temps (fréquences
cumulées 100%)
Le peu de temps moyen passé par question et par test nous laisse penser que les étudiants
ne se réfèrent que peu ou pas aux ressources et documents disponibles (diaporamas sur
PowerPoint, textes, capsules vidéos, fiches-guides, ressources web, etc.) pour vérifier leurs
réponses. Nous rejoignons en cela les résultats de Ladage et Audran (2011) qui qualifient la
démarche des étudiants de « rétrocognitive » en ce qu’il font appel aux connaissances qu’ils
ont déjà, celles qu’ils ont mémorisées à l’issue des séances de cours passées, celles dont ils
se souviennent, sans prendre le temps de vérifier ou d’approfondir leurs connaissances
(dans une intention procognitive). Au vu des résultats obtenus à l’examen terminal, on peut
néanmoins penser que les étudiants ont étudié et révisé leurs cours, ne serait-ce que durant
les trois jours dédiés à la remise du rapport : « tout se passe comme si les tâches
d’évaluation et le temps d’étude étaient déconnectés l’un de l’autre alors que cette
étanchéité est fictive. » (Ladage & Audran, 2011, p. 387).
6.3.3. Nombre de connexions à l’espace de cours
Parmi les données générées par la plateforme Moodle, nous avons eu également accès au
nombre de connexions à l’espace de cours de chaque étudiant. Ces données ont été triées
pour éliminer les doubles connexions puis sommées pour obtenir un score de consultation
sur la durée du semestre (septembre 2020-janvier 2021). En moyenne, les étudiants ont
accédé 43 fois à l’espace de cours dédié de l’UE pour un temps de connexion compris entre
2 et 52 heures (22 heures en moyenne).
Le test de Spearman établit une corrélation positive significative (CC compris entre 0,28 et
0,39 avec p < 1 %) entre le nombre de connexions et 1) la note à l’examen, 2) le nombre de
tentatives, 3) la note cumulée et 4) la moyenne aux tests (voir tableau 4).
Nombre de connexions
CC de Spearman p
Note à l’examen 0,36 0,0002
Nombre de tentatives aux tests 0,39 < 0,0001
Note cumulée aux tests 0,37 0,0001
Note moyenne aux tests 0,28 0,0037
portant sur l’e-évaluation formative en contexte de grand groupe, ayant mis en évidence
l’intérêt d’injecter des rétroactions : elles susciteraient « un engagement cognitif plus
substantiel et un apprentissage en profondeur » et permettraient de rendre les étudiants
plus actifs et autonomes (Lepage, Leduc & Stockless, 2019, p. 29). Face à ce constat et en
lien avec la forme électronique de ce dispositif entièrement organisé à distance, les résultats
suggèrent néanmoins de porter une attention particulière à la participation des étudiants
aux tests et à leur présence sur la plateforme puisque 1) le taux de participation aux tests
n’est que modéré et que 2) le nombre de connexions à l’espace de cours en ligne est corrélé
positivement aux performances à l’examen. Outre les failles techniques, cela pose la
question des capacités d’autonomie et d’autorégulation des étudiants, particulièrement
sollicitées en formation à distance et supposées acquises (Depover, Mélot, Strebelle &
Temperman, 2016). Enfin, le faible temps d’étude qui est accordé à la réalisation des tests
(et son étiolement avec l’avancée du semestre) nous encourage à interroger cet outil au
double plan pédagogique et didactique. Parmi les différents facteurs personnels (parcours,
formation, expérience numérique, équipement matériel, etc.), contextuels (milieu social,
historique, culturel, contraintes institutionnelles, etc.), organisationnels (pédagogie,
technologie, travail en binôme ou en groupe, etc.) et disciplinaires (didactique) qui semblent
déterminants, quels sont ceux qui entrent en ligne de compte dans la réussite du test final ?
Pour les identifier séparément, une étude supplémentaire serait nécessaire. Des profils
d’étudiants sont-ils identifiables ? Quelles conditions et contraintes pèsent sur la réussite
étudiante dans un parcours d’EAD ? Ces questions que notre étude suggère méritent des
investigations complémentaires pour la réingénierie des dispositifs de formation et de
recherche.
validité des données, nous concevons en effet que la trace numérique ne rend compte que
d’une partie du processus d’apprentissage et qu’elle nécessite d’être étayée de données
qualitatives pour lui donner plus de sens et mieux comprendre le contexte dans lequel se
déroulent les activités et les comportements (Boyer, 2019 ; Peraya, 2019a ; 2019b ; 2019c ;
Peraya & Luengo, 2019 ; Pierrot, 2019 ; Poellhuber & Roy, 2019 ; Romero, 2019). Deux
actions seraient donc indispensables pour pallier le caractère partiel, lacunaire et
décontextualisé des traces d’apprentissage et interpréter leur signification (plus complète) :
« re-socialiser les données numériques » (Peraya, 2019a, p. 9) et trianguler des données de
natures différentes (quantitatives et qualitatives, numériques et déclaratives, etc.) intégrant
des éléments de contexte et l’interaction des différents acteurs impliqués et pas uniquement
des chercheurs (Boyer, 2019 ; Pierrot, 2019 ; Romero, 2019 ; Tubaro, 2019). Les
plateformes d’apprentissage et les outils numériques permettent de diversifier les pratiques
d’évaluation et les usages en pédagogie universitaire : d’autres pistes d’actions évaluatives
étayées par le numérique sont à explorer, telles que les évaluations collaboratives,
l’identification des types de difficultés par les étudiants, ainsi que les stratégies de
développement de procédures de remédiation autonome.
8. Bibliographie
Admiraal, W., Huisman, B., & Pilli, O. (2015). Assessment in Massive Open Online Courses.
Electronic Journal of e-Learning, 13(4), 207-216.
Allal, L., & Laveault, D. (2009). Assessment for Learning : évaluation-soutien d’apprentissage. Mesure et
évaluation en éducation, 32(2), 99-106. https://doi.org/10.7202/1024956ar
Assessment Reform Group. (1999). Assessment for learning: Beyond the black box. Cambridge University
Press.
Assessment Reform Group. (2002). Assessment for learning: Research-based principles to guide classroom
practice. Cambridge University Press.
Barbeau, N., Frenette, E., & Hébert, M-H. (2021). Et si les stratégies d’apprentissage des étudiants
et leurs perceptions envers l’évaluation des apprentissages avaient un lien avec l’ajustement
académique dans un contexte de persévérance aux études universitaires ? Revue internationale de
pédagogie de l’enseignement supérieur, 37(2). https://doi.org/10.4000/ripes.2807
Barras, H., & Dayer, E. (2020). L’évaluation formative comme soutien aux étudiants lors d’un
basculement en urgence dans un enseignement à distance. e-Jiref Évaluer-Journal international de
recherche en éducation et formation, HS 1, 25-33.
http://journal.admee.org/index.php/ejiref/article/view/215/118
Béland, S., Bureau, J.S., & Peters, M. (2020). Plagier en temps de pandémie. e-Jiref Évaluer-Journal
international de recherche en éducation et formation, HS 1, 35-40.
http://journal.admee.org/index.php/ejiref/article/view/216/119
Biémar, S., Daele, A., Malengrez, D., & Oger, L. (2015). Le « Scholarship of Teaching and
Learning » (SoTL). Proposition d’un cadre pour l’accompagnement des enseignants par les
conseillers pédagogiques. Revue internationale de pédagogie de l’enseignement supérieur, 31(2).
http://journals.openedition.org/ripes/966
Black, P., Harrison, C., Lee, C., Marshall, B., & Wiliam, D. (2003). Assessment for learning: Putting it
into practice. Oxford University Press.
Black, P., & Wiliam, D. (2009). Developing the theory of formative assessment. Educational
Assessment, Evaluation and Accountability, 21, 5-13. https://doi.org/10.1007/s11092-008-9068-5
Boéchat-Heer, S., & Vallat, P.O. (2019). L’adaptation des étudiants et des formateurs à l’usage d’un
ePortfolio : Accompagnement et évaluation formative. Questions Vives, 31.
https://doi.org/10.4000/questionsvives.3843
Boléguin, V., Guillon, S., & Kennel, S. (2019). L’usage de Moodle à l’université : Vers une typologie
des utilisateurs parmi les enseignants-chercheurs. Revue internationale des technologies en pédagogie
universitaire, 16(3), 39-56. https://www.ritpu.ca/img/pdf/ritpu-2019-v16n3-33.pdf
Boyer, A. (2019). Quelques réflexions sur l’exploration des traces d’apprentissage. Distances et
médiations des savoirs, 27, 1-8. https://doi.org/10.4000/dms.4086
Brown, S. (2004). Assessment for Learning. Learning and Teaching in Higher Education, Issue 1.
Carrupt, R., & Barras, H. (2019). Dynamique des régulations en classe virtuelle ou en présentiel.
Évaluer. Journal international de recherche en éducation et formation, 5(3), 57-83.
https://journal.admee.org/index.php/ejiref/article/view/208/112
Charroud, C., Dessus, P., & Osete, L. (2020). Confinement et pratiques évaluatives : une
MOOCification urgente et forcée. e-Jiref Évaluer-Journal international de recherche en éducation et
formation, (HS 1), 53-58. http://journal.admee.org/index.php/ejiref/article/view/218/121
Chochard, Y., Simoneau, F. B., Mazalon, É., & Villien, C. (2019). Les technologies de l’information
et de la communication pour évaluer les séquences de stage : Étude de cas d’un dispositif de
formation professionnelle en alternance québécois. Questions Vives, 31.
https://doi.org/10.4000/questionsvives.3753
Cisel, M., & Baron, G.-L. (2019). Utilisation de tableaux de bord numériques pour l’évaluation des
compétences scolaires : Une étude de cas. Questions Vives, 31.
https://doi.org/10.4000/questionsvives.3883
Clarke, S. (2001). Unlocking formative assessment. Practical strategies for enhancing pupils’ learning in the
primary classroom. Hodder & Stoughton.
Coen, P.-F., & Bouzenada Sottas, C. (2019). Une typologie des traces numériques utilisées par de
futurs enseignants. Questions Vives, 31. https://doi.org/10.4000/questionsvives.3958
Coen, P.-F., Detroz, P., & Younès, N. (2020). Introduction. Évaluation et numérique : Des
pratiques éclectiques qui explorent des espaces à déchiffrer. Évaluer. Journal international de
recherche en éducation et formation, 5(3), 1-8.
https://journal.admee.org/index.php/ejiref/article/view/203/108
De Ketele, J.-M. (2013). Présentation. Évaluation et enseignement : Pour quels objectifs ? Par quels
moyens ? Revue française de linguistique appliquée, 18 (1), 5-8.
https://doi.org/10.3917/rfla.181.0003
Detroz, P., Crahay, M., & Fagnant, A. (2017). Introduction . In P. Detroz (Éd.), L’évaluation à la
lumière des contextes et des disciplines (pp. 11-20). De Boeck Supérieur.
https://doi.org/10.3917/dbu.detro.2017.01.0011
Detroz, P., & Younès, N. (2017). Introduction à l’axe 3. In P. Detroz (Éd.), L’évaluation à la lumière
des contextes et des disciplines (pp. 211-220). Louvain-la-Neuve, Belgique : De Boeck Supérieur.
https://doi-org/10.3917/dbu.detro.2017.01.0211
Depover, C., Mélot, L., Strebelle, A., & Temperman, G. (2016). Régulation et autorégulation dans
les dispositifs d’apprentissage à distance. In B. Noël & S. C. Cartier (Éds.), De la métacognition à
l’apprentissage autorégulé (pp. 95-108). De Boeck Supérieur.
Gardies, C., Faure, L., & Marcel, J.-F. (2019). L’usage d’un dispositif numérique synchrone pour
l’évaluation de pratiques d’enseignement. Évaluer. Journal international de recherche en éducation et
formation, 5(3), 35-55. https://journal.admee.org/index.php/ejiref/article/view/207/111
Goda, Y., Yamada, M., Kato, H., Matsuda, T., Saito, Y., & Miyagawa, H. (2015). Procrastination
and other learning behavioral types in e-learning and their relationship with learning outcomes.
Learning and Individual Differences, 37, 72-80. https://doi.org/10.1016/j.lindif.2014.11.001
Gras, B. (2019). Éthique des Learning Analytics. Distances et médiations des savoirs, (26), 1-8.
https://doi.org/10.4000/dms.3768
Kalman, Y. M., Scissors, L. E., Gill, A. J., & Gergle, D. (2013). Online chronemics convey social
information. Computers in Human Behavior, 29(3), 1260-1269.
https://doi.org/10.1016/j.chb.2012.12.036
Ladage, C., & Audran, J. (2011). Questions et test en ligne sur des plateformes EIAH : Des pratiques
rétrocognitives réinterrogées par l’analyse des traces. Conférence EIAH 2011 Environnements
informatiques pour l’apprentissage humain, 381-393. https://hal.archives-ouvertes.fr/hal-
00611391/document
Leduc, L., Mohr, A., Marichal, E., Deum, M., & Detroz, P. (2017). Chapitre 8. Viser le
développement des pratiques d’Assessment for Learning (AfL) dans le contexte de la 1re année à
l’université : Cadre théorique, dispositif et initiatives pédagogiques résultant du projet
« Feedbacks 1er bac ». In P. Detroz (Éd.), L’évaluation à la lumière des contextes et des disciplines
(pp. 221-255). De Boeck Supérieur. https://doi.org/10.3917/dbu.detro.2017.01.0221
Lepage, I., Leduc, D., & Stockless, A. (2019). E-évaluation dynamique et engagement cognitif en
contexte grand groupe à l’université. Évaluer. Journal international de recherche en éducation et
formation, 5(3), 9-33. https://journal.admee.org/index.php/ejiref/article/view/204/109
Mœglin, P. (Éd.) (2016). Industrialiser l’éducation : Textes historiques commentés. Presses universitaires de
Vincennes.
Mœglin, P., Grandbastien, M., & Peraya, D. (2019). Éditorial. Distances et médiations des savoirs, 27, 1-
5. https://doi.org/10.4000/dms.3905
Peraya, D. (2019a). Les Learning Analytics en question : Panorama, limites, enjeux et visions d’avenir.
Distances et médiations des savoirs, 25, 1-19. https://doi.org/10.4000/dms.3485
Peraya, D. (2019c). Entre l’enseignement et la recherche, quelle place pour les Learning Analytics ?
Distances et médiations des savoirs, 27, 1-4. https://doi.org/10.4000/dms.4080
Peraya, D. (2019d). Les Learning Analytics, entre fantasmes et réalités. Distances et médiations des savoirs,
28, 1-3. https://doi.org/10.4000/dms.4599
Peraya, D., Batier, C., Paquelin, D., Rizza, C., & Vieira, M. (2009). Les traces d’usage et l’usage des
traces : Le rôle des traces dans l’orientation stratégique des unités de développement de e-
Learning et des dispositifs hybrides dans l’enseignement supérieur. In A. Jaillet & F. Larose
(Éds.), Le numérique dans l’enseignement et la formation : Analyses, traces et usages (pp. 37-79).
L’Harmattan.
Peraya, D., & Luengo, V. (2019). Les Learning Analytics vus par Vanda Luengo : Entretien.
Distances et médiations des savoirs, 27, 1-7. https://doi.org/10.4000/dms.4096
Pierrot, L. (2019). Les LA : Des réponses et des promesses. Distances et médiations des savoirs, 26, 1-7.
https://doi.org/10.4000/dms.3764
Poellhuber, B., & Roy, N. (2019). Quelques réflexions en lien avec l’analytique de l’apprentissage.
Distances et médiations des savoirs, 26, 1-9. https://doi.org/10.4000/dms.3745
Pulker, H. (2019). Learning Analytics to improve retention. Distances et médiations des savoirs, 28, 1-8.
https://doi.org/10.4000/dms.4602
Rege Colet, N., McAlpine, L., Fanghanel, J., & Weston, C. (2011). Le concept de Scholarship of
Teaching and Learning. La recherche sur l’enseignement supérieur et la formalisation des
pratiques enseignantes. Recherche et formation, 67, 91-104.
https://doi.org/10.4000/rechercheformation.1412
Romero, M. (2019). Analyser les apprentissages à partir des traces : Des opportunités aux enjeux
éthiques. Distances et médiations des savoirs, 26, 1-6. https://doi.org/10.4000/dms.3754
Stobart, G. (2011). « L’évaluation pour les apprentissages » : D’une expérimentation locale à une
politique nationale. Revue française de pédagogie, 174, 41-48. https://doi.org/10.4000/rfp.2657
Thual, O. (2020). De l’examen écrit scientifique sur table au paramétrage d’une activité Test de
Moodle. e-Jiref Évaluer : Journal international de recherche en éducation et formation, (HS 1), 247-254.
http://journal.admee.org/index.php/ejiref/article/view/240/143
Tubaro, P. (2019). Les Learning Analytics vus par la sociologie. Distances et médiations des savoirs, 28,
1-8. https://doi.org/10.4000/dms.4608
Vial, M. (2012). Se repérer dans les modèles de l’évaluation : Méthodes, dispositifs, outils. De Boeck Université.
Vrillon, É. (2019). Une nouvelle évaluation de la réussite dans les MOOC à partir de registres
d’usages individuels. Questions Vives, 31. https://doi.org/10.4000/questionsvives.3933
Wiliam, D. (2011). What is assessment for learning? Studies in Educational Evaluation, 37(1), 3‑14.
https://doi.org/10.1016/j.stueduc.2011.03.001
Woit, D.M., & Mason, D.V. (2006). Online Assessment in Programming Courses: A Multiple Case
Study. In B.L. Mann (Éd.), Selected Styles in Web-Based Educational Research, (pp. 111-126). ISP,
Hershey.
N° Question
Q1 Jean Houssaye définit tout acte pédagogique comme l’espace entre trois sommets d’un triangle. Lesquels ?
Veuillez choisir au moins une réponse :
1. Apprendre 4. Étudiant
2. Former 5. Enseignant
3. Savoir 6. Enseigner
Feedback
Réponse correcte : Bonne réponse ! Dans son modèle de compréhension pédagogique, Jean Houssaye définit tout acte pédagogique comme l’espace entre trois sommets d’un triangle : l’enseignant,
l’étudiant, le savoir.
Réponse incorrecte : Mauvaise réponse ! Dans son modèle de compréhension pédagogique, Jean Houssaye définit tout acte pédagogique comme l’espace entre trois sommets d’un triangle :
l’enseignant, l’étudiant, le savoir. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q2
Feedback
Réponse incorrecte : Mauvaise réponse ! Certains des éléments sont incorrectement placés. Voir la correction ci-contre et pour en savoir plus « Texte à lire - Le triangle
didactique de Jean Houssaye » sur Moodle.
Feedback
Réponse correcte : Bonne réponse ! La relation didactique est le rapport qu’entretient l’enseignant avec le savoir et qui lui permet d’enseigner.
Ici, il s’agit de la relation pédagogique. La relation didactique est le rapport qu’entretient l’enseignant avec le savoir et qui lui permet d’enseigner. Pour en savoir plus, voir « Texte à lire - Le triangle
didactique de Jean Houssaye » sur Moodle.
Réponse incorrecte 1 : Mauvaise réponse ! Ici, il s’agit de la relation pédagogique. La relation didactique est le rapport qu’entretient l’enseignant avec le savoir et qui lui permet d’enseigner. Pour en
savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Réponse incorrecte 3 : Mauvaise réponse ! Ici, il s’agit de la relation d’apprentissage. La relation didactique est le rapport qu’entretient l’enseignant avec le savoir et qui lui permet d’enseigner. Pour en
savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Feedback
Réponse correcte : Bonne réponse ! Jean Houssaye fait remarquer qu’en règle général, toute situation pédagogique privilégie la relation de deux éléments sur trois du triangle pédagogique. Alors, le
troisième fait le fou ou le mort.
Réponses incorrectes : Mauvaise réponse ! Jean Houssaye fait remarquer qu’en règle générale, toute situation pédagogique privilégie la relation de deux éléments sur trois du triangle pédagogique. Pour
en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q5 L’élément qui n’entre pas dans l’une des relations du triangle pédagogique est nommé :
1. Le mort.
2. Le fou.
3. Le joker.
Feedback
Réponse correcte : Bonne réponse ! Jean Houssaye fait remarquer qu’en règle générale, toute situation pédagogique privilégie la relation de deux éléments sur trois du triangle pédagogique. Alors, le
troisième fait le fou ou le mort.
Réponses incorrectes : Mauvaise réponse ! Jean Houssaye fait remarquer qu’en règle général, toute situation pédagogique privilégie la relation de deux éléments sur trois du triangle pédagogique. Alors
le troisième fait le fou ou le mort. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q6
Feedback
Réponse correcte : Bonne réponse ! L’enseignant est un chercheur dans un domaine bien spécifique. Il fait évoluer le savoir, publie, et fait des conférences sur ses sujets d’excellence. L’objet central de
l’enseignant est sa matière et en aucun cas l’étudiant. Le savoir se transmet pour lui-même et peut être « déversé » à la demande de façon très classique : publications, livres, conférences, congrès… ou
de façon plus novatrice avec les nouvelles technologies : conférences enregistrées et retransmises sur Internet, publications en hypertexte sur Internet… Le sommet privilégié est le SAVOIR.
Réponses incorrecte 1 : Mauvaise réponse ! Ici il s’agit de la posture « Former ». Dans la posture « Savoir » L’enseignant est un chercheur dans un domaine bien spécifique. Il fait évoluer le savoir,
publie, et fait des conférences sur ses sujets d’excellence. L’objet central de l’enseignant est sa matière et en aucun cas l’étudiant. Le savoir se transmet pour lui-même et peut être « déversé » à la
demande de façon très classique : publications, livres, conférences, congrès… ou de façon plus novatrice avec les nouvelles technologies : conférences enregistrées et retransmises sur Internet,
publications en hypertexte sur Internet… Le sommet privilégié est le SAVOIR. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Réponses incorrecte 3 : Mauvaise réponse ! Ici il s’agit de la posture « Enseigner ». Dans la posture « Savoir » L’enseignant est un chercheur dans un domaine bien spécifique. Il fait évoluer le savoir,
publie, et fait des conférences sur ses sujets d’excellence. L’objet central de l’enseignant est sa matière et en aucun cas l’étudiant. Le savoir se transmet pour lui-même et peut être « déversé » à la
demande de façon très classique : publications, livres, conférences, congrès… ou de façon plus novatrice avec les nouvelles technologies : conférences enregistrées et retransmises sur Internet,
publications en hypertexte sur Internet… Le sommet privilégié est le SAVOIR. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q7
Feedback
Réponse correcte : Bonne réponse ! L’enseignant est un expert, détenteur d'un savoir (contenu de formation) qu'il transmet d'une manière didactique. Le côté privilégié du triangle pédagogique est le côté
enseignant-savoir.
Réponses incorrecte 2 : Mauvaise réponse ! Ici il s’agit de la posture « Savoir ». Dans la posture « Enseigner » L’enseignant est un expert, détenteur d'un savoir (contenu de formation) qu'il transmet
d'une manière didactique. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Réponses incorrecte 3 : Mauvaise réponse ! Ici, il s’agit de la posture « Apprendre ». Dans la posture « Enseigner » L’enseignant est un expert, détenteur d'un savoir (contenu de formation) qu'il transmet
d'une manière didactique. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q8
Feedback
Réponse correcte : Bonne réponse ! L’enseignant joue la place du mort durant l’acte pédagogique, mais il a préparé avant des situations d’apprentissages permettant de découvrir ou mettre en application
des connaissances.
Réponses incorrecte 2 : Mauvaise réponse ! Ici il s’agit de la posture « Éduquer ». Dans la posture « Apprendre » L’enseignant joue la place du mort durant l’acte pédagogique, mais il a préparé avant
des situations d’apprentissages permettant de découvrir ou mettre en application des connaissances. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Réponses incorrecte 3 : Mauvaise réponse ! Ici, il s’agit de la posture Enseigner ». Dans la posture « Apprendre » L’enseignant joue la place du mort durant l’acte pédagogique, mais il a préparé avant
des situations d’apprentissages permettant de découvrir ou mettre en application des connaissances. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q9
Feedback
Réponse correcte : Bonne réponse ! L’enseignant est un animateur qui a l’art et la manière de faire échanger les étudiants par exemple sur des études de cas, des mises en situation, des textes, des
problèmes…etc. pour leur apprendre à chercher, s’exprimer et prendre position sur des contenus de formation.
Réponses incorrecte 1 : Mauvaise réponse ! Ici il s’agit de la posture « Enseigner. » Dans la posture « Former » L’enseignant est un animateur qui a l’art et la manière de faire échanger les étudiants par
exemple sur des études de cas, des mises en situation, des textes, des problèmes…etc. pour leur apprendre à chercher, s’exprimer et prendre position sur des contenus de formation. Pour en savoir plus,
voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Réponses incorrecte 3 : Mauvaise réponse ! Ici, il s’agit de la posture « Éduquer ». Dans la posture « Former » L’enseignant est un animateur qui a l’art et la manière de faire échanger les étudiants par
exemple sur des études de cas, des mises en situation, des textes, des problèmes…etc. pour leur apprendre à chercher, s’exprimer et prendre position sur des contenus de formation. Pour en savoir plus,
voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Q10
Feedback
Réponse correcte : Bonne réponse ! L’enseignant est un accompagnateur à apprendre une posture dans le travail adapté aux besoins de la société, mais avec du sens pour l’étudiant.
Réponses incorrecte 1 : Mauvaise réponse ! Ici il s’agit de la posture « Savoir ». Dans la posture « Éduquer » l’enseignant est un accompagnateur à apprendre une posture dans le travail adapté aux
besoins de la société, mais avec du sens pour l’étudiant. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.
Réponses incorrecte 3 : Mauvaise réponse ! Ici, il s’agit de la posture « Enseigner ». Dans la posture « Éduquer » l’enseignant est un accompagnateur à apprendre une posture dans le travail adapté aux
besoins de la société, mais avec du sens pour l’étudiant. Pour en savoir plus, voir « Texte à lire - Le triangle didactique de Jean Houssaye » sur Moodle.