2017TOU30164B
2017TOU30164B
2017TOU30164B
JURY
P IERRE D ILLENBOURG Professeur, EPFL Président du Jury
iii
Résumé
tané dans des interactions sociales d’apprentissage. De plus, ces expérimentations sou-
lignent l’existence d’une corrélation significative entre l’engagement des étudiants dans
la plateforme et les stratégies d’apprentissage qu’ils mettent en œuvre d’une part, et
leur performance académique d’autre part. Ces premiers résultats nous permettent
d’affirmer que les théories socio-constructivistes sont un levier à l’engagement et à la
réflexion dans les VRL. Ils nous invitent à confronter notre approche à d’autres moda-
lités d’apprentissage, mais aussi à intégrer de nouvelles sources d’informations pour
approfondir nos analyses du comportement et ainsi renforcer nos contributions à une
meilleure prise en compte de l’apprentissage pratique dans les EIAH.
iv Rémi Venant
Abstract
v
Abstract
vi Rémi Venant
Remerciements
T OUT a commencé à mon arrivée sur Toulouse et à l’IUT, avec la rencontre de celui
qui, jusqu’à aujourd’hui, m’a conseillé, guidé, et que je ne pourrai jamais assez re-
mercier, Julien Broisin. Sous ton aile, tu m’as fait découvrir l’univers de la recherche et
ton équipe, SIERA, tout comme toi exceptionnelle sur de nombreux aspects, et particu-
lièrement sur le plan humain.
C’est dans cette équipe que j’ai également rencontré Philippe Vidal, qui deviendra
par la suite mon directeur de thèse. Mais plus qu’un directeur tu as été pour moi tel un
père dans ce monde académique, et je te remercie de m’en avoir fourni les pointeurs
indispensables à sa compréhension.
Arrivé en Miage, une personne a aussi influencé de façon décisive mon parcours.
Daniel Marquié, ta détermination, ton dévouement à l’enseignement, ont participé à
mon orientation vers un domaine de recherche situé au confluent de l’Apprentissage
et de l’Informatique. Bien sûr, je vous remercie également Michelle Sibilia, Abdelmalek
Benzekri, Thierry Desprats, François Barrère, Emmanuel Lavinal et Samer Wazan ; vous
m’avez continuellement encouragé, et avez été un moteur à ma réflexion tout au long
des mes travaux.
À Cédric Teyssié et Romain Laborde, je vous réserve un remerciement tout particu-
lier. Vous m’avez apporté votre soutien inconditionnel toutes ces années et nos nom-
breuses discussions, riches d’enseignements et jamais dénuées d’humour, resteront à
jamais ancrées dans ma mémoire.
Je souhaite bien sûr remercier tous les doctorants que j’ai pus côtoyer dès mes pre-
mières expériences à l’IRIT (et docteurs aujourd’hui !) avec qui je garde un lien d’amitié
fort. Valentin Butoianu, Dana Codreanu, permettez-moi de vous dire tout simplement
vă mulţsumec foarte mult ! Tony, Raymmond, à quand votre prochaine discussion philo-
sophique chez les diocésains ? Arnaud Oglaza et Pierrick Marie continuez à faire per-
durer notre traditionnel vendredi soir, que cette équipe reste toujours aussi charmante
pour quiconque la rejoindra. Je ne vous oublie pas non plus, Messaoud Aouadj et Racim
Fassi ; sans vous, mes pauses café n’ont plus vraiment la même saveur. Enfin Franck
Silvestre, je suis ravi d’avoir partagé avec toi ce bureau pendant ces quatre dernières
années, et tes conseils avisés m’ont toujours été d’une grande utilité.
vii
Remerciements
Alors que je débutais ma thèse, j’ai compris très rapidement l’importance d’une
communauté de recherche, par la découverte de l’association francophone des EIAH.
Je me dois de tous vous remercier, chercheuses et chercheurs de cette communauté, avec
qui j’ai pris plaisir à échanger, pour les idées pertinentes que vous avez sues m’apporter,
mais surtout pour le plaisir que vous m’avez donné à arpenter cette thèse dans votre
domaine. Je souhaite tout particulièrement remercier un cercle plus restreint, sans qui
je n’aurais assurément pas atteint les mêmes résultats. Mesdames Marie Lefevre, Élise
Lavoué, Gaëlle Molinari, Vanda Luengo, et messieurs Jean-Charles Marty, Sébastien
George, Sébastien Iksal et Éric Sanchez, vous êtes à l’origine de mon sourire lorsque
vient le moment de vous retrouver pour une conférence !
Il y a également une autre communauté de laquelle j’ai énormément appris, et dont
la collaboration sera toujours une réjouissance : celle de l’EPFL, dont je remercie Pierre
Dillenbourg de m’y avoir accueilli. Je pense aussi en particulier à Kshitij Sharma ; la
confiance que tu m’as accordée dès le début, cette énergie que tu déploies sans relâche
pour ta recherche, et ton humilité à l’égard des sciences font de toi un modèle que je
m’efforcerai de suivre à l’avenir.
Il me reste bien évidemment à remercier ma famille. Michelle, Patrick et Aline, rien
de tout cela n’aurait pu débuter sans vous, et je suis très heureux de la confiance que
vous m’avez accordée et de l’aide que vous m’avez apportée. Je pense aussi à mes
amis tourangeaux d’enfance, à qui je conte avec bonheur mes pérégrinations toulou-
saines : Ali, Aline, François-Thomas, Gabriel, Louis, Marie, Mercredi, Quentin, et Thi-
bault, vous retrouver est toujours source d’impatience !
Cette thèse terminée, je souhaite te dédier ces derniers mots, Julie, qui m’a supporté
toutes ces années et dont je ne saurai jamais trouver les termes suffisants pour remercier
ton abnégation face à mes angoisses et mes colères auxquelles j’ai dû faire face.
Ainsi à tous, je vous remercie pour votre soutien et votre générosité qui m’ont per-
mis d’achever ces travaux avec sérénité. Continuez comme cela dans votre vie tout
comme vous continuerez, je l’espère, la lecture de ce manuscrit.
Résumé iii
Abstract v
Remerciements vii
Introduction 5
Cadre Scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Problématiques de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Organisation du manuscrit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
I État de l’art 13
ix
Table des matières
x Rémi Venant
Table des matières
III Expérimentations 99
Conclusion 131
Bilan général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
La définition de critères pour le support des théories de l’apprentissage
exploratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
IV Annexes 141
Bibliographie 161
1
Table des figures
8.1 Corrélation entre l’activité des étudiants sur Lab4CE et leur performance
académique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.2 Intervalles de confiance par catégorie de performance pour le motif
Sub_S,VarSub_S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2 Rémi Venant
Liste des tableaux
3
Introduction
Contenu
Cadre Scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Problématiques de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Organisation du manuscrit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Cadre Scientifique
1. https://www.irit.fr/-Equipe-SIERA-
5
Introduction
Contexte
2. https://www.insee.fr/fr/statistiques/2387291
6 Rémi Venant
Introduction
Une spécificité des travaux pratiques est l’utilisation de ressources hébergées dans
« des laboratoires », c’est-à-dire des dispositifs sur lesquels les apprenants expéri-
mentent, consolident leurs connaissances et acquièrent des savoir-faire propres à l’in-
vestigation scientifique. Aligner les travaux pratiques traditionnellement délivrés en
présentiel à un enseignement s’appuyant sur le numérique nécessite donc de penser la
mise à disposition de ces laboratoires. Bien que l’apprentissage assisté par ordinateur
ait fait son apparition dans les années 70 (ex. : la première édition du journal Computer
& Education date de 1976), le premier concept de « laboratoire partagé » est à mettre au
compte d’Aburdene (1991), tandis que des premières implantations de laboratoires dis-
tants (i.e., la mise en ligne de dispositifs physiques pour réaliser des travaux pratiques
assistés par ordinateurs) apparaissent à partir du milieu des années 1990 (Knight et De-
Weerth, 1996; McKee et Barson, 1995; Aktan et al., 1996). Le véritable engouement pour
les travaux pratiques médiatisés par l’Informatique a toutefois émergé récemment, de-
puis maintenant une dizaine d’années, comme en témoigne notamment la création de la
communauté de recherche REV 3 (Remote Engineering and Virtual instrumentation) dont
la première conférence remonte à 2004. Durant cette décennie, des problématiques es-
sentiellement technologiques ont été étudiées pour permettre la création de laboratoires
virtuels et distants (Gravier et al., 2008) : rendre les ressources accessibles, automatiser
la gestion de leurs accès, proposer des architectures interopérables et standardisées qui
supportent le passage à l’échelle, ou encore intégrer ces travaux pratiques dans les cur-
riculums mis en ligne au sein de systèmes de gestion de l’apprentissage.
Problématiques de recherche
Questions de recherche
Sur le plan éducationnel, les travaux pratiques sont une instanciation de l’apprentis-
sage exploratoire (Inquiry-Based Learning), une théorie de l’apprentissage qui consiste à
amener les apprenants vers une autonomie dans leurs démarches scientifiques (De Jong
et al., 2013). L’apprentissage exploratoire est un apprentissage actif par lequel les appre-
nants n’ont pas à admettre des faits ou des modèles théoriques comme tels, mais s’en-
traînent à concevoir et à appliquer leurs propres démarches de construction du savoir :
définir leurs propres questions, collecter des preuves, les interpréter, lier leurs obser-
vations aux modèles théoriques étudiés, et ainsi pouvoir justifier et argumenter sur les
théories apprises (Bell et al., 2008). Pour reprendre les termes de Millar, l’apprentissage
exploratoire permet de « tisser des liens entre le monde des objets et des faits concrets,
et celui des idées » (Millar, 2004). Les travaux pratiques ciblent donc un apprentissage
3. http://www.rev-conference.org
en profondeur, une situation dans laquelle les individus tentent d’aller au delà des
connaissances immédiates qu’ils étudient (Gibbs, 1992). Opposée à l’approche dite « en
surface », l’apprentissage en profondeur se concentre sur la signification même de ce
qu’est une connaissance, tente d’identifier les relations entre les différentes théories, et
vise le tissage de liens entre les concepts théoriques et l’observation du réel (Ramsden,
1988). Moon (2013) établit la réflexion comme étant un des piliers de l’apprentissage
en profondeur, et statue que « la réflexion apparaît être le moteur qui permet de passer
d’un apprentissage en surface à un apprentissage en profondeur ».
D’autre part, sur le plan épistémologique, les travaux pratiques reposent sur le
socio-constructivisme, fondement philosophique de l’apprentissage exploratoire. Jean
Piaget, à l’initiative du mouvement constructiviste, conceptualise toute connaissance
comme étant le résultat d’une expérience individuelle d’apprentissage qui repose sur
les concepts d’accommodation et d’assimilation, dont le premier de ces concepts vient
le plus souvent s’opposer aux savoirs établis (Piaget, 1967). Vygotsky (1978) amène
une dimension sociale à l’acquisition de connaissances, en considérant les interactions
sociales comme primordiales à l’apprentissage, et en développant le concept de zone
proximale de développement (situation dans laquelle l’individu peut progresser grâce
à l’appui de l’autre). Par la suite, Doise et Mugny, prolongeant les travaux précédents,
présentent les interactions entre pairs qui suscitent des conflits socio-cognitifs comme
étant une source de développement cognitif (Doise et al., 1975).
Ainsi, à partir des travaux de thèse de M. Bouabid (2012) sur la mise en ligne des tra-
vaux pratiques, nous considérons dans ce manuscrit les théories de l’apprentissage et
épistémologiques sur lesquelles reposent les travaux pratiques, et proposons de contri-
buer à l’enrichissement des environnements informatiques pour les travaux pratiques
afin de promouvoir l’apprentissage pratique médiatisé par l’Informatique au sein des
communautés enseignantes et apprenantes, et d’améliorer l’expérience d’apprentissage
pratique des étudiants, même dans un contexte de masse.
Nos questions de recherche peuvent donc être formulées ainsi :
1. Comment aligner un environnement d’apprentissage pratique aux théories socio-
constructivistes ?
2. Dans un contexte d’apprentissage exploratoire, quel impact ont les outils de sup-
port à l’awareness et à la réflexion sur les pratiques et la performance des appre-
nants ?
Méthodologie
8 Rémi Venant
Introduction
1. l’analyse des notions de laboratoires virtuels et distants, ainsi que des théories
d’apprentissage et épistémologiques sur lesquelles l’apprentissage pratique re-
pose, dans le but d’identifier les verrous à lever ;
2. la définition de critères de conception d’un environnement pour l’apprentissage
pratique afin de combler les lacunes identifiées ;
3. la conception et la réalisation d’un laboratoire virtuel et de son EIAH (Environne-
ment Informatique pour l’Apprentissage Humain) s’appuyant sur les traces d’ap-
prentissage pour respecter les critères ;
4. l’évaluation de l’environnement à travers plusieurs expérimentations menées dans
un contexte d’apprentissage réel.
Contributions
Les contributions apportées par ces travaux sont à la fois théoriques et technolo-
giques, et peuvent être regroupées en 4 catégories.
Organisation du manuscrit
Cette première partie introduit à travers trois chapitres la définition de critères pour
le support à l’engagement et à la réflexion dans les situations d’apprentissage pratique.
Dans le premier chapitre, nous explicitons les notions fondamentales liées aux travaux
pratiques, et argumentons à partir de la littérature scientifique sur l’importance de
prendre en compte les interactions sociales dans les environnements d’apprentissage
pratique. Le second chapitre est dédié à l’état de l’art de la littérature scientifique sur
10 Rémi Venant
Introduction
Partie 3 : Expérimentations
Cinq expérimentations sont exposées dans cette dernière partie. Dans le premier
chapitre, après avoir établi le contexte général commun à nos études, nous évaluons
l’utilisabilité de Lab4CE et étudions l’usage des outils d’awareness, et réflexion et d’en-
traide à travers trois expérimentations. Le second chapitre présente les deux dernières
expérimentations qui visaient à étudier le lien entre la performance académique des
apprenants d’une part, et leur engagement sur le système ainsi que leur comportement
en termes de stratégies d’apprentissage d’autre part.
Nous terminons ce manuscrit par un chapitre de conclusion présentant la synthèse
de nos travaux et nos différentes perspectives de recherche.
État de l’art
13
1 Les laboratoires virtuels et
distants
Contenu
1.1 Composantes des Travaux Pratiques . . . . . . . . . . . . . . . . . . . . 16
1.1.1 Laboratoires et ressources . . . . . . . . . . . . . . . . . . . . . . 16
1.1.2 Expériences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Les VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1 Limites des TP traditionnels . . . . . . . . . . . . . . . . . . . . . 17
1.2.2 Intérêts des VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.3 Comparaison entre VRL et laboratoires en présentiel . . . . . . 19
1.2.4 EIAH pour VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Modèles d’apprentissage pour les travaux pratiques . . . . . . . . . . 21
1.3.1 Socio-constructivisme et apprentissage exploratoire . . . . . . . 21
1.3.2 Les interactions sociales . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.3 Importance des interactions sociales dans les VRL . . . . . . . . 23
1.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
L ES travaux pratiques (TP) sont considérés comme une activité pédagogique impor-
tante, particulièrement dans l’enseignement des STEM, par l’ensemble de la com-
munauté des chercheurs et enseignants (Atlee et al., 2005; Boud et al., 1986; Hofstein et
Lunetta, 1982; Novak, 1976). Nersessian (1989) perçoit les TP comme étant au cœur de
l’apprentissage des sciences, tandis que Clough (2002) déclare qu’ils rendent « vivant »
les sciences. Les TP visent non seulement l’acquisition de connaissances scientifiques,
mais également celles de compétences exploratoires telles que la définition d’hypo-
thèses ou l’interprétation de résultats (Bell et al., 2008; Millar, 2004). Définis comme
une activité d’apprentissage et d’enseignement qui engage les apprenants dans la ma-
nipulation d’objets et l’analyse de phénomènes issus de leur manipulation (Bouabid,
2012), les travaux pratiques visent un apprentissage profond et tendent à favoriser la
réflexion (De Jong et al., 2013).
15
Chapitre 1. Les laboratoires virtuels et distants
Bien que plusieurs définitions des TP peuvent être trouvées dans la littérature des
Sciences de l’Éducation (Millar, 2004; Meester et Kirschner, 1995; National Research
Council and others, 2006; Hofstein et Lunetta, 2004), toutes présentent cette activité
d’apprentissage comme un engagement des apprenants dans l’observation et la ma-
nipulation d’artefacts. Si Millar (2004) définit les artefacts comme des objets réels et
matériels, d’autres auteurs comme BenMohamed (2007) étendent ce concept aux objets
virtuels (i.e., dispositifs logiciels) qui reflètent le comportement d’objets réels. Dans cet
ouvrage, nous désignons donc par ressource tout objet, réel ou virtuel, manipulé pour
la mise en œuvre de TP.
Quels que soient les points de vue, les ressources sont systématiquement hébergées
au sein de laboratoires qui, en Français, sont définis comme un « local disposé pour faire
des recherches scientifiques [...] » (Larousse 2017). D’une part, le laboratoire semble ne
pas être distingué du terme administratif « laboratoire de recherche », qui fait état d’une
activité de recherche au sens académique (ex. : Institut de Recherche en Informatique
de Toulouse). D’autre part, le laboratoire, considéré comme un « local », est donc un
élément réel, physique et localisé. Dans la littérature anglophone, la définition est toute
autre. Le dictionnaire de Cambridge, par exemple, définit le laboratoire comme « a place
used for scientific experiments ». Ici, un laboratoire appartient à l’ensemble des « places »,
qui désignent aussi bien un site géographique localisé (à rapprocher de la notion de « lo-
cal », en français) qu’un espace virtuel numérique. Le terme « scientific experiments »
représente un domaine d’activité différent de celui des « recherches scientifiques ». Si
les recherches scientifiques impliquent parfois des expériences scientifiques, l’inverse
n’est pas vrai. Une activité de TP ne fait pas partie en soit de la recherche scientifique
mais l’on y réalise des expériences scientifiques. Ainsi dans notre contexte où les appre-
nants réalisent des travaux scientifiques, où aujourd’hui les activités peuvent être réa-
lisées à distance, et où des acteurs et des ressources sont répartis géographiquement et
de manière dynamique, la définition française n’est pas applicable. Nous optons donc
pour un anglicisme sémantique, dans lequel nous attribuons au terme laboratoire la
définition de son équivalent anglais.
Du point de vue de la littérature scientifique, nous suivons la taxonomie des la-
boratoires proposée par BenMohammed (2007), qui les identifie dans le cadre des TP
selon trois catégories. Les laboratoires physiques sont des espaces physiques situés géo-
graphiquement qui regroupent des dispositifs technologiques physiques ; par exemple,
dans l’enseignement des langues, un laboratoire peut ainsi désigner une salle de classe
réservée à l’apprentissage pratique, dotée d’outils pour l’écoute et la communication.
16 Rémi Venant
1.2. Les VRL
Les laboratoires virtuels sont des espaces (physiques ou eux-mêmes virtuels) regrou-
pant un ensemble de dispositifs virtuels. Enfin, l’auteur présente une troisième catégo-
rie : les laboratoires hybrides regroupent des dispositifs physiques et virtuels (ex. : un
simulateur professionnel de cockpit d’avion), dont les ressources, même virtuelles, ne
peuvent être accédées qu’en présentiel. Dans ce manuscrit, nous considérons donc un
laboratoire comme un espace où des ressources sont mises à disposition pour les tra-
vaux pratiques. Cet espace et ses ressources peuvent être physiques ou virtuel(le)s, et
possiblement accessibles à distance. Par souci de concision, nous utiliserons l’acronyme
anglais VRL (Virtual and Remote Laboratory), ou la traduction littérale « laboratoires vir-
tuels et distants » pour désigner ces laboratoires.
1.1.2 Expériences
Nous avons jusqu’à présent défini les ressources pour l’apprentissage pratique, et le
laboratoire qui les héberge. Il est toutefois nécessaire de définir comment permettre la
mise en œuvre d’une activité pédagogique s’appuyant sur la manipulation de ces res-
sources. D’après Bouabid (2012), une expérience désigne les conditions et paramètres
des ressources qui permettent de réaliser une activité de travaux pratiques. Toutefois,
nous élargissons sa définition aux objectifs pédagogiques, aux tâches à réaliser et au
scénario mis en place pour atteindre ces objectifs.
Dans la définition des objectifs pédagogiques visés par l’expérience, on retrouve des
objectifs individuels comme la compréhension et l’acquisition de concepts théoriques
(Ma et Nickerson, 2006), ou encore le développement du raisonnement scientifique (Na-
tional Research Council and others, 2006). Mais une dimension sociale est également
présente dans la plupart des travaux : par exemple, le conseil national de la recherche
des États-Unis (2006) identifient dans les objectifs principaux d’une expérience le déve-
loppement du travail et de l’esprit d’équipe, tandis que Ma et Nickerson (2006) incluent
le développement de compétences sociales. Traditionnellement, les TP sont réalisés en
présentiel dans un laboratoire physique ou hybride (Aburdene et al., 1991), où le trai-
tement de la dimension sociale de l’expérience est direct, l’ensemble des acteurs du TP
étant réunis au même endroit au même moment.
versités peinent à se doter, et à maintenir, des ressources de laboratoires. Selon les ma-
tières enseignées celles-ci peuvent être extrêmement coûteuses. Aussi, dans des forma-
tions spécialisées, notamment dans le domaine de la mécanique et de l’électronique in-
dustrielle, de nombreux appareils très spécialisés présentent un taux d’utilisation faible
par rapport à l’investissement financier et humain fourni.
De plus, la nécessité de réunir dans le laboratoire physique enseignants et étu-
diants à un même moment, impose des contraintes administratives et organisation-
nelles d’une part, et des contraintes sur l’apprentissage d’autre part. Puisque le labo-
ratoire est un lieu physique souvent dédié à une discipline de TP particulière (ex. :
une salle conçue pour des TP de chimie peut rendre l’application d’une autre forme
d’enseignement difficile), il est difficile d’obtenir un taux d’utilisation du laboratoire
similaire à celui d’une salle de cours ordinaire. De plus, des complications logistiques
apparaissent à l’échelle d’une université où différentes formations doivent se partager
un faible nombre de laboratoires. Enfin, assurer un enseignement qui met en avant la
pratique est également plus coûteux pour l’institution : l’apprentissage est réalisé en
plus petit effectif, augmentant à la fois le nombre de locaux nécessaires mais aussi le
nombre d’enseignants mobilisés pour chaque session d’apprentissage.
Concernant les contraintes sur l’apprentissage, si les TP reposent sur l’apprentis-
sage actif et tendent à engager l’apprenant dans son processus d’apprentissage pen-
dant l’activité, ils peuvent contraindre son processus de réflexion a posteriori. Lorsque
l’apprenant réalise l’expérience, les notes qu’il prend en parallèle représentent la seule
trace de son activité, limitant donc les possibilités de compréhension en profondeur des
concepts étudiés. D’autre part, le nombre limité de ressources vient en contradiction
avec l’augmentation constante de la population étudiante de ces dernières décennies
(Données INSEE 2017). Cette contradiction est perçue comme potentiellement dange-
reuse, puisqu’elle pourrait tendre vers un désengagement des étudiants envers l’ap-
prentissage des sciences (Goodrum et al., 2001; Hofstein et Lunetta, 2004; Rennie, 2010;
National Research Council and others, 2006; Lowe et al., 2013).
1. https://moodle.org/
2. https://chamilo.org
3. https://www.imsglobal.org/activity/learning-tools-interoperability
18 Rémi Venant
1.2. Les VRL
et al., 2010)) et que des efforts de recherche sont menés pour intégrer des activités pra-
tiques au sein des LMS (Sancristobal et al., 2010; Bouabid et al., 2011), il n’y a pas à notre
connaissance une utilisation importante de cette nouvelle alternative dans les milieux
institutionnels. De même, les Mooc ne proposent encore que très peu d’activités d’ap-
prentissage pratique (Hollands et Tirthali, 2014). Les VRL semblent être un candidat
sérieux pour assurer le passage à l’échelle des apprentissages pratiques.
En effet, les VRL offrent des solutions aux verrous posés par les activités tradition-
nelles évoquées plus haut. Les VRL permettent de lever les contraintes administratives
et organisationnelles en s’affranchissant des limites spatio-temporelles, en permettant
un accès permanent et plus flexible aux ressources, et en offrant la possibilité de fédérer
les ressources de différents laboratoires et d’en partager l’accès (Lowe et al., 2012). Du
point de vue collectif et économique, le rendement des laboratoires est augmenté et leur
coût bien mieux amorti (Gomes et Bogosyan, 2009).
Comme les étudiants peuvent interagir plus longtemps avec les ressources, la pro-
babilité qu’ils développent une compréhension profonde des concepts étudiés aug-
mente. Enfin, les VRL bénéficient de la médiation par l’Informatique, dont la génération
de traces d’apprentissage permettent d’envisager l’application de différents supports à
l’apprentissage tels que la réflexion, la personnalisation, les aides automatiques pour les
apprenants, ou encore l’assistance au suivi pour les enseignants. Si les VRL présentent
de nombreux avantages, plusieurs chercheurs ont comparé les différentes formes de
laboratoire pour déterminer si du point de vue de l’apprentissage, les VRL étaient in-
férieurs, équivalents ou supérieurs aux laboratoires traditionnels. Alors que (Ertugrul,
1998; Hartson et al., 1996; Raineri, 2001; Striegel, 2001) militent pour certains bénéfices
apportés par les VRL, (Dewhurst et al., 2000; DiBiase, 2000) perçoivent le risque d’inhi-
bition de l’apprentissage due à l’appréhension de la technologie.
lisation immédiate des ressources) (Sicker et al., 2005), l’argument du coût est contre-
balancé par l’investissement souvent important qu’il faut apporter pour concevoir les
ressources virtuelles qu’ils exposent. Il est également mentionné chez certains auteurs
la probabilité de déconnexion entre le monde réel et celui simulé, avec le risque que
les apprenants limitent leur structures mentales construites pendant l’apprentissage au
seul monde virtuel.
Ma et Nickerson (2006) identifient dans les critiques des VRL la mise en doute chez
les étudiants de la crédibilité de ces environnements par rapport aux laboratoires phy-
siques, mais ils soulèvent également le manque de preuves scientifiques à cet égard,
différentes études tendant à montrer le contraire. Par exemple, Lowe et al. (2013) étu-
dient l’utilisation de laboratoires distants dans les écoles du secondaire sur 113 appre-
nants pendant deux périodes de 3 mois chacune. À l’issue d’un questionnaire post-
expérimental, les auteurs observent notamment que les apprenants considèrent les la-
boratoires distants tout autant crédibles que les environnements physiques. On notera
aussi que les auteurs remarquent un avis différent chez les enseignants : ces derniers
émettent la crainte que leurs apprenants soient moins engagés dans un apprentissage
avec les VRL, au motif qu’ils considèrent les données provenant du VRL comme moins
« crédibles » et l’expérience comme moins « véritable ». Finalement, plusieurs études
n’observent pas de différences significatives dans l’atteinte des objectifs pédagogiques
entre une activité de TP menée à travers un laboratoire traditionnel et celle menée à
travers un VRL (Ogot et al., 2003; Sonnenwald et al., 2003).
Si les VRL peuvent répondre à des problématiques posées par les laboratoires tra-
ditionnels, et ne semblent pas être moins efficaces pour l’apprentissage, les études
montrent l’importance de l’impact de l’environnement informatique qui vient s’inter-
facer entre les utilisateurs humains et les ressources qu’ils manipulent. De plus, cette
médiation par l’Informatique présente des capacités pour améliorer considérablement
l’expérience d’apprentissage et d’enseignement. Nous proposons donc de nous concen-
trer sur ces environnements informatiques pour le TP.
20 Rémi Venant
1.3. Modèles d’apprentissage pour les travaux pratiques
Nous pouvons d’ores et déjà remarquer l’importance que porte cette définition aux
interactions entre apprenants. Dans le contexte des TP, le lien d’existence entre labora-
toire d’une part, et EIAH d’autre part, peut être perçu de deux manières. Dans un cas,
l’EIAH préexiste au laboratoire, ou possède son propre cycle de vie (Lelevé et al., 2003).
Dans ce contexte, nous rencontrons par exemple les problématiques liées à l’interopé-
rabilité et les projets de fédération de laboratoires autour d’un EIAH unique. L’autre
cas considère l’EIAH comme une conséquence de la mise en ligne d’un laboratoire :
l’environnement d’apprentissage est créé d’après le laboratoire.
Il s’avère que dans la littérature, le terme laboratoire est aussi utilisé pour désigner
l’EIAH qui lui est dédié (Jara et al., 2009), confusion que nous prendrons soin d’éviter
ici. Dans cet ouvrage, nous étudions les interactions des apprenants dans les activités
pratiques médiatisées par l’EIAH. Nous désignons par l’acronyme anglais VRL un la-
boratoire tel que défini précédemment, et nous désignons par le terme EIAH, ou plus
simplement environnement, le logiciel utilisé par les utilisateurs pour réaliser l’expé-
rience à partir des ressources offertes par le laboratoire.
Les interactions sociales, au sens le plus large, sont définies dans les Sciences Hu-
maines et Sociales (SHS) comme un échange d’informations entre deux ou plusieurs
individus. Mucchielli (1991) propose une définition du point de vue de la psychologie
comme étant une « relation interhumaine par laquelle une intervention verbale ou une
attitude, une expression significative ou une action provoquent une action en réponse,
qui retentit sur l’initiateur (échanges) ». Toujours en psychologie, d’autre auteurs tels
que Cicourel (1974), définissent de manière plus restrictive l’interaction sociale comme
le processus de stimulation/réponse réciproque entre deux personnes. Ces différentes
définitions ont en commun le caractère humain des entités sur lesquelles portent les in-
teractions sociales, ainsi que le caractère rétroactif de l’interaction. Le signal de l’émet-
teur provoque une réaction chez le récepteur qui peut provoquer à son tour l’envoi
d’un signal. Nous considérons ce cycle comme l’élément crucial de l’interaction, qui en
fait un facteur clé de l’apprentissage. Dans ce document, nous utilisons donc le terme
« interactions sociales » en respect de ces définitions, et nous considérons que supporter
une telle interaction nécessite de permettre cette rétroaction entre utilisateurs humains.
22 Rémi Venant
1.3. Modèles d’apprentissage pour les travaux pratiques
Les interactions sociales, telles que définies précédemment, sont donc cruciales à
l’apprentissage exploratoire puisque dans ce modèle, les apprenants sont amenés à tra-
vailler ensemble à toutes les étapes, notamment dans la confrontation des explications
et justifications de différents apprenants, mais aussi par la coopération pour obtenir des
preuves ou les interpréter. Dans leurs revues de la littérature, Ma et Nickerson (2006) et
Gravier et al. (2008) constatent que la dimension sociale est la moins représentée dans
les articles étudiés, bien qu’identifiée comme l’un des buts les plus importants pour
l’apprentissage de l’ingénierie. Dans (Nickerson et al., 2007), un modèle est proposé
pour l’évaluation de laboratoires distants. Ici aussi, on retrouve l’importance des inter-
actions. Parmi les 6 objectifs globaux des laboratoires, celui de « fonctionner en équipe »
apparaît. Les auteurs exposent alors l’importance de permettre la coordination sociale
dans les environnements pour permettre aux apprenants de s’entraider ou d’obtenir
de l’aide de l’enseignant, et évoquent la nécessité pour les VRL d’être munis de ca-
pacités de communication synchrones entre utilisateurs (Scanlon et al., 2004). Lowe et
al. (2013) remarquent également qu’un laboratoire traditionnel est perçu par les élèves
comme plus engageant ; une observation qui peut être expliquée par le fait que ces
élèves considèrent les expériences en laboratoires à distance comme nécessitant moins
de négociations interpersonnelles et d’interactions sociales. Les enseignants partagent
également ce point de vue : tous ont considéré que la qualité du travail en groupe était
plus faible lors de l’utilisation du VRL par rapport à l’apprentissage sur un laboratoire
traditionnel. Les auteurs pointent également les problèmes d’interactions entre les utili-
sateurs et l’interface informatique qui ont été rencontrés pendant l’expérimentation, et
concluent sur l’importance de concevoir des environnements d’apprentissage pratique
adaptés aux capacités et aux besoins des élèves et professeurs.
Au regard de la recherche plus récente sur les VRL , on retrouve cette contradic-
tion entre l’importance annoncée des interactions sociales et leur prise en compte dans
l’ingénierie des environnements. La recherche sur les VRL se focalise aujourd’hui essen-
tiellement sur la conception d’architectures (Harward et al., 2008), la gestion de l’accès
aux ressources exclusives (Lowe et al., 2013), la répartition de charge pour la mise à
l’échelle (Sancristobal et al., 2010), la standardisation (Salzmann et al., 2015), et plus ré-
cemment le traitement des traces d’apprentissage dans les learning analytics (Clemente
et al., 2018 in press). Tout comme l’ont constaté Gravier et al. (2008), les VRL prenant en
charge les interactions sociales restent encore de nos jours minoritaires.
1.4 Synthèse
Dans ce chapitre, nous avons défini les composantes propres aux travaux pratiques
que sont les laboratoires, les ressources qu’ils hébergent et les expériences, réalisations
des activités pratiques. Parmi l’ensemble des laboratoires existants, les VRL, labora-
toires physiques ou virtuels, médiatisés par l’Informatique, peuvent répondre aux pro-
blématiques de passage à l’échelle des activités pratiques sans pour autant présenter
un désavantage sur le plan pédagogique, et offrent des bénéfices économiques et un
potentiel d’amélioration de l’apprentissage et de l’enseignement. L’EIAH utilisé dans
le cadre des VRL apparaît comme un élément crucial : il devient le point de jonction
des interactions qui apparaissent dans une activité pratique entre les utilisateurs et les
ressources, et entre les utilisateurs eux-mêmes. Nous avons également montré dans ce
chapitre l’importance des interactions sociales dans le contexte des TP, qui sont au cœur
des théories de l’apprentissage mises en jeu ici, et considérées à la fois comme un vec-
teur d’amélioration de la rétention en profondeur des concepts transmis, mais aussi
comme une composante de l’apprentissage menant à l’amélioration des compétences
de travail en groupe. Nous avons toutefois remarqué que l’étude des interactions so-
ciales reste minoritaire dans le contexte de la recherche traitant des VRL. Nous prenons
ainsi position sur le rôle important de l’EIAH qui a la charge de supporter les interac-
tions dans un contexte d’activités pratiques, mais également de susciter ces interactions
dans l’objectif d’améliorer l’apprentissage.
24 Rémi Venant
2 Facteurs d’engagement et de
réflexion
Contenu
2.1 Support technique aux interactions entre apprenants, enseignants,
et ressources de laboratoires . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Communication entre utilisateurs . . . . . . . . . . . . . . . . . 26
2.1.2 Réplication des laboratoires . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Partage du contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Engagement des apprenants dans les interactions sociales . . . . . . 29
2.2.1 Besoins pour les interactions sociales . . . . . . . . . . . . . . . 29
2.2.2 Awareness personnelle et sociale . . . . . . . . . . . . . . . . . . 29
2.2.3 Réflexion pendant et après l’activité . . . . . . . . . . . . . . . . 34
2.3 Alignement des interactions à la pédagogie . . . . . . . . . . . . . . . 35
2.3.1 Diversité des modèles d’apprentissage social . . . . . . . . . . . 35
2.3.2 Outils de conception d’expériences et modèle d’apprentissage . 36
2.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
C E chapitre explore les besoins fonctionnels d’un EIAH pour les VRL supportant et
favorisant les interactions sociales. Une première section est dédiée au support des
interactions, dont l’objectif est de permettre aux apprenants d’interagir entre eux pen-
dant leur activité. Dans un second temps, nous envisageons l’EIAH comme un envi-
ronnement qui offre l’opportunité d’inciter l’apprenant à concevoir son environnement
social comme un catalyseur à la construction de ses connaissances : les concepts d’awa-
reness et de réflexion et des outils associés nous permettent de déterminer des critères
pour l’engagement des apprenants dans les interactions sociales au sein des VRL. En-
fin, une troisième et dernière section prend en compte l’enseignant et sa liberté dans
les choix pédagogiques d’une activité pratique, en proposant de lui permettre d’aligner
l’environnement d’apprentissage à la stratégie qu’il souhaite appliquer.
25
Chapitre 2. Facteurs d’engagement et de réflexion
26 Rémi Venant
2.1. Support technique aux interactions entre apprenants, enseignants, et ressources de laboratoires
28 Rémi Venant
2.2. Engagement des apprenants dans les interactions sociales
Les interactions sociales sont au cœur de l’apprentissage par les pairs, dont Top-
ping (2005) définit l’objectif comme « l’acquisition de connaissances et de savoir-faire à
travers l’aide ou le support actif entre compagnons de statut égal ou correspondant ».
Dans ses travaux sur la modélisation des processus en jeu dans cette forme d’apprentis-
sage, il souligne le caractère implicite de processus d’apprentissage comme la rétention,
la généralisation ou l’auto-régulation, et souligne que l’apprenant doit avoir à sa dispo-
sition les informations nécessaires pour réaliser ces processus et en prendre conscience.
Forme particulière de l’apprentissage par les pairs, la collaboration est présentée
comme une variété de pratiques éducationnelles dans lesquelles les interactions entre
pairs constituent le facteur le plus important de l’apprentissage (Dillenbourg et al.,
2009). Dillenbourg, dans ses travaux sur l’apprentissage collaboratif médiatisé par ordi-
nateur (CSCL, Computer Supported Collaborative Learning), synthétise la recherche dans
ce domaine en deux questions principales : quelles conditions sont nécessaires pour
déclencher une interaction spécifique ? Quelles interactions peuvent prédire un objec-
tif d’apprentissage particulier ? L’auteur interroge notamment le besoin chez l’appre-
nant d’avoir des informations métacognitives pour initier une interaction, et permettre
à celle-ci de participer à la construction de ses connaissances ainsi que de celles des
autres protagonistes de la relation. Enfin, on peut retrouver ces mêmes besoins dans
la recherche sur la demande d’aide. Nelson Le gall établit comme première étape la
prise de conscience chez l’apprenant du besoin d’aide et la prise de décision quant à la
demande d’aide (1998; 2001).
Ainsi, on constate le besoin de fournir aux apprenants des informations cognitives
et/ou méta-cognitives pour permettre l’apparition de relations sociales qui participent
à leur apprentissage. Que ces informations concernent l’individu lui-même, son en-
vironnement social (ex. : ses pairs, les enseignants ou tuteurs), ou les relations qu’il
entretient avec son environnement, Stedman et Anderono considèrent que ces données
jouent un rôle crucial sur l’apprentissage (Stedman et Andenoro, 2007).
30 Rémi Venant
2.2. Engagement des apprenants dans les interactions sociales
Personnelle Sociale
Artefacts Dans quel état sont mes res- Sur quelles ressources tra-
sources ? Quelles ressources vaillent mes pairs ? Comment
ai-je à ma disposition ? ont-ils réalisé l’expérience ?
Concepts Ai-je les connaissances suffi- Comment s’en sortent mes
sante pour effectuer la tâche pairs ?
pratique ? Quelles difficultées
ai-je rencontré lors de mon
apprentissage ?
Espace de travail Comment suis-je représenté Qui d’autre participent à l’ex-
sur l’environnement ? périence ? Comment puis-je
interagir avec les autres ?
Lowe et al. (2009) considèrent les outils d’awareness comme un élément qui ex-
plique l’efficacité des VRL pour promouvoir l’engagement des apprenants dans des
activités pratiques à distance, collaboratives ou non (Corter et al., 2011). Leur objectif
est de rendre les apprenants capables d’analyser ce qu’ils font et pourquoi ils le font
dans le but de supporter leurs processus cognitifs et métacognitifs (Jonassen, 1999), et
ils ont été approchés de différentes manières du point de vue de leur ingénierie.
Les outils d’awareness personnelle exposent traditionnellement aux apprenants dif-
férentes informations sur leur niveau de connaissance. Dans la plupart des cas, ces
outils composent des tableaux de bord pour retourner un feedback aux apprenants
à propos de leurs résultats (Prensky, 2011), leur niveau global de performance (Ar-
nold et Pistilli, 2012), leurs forces et faiblesses (Howlin et Lynch, 2014), ou à propos de
concepts précis à travers leur évaluation (Miller, 2009; Ricketts et Wilks, 2002). Concer-
nant l’awareness sociale, des outils comparatifs sont conçus pour rendre la performance
de chaque apprenant identifiable et leur permettre de comparer leurs activités à celles
de leur pairs. Les feedback de comparaison sociale ont ainsi pour but de permettre aux
membres d’un groupe de se situer par rapport à leurs pairs (Michinov et Primois, 2005),
et visent l’augmentation du sentiment de connection entre pairs (Lowe et al., 2009). Ces
outils évaluent donc la performance de l’apprenant à travers l’étude de leur acquisition
de connaissances théoriques. Cependant le contexte des VRL les rend inapplicables
car ces outils ne concernent pas la capacité des apprenants à utiliser et appliquer ces
connaissances théoriques lorsqu’ils font face à une situation concrète.
Au regard de la définition que l’on propose de l’awareness sociale, il également pos-
sible de faire le rapprochement avec la théorie de la présence sociale, dont Lowenthal et
Dunlap (2014) se servent pour définir cette awareness comme une « opérationnalisation
minimale de la théorie de la présence sociale », qui est le degré auquel une personne est
perçue par les autres comme une « personne réelle ». Ils observent les conséquences bé-
néfiques aux interactions sociales lorsque les utilisateurs ont conscience de la présence
des autres dans un environnement informatique, et que celles-ci augmentent lorsque la
présence est considérée comme « active », c’est-à-dire lorsque les utilisateurs perçoivent
une activité chez des autres. Dans le cadre de l’éducation, on notera également les ré-
sultats expérimentaux de Swan et Shih (2005) et de Pollard et al. (2014), qui concluent
sur l’impact positif de la présence sociale de l’instructeur sur la perception de l’appren-
tissage dans des discussions en ligne entre étudiants.
Fournir un feedback sur ce qui se passe sur l’appareil a souvent été réalisé à travers
la vidéosurveillance (Kostulski et al., 2011; Lowe et al., 2013; Nickerson et al., 2007). Ainsi
un apprenant qui effectue une action sur un dispositif a immédiatement un retour sur
son action (awareness personnel de l’artefact) et l’on peut facilement imaginer la pos-
sibilité pour les autres de percevoir ce retour (awareness sociale). Toutefois, dans un
contexte collaboratif où plusieurs apprenants interagissent avec la même ressource, il
devient difficile voire impossible de lier un feedback particulier (ex. : un instant donné
du retour vidéo de l’appareil observé) à une action particulière. De même, ces dispo-
32 Rémi Venant
2.2. Engagement des apprenants dans les interactions sociales
sitifs sont inopérants sur des appareils pour lesquels les actions n’entraînent pas de
changement physique observable par la simple vidéosurveillance. En Électronique, par
exemple, les actions n’entraînent pas systématiquement de changements observables
visuellement. Cette faiblesse avait également été observée dans le contexte des VRL en
général par Machotka et Nedic (2008), qui remarquent que dans de nombreux VRL où
les utilisateurs peuvent accéder au même laboratoire en même temps, ils n’ont aucune
idée de ce que font les autres. Une autre approche de l’awareness sociale s’appuie non
plus sur le dispositif lui-même mais sur l’environnement d’apprentissage. de La torre
et al. (2013) utilisent la propagation d’événements issus d’un utilisateur dans l’interface
des autres utilisateurs. Ainsi, l’état d’une ressource résultant d’une action effectuée par
un des participants est diffusé à tous les autres. Toutefois, il n’est plus possible dans ce
paradigme pour un apprenant de voir ce que sont en train de faire les autres, il peut
uniquement constater le résultat de leurs actions.
Pour améliorer l’awareness de l’artefact et de l’espace de travail, plusieurs travaux
de recherche ont opté pour l’utilisation de monde virtuels en 3D appliquée au VRL
(Fayolle et al., 2010; Scheucher et al., 2009; Arango et al., 2007; García-Zubia et al., 2010).
Ces environnements fournissent une scène virtuelle dans laquelle des avatars contrô-
lés par les utilisateurs évoluent, et où ils peuvent manipuler divers objets virtuels. Par
exemple, (Fayolle et al., 2010; Scheucher et al., 2009) ont utilisé l’environnement Won-
derworld pour y intégrer des EIAH pour VRL pré-existants (cf. Figure 2.1). On retrouve
ce même principe dans (García-Zubia et al., 2010). Ces environnements fournissent une
awareness sociale de l’environnement importante : chacun est représenté par un avatar
qui, dans certains cas, est personnalisable (Arango et al., 2007), et les utilisateurs pré-
sents dans le même espace virtuel peuvent se voir évoluer mutuellement. Ces outils ont
aussi l’avantage de fournir une awareness sociale de l’artefact intéressante : puisque les
ressources sont modélisées par un objet virtuel de l’environnement, chacun peut voir
ce à quoi les autres sont occupés. Toutefois ces environnements présentent différentes
contraintes qui limitent les possibilités de fournir d’autres formes d’awareness (ex. :
awareness du concept). Ces environnements sont d’abord plus coûteux en terme de
temps de développement. D’autre part,les ressources étant elles-mêmes modélisées par
un objet 3D (Arango et al., 2007), tracer finement les actions de l’apprenant sur la res-
source nécessite de tracer l’ensemble des interactions de son avatar avec la ressource
virtuelle : le traitement des données est alors plus complexe, avec un risque inhérent
d’obtenir des interprétations biaisées par des actions de l’utilisateur qui ne reflètent
pas sa volonté d’interaction avec la ressource. Enfin la restitution des informations né-
cessite un effort de développement significatif au sein du monde virtuel.
L’awareness est donc un support à l’engagement, aux interactions sociales mais éga-
lement à la réflexion (Wilson et Jan, 1993). Toutefois, la réflexion de l’individu dans
un contexte social est un processus intrinsèquement lié aux interactions sociales : elles
sont un levier à la réflexion (Boud et al., 1986), qui peut elle-même mener à engager
l’apprenant dans de nouvelles interactions (Lavoué et al., 2015). La notion de réflexion
souffrant du même défaut que celui de l’awareness, à savoir une polysémie menant à
différentes interprétations, nous adoptons la définition proposée par Boud (2013) : un
processus qui consiste à revenir sur les expériences passées, les ré-évaluer et apprendre
de cette ré-évaluation pour adapter son comportement futur. La réflexion est considé-
rée comme un facteur important pour l’apprentissage en profondeur (Moon, 2013), qui
aide à l’atteinte des objectifs pédagogiques lorsqu’elle est correctement prise en compte
dans les dispositifs d’apprentissage (Means et al., 2009). Par exemple, l’écriture de blog
(Xie et al., 2008) ou de journaux (Hiemstra, 2001) par l’apprenant a pour objectif de le
mener à ce processus par la synthèse et la critique de ses activités passées. Cet objec-
tif est également visé par l’évaluation formative (Wang et al., 2006) ou la résolution de
problèmes qui visent la provocation d’un conflit cognitif (Bixler, 2007) ou socio-cognitif
(Silvestre et al., 2015) chez l’apprenant. Ainsi, les EIAH peuvent encourager la réflexion
par l’émission de messages invitant les apprenants à changer leur stratégie d’appren-
tissage (Chung et al., 1999) ou à fournir une explication (Crippen et Earl, 2007).
Il ne faut toutefois pas sur-interpréter le terme « expériences passées » utilisé par
Boud (1986) ; si les travaux présentés ci-dessus concernent un support à la réflexion
après l’activité d’apprentissage, la réflexion peut exister pendant cette activité (Davis
et al., 2013; Matthew et Sternberg, 2009). Par exemple, Silvestre et al. (2015) proposent,
dans leurs travaux sur l’évaluation formative, un modèle d’interactions où les appre-
nants sont amenés pendant un cours, à formuler une réponse argumentée à une ques-
tion posée par l’enseignant, puis dans un second temps, à se positionner par rapport à
34 Rémi Venant
2.3. Alignement des interactions à la pédagogie
une réponse contraire à la leur et formulée par un pair. Nous considérons ici ces deux
temporalités comme complémentaires pour le processus d’apprentissage.
La réflexion pendant l’action (reflection-in-action) a été introduite par Schön (1984)
comme le fait que « lorsqu’un étudiant échoue, il analyse sa propre compréhension et
effectue une expérience qui sert aussi bien une nouvelle compréhension du phénomène
qu’un changement dans la situation ». Caractérisée comme un processus en temps réel
(Seibert, 1999), elle est considérée comme une caractéristique des étudiants de haut
niveau de compétence (Jonassen, 1999). De plus, dans une étude sur l’apprentissage
du Test-Driven-Development, Edwards (2004) observe un lien de causalité entre l’enga-
gement des apprenants dans la réflexion pendant l’action et leur apprentissage. Tout
comme les outils d’awareness, ceux visant à favoriser la réflexion pendant l’action ont
été envisagés dans les VRL via la retranscription audio et vidéo des ressources que ma-
nipulent les apprenants (Kostulski et al., 2011; Lowe et al., 2013; Nickerson et al., 2007),
et via le partage d’écran pour la réflexion à partir de comparaison sociale (de la Torre
et al., 2013; Jara et al., 2012). Après l’activité, la réflexion peut être engagée par différentes
stratégies impliquant l’apprenant et ses activités d’apprentissage passées, tel que le re-
jeu d’activités (Collins et Brown, 1988) ou les travaux cités précédemment (écriture de
blogs ou de journaux par exemple).
et de comparer les résultats à des études sur la collaboration ; études plus facilement
comparables si l’environnement utilisé subit le moins de changement possible.
Si des EIAH pour VRL comme proposés par Fayolle et al. (2010) permettent, d’of-
frir différentes possibilités d’apprentissage par les pairs, la limitation existe sur d’autres
environnements. Dans DIESEL (Callaghan et al., 2002), par exemple, la formation de
groupes se fait par l’échange de messages électroniques asynchrones, et il n’est pas pos-
sible de rompre cette formation tant que l’expérience n’est pas finie. Cette mécanique
est appropriée pour concevoir la collaboration à l’échelle de l’expérience, mais pas pour
permettre une entraide spontanée de durée limitée. Nous sommes donc attentifs à ne
pas brider les possibilités d’utilisation des interactions sociales par l’environnement.
Dans le domaine des VRL, des EIAH comme ceux que proposent (Nickerson et al.,
2007) ou encore (de Jong et al., 2014) disposent d’interfaces dédiées à l’enseignant pour
concevoir un scénario pédagogique. Toutefois, ceux-ci se placent à un niveau « macro »,
où l’enseignant compose une séquence d’apprentissage en choisissant un ensemble
d’expériences et d’outils collaboratifs, définis a priori.
D’une part, l’expérience doit permettre une activité collective, à partir d’un choix
de ressources adaptées. Il est ainsi nécessaire de doter l’enseignant d’un outil auteur
qui permet de définir l’expérience en fonction des objectifs pédagogiques. D’autre part,
l’EIAH lui-même doit pouvoir être adapté à ces objectifs. Si nous souhaitons fournir
un ensemble de fonctionnalités pour supporter les différentes modalités d’interactions
sociales, l’enseignant doit pouvoir choisir quelles sont celles dont les apprenant doivent
disposer pour leur expérience.
Nous considérons donc, comme deux derniers critères d’un VRL orienté interac-
tions sociales, la mise à disposition d’un outil auteur pour concevoir des expériences
selon différents objectifs pédagogiques, et le paramétrage de l’environnement en fonc-
tions des modèles d’apprentissage à mettre en œuvre. Notre objectif étant la concep-
tion d’EIAH pour les VRL, nous ne nous traiterons toutefois pas le domaine des scripts
(Kobbe et al., 2007), mais considérons ce critère comme une base pour, a posteriori, pou-
voir imaginer des systèmes qui puissent automatiser le paramétrage des fonctionnalités
d’interactions sociales d’après un objectif de plus haut niveau d’abstraction.
2.4 Synthèse
36 Rémi Venant
2.4. Synthèse
ter un EIAH pour permettre, inciter et gérer ces interactions. Dans un premier temps,
nous proposons aux étudiants l’opportunité de communiquer entre eux de façon syn-
chrone, de partager la vue de leur laboratoire en temps réel, mais également de prendre
le contrôle du laboratoire d’un autre. Pour engager les apprenants dans ces interactions,
nous avons statué sur la nécessité de leur fournir une awareness personnelle et sociale
qui aille au-delà de la simple awareness de l’artefact qu’offre par nature un VRL, mais
également de doter l’environnement d’outils pour faciliter la réflexion pendant et après
l’activité pratique. Enfin, dans un troisième temps, nous avons argumenté en faveur
d’un environnement qui offre la possibilité de réaliser différents types d’apprentissage
par les pairs, tout en laissant l’enseignant libre d’adapter l’EIAH selon le modèle d’ap-
prentissage social qu’il souhaite mettre en œuvre Le Tableau 2.2 résume l’ensemble de
ces critères, utilisés dans la partie suivante pour analyser les différents environnements
de VRL existants. L’awareness personnelle des artefacts est absente des critères puisque
celle-ci est de facto soutenue par un EIAH pour VRL, dont la perception des ressources
est indispensable dans le contexte des travaux pratiques.
Tableau 2.2 – Critères pour le support des interactions sociales dans les VRL
Contenu
3.1 Le projet Lila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Le projet d’intégration de VRL dans un LMS . . . . . . . . . . . . . . 41
3.3 Le projet Go-Lab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Le projet iLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Le projet Labshare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6 Le projet WeColLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.7 Le projet ReLOAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.8 Le projet eMersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.9 Le projet VESSL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.10 Le projet DIESEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.11 Le projet Trilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.12 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
39
Chapitre 3. Analyse des environnements existants
Lila (Richter et al., 2011), « Library of Labs », est un projet financé par la communauté
Européenne pour fédérer différents laboratoires virtuels et distants. L’objectif principal
de ce projet est la création d’une infrastructure à l’échelle européenne pour permettre
le partage d’expériences, en ciblant principalement les études du secondaire en STEM.
Lila vise aussi la recommandation d’expériences aux apprenants, et leur intégration au
sein des curriculums.
L’architecture 4-tier de Lila est composée de a) une couche « content », qui représente
l’ensemble des dispositifs (laboratoires virtuels et distants, ressources, documents, etc.)
mis à disposition ; b) une couche « accessibility », qui fournit un ensemble de services
pour l’accès, la découverte et la gestion administrative des VRL ; c) une couche « inte-
gration » pour composer des cours avec des activités pratiques, masi également pour
guider les apprenants à l’aide d’un ITS ; et d) une interface utilisateur.
L’environnement n’a pas pour vocation l’apprentissage par les pairs : Richter pré-
sente clairement l’ITS de la couche « integration » comme une alternative à la consulta-
tion par un apprenant d’un pair expérimenté. Le système permet de faire des recom-
mandations d’activités pendant l’expérience, en s’appuyant sur un modèle de l’appre-
nant qui contient un indicateur de performance d’après les expériences réalisées (Rich-
ter et al., 2006). Ainsi, cette couche n’a pas pour vocation de promouvoir les interactions
sociales mais bien de les remplacer par des interactions entre l’apprenant et le système.
De même, les traces collectées ne permettent pas de concevoir des outils des réflexion
sur l’action, celles-ci ayant été conçues pour alimenter l’ITS uniquement.
La couche supérieure de l’architecture, le « portail virtuel », s’appuie sur un pro-
jet développé par Sun Microsystem. Project Wonderland 1 est un monde virtuel en 3D,
utilisé ici comme portail d’accès aux différents VRL. Le monde virtuel propose un sys-
tème de VoIP (Voice over IP) pour permettre aux différents utilisateurs de communi-
quer entre eux de manière synchrone. Toutefois, s’il est possible pour les apprenants de
communiquer par cette interface, la manipulation des laboratoires mis à disposition,
qu’ils soient virtuels ou distants, reste individuelle. Enfin, Lila offre aux enseignants
un outil de conception d’enseignement à base d’activités pratiques. L’enseignant peut
choisir et orchestrer différents VRL, mais ne peut pas définir à un niveau plus fin (i.e.,
configurer les ressources elles-mêmes) quelle expérience réaliser sur un VRL particulier.
1. http://openwonderland.org/
40 Rémi Venant
3.2. Le projet d’intégration de VRL dans un LMS
Sancristobal et al. (2010) proposent d’intégrer des environnements web pour des la-
boratoires virtuels et distants au sein des LMS afin de bénéficier de leurs fonctionnalités
(chat, forums, conception de modules d’apprentissage, etc.). Les auteurs s’appuient sur
iLab (voir plus loin), pour présenter une méthode d’intégration au sein d’un LMS à
travers l’utilisation de l’API SCORM (Sharable Content Object Reference Model 2 ).
Les auteurs souligne le manque d’outils collectifs dans les VRL, et proposent l’uti-
lisation de ceux offerts par les LMS. En utilisant SCORM pour les VRL, ils permettent
de les manipuler au sein des LMS comme n’importe quelle ressource d’apprentissage.
Si cette contribution serait à remettre aujourd’hui en question avec la démocratisation
de protocoles conçus pour répondre à cette problématique d’intégration, tels que LTI,
certaines limites conceptuelles seraient toujours présentes. Les LMS proposent pour
la plupart des outils de communication synchrone (ex. : chat) et asynchrone (ex. : fo-
rums), ils ne permettent pas de partager la vue ou le contrôle d’un laboratoire. Quand
bien même LTI permet aujourd’hui de remonter des données d’apprentissage du labo-
ratoire vers le LMS, il n’existe pas d’outils d’awareness ou de réflexion qui permettrait
d’exploiter des traces à un niveau fin. Par exemple, la solution proposée par les auteurs
ne s’appuie que sur les traces de connexion au système pour fournir des indicateurs
d’activité, et uniquement aux enseignants. Dans ces travaux, le support aux interac-
tions entre apprenants est ainsi limité à la communication.
2. http://www.adlnet.org/adl-research/scorm/
3. http://hypatia.phys.uoa.gr/
4. http://graasp.eu/
Graasp permet de construire son ILS, de choisir quels VRL et quelles applications uti-
liser pour les différentes phases du cycle d’apprentissage exploratoire, il n’est pas pos-
sible de paramétrer le VRL lui-même. Ainsi, un enseignant ne peut pas définir en détail
l’expérience menée sur un VRL. Enfin, les fonctionnalités « sociales » évoquées dans
(Gillet et al., 2013) désignent le fait de pouvoir commenter et évaluer un laboratoire,
et de le partager sur des réseaux sociaux externes (ex. : facebook). Tout comme Lila,
on retrouve ici une volonté de se concentrer sur les interactions entre l’apprenant et le
système, tandis que les interactions entre apprenants sont mises de côté.
Même si Go-Lab ne se focalise pas sur l’apprentissage par les pairs, on notera tout
de même la présence d’un système de traces et d’exploitation de celles-ci dans des outils
de learning analytics, dont certains ont été plus récemment dédiés aux apprenants pour
les engager dans un processus de réflexion (Vozniuk et al., 2016). Parmi les outils en lien
avec nos critères définis précédemment, Go-Lab permet d’intégrer un chat (SpeakUp
widget) dans un ILS, deux outils de support à l’awareness sociale de l’environnement
(Online users visualization, pour afficher les utilisateurs actuellement connectés à un ILS,
et Semantic group formation app, un outil qui regroupe et affiche les apprenants d’un
ILS par groupe de connaissance), et plusieurs outils d’analytics pour la réflexion (ex. :
Reflection tool ou Action Statistics, qui s’appuient sur le temps passé par les utilisateurs
dans un ILS et sur leurs actions) (Govaerts et al., 2013; Vozniuk et al., 2014).
Mené par le Massachusetts Institute of Technology (MIT), iLab (Harward et al., 2008)
vise l’accès à des laboratoires distants en proposant une architecture distribuée. L’ob-
jectif principal est la mise à l’échelle mondiale de l’accès aux VRL. Le projet a débuté
en 1998 dans le contexte de l’apprentissage secondaire et universitaire en Microélectro-
nique. En 2008, iLab était utilisé par différentes institutions et son architecture avait été
adaptée aux nouvelles technologies du web, notamment par le passage à une architec-
ture orientée service, nommée ISA (Ilab Shared Architecture).
Du point de vue du concepteur de VRL, ISA peut être perçue comme une méthodo-
logie de développement d’un VRL, à laquelle WebLab par exemple (Del Alamo et al.,
2003; Hardison et al., 2005), un laboratoire pour la Microélectronique, fut le premier à
être adapté. L’architecture fournit un ensemble de services communs selon le type de
laboratoire que prend en charge ISA : a) ceux qui proposent des expériences « en batch »
et b) ceux dont les expériences sont interactives. Les premiers sont des VRL où les ap-
prenants fournissent les paramètres de l’expérience en amont, au sein d’une demande
d’exécution qui est mise en attente. Lorsque le VRL est disponible, l’expérience est exé-
cutée et les résultats sont mis à disposition. Les laboratoires interactifs proposent en re-
42 Rémi Venant
3.4. Le projet iLab
Figure 3.1 – Topologie de l’architecture iLab pour des expériences intéractives (Harward et al., 2008)
iLab fonde sa réponse aux problématiques d’accès aux laboratoires sur l’hypothèse
d’un accès unique en écartant donc celle d’une expérience collective. Aussi, cette sépa-
ration franche entre les différents tiers de l’architecture répond à plusieurs probléma-
tiques d’interopérabilité et de sécurité, mais impose certaines limitations. Les informa-
tions stockées par le broker, seul composant ayant connaissance des activités liées à une
ressource ou une expérience, proposent un niveau de détail trop faible pour supporter
l’awareness et la réflexion. Les brokers eux-mêmes étant distribués mais ne commu-
niquant pas les uns avec les autres, il n’est pas possible non plus d’obtenir une vue
globale sur l’ensemble des activités. Enfin, si l’on considère une expérience conjointe
où plusieurs étudiants accèderaient au même laboratoire mais à des moments diffé-
rents, l’architecture ne permet pas de fournir aux apprenants des informations sur le
déroulé des expériences de leurs pairs. De même, l’implémentation d’iLab ne propose
pas non plus de messagerie instantanée ni d’outil auteur.
44 Rémi Venant
3.6. Le projet WeColLab
46 Rémi Venant
3.9. Le projet VESSL
de 3 applications web. La première est une applet Java qui permet à l’apprenant de
réaliser l’expérience : manipuler les équipements et observer leur comportement via
une webcam, mais aussi visualiser les mesures électriques réalisées par un oscilloscope
via l’interface. À tout moment l’apprenant peut enregistrer les mesures prises ainsi que
réaliser des captures d’écran de la webcam. La seconde interface, nommée « eJournal »,
est l’application centrale du projet : elle permet l’édition et la collaboration asynchrone
pour faciliter les activités de reporting et le partage des résultats d’expériences par les
apprenants. Enfin la troisième application est une interface web dédiée à l’analyse des
résultats d’expériences préalablement sauvegardés, récupérés depuis un fichier local
sur la machine de l’apprenant ou directement depuis eJournal.
L’application eJournal suit la métaphore d’un journal de bord. Un étudiant peut
créer et partager différents artefacts issus de ses expériences : ses captures d’écrans,
les paramètres qu’il a saisis pour une expérience, les résultats obtenus, ou encore du
texte libre. Chaque artefact peut être annoté pour faciliter la recherche a posteriori. Les
artefacts peuvent être soumis à l’enseignant pour évaluation, mais également partagés
avec d’autres étudiants. La gestion des pairs est également possible et les étudiants sont
libres de composer leur groupe comme ils le souhaitent. Enfin, l’application fournit un
ensemble d’outils dédiés à l’awareness. La liste des utilisateurs connectés avec leur
localisation (à l’université, en salle de TP ou ailleurs) offre une awareness sociale de
présence, tandis qu’une awareness de l’artefact aussi bien personnelle que sociale est
dispensée par la liste des artefacts proposés par les autres apprenants et synthétisée par
des graphiques de l’activité du groupe (artefacts ajoutés par les membres du groupe).
eMersion est donc un environnement de VRL qui vise l’engagement des apprenants
par une collaboration supportée par l’EIAH. Si l’outil ne permet pas la collaboration
pendant l’expérience, il permet la constitution de groupes d’apprenants à la volée et
offre des outils pour l’awareness personnelle et sociale, qui sont toutefois asynchrones.
Vesll « Virtual Engineering Sciences Learning Lab » (August et al., 2016) est un envi-
ronnement pour laboratoires virtuels qui s’appuie sur Second Life 6 (un environnement
virtuel 3D). VESLL est utilisé pour l’apprentissage de concepts quantitatifs (ex. : sys-
tèmes numériques, opérations logiques, portes logiques, etc.). L’environnement utilise
le concept « d’île privée » de Second Life, qui permet à des utilisateurs d’interagir dans
un espace virtuel avec différents objets pédagogiques créés à cette occasion (ex. : équa-
tion hexadécimale sous la forme d’un cadenas à déverrouiller), ainsi qu’entre eux grâce
à leur avatar. Les interactions entre utilisateurs sont donc directes et synchrones, uti-
6. http://secondlife.com
lisant l’audio ou le chat et la notion d’avatar virtuel. Toutefois, si l’utilisation d’un tel
environnement virtuel a montré plusieurs bénéfices (August et al., 2016) comme la pos-
sibilité de gamification et la sensation d’immersion chez les apprenants, cette solution
présente différents inconvénients.
Outre les inconvénient liés à l’utilisation d’un environnement 3D, discutés dans la
section 2.2.2 (coût, limitations de l’awareness de concept, complexité du traitement des
données d’apprentissage), VESLL propose finalement un support aux interactions entre
apprenants limité. En effet, les auteurs constatent la difficulté d’extraction et la faible
finesse des traces d’interactions entre utilisateurs et artefacts pédagogiques, mais égale-
ment la difficulté de tracer les interactions entre utilisateurs. Ainsi, si l’environnement
offre une plus grande immersion et une interaction synchrone augmentée par l’envi-
ronnement 3D, le support à l’awareness et à la réflexion, comme aux learning analytics
en général, semble bien plus complexe à mettre en place.
48 Rémi Venant
3.11. Le projet Trilab
semble ici paradoxale, et ne permet pas les formes d’apprentissage par les pairs spon-
tanées comme l’entraide. De même, il ne semble pas prévu de pouvoir mettre fin à une
invitation, ni de pouvoir inviter un utilisateur en simple observateur : une fois qu’un
utilisateur a invité par courriel un ou plusieurs pairs, chacun d’entre eux à un accès
complet aux ressources du laboratoire, jusqu’à la fin de l’expérience. Enfin, il n’y a pas
non plus de support à l’awareness personnelle et sociale permettant à l’apprenant de
prendre conscience de son apprentissage par rapport à celui des autres, ni de support
à la réflexion pendant ou après l’expérience. Bien que l’architecture proposée semble le
permettre, aucune gestion des traces n’est effectuée.
3.12 Synthèse
Une synthèse de l’analyse des projets vis-à-vis des critères identifiés précédemment
est fournie dans le Tableau 3.1. À la colonne « Interactions spontanées », le sigle « NA »,
« Non Applicable », est utilisé lorsque le VRL ne dispose pas de fonctionnalité de par-
tage de l’environnement (vue partagée et possiblement partage du contrôle).
Parmi les initiatives étudiées dont aucune ne respecte l’ensemble des critères défi-
nis, nous pouvons observer deux grandes catégories d’environnements. Ceux dédiés
à la fédération ou à l’intégration des VRL dans des LMS présentent pour la plupart
un support à la réflexion, et pour certains d’entre eux un système de traces, sans tou-
tefois atteindre un niveau de détail élevé. La seconde catégorie concerne les projets
de construction d’un environnement dédié à un ou plusieurs VRL précis. Dans ces
derniers, on retrouve pour beaucoup d’entre eux des propositions pour répondre à la
problématique de communication entre apprenants pendant une activité, notamment
pour permettre à chacun de voir l’environnement de l’autre, ou de pouvoir manipuler
ensemble le même équipement.
Pour la plupart des environnements étudiés ici, nous pouvons observer que le sup-
port à l’awareness est homogène et relativement simple. Qu’ils soient virtuels ou dis-
tants, les laboratoires proposent trivialement une awareness de l’artefact personnelle,
et la plupart d’entre eux résume l’awareness de l’espace de travail à la présence so-
ciale des utilisateurs sur la plateforme. En revanche, nous pouvons constater l’absence
quasi-totale d’awareness du concept, qu’elle soit personnelle ou sociale, en raison du
manque de gestion des traces d’apprentissage collectées sur ces EIAH.
Ce problème s’étend également aux outils pour le support d’analyse et de synthèse.
Si plusieurs projets proposent de tels outils a posteriori, nombreux sont ceux qui ne
proposent aux apprenants que leurs propres résultats d’expériences, et qui ne mettent
pas à disposition des traces d’un fort niveau de détail retranscrivant, par exemple, le
déroulé de l’expérience ou les difficultés qu’ils ont rencontrées. De plus, nous n’avons
constaté aucune proposition pour de tels outils pendant l’expérience.
De plus, les outils auteurs restent marginaux dans les VRL que nous avons étudiés.
Dans le cas de Go-Lab, l’outil auteur permet de concevoir un scénario pédagogique
fondé sur les activités pratiques, mais ne permet pas de concevoir l’expérience elle-
même ni de paramétrer l’environnement utilisé pour réaliser l’expérience elle-même.
Finalement, nous constatons, tout comme Gravier et al. 2008, qu’il y a encore peu
d’EIAH pour les VRL qui disposent de fonctionnalités pour les interactions sociales.
Ceux construits au-dessus de VRL existants se focalisent sur des problématiques d’in-
tégration, d’indexation et de recherche de VRL, tandis que les EIAH dédiés à un VRL
particulier se concentrent souvent sur des problématiques d’accès, de mise à l’échelle
et d’immersion de l’apprenant dans un environnement virtuel. Ainsi les fonctionna-
lités dédiées aux intéractions sociales se limitent le plus souvent à la communication
synchrone, la présence sociale et pour certains, à la possibilité de partager la vue de
l’environnement et l’offre d’outils de réflexion a posteriori.
50 Rémi Venant
3.12. Synthèse
Awareness de l’environnement
Communication synchrone
Interactions spontanées
Paramétrage de l’EIAH
Réflexion après l’action
Awareness du concept
Vue partagée du VRL
Critères d’évaluation
Partage du contrôle
Outil auteur
Environnement A.1 A.2 A.3 B.1 B.2 B.3 B.4 C.1 C.2 C.3
WebLab-Deusto - - - ∼ - - - NA - -
Lab2Go - - - - - - - NA - -
Bulid - - - - - - - NA - -
Lila + ∼ - + - - - ∼ - -
Integration LMS + - - + - - ∼ ∼ - -
Go-Lab + - - + - - + - ∼ ∼
iLab - - - - - - ∼ NA ∼ -
LabShare + + ∼ + - - - - - -
WeColLab + + - + - - - + - -
ReLOAD - - - + + - + NA - -
eMersion - ∼ - + ∼ - + + - -
VESSL + + - + - - - + - -
DIESEL + + + - - - - + - -
Trilab + - - - - - - NA - -
+ Critère respecté
∼ Critère partiellement respecté
- Critère non respécté
NA Non Applicable
53
4 Un laboratoire pour
l’apprentissage de
l’Informatique
Contenu
4.1 Historique et motivations . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.1 Contexte de recherche . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.2 Contexte d’enseignement . . . . . . . . . . . . . . . . . . . . . . 56
4.1.3 Développement de Lab4CE . . . . . . . . . . . . . . . . . . . . . 57
4.2 Vue générale de Lab4CE . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Concepts principaux . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Architecture logicielle globale . . . . . . . . . . . . . . . . . . . . 59
4.3 Gestion des VRL dans Lab4CE . . . . . . . . . . . . . . . . . . . . . . . 61
4.3.1 OpenStack : un gestionnaire de cloud pour Lab4CE . . . . . . . 61
4.3.2 Intégration d’OpenStack dans Lab4CE . . . . . . . . . . . . . . . 62
4.3.3 Accès aux ressources . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.4 Services pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4 L’EIAH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.1 L’application auteur . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.2 L’application d’expérimentation . . . . . . . . . . . . . . . . . . 67
4.5 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
55
Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique
Les travaux de thèse de M. Bouabid sur la mise en ligne de travaux pratiques (2012)
ont abouti à la proposition d’un modèle d’information qui s’appuie sur le standard
CIM 1 (Common Information Model), un méta-modèle orienté objet et normalisé par
le DMTF (Desktop Management Task Force), pour représenter tout élément adminis-
trable (d’une porte automatique, à un logiciel installé sur une machine). Le modèle,
étendu aux travaux pratiques, considère la ressource et l’expérience comme des entités
autonomes faiblement couplées. Nos travaux sur le support des interactions sociales
s’appuient sur, et étendent, la solution proposée par Bouabid.
56 Rémi Venant
4.2. Vue générale de Lab4CE
Dans les VRL traditionnels, les ressources sont hébergées par un laboratoire et pré-
existent à l’expérience. Les utilisateurs accèdent au laboratoire via l’environnement
puis manipulent les ressources qui y sont proposées. Lab4CE (Broisin et al., 2015a,b)
propose un paradigme différent, en exploitant les capacités offertes par une infrastruc-
ture de cloud computing (détaillée dans la section 4.3.1). L’expérience préexiste aux
laboratoires et aux ressources : à partir de celle-ci, le système va créer automatique-
ment un laboratoire et ses ressources pour chaque utilisateur de l’expérience. Pour une
expérience donnée, chaque utilisateur possède alors son propre laboratoire et dispose
d’un accès complet à l’ensemble des ressources qui lui sont associées.
À travers l’EIAH proposé par Lab4CE et dans le contexte d’une expérience don-
née, les utilisateurs peuvent interagir entre eux de façon synchrone, s’inviter mutuelle-
ment dans leur laboratoire, ou encore demander de l’aide de la même manière que s’ils
étaient physiquement ensemble. Enfin, l’EIAH est doté d’un ensemble d’outils pour
l’awareness et la réflexion qui s’appuient sur un framework commun de learning ana-
lytics, interopérable avec des outils externes.
La Figure 4.1 présente le diagramme de cas d’utilisation de Lab4CE en fonction du
rôle de l’utilisateur. L’expérimentateur désigne un utilisateur du système pouvant réa-
liser une expérience, et cible donc les étudiants comme les enseignants. Le concepteur
peut également créer des expériences, et désigne particulièrement les enseignants ou
les concepteurs pédagogiques. La Figure 4.2 présente le modèle de données à un haut
niveau d’abstraction, sous la forme d’un diagramme de classes.
Dans Lab4CE, une expérience est l’artefact pédagogique défini dans la section 1.1.2.
Créée par un concepteur, elle décrit notamment la topologie des ressources nécessaires
pour réaliser une activité pratique. À une expérience sont associés différents expéri-
mentateurs. Chacun de ces expérimentateurs possède son propre laboratoire, une en-
tité comprenant l’ensemble des ressources de la topologie définie dans l’expérience. Si
l’on retrouve la distinction entre expérience et ressources, comme chez Bouabid (2012),
58 Rémi Venant
4.2. Vue générale de Lab4CE
notre modèle ajoute la notion de laboratoire comme une instance de cette expérience
destinée à un ou plusieurs utilisateurs. Ici, chaque apprenant est propriétaire de son
laboratoire virtuel, dans lequel il peut également inviter d’autres utilisateurs afin de
mener des activités collectives.
L’architectures spécifiée par le projet iLab a été largement adoptée, notamment pour
faciliter le passage à l’échelle et pour la robustesse qu’elle propose concernant la gestion
des VRL (Hardison et al., 2008; Niederstaetter et al., 2010; Zutin et al., 2011). L’architec-
ture de Lab4CE illustrée par la Figure 4.3 s’appuie également sur celle d’iLab (Harward
et al., 2008). Lab4CE repose sur une architecture 3-tier faiblement couplée pour respec-
ter la distinction entre VRL et EIAH et ainsi permettre à différents fournisseurs de VRL
et différentes institutions de collaborer facilement, tout en facilitant l’intégration de dif-
férents services pédagogiques.
Sur la Figure 4.3, la couche « laboratoire » représente le gestionnaire de cloud qui
est responsable de la gestion des machines et réseaux virtuels proposés aux utilisa-
teurs pour l’apprentissage de l’Informatique à grande échelle. La couche intermédiaire
« middleware » agit comme un courtier entre les couches supérieure et inférieure en
proposant un ensemble de services pour d’une part, interagir avec la couche laboratoire
sans nécessiter de compétences techniques propres à la manipulation de ressources vir-
tuelles (ces services sont assurés par les composants « Gestion des VRL » et « Accès
aux ressources ») et d’autre part, améliorer l’expérience d’apprentissage et d’enseigne-
ment à travers un ensemble de fonctionnalités s’appuyant sur l’exploitation des traces
60 Rémi Venant
4.3. Gestion des VRL dans Lab4CE
Le composant « Services pédagogiques » sert de point d’entrée aux clients web ainsi
qu’à l’authentification. Placé côté université, il est le seul composant où les informations
sensibles sur les apprenants sont persistantes (i.e., traces d’apprentissage). Les compo-
sants situés sur l’entité producteur ne sont responsables que de la gestion des VRL.
Enfin, chaque composant permet le passage à l’échelle par duplication et/ou fédéra-
tion : les composants du middleware sont des serveurs autonomes dont la redondance
pour la balance de charge est facilitée par les technologies utilisées, tandis que la couche
laboratoire s’appuie sur une technologie qui offre la possibilité d’augmenter le nombre
de serveurs à la volée. Les détails de ces technologies sont fournis ci-dessous.
Dans notre approche, un laboratoire virtuel est créé pour chaque apprenant dans
le cadre d’une expérience définie par un enseignant. L’objectif principal du gestion-
naire de VRL est donc de permettre la conception d’une topologie réseau correspon-
dant à l’expérience, puis de l’instancier automatiquement pour chaque expérimenta-
teur. Le gestionnaire doit également proposer un modèle de contrôle d’accès permet-
tant à chaque apprenant d’accéder à son propre VRL, de manipuler les dispositifs qui
y sont présents (par exemple : démarrer, arrêter une machine), mais également d’ac-
céder au VRL d’un autre apprenant si celui-ci l’y autorise. Ces différents besoins nous
amènent à opter pour l’utilisation d’un gestionnaire de cloud présenté ci-dessous.
En informatique, la virtualisation est un concept qui peut être défini comme l’abs-
traction de ressources informatiques au niveau logique (CPU, stockage, réseau, mé-
moire vive, etc.) et l’exploitation de ces ressources en tant que services, indépendam-
ment de leur réalité physique (Xing et Zhan, 2012). Le concept de « Cloud Computing »
62 Rémi Venant
4.3. Gestion des VRL dans Lab4CE
OpenStack expose une vision technique des ressources virtuelles, ce qui nécessite
une connaissance approfondie dans ce domaine pour pouvoir manipuler les ressources
gérées. Le composant « Gestion des VRL » du middleware a pour rôle d’exposer des
services de gestion des laboratoires du point de vue pédagogique et non technique,
et d’assurer l’automatisation de différents traitements, notamment ceux liés à la créa-
tion et à la suppression des laboratoires à partir de la description d’une expérience.
L’API REST détaillée est fournie en annexe A de ce manuscrit. Le Tableau 4.2 résume
les principales permissions associées à chaque rôle sur les différents objets pédago-
giques. Le composant « Services pédagogiques » fournit quant à lui un ensemble de
services propres à l’apprentissage. Les deux composants sont exposés sous la forme
d’applications serveur web, développées avec le framework Spring 4 . Le LRS, connecté
au second composant, a été développé pour Lab4CE et repose sur la base de données
NoSQL MongoDb 5 . Le choix des technologies a été effectué, entre autres, pour assurer
une mise à l’échelle aisée des différentes couches : les applications serveurs peuvent être
répliquées aisément, tandis que le LRS peut se voir adjoindre des noeuds de données à
la volée sans reconfiguration préalable (Chodorow, 2013).
4. https://spring.io/
5. https://www.mongodb.com/
Tableau 4.2 – Permissions par rôle sur les expériences, laboratoires et ressources
4.4 L’EIAH
Si certains projets comme Go-Lab (Gillet et al., 2014) présentent des outils auteur, ces
derniers adoptent une vision macroscopique : l’auteur ne conçoit pas son expérience,
mais orchestre un ensemble d’expériences prédéfinies dans un scénario d’apprentis-
sage exploratoire. Comme nous l’avons identifié précédemment, il est nécessaire de
pouvoir doter l’enseignant d’un outil auteur qui lui permette de définir finement son
6. https://angularjs.org/
7. https://getbootstrap.com/
8. https://d3js.org/
64 Rémi Venant
4.4. L’EIAH
expérience ainsi que les modalités d’interactions que celui-ci souhaite rendre dispo-
nibles chez les apprenants. Notre application auteur permet de concevoir une expé-
rience, dont le modèle de données détaillé est illustré à la Figure 4.5. L’expérience com-
prend a) une description textuelle des objectifs pédagogiques, b) un résumé textuel de
l’expérience, c) une date de début et de fin d’accessibilité, d) une topologie d’équipe-
ments et, optionnellement, e) une liste ordonnée d’exercices, éléments semi-structurés
dont chacun contient un intitulé, du texte et des images.
66 Rémi Venant
4.4. L’EIAH
Une fois connecté au contexte d’une expérience, l’utilisateur, qu’il soit apprenant
ou enseignant, accède à l’interface illustrée par la Figure 4.7. L’interface est divisée en
5 grandes zones. En haut (1), la barre de navigation permet d’accéder à l’ensemble des
fonctionnalités. En bas (2), en vert, se trouve la barre des salons de discussions pour
la messagerie instantanée (cf. section 6.1). À droite (3), sont situés, de haut en bas, le
composant de gestion de l’entraide (cf. section 6.3), le composant d’awareness person-
nelle et sociale (cf. section 5.4.2), ainsi que la liste des utilisateurs connectés exploitée
pour fournir l’awareness individuelle et pour initier certaines interactions entre pairs
(cf. section 6.2). Lorsque ces fonctionnalités sont activées pour une expérience donnée,
elles restent toujours affichées, quelque soit l’état de l’application.
La zone centrale de l’application (4) contient les informations saisies dans l’outil
auteur, et présente les informations générales de l’expérience (objectifs, descriptions,
dates d’accès). Enfin, le panneau du bas (5) expose, le cas échéant, les diverses étapes
de l’expérience. Dans ce dernier composant, si les étapes ont été conçues comme sé-
quentielles et si l’utilisateur connecté est un apprenant pour l’expérience, le passage de
l’étape N à l’étape N + 1 se fait par validation manuelle et entraîne l’impossibilité de
revenir en arrière. Ce dernier panneau est lui aussi affiché pendant la manipulation de
ressource (voir Figure 4.8).
Cette interface est toujours accessible depuis la barre de navigation. Le bouton « Ac-
céder aux laboratoires » en bas du panneau central ainsi que le lien « Laboratoires » de
la barre de navigation permettent d’accéder à l’interface de gestion des laboratoires et
de manipulation de leurs ressources.
Illustré par la Figure 4.8, le panneau « Laboratoires » contient l’ensemble des labo-
ratoires auxquels l’utilisateur a accès. Si l’utilisateur possède toujours son propre labo-
ratoire, il pourra également, dans certains cas, accéder à celui d’autres utilisateurs réali-
sant cette expérience. Sur la Figure 4.8 est présenté un seul laboratoire, pour lequel l’uti-
lisateur est propriétaire (1). S’il amène ses ressources dans un état défaillant empêchant
toute intervention, il peut à tout moment arrêter son laboratoire (2), ce qui détruira
l’ensemble des ressources virtuelles qu’il contient, puis le redémarrer. Une fois démar-
rées, les différentes ressources manipulables apparaissent sous l’intitulé du laboratoire.
Dans le cas illustré par la Figure 4.8, le laboratoire comprend 7 machines virtuelles. La
première ligne est composée de boutons à liste (3) qui permettent de contrôler l’état
d’alimentation de chaque machine (éteinte, allumée, en veille). Sous ces boutons, est
placée une icône d’accès au terminal de chacune des machines. Lorsque la machine est
allumée, le terminal est disponible (ex. : machine F1).
Lorsqu’un terminal est ouvert (4) l’utilisateur est invité à s’authentifier auprès de
la machine. Le terminal dispose de plusieurs fonctionnalités de base, accessibles par
son menu contextuel (5). L’utilisateur peut changer le type de clavier et dispose égale-
ment des opérations de copier/coller à travers le menu contextuel ou via un raccourci
clavier. Enfin, bien que l’interface ne permette d’afficher qu’un seul terminal à la fois,
les terminaux restent ouverts pour éviter à l’utilisateur de procéder de nouveau à l’au-
thentification sur la machine distante et lui permettre de passer d’une ressource à l’autre
rapidement.
68 Rémi Venant
4.5. Synthèse
4.5 Synthèse
Contenu
5.1 Les learning analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.1 Définition des learning analytics . . . . . . . . . . . . . . . . . . 72
5.1.2 Learning analytics et awareness . . . . . . . . . . . . . . . . . . 72
5.2 Awareness de la performance dans les VRL . . . . . . . . . . . . . . . 73
5.2.1 Contraintes des VRL pour l’awareness du concept . . . . . . . . 73
5.2.2 Awareness de la performance dans Lab4CE . . . . . . . . . . . . 73
5.3 Gestion des traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1 Flux de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.2 Modèle de traces . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.3 Framework d’analyse de données . . . . . . . . . . . . . . . . . 76
5.3.4 Gestion individuelle des traces d’apprentissage . . . . . . . . . 77
5.4 Outils pour l’awareness et la réflexion . . . . . . . . . . . . . . . . . . 77
5.4.1 Learning analytics pour le support à l’awareness et à la réflexion 77
5.4.2 L’outil de comparaison sociale . . . . . . . . . . . . . . . . . . . 78
5.4.3 L’outil de réflexion a posteriori . . . . . . . . . . . . . . . . . . . 79
5.4.4 L’outil de réflexion pendant l’action . . . . . . . . . . . . . . . . 81
5.5 Outils de détection de stratégies d’apprentissage . . . . . . . . . . . . 82
5.5.1 Suivi du comportement de l’apprenant . . . . . . . . . . . . . . 83
5.5.2 Système de tuteur intelligent . . . . . . . . . . . . . . . . . . . . 84
5.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
71
Chapitre 5. Awareness et Réflexion dans Lab4CE
indicateur de performance sur lequel reposent nos propositions. Une troisième section
présente le framework intégré dans Lab4CE pour collecter les traces, les enrichir et les
restituer en temps réel ou a posteriori. Nous exposons dans les deux dernières sections
les outils d’analytics intégrés dans l’EIAH pour l’awareness et la réflexion.
À travers notre état de l’art, nous avons évoqué l’usage des traces d’apprentissage
pour pouvoir faciliter le support à l’awareness et la réflexion. Il nous faut toutefois dé-
finir plus précisément ce que sont les LA et expliquer pourquoi ceux-ci sont pertinents
dans nos travaux.
Le champs des learning analytics peut paraître récent (la première conférence Lear-
ning Analytics and Knowledge (LAK) s’est déroulée en 2011), mais les LA s’appuient sur
des domaines plus anciens tels que la fouille de données (Data Mining) ou encore les in-
teractions homme-machine (IHM). Définis lors de la 1re conférence LAK comme « la me-
sure, la collecte, l’analyse et le report des données sur les apprenants et leurs contextes,
pour la compréhension et l’optimisation de l’apprentissage et des environnements qui
leur sont dédiés », les LA ont un objectif qui fait consensus : la compréhension des
processus d’apprentissage et d’enseignement. Duval (2011) précise l’objectif des LA en
distinguant deux buts pratiques principaux : la visualisation et la recommandation.
Dans le premier cas, le raisonnement sur l’information est laissé à l’utilisateur, tandis
que dans le second, le système lui-même applique un raisonnement pour offrir à l’uti-
lisateur un choix pertinent de ressources, d’activités ou de pairs. D’autre part, Siemens
et Baker (2012), les présentent comme centrés sur l’aide à la décision pour supporter
les apprenants et enseignants dans leurs tâches, plus que sur l’adaptation automatique
de systèmes. Nous adoptons ainsi dans ce manuscrit la définition des LA énoncée ci-
dessus, en considérant notamment son approche centrée utilisateur, qu’il s’agisse d’en-
seignants ou d’apprenants.
72 Rémi Venant
5.2. Awareness de la performance dans les VRL
lorsque celle-ci est inconnue. Pour valider le calcul de notre indicateur, nous avons ma-
nuellement évalué la justesse technique d’un échantillon de 300 commandes produites
par les étudiants. Sur la base de cet échantillon, 298 commandes furent évaluées de fa-
çon identique par le moteur, soit dans 99.3% des cas. Ainsi, il est possible de fournir
une awareness de la performance de l’apprenant dans le contexte des VRL. La section
suivante présente le framework mis en oeuvre dans Lab4CE pour permettre la capture
de traces et l’inférence de la justesse technique de chaque instruction en temps réel.
La Figure 5.1 représente les flux de données qui existent entre les trois couches de
Lab4CE. Le flux bleu représente les données endogènes de Lab4CE, telles que les évé-
nements d’invitation à une collaboration ou les messages instantanés échangés entre
utilisateurs. Le flux vert représente les données de gestion des expériences, laboratoires
et ressources : les informations pédagogiques d’une expérience ou encore l’état d’une
ressource d’un laboratoire. Enfin, le flux rouge représente les données propres à l’inter-
action d’un utilisateur avec une ressource par le moyen du terminal web.
Pour chacune des données échangées dans ces flux, une trace est émise de l’EIAH
vers le LRS. Par exemple, lorsque l’apprenant écrit dans le terminal, les données sont
transmises via le flux rouge à la ressource virtuelle, et une « copie » sous forme de trace
d’apprentissage est envoyée au LRS.
74 Rémi Venant
5.3. Gestion des traces
d’au moins trois éléments : l’acteur (l’utilisateur), le verbe (l’action) et l’objet (la res-
source). Il peut aussi comprendre la date de réalisation de l’action, son contexte ou son
résultat.
Pour représenter une instruction exécutée sur une machine distante, nous avons
conçu un objet xAPI spécifique. Par exemple, l’instruction « rm –v myfile », dont la
réponse retournée par la machine sur laquelle elle a été exécutée est « rm : myfile : No
such file or directory », est représentée par un objet computerinstruction illustré par la
Figure 5.2 ; un exemple complet de cet enregistrement xAPI est fourni en annexe D.
Notre proposition inclut trois couches de composants faiblement couplés côté client,
ainsi que deux dépôts distants. Les capteurs surveillent les flux de données sur des
composants spécifiques de Lab4CE ((1) sur la Figure 5.3), génèrent des éléments xAPI
et les envoient au forgeur d’enregistrements sous forme d’événements (2). Le forgeur
agrège les différents éléments en enregistrements xAPI, qui sont alors routés soit au mo-
teur d’enrichissement (3a), soit directement au dépôt de traces (3b). Après une phase
initiale où le moteur d’enrichissement souscrit au forgeur (B) pour recevoir les enregis-
trements qu’il peut enrichir d’après les règles décrites dans le dépôt de règles (A), il
infère et ajoute à chaque enregistrement un ou plusieurs indicateurs, et les renvoie au
forgeur (4) avant leur stockage dans le LRS (5).
Les composants côté client ont été développés avec AngularJS comme pour le reste
des applications web. Les deux dépôts ont été conçus sous la forme d’une pile appli-
cative comprenant une base de données NoSQL (MongoDb) pour faciliter l’intégra-
tion de nouvelles structures d’enregistrement, ainsi qu’une couche d’accès Spring Java
pour exposer à la fois une interface d’accès REST et des point d’accès full-duplex multi-
protocoles (i.e., WebSocket, XHR streaming, XHR polling). Pour exploiter les traces, un
composant peut utiliser l’interface REST de manière asynchrone, ou souscrire à un flux
d’enregistrements xAPI en temps-réel via un point d’accès full-duplex.
76 Rémi Venant
5.4. Outils pour l’awareness et la réflexion
Les outils de visualisation présentés ici s’appuient sur la justesse technique des ins-
tructions exécutées par les apprenants, et visent à fournir une connaissance de leur
performance afin de leur permettre d’analyser ce qu’ils font et pourquoi ils le font.
Nous exposons dans un premier temps les problématiques liées à l’intégration des LA
pendant les sessions d’apprentissage, puis exposons l’ensemble de nos outils. Afin de
faciliter la compréhension de l’utilisation de ces outils, nous les exposons à travers un
scénario d’utilisation.
Pour restituer la performance des apprenants, les tableaux de bord munis de mul-
tiples fonctionnalités de visualisation et d’exploration semblent être une exploitation
fréquente de l’analyse de données : SAM (Govaerts et al., 2012), FORGE (Mikroyanni-
dis et al., 2015), Realizeit (Howlin et Lynch, 2014) et SocialLearn (Ferguson et Shum,
2012) sont autant d’outils de ce type.
Intégrer aisément ces outils à Lab4CE pose cependant un certain nombre de pro-
blèmes. Realizeit et LearningLocker sont propriétaires et ne permettent pas d’être in-
tégrés librement. D’autre part, les outils SocialLearn ou Realizeit ne reposent pas sur
des formats de données interopérables, à la différence de SAM ou FORGE qui reposent
respectivement sur les formats Contextualized Attention Metadata (CAM) et xAPI.
L’awareness pour les situations d’apprentissage pratique nécessite une synchroni-
sation entre les actions réalisées par les apprenants et les informations qui leur sont
retournées. Ces informations doivent refléter l’instant présent, ce qui implique un trai-
tement et une restitution en pseudo temps-réel. Dans SAM, les données exploitées par
les tableaux de bord semblent être mises à jour de manière asynchrone. Par contre, Mi-
kroyannidis et al. (2015) ou Hecking et al. (2014) proposent des architectures s’appuyant
Objectifs. Cet outil doit encourager la réflexion des apprenants pendant l’activité
en fournissant une awareness personnelle et sociale du concept, dont le lien de causalité
est soutenu par l’étude expérimentale de Wilson et Jan (1993). Les outils de comparai-
son sociale sont conçus pour doter les apprenants d’une conscience sur la performance
du groupe. Ces outils permettent ainsi aux étudiants de comparer leur progression par
rapport à celle de leurs pairs (Michinov et Primois, 2005).
Scénario. Pendant que les apprenants travaillent sur Lab4CE, ils visualisent leur
propre performance ainsi que celle de leurs pairs avec le moins de surcharge cognitive
possible, pour ne pas diminuer leur attention sur leurs activités.
78 Rémi Venant
5.4. Outils pour l’awareness et la réflexion
des visualisations de la performance doivent nécessiter peu d’attention pour être com-
prises et bénéfiques aux apprenants. Une barre de progression est un composant léger
qui reçoit un flux d’enregistrements xAPI d’instructions à propos d’un apprenant ou
d’un groupe d’apprenants. L’outil dessine alors un dégradé de couleurs au fil des enre-
gistrements reçus. Cet outil illustré en haut de la Figure 5.4 est intégré dans Lab4CE et
fournit trois barres de progression distinctes. La première (Ma session en cours) reflète
la performance individuelle de l’apprenant connecté à la plate-forme pendant sa ses-
sion courante ; la seconde exprime le cumul de cette performance pour l’ensemble des
sessions de travail réalisées par l’apprenant sur l’expérience qu’il réalise ; la dernière
expose ce même cumul, mais pour l’ensemble des apprenants inscrits à l’expérience
courante. Ainsi, ce mode de visualisation demeure opérationnel que les étudiants tra-
vaillent en même temps, ou de manière désynchronisée, puisque les barres sont auto-
matiquement mises à jour à chaque nouvelle commande exécutée par un apprenant.
Dans le menu des utilisateurs connectés (composant en bas de la Figure 5.4), les
barres de progression de la session en cours de chaque utilisateur connecté sont égale-
ment répliquées. Ces visualisations sont fournies pour aider un apprenant en difficulté
à identifier un pair qui pourrait lui venir en aide (cf. chapitre 6).
Cet outil de comparaison sociale permet aux apprenants de prendre conscience de
leur performance et de celle de leurs pairs, avec un faible effort cognitif leur permettant
de rester concentrés sur leur activité. La visualisation de la performance individuelle,
en conjonction avec celle de la performance du groupe, permet aux apprenants de se
positionner par rapport au groupe et peut les aider à se sentir plus engagés dans leurs
tâches (Kollöffel et de Jong, 2016). De plus, les tuteurs sont conscients du niveau de
performance de la classe et sont donc plus à même d’ajuster les objectifs ou le déroulé
de l’expérience. Cependant, cette visualisation simple ne permet pas aux apprenants
d’analyser en détail les actions effectuées ; l’outil suivant répond à ce besoin.
80 Rémi Venant
5.4. Outils pour l’awareness et la réflexion
à aller voir l’écran de leurs partenaires pour obtenir la syntaxe exacte d’un code source,
ou pour comparer leurs résultats. Notre outil vise ainsi à reproduire ce processus dans
une configuration à distance. De plus, combiné avec l’outil de comparaison sociale,
l’outil de réflexion pendant l’action augmente le support de l’apprentissage par les
pairs : les apprenants peuvent facilement identifier les pairs qui réussissent (i.e., les uti-
lisateurs qui exécutent des instructions techniquement justes), et peuvent investiguer
comment ceux-ci résolvent les difficultés de l’activité pratique. Enfin, les enseignants
peuvent observer ce que les apprenants font, et même leur demander de regarder leur
propre terminal pour faciliter l’explication par l’exemple.
82 Rémi Venant
5.5. Outils de détection de stratégies d’apprentissage
Objectifs. Les systèmes de tuteur Intelligent (Intelligent Tutoring System, ITS) ont
pour objectifs « d’engager les apprenants dans des activités de raisonnement soutenu
et d’interagir avec eux en s’appuyant sur une compréhension profonde de leur compor-
tement » (Corbett et al., 1997). Nous souhaitons ici soutenir la réflexion par l’utilisation
d’un ITS fondé sur les stratégies d’apprentissage.
Scénario. À partir des stratégies identifiées pendant l’activité pratique, l’ITS peut
fournir à l’apprenant un feedback adapté à son comportement pour l’engager dans
un processus de réflexion, en lui proposant la consultation de ressources d’aide ou en
l’invitant à demander de l’aide auprès d’un pair.
Conception et développement. Notre ITS illustré sur la Figure 5.8 fournit, sous la
forme de messages qui apparaissent au dessus du terminal de l’apprenant, des recom-
mandations lorsque celui-ci rencontre une difficulté pour réaliser la tâche demandée.
Par exemple, lorsque la détection de la stratégie d’essai/erreur se prolonge dans le
temps, le système recommande l’utilisation du manuel de la commande, sans pour au-
tant faire l’action à la place de l’apprenant. Dans le cas où l’apprenant aurait déjà effec-
tué cette opération, sans toutefois surmonter la difficulté rencontrée, l’outil de guidage
recommande alors un pair sélectionné à partir de trois informations : a) les stratégies
appliquées, b) les mesures de performance, et c) la charge d’aide des utilisateurs, pour
éviter de recommander un pair qui serait déjà en train d’aider une personne (le proces-
sus d’entraide est expliqué en détail à la section 6.3). Cet outil permet ainsi de guider
les apprenants selon les stratégies qu’ils mettent en œuvre, et promeut les interactions
sociales entre apprenants en les incitant à s’entraider.
84 Rémi Venant
5.6. Synthèse
5.6 Synthèse
Dans ce chapitre, nous avons exposé comment les learning analytics peuvent être
exploités pour fournir des outils et artefacts capables de supporter l’awareness et la ré-
flexion. Dans notre contexte de situation d’apprentissage pratique, nous avons défini
la justesse technique, une métrique qui s’appuie sur les actions réalisées par les appre-
nants sur leurs ressources. Nous avons également proposé un framework générique
pour la capture et l’enrichissement de traces au format xAPI, utilisé notamment pour
traiter cet indicateur en temps réel. En s’appuyant sur ce framework, nous avons réalisé
plusieurs outils capables de restituer, en temps réel ou a posteriori, ces traces d’appren-
tissage. L’outil de comparaison sociale permet à l’apprenant de prendre conscience de
sa performance et de sa progression en temps réel, et de les comparer à celles de la
classe sans avoir à déporter son attention de son travail en cours. Pendant l’activité,
l’apprenant peut également se référer au travail des autres, à l’aide de l’outil de ré-
flexion pendant l’action, qui lui permet de consulter les terminaux de ses pairs. Propo-
sant une vision plus synthétique, l’outil de réflexion après l’action expose la progres-
sion de la performance des apprenants sous forme de timelines détaillées. Enfin, les
deux derniers outils, dédiés au suivi et au guidage du comportement des apprenants,
s’appuient sur la détection à la volée de stratégies d’apprentissage, calculées par notre
framework de traces d’après les commandes exécutées par les apprenants.
Contenu
6.1 Messagerie instantanée et salons de discussion . . . . . . . . . . . . . 88
6.2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.2.2 Scénarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.3.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3.2 Scénario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
N OUS introduisons ici le support à l’apprentissage par les pairs que nous considé-
rons comme un levier pour favoriser les situations sociales. Pour permettre ces
formes d’apprentissage, nous avons défini parmi nos critères fondamentaux, celui de
la vision partagée d’un laboratoire et de ses ressources, mais également la possibilité
de prise de contrôle d’un laboratoire par différents utilisateurs. Nous avons également
évoqué différentes formes d’apprentissage par les pairs, dont certaines nécessitent que
les apprenants puissent interagir de manière spontanée. Nous présentons ici les fonc-
tions de Lab4CE assurant ces critères. Nous exposons dans un premier temps la messa-
gerie instantanée, outil commun à toutes les activités collectives supportées par notre
environnement, puis exposons le support à la collaboration, la coopération et l’entraide.
87
Chapitre 6. Interactions sociales dans Lab4CE
Lab4CE implémente une messagerie instantanée illustrée par la Figure 6.1 (Broisin
et al., 2015b). Celle-ci propose 3 types de salons : a) un salon public pour les participants
d’une même expérience, b) un salon privé par laboratoire et c) un salon temporaire
créée à la demande d’un utilisateur pour communiquer avec un autre, accessible depuis
le menu contextuel d’un utilisateur illustré par la Figure 5.4. Les salons publiques et
privés peuvent être affichés depuis leur bouton correspondant sur la barre de chat (1
sur la Figure 6.1) et masqués depuis cette même barre ou depuis la fenêtre du salon
elle-même (2). Ces salons étant liés respectivement à l’expérience et au laboratoire, ils
ne peuvent être supprimés de l’interface, à la différence des salons créés à la volée (3).
La discussion au sein du salon publique est appropriée pour les conversations
d’ordre général sur les modalités pédagogiques, ou encore sur les connaissances théo-
riques pour atteindre les objectifs de l’expérience. Pour supporter les activités de col-
laboration ou de coopération qui s’effectuent au sein d’un laboratoire, le salon privé
associé à ce laboratoire est plus approprié.
88 Rémi Venant
6.2. Support à la collaboration et coopération
6.2.1 Objectifs
6.2.2 Scénarios
Pour permettre à l’enseignant de concevoir des activités de CL, nous nous appuyons
sur le modèle de Lab4CE présenté dans la section 4.3, qui permet l’affectation de plu-
sieurs apprenants à un même laboratoire, mais également la définition de topologies
d’expériences où certaines ressources sont communes aux différents laboratoires qui
seront générés. Lorsque plusieurs apprenants sont initialement affectés au même labo-
ratoire, chacun en est le propriétaire, et peut effectuer toutes les opérations possibles
sur celui-ci (i.e., le démarrer, l’arrêter) et sur les ressources qu’il contient. Cette confi-
guration est à l’initiative du concepteur de l’expérience, qui peut définir les groupes
d’apprenants travaillant au sein du laboratoire ; nous précisons toutefois que cette op-
tion est encore indisponible dans l’application auteur.
90 Rémi Venant
6.2. Support à la collaboration et coopération
Dans l’interface de gestion des laboratoires illustrée par la Figure 6.2, l’utilisateur
connecté, Richard, voit son propre laboratoire ainsi que deux autres laboratoires dans
lesquels il est invité, celui de Sharon (replié sur la figure) et celui de Stuart. Pour une
expérience, les laboratoires ayant la même topologie et le même nombre de ressources,
une représentation en tableau a été choisie pour une offrir une vue compacte des res-
sources accessibles et faciliter la comparaison entre deux ressources de même nom sur
deux laboratoires différents. À tout moment, un propriétaire de laboratoire peut mettre
fin à une invitation : dans ce cas, l’invité est exclu du laboratoire.
les autres membres. Lorsqu’un utilisateur se connecte, il reçoit également les dernières
traces émises, pour lui permettre de consulter rapidement ce que les autres membres
ont effectué avant son arrivée. Si ce dernier souhaite retrouver les actions menées au-
paravant, il dispose des outils de réflexion. Il est ainsi possible de consulter les actions
d’un autre même lors d’une connexion a posteriori.
Ainsi, lors d’une collaboration ou d’une coopération, chaque participant est notifié
d’une action d’un pair sur une des ressources du laboratoire, et peut consulter le termi-
nal de ce pair en temps réel. Enfin, l’accès à un laboratoire par un apprenant, qu’il soit
invité ou propriétaire, lui octroie le droit de consulter le travail des autres membres par
les outils de réflexion, et de dialoguer dans le salon privé du laboratoire.
6.3.1 Objectifs
92 Rémi Venant
6.3. Support à l’entraide
Figure 6.4 – Processus de recherche d’aide (Nelson-Le Gall, 1981; Newman, 1994)
son caractère spontané : ces interactions, observables dans les situations d’apprentis-
sage pratique en classe, ne sont pas initiées ni gérées par l’enseignant.
Nous avons souhaité explorer cette forme d’apprentissage, dont les VRL semblent
être un terrain propice à son implantation (Venant et al., 2017c). Dans le reste de ce
manuscrit, nous désignerons l’étudiant qui reçoit une aide par le terme « aidé », tandis
que nous emploierons le terme « aidant » pour l’étudiant qui fournit une aide.
6.3.2 Scénario
L’aide dans des contextes sociaux tels que la classe a été l’objet de nombreuses
études en SHS. La plupart des recherches que nous avons revues se concentre exclu-
sivement sur la recherche d’aide, à la différence de l’offre d’aide, bien que les deux
activités témoignent d’aptitudes d’auto-régulation (Puustinen, 1998), de connaissances
du domaine et de connaissances métacognitives (Newman, 1998).
À titre de définition formelle de la recherche d’aide, (Nelson-Le Gall, 1981; New-
man, 1994) ont proposé un modèle de processus illustré par la Figure 6.4 qui est la base
de notre scénario pédagogique. La première étape requiert de l’apprenant des capaci-
tés métacognitives telles que l’évaluation de la difficulté d’une tâche ou la surveillance
du progrès de son apprentissage (Nelson-Le Gall, 1981). Les EIAH peuvent fournir à
l’apprenant l’awareness personnelle utile au support de ces fonctions (Aleven et Koe-
dinger, 2001), tel que l’outil présenté dans la section 5.4.2. Une fois conscient du besoin
de rechercher de l’aide, le passage à l’action n’est pas trivial. Par exemple, la peur d’être
perçu(e) comme incompétent par ses pairs ou par les enseignants peut être un verrou
à la prise de décision (Ryan et al., 2001), même si plusieurs études ont montré les béné-
fices de l’aide à la demande, en comparaison avec une aide automatiquement fournie
par le système : Wood et Wood (1999) ont trouvé une corrélation significative positive
de la demande d’aide à l’atteinte des objectifs pédagogiques, tandis que Renkl (2002) a
observé que dans le cas de l’aide initiée à la demande de l’apprenant, les explications
sont fournies à un moment plus approprié.
L’étape suivante dans le modèle de référence est l’identification des sources d’aide
potentielles. En contexte présentiel, les étudiants ont pour habitude de formuler leur
demande à leurs voisins. Toutefois, demander de l’aide à une personne en particulier
ou interroger l’ensemble de la classe sont deux stratégies possibles qui peuvent corres-
pondre à différents profils d’apprenants, et qui doivent être rendues possibles. Trouver
une aide spécifique nécessite également chez l’apprenant la prise de conscience de la
manière dont leurs pairs réussissent la tâche en cours, un problème qui rejoint la re-
cherche sur la présence sociale (Swan et Shih, 2005) et l’awareness (Gutwin et al., 1995)
dans les EIAH, discutée dans le chapitre 2.2.2 et dont les outils de support sur Lab4CE
ont été présentés dans les sections 4.4.2.2 et 5.4.2 respectivement.
Une fois les sources d’aide potentielles identifiées, l’apprenant doit formuler une
demande appropriée pour obtenir une aide efficace. Une fois l’épisode d’aide terminé,
les apprenants doivent évaluer l’aide qu’ils ont reçue et, par analogie, celle qu’ils ont
fournie. Cette étape est importante dans un EIAH, puisque les résultats d’évaluation
peuvent être utilisés pour des traitements a posteriori tels que la recommandation de
pairs (Ferguson et Shum, 2012).
94 Rémi Venant
6.3. Support à l’entraide
2001). Enfin, le formulaire permet d’envoyer une requête à tous les autres participants
(i.e., une requête collective), ou à un pair ou enseignant particulier (i.e., une requête
individuelle), ce qui répond à la contrainte (c) définie précédemment. Pour aider les
apprenants à identifier un pair spécifique, le formulaire reprend la vue du composant
des utilisateurs connectés (cf. Figure 5.4) qui renseigne, pour chacun d’entre eux, leur
performance individuelle. Cette vue facilite ainsi le choix d’une source d’aide, en res-
pect de la contrainte (d).
La liste des requêtes d’aide (2 dans la Figure 6.5a) est ainsi ordonnée : les requêtes
d’aide individuelles (destinées à l’utilisateur connecté) apparaissent en premier et sont
munies d’une icône d’alerte permettant de prévenir l’utilisateur qu’une requête lui est
spécifiquement destinée, et de les distinguer des requêtes collectives qui apparaissent
sous les requêtes individuelles. Pour chaque type de requête, le classement est réalisé
par ordre d’apparition décroissant, c’est-à-dire de la plus ancienne à la plus récente.
Chaque requête apparaît avec le nom de son auteur, ou bien l’expression « étudiant
anonyme » le cas échéant, suivie de l’exercice et de la description du problème.
L’apprenant peut alors prendre en charge ou ignorer n’importe quelle requête.
Aussi, à partir d’une requête collective, un étudiant peut automatiquement créer une
même requête d’aide (i.e., requête collective pour le même exercice et le même pro-
blème) en cliquant sur l’option « Moi aussi ! » (3 sur la Figure 6.5a). Cette fonctionnalité
a pour but d’engager les apprenants dans le processus de recherche d’aide, en les ras-
surant sur le fait qu’un pair rencontre la même difficulté. Une fois qu’une requête a été
prise en charge par un utilisateur, ou annulée par son auteur, celle-ci est supprimée de
tous les systèmes de gestion de l’aide auxquels elle a été transmise.
Les enseignants peuvent également examiner les requêtes en cours et les prendre en
charge. La liste des requêtes d’aide dans cette vue (1 sur la Figure 6.5b) est ordonnée dif-
féremment : tandis que la même distinction entre requêtes individuelles et collectives
s’applique, chaque groupe est agrégé par requête commune, c’est-à-dire selon l’exer-
cice et le descriptif de la requête. Ainsi, pour plusieurs apprenants qui ont cliqué sur le
bouton « Moi aussi ! » d’une certaine requête, l’ensemble des requêtes est regroupé sous
la forme d’une liste, adjointe d’un badge indiquant le nombre de requêtes communes
(2 sur la Figure 6.5b). Cette liste peut être développée pour faire apparaître les identités
des différents auteurs de ces requêtes. Les identités sont toujours fournies à l’ensei-
gnant, que la requête soit anonyme ou non avec, pour le premier cas, un indicateur
supplémentaire notifiant l’enseignant du caractère anonyme. Cette visualisation per-
met ainsi à l’enseignant de détecter rapidement un problème rencontré par plusieurs
apprenants, et donc de réaliser une action de groupe et non individuelle.
96 Rémi Venant
6.3. Support à l’entraide
une fois engagé dans un épisode d’aide, l’apprenant ne peut pas faire une nouvelle
demande : il doit d’abord terminer l’épisode dans lequel il est engagé (règle 2).
Concernant les étudiants aidants, ils disparaissent de la liste des sources d’aide po-
tentielles lors de la création d’une requête individuelle lorsqu’ils sont déjà engagés dans
une offre d’aide (règle 3). Cette troisième règle vise à réduire le risque pour les étu-
diants les plus performants d’être trop sollicités visuellement par le système de gestion
de l’aide, et donc de ne plus réaliser leur propre travail ou, à l’inverse, de ne plus prêter
attention aux demandes d’aide.
Enfin, passé une certaine période (ex. : 3 minutes dans notre configuration de
Lab4CE, fixées arbitrairement dans un premier temps), une demande d’aide collective
sans réponse est automatiquement redirigée à un enseignant en tant que demande in-
dividuelle, et l’auteur de la demande en est averti (règle 4). Cette règle cible les risques
d’abandon de la recherche d’aide après un trop grand nombre de requêtes sans réponse.
Quand un utilisateur prend en charge une requête, trois droits d’accès différents lui
sont octroyés. L’utilisateur n’est pas ajouté au laboratoire, mais il dispose d’un accès au
salon privé de l’apprenant aidé pour permettre aux deux protagonistes de communi-
quer entre eux. L’aidant peut également accéder à l’outil d’analyse des traces de l’aidé
pour visualiser en détail les tâches réalisées auparavant par cet apprenant, et aussi voir,
en temps réel, les différents terminaux de cet apprenant. Si l’interface de gestion des
laboratoires d’un aidant ressemble à celle des laboratoires partagés, il n’a pas accès
aux ressources du laboratoire, mais uniquement aux vues des terminaux de l’appre-
nant qu’il aide, ce qui répond au critère (f) défini pour l’entraide. Combinées ensemble,
ces différentes fonctionnalités permettent ainsi à l’aidant et à l’aidé de coordonner leurs
perceptions et leurs connaissances pour atteindre un degré commun de compréhension
du problème rencontré par l’aidé.
Enfin, l’un ou l’autre des utilisateurs impliqués dans un épisode d’aide peut clore
cette session à tout moment. Le système notifie alors les deux utilisateurs et leur de-
mande d’évaluer succinctement l’épisode : l’aidant indique sa satisfaction quant à l’aide
qu’il a apportée, tandis que l’aidé donne son appréciation sur l’aide reçue. Cette éva-
luation est configurable dans Lab4CE par une mesure booléenne (avis positif/négatif),
ou par une échelle de Lickert graduée de 1 à 5.
6.4 Synthèse
98 Rémi Venant
Troisième partie
Expérimentations
99
7 Perception de l’expérience
d’apprentissage et utilisabilité
de Lab4CE
Contenu
7.1 Contexte général des expérimentations . . . . . . . . . . . . . . . . . . 102
7.1.1 Contexte pédagogique . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.2 Contexte technique . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.2 Étude de l’utilisabilité et de l’usage des outils d’awareness et de ré-
flexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.1 Conception et protocole expérimental #1 . . . . . . . . . . . . . 104
7.2.2 Résultats #1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.3 Étude de la perception et de l’usage du système d’entraide . . . . . . 110
7.3.1 Conception et protocoles expérimentaux #2 et #3 . . . . . . . . . 110
7.3.2 Résultats #2 et #3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
L AB4CE a été utilisé en contexte d’apprentissage réel tout au long des travaux ex-
posés dans ce manuscrit. Au cours des utilisations, diverses expérimentations de
terrain ont été menées. Cette partie est dédiée à leur présentation et à l’analyse des
résultats obtenus.
La première section de ce chapitre expose le contexte général dans lequel Lab4CE
a été utilisé. Nous y présentons également les mesures des capacités de charge du sys-
tème pour permettre au lecteur d’évaluer la réutilisabilité du système, et faciliter la
reproductibilité des expérimentations. La seconde section présente une première ex-
périmentation dont l’objectif est l’évaluation de l’utilisabilité de Lab4CE et l’étude de
l’usage des outils d’awareness et de réflexion du point de vue des apprenants. Une
troisième section se focalise sur leur perception de l’entraide et sur l’usage du système
dédié proposé dans le chapitre 6.
101
Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE
pour un groupe d’étudiants sur une expérience plus complexe (pour une expérience
comportant 4 machines, 46 étudiants peuvent travailler en parallèle).
Il est a noté que lors de l’utilisation de la plateforme, certaines latences ont été re-
marquées. L’analyse des journaux du serveur et le suivi de sa charge, qui ne montrent
pas de signes de faiblesse particuliers, nous amène à conclure sur l’hypothèse d’un
goulot d’étranglement situé sur l’infrastructure réseau de l’IUT ou de celle de l’IRIT.
Mesure Valeur
Nombre maximal de machines virtuelles 187
exécutées en parallèle
Temps moyen de création d’une machine < 3s.
Temps moyen de création d’un laboratoire < 10s.
composé de 3 machines et 2 réseaux
Nombre maximal de connexions clientes web 180
simultanées
Dans cette section, nous étudions l’impact des outils d’awareness et de réflexion
présentés à la section 5.4 sur la perception des apprenants quant à leur apprentissage
pendant une activité pratique, selon les 5 dimensions suivantes : la pertinence du sys-
tème, la réflexion, les interactions, le support des pairs et l’interprétation.
Pour cette expérimentation, notre objectif était de comparer la perception de l’ap-
prentissage ressentie par des étudiants utilisant Lab4CE avec celle d’étudiants exploi-
tant le contexte d’apprentissage traditionnel de l’IUT (Broisin et al., 2017, 2015a).
celles-ci des scripts dans l’objectif de créer des programmes interactifs. Les étudiants
devaient soumettre également un premier rapport en lien avec la première session,
ainsi qu’un second rapport à l’issue des deuxième et troisième sessions. Ces rapports
devaient être téléversés sur le LMS de l’IUT (Moodle) quatre jours après les première et
troisième sessions respectivement, de manière à permettre aux apprenants de terminer
leurs devoirs pendant le week-end.
Un groupe contrôle d’étudiants (N = 48 ; 6 filles, 42 garçons ; âge moyen = 18,8
ans) avait accès, de façon classique, au système d’exploitation Debian à partir des or-
dinateurs de l’IUT pour mener leurs activités. Le groupe test (N = 32 ; 3 filles, 29
garçons ; âge moyen=18,6 ans) avait à sa disposition l’environnement Lab4CE. L’expé-
rience conçue pour les activités pratiques était composée d’une unique machine vir-
tuelle par apprenant, sur laquelle ils réalisaient l’ensemble de leurs manipulations.
Deux enseignants différents ont effectué une démonstration de Lab4CE et de ses fonc-
tionnalités au groupe test pendant les 10 premières minutes de la première session.
Pour cette expérimentation, Lab4CE disposait des fonctionnalités suivantes :
— communication synchrone ;
— invitation à un laboratoire ;
À la fin de la dernière session pratique, les deux groupes d’étudiants ont été invités
à répondre au questionnaire COLLES (Constructivist Online Learning Environment Sur-
vey). Ce questionnaire (Taylor et Maor, 2000) comporte vingt-quatre questions dont les
réponses sont fournies sur une échelle de Likert graduée sur 5 niveaux (i.e., « presque
jamais », « rarement », « des fois », « souvent », « presque toujours ») ; il a pour objectif
de mesurer la perception de l’expérience d’apprentissage des étudiants, et a été appli-
qué avec succès dans de nombreuses études (Sthapornnanon et al., 2009; Johnson et al.,
2006; Tierney et Palmer, 2013). Le COLLES a été originellement conçu pour comparer
l’expérience désirée des apprenants (i.e., ce qu’ils attendent d’un enseignement) et leur
expérience effective (i.e., ce qu’ils ont reçu de l’enseignement). Dans notre expérimenta-
tion, l’expérience effective des deux groupes d’apprenants a été comparée : nous avons
demandé au groupe contrôle d’évaluer leur expérience avec les ordinateurs de l’ins-
titution, tandis que le groupe test devait évaluer leur expérience d’apprentissage avec
Lab4CE. De plus, le questionnaire SUS (System Usability Scale), reconnu comme un outil
rapide et fiable pour mesurer la perception de l’utilisabilité d’un système (Brooke et al.,
1996), a également été dispensé aux apprenants.
7.2.2 Résultats #1
7.2.2.1 COLLES
Session pratique 1 2 3
Nb. d’utilisateurs actifs 17 32 30
dans le groupe
% d’utilisateurs actifs 53,1% 100,0% 93,8%
dans le groupe
Outil de comparaison sociale
Nb. d’utilisateurs actifs 13 19 18
qui ont affiché l’outil
% d’utilisateurs actifs 76,5% 59,4% 60,0%
qui ont affiché l’outil
Performance moyenne 84,8 86,0 87,6
des utilisateurs actifs
(de 0 à 100)
Outils de Réflexion Après Pendant Après Pendant Après Pendant
Nb. d’utilisateurs ac- 7 1 14 3 12 5
tifs qui ont analysé leur
propre travail
% d’utilisateurs actifs 41,2% 5,9% 43,8% 9,4% 40,0% 16,7%
qui ont analysé leur
propre travail
Nb. d’utilisateurs actifs 11 3 15 2 9 2
qui ont analysé le tra-
vail de pairs
% d’utilisateurs actifs 34,7% 17,7% 46,9% 6,3% 30,0% 6,7%
qui ont analysé le tra-
vail de pairs
Sessions collaboratives
% d’utilisateurs actifs 29,4% 21,9% 16,7%
qui ont travaillé avec
au moins un pair
groupe test ont utilisé l’outil de réflexion a posteriori pour étudier leurs propres ses-
sions de travail. D’un autre côté, nous pensons que les sujets du groupe contrôle ont
considéré dans leur évaluation les processus de réflexion qui se passaient en classe,
c’est-à-dire en dehors de leur environnement d’apprentissage.
Les retours des deux groupes sont presque équivalents pour la dimension « interac-
tion » du questionnaire, qui mesure l’étendue des conversations relatives à l’apprentis-
sage entre étudiants et les échanges d’idées. Ici, des résultats plus élevés pour le groupe
test que pour le groupe contrôle étaient attendus : a) puisque l’expérience s’est dérou-
lée en présentiel, les interactions et dialogues entre apprenants étaient indépendants de
l’environnement informatique utilisé pour réaliser l’activité pratique ; b) Lab4CE four-
nit une messagerie où les étudiants peuvent échanger instantanément des messages
textuels, et un total de 166 messages ont été transmis pendant les 3 sessions. De plus,
les statistiques d’usage montrent que 30% des sujets du groupe test ont travaillé au
moins 1 fois avec un pair en utilisant le système d’invitation à un laboratoire. De même
que pour la dimension précédente, nous pensons que les apprenants ne se sont pas
sentis fortement impliqués dans des activités d’interaction lorsqu’ils expliquaient leurs
idées à leurs pairs ou lorsqu’ils recevaient des réponses ou des explications.
Les résultats à propos du support par les pairs sont également similaires pour les
deux groupes, voire même légèrement inférieurs pour le groupe test. Outre les hypo-
thèses précédentes qui peuvent expliquer ces résultats inattendus (ici aussi, 47% des su-
jets du groupe test ont utilisé l’outil de réflexion a posteriori pour analyser le travail de
pairs), cette dimension de l’analyse révèle une amélioration potentielle de notre plate-
forme. Les apprenants ont significativement utilisé les outils de réflexion pour analyser
le travail effectué par leurs pairs, mais le système ne fournit pas d’awareness aux appre-
nants d’une telle information. Dans le COLLES, la dimension du support par les pairs
est traité selon les sentiments qu’a un apprenant de l’encouragement de ses pairs à sa
participation, ou encore de la valeur qu’ils apportent à sa contribution. Nous pensons
donc que fournir aux apprenants une information portant sur les analyses effectuées
par des pairs sur leurs travaux permettrait d’augmenter ce sentiment.
Enfin, la dernière dimension « interprétation » vise à évaluer la pertinence ressentie
par les apprenants des messages échangés entre eux, et entre eux et les enseignants.
La moyenne légèrement plus élevée ainsi que la concentration de la distribution plus
prononcée pour le groupe test semblent montrer que les utilisateurs ont plus de faci-
lités à échanger des messages pertinents. Il semble donc que l’utilisation d’outils de
réflexion tend à les aider à obtenir une meilleure compréhension de leurs actions, et
ainsi permettre un dialogue plus adéquat.
En plus des statistiques d’usage commentées précédemment, une donnée intéres-
sante est le nombre d’analyses de travaux de pairs effectuées le jour où le premier
rapport devait être soumis : presque 43% des étudiants du groupe test ont analysé au
moins une session d’un pair en utilisant l’outil de réflexion a posteriori. Nous émettons
l’hypothèse que ces étudiants ne savaient pas comment achever les objectifs de leurs
travaux pratiques, et ont ainsi cherché de l’aide dans les travaux effectués par leurs
pairs. Cette hypothèse est supportée par les statistiques d’usage : le niveau moyen de
performance des apprenants dont les sessions ont été analysées par d’autres est de 90.
Le Tableau 7.3 révèle également que l’outil de réflexion pendant l’action n’a presque ja-
mais été utilisé. Cette tendance peut être expliquée par le fait que les sessions effectuées
pendant l’expérimentation ont pris place dans un contexte présentiel où les apprenants
pouvaient se déplacer et aller consulter l’écran de leurs pairs, mais aussi par le fait que
les apprenants ont utilisé les fonctions de partage de terminaux de Lab4CE (comme
mentionné précédemment, environ 30% des sujets du groupe test ont réalisé des ses-
sions de travail collectives sur l’environnement) qui offrent déjà une vue en temps réel
du terminal des différents participants.
Enfin, l’outil de comparaison sociale qui, par défaut, est masqué dans l’interface de
l’utilisateur, a été affiché par la plupart des utilisateurs à chaque session. Comme le
montre le Tableau 7.3, le pourcentage d’utilisateurs qui affichent l’outil diminue avec
l’augmentation de la performance. Cette observation concorde avec la recherche sur les
outils de comparaison sociale : leur impact sur les performances cognitives et acadé-
miques a été abondamment examiné, et les résultats principaux montrent que situer les
apprenants sur leurs propres performances par rapport aux performances des autres
encourage les efforts d’apprentissage et augmente la performance de la tâche (Kollöffel
et de Jong, 2016; Michinov et Primois, 2005).
Le score au SUS a été calculé selon (Brooke et al., 1996). Le score mesuré est de
62,4 pour le groupe contrôle et de 73,6 pour le groupe test. Selon (Bangor et al., 2009),
les équipements de l’institut ont été évalués comme étant sous la limite acceptable de
l’utilisabilité d’un système, tandis que Lab4CE a été qualifié comme bon selon ce critère.
Nous avons conduit deux autres expérimentations pour étudier l’usage du système
de gestion de l’aide. Notre étude porte ici sur l’analyse de la perception de l’entraide
chez les apprenants, ainsi que sur l’usage des outils d’entraide, aussi bien du point de
vue de l’aidé que de celui de l’aidant (Venant et al., 2017c).
Les deux expériences ont été menées dans le cadre d’un cours d’administration de
réseaux sur deux populations différentes. Ce cours visait chez les apprenants la décou-
verte par la pratique, à travers plusieurs sessions en présentiel, de différents concepts
liés à la mise en place d’infrastructures réseaux et à la configuration des services as-
sociés. Les étudiants disposaient, au sein de leur laboratoire, de différentes machines
virtuelles et routeurs qu’ils devaient administrer. Pendant les sessions en classe, les ap-
prenants ont travaillé en dyades ; nous considérons donc les résultats observés comme
ceux de dyades et non d’individus. Pour ces expérimentations, Lab4CE embarquait les
fonctionnalités suivantes :
— communication synchrone ;
— système de gestion de l’entraide avec évaluation des épisodes par valeur booléenne
(satisfait / insatisfait) ;
— outil de comparaison sociale (awareness personnelle et sociale du concept) ;
— outil de réflexion pendant l’action ;
— outil de réflexion a posteriori.
Dans l’expérimentation #2 (Exp. #2), nous souhaitions déterminer si les apprenants
avaient tendance à s’entraider spontanément, sans aucune intervention de l’enseignant.
Pour cette expérimentation, 28 dyades d’étudiants de seconde année ont suivi 3 ses-
sions en présentiel de 90 minutes chacune (N = 56 ; 5 filles, 51 garçons ; âge moyen
= 19,8 ans). Aucun enseignant n’était disponible sur Lab4CE, et les apprenants étaient
7.3.2 Résultats #2 et #3
Les résultats d’usage sont fournis dans le Tableau 7.4. Pour être capable d’analyser
les résultats des deux expérimentations de manière similaire, nous avons calculé tous
les indicateurs (excepté les pourcentages) par sessions de travail, ces dernières étant de
même durée à chaque fois. Une première observation est l’usage quasi nul de l’aide
dans Exp. #2 : le nombre moyen de requêtes par dyade et par session est de 0,47, tandis
que celui des prises en charge par dyade et par session est de 0,15 seulement. Le constat
est donc le même que pour Renkl (2002) : les apprenants ne semblent pas utiliser sou-
vent le système d’aide par eux-mêmes. Cependant, l’élément motivationnel introduit
dans Exp. #3 (i.e., le bonus de 2 points) semble augmenter considérablement l’utilisa-
tion du système d’entraide. Puisqu’aucun enseignant n’était disponible pendant Exp.
#2, le pourcentage d’aides fournies par des apprenants par rapport au total d’aides four-
nies vaut logiquement 100%. Alors que pour Exp. #3 le pourcentage d’aides fournies est
deux fois plus grand que pour Exp. #2 (i.e., 33% pour Exp. #2 et 66% pour Exp. #3), 41%
des aides fournies l’ont été par l’enseignant. D’autre part, concernant le pourcentage
d’aides fournies par les apprenants par rapport à l’ensemble des demandes, on observe
ici des résultats similaires pour Exp. #2 et Exp. #3, i.e., 33% et 39% respectivement. Il
semble donc que le facteur motivationnel encourage les apprenants à rechercher de
l’aide, mais que d’autres sources d’engagement sont à identifier pour améliorer la prise
en charge d’aide par les apprenants.
Nous pouvons également constater que les évaluations des épisodes d’aide entre
apprenants sont significativement meilleures pour Exp. #3. Dans Exp. #2, les pourcen-
tages d’évaluations positives des aidés comme des aidants sont en dessous de 50% (i.e.,
46% et 23% respectivement), tandis que pour Exp. #3, ils sont à 69% et 60% respective-
ment. Cette augmentation significative, en particulier concernant les aidants, peut s’ex-
pliquer notamment par la présence de l’enseignant sur la plateforme qui peut augmen-
ter la confiance des apprenants souhaitant fournir leur aide. Cette hypothèse semble
être confirmée par les retours de l’enseignant suite à l’expérimentation, qui a expliqué
que plusieurs apprenants lui avaient demandé de confirmer leurs explications lorsque
ces derniers étaient en train d’aider un pair.
Le questionnaire a été rempli par 15 des 24 étudiants de Exp. #3. Les résultats dé-
taillés ainsi que l’intégralité du questionnaire sont fournis en annexe C, tandis qu’une
sélection de questions, dont les résultats sont les plus significatifs est exposée dans le
Tableau 7.5. À travers 28 questions métacognitives, le questionnaire vise à mesurer le
ressenti des apprenants sur leur rapport à l’aide en général, et à la manière dont celle-ci
s’opère sur Lab4CE. Le questionnaire est structuré en 3 catégories de questions.
La première catégorie cible le rapport qu’ont les apprenants à l’aide en général, et
comprend 6 questions pour lesquelles les réponses sont données à l’aide d’une échelle
de Lickert dont les valeurs varient de 1 (pas du tout d’accord) à 5 (tout à fait d’accord).
Nous constatons que les apprenants considèrent qu’ils n’hésitent pas à demander de
l’aide à des pairs (1.3), ainsi qu’à en offrir (1.4), mais semblent moins enclins à en offrir
s’ils ne sont pas certains de leurs réponses (1.6). Ce résultat va dans le sens des obser-
vations faites précédemment à propos de l’usage de l’outil d’aide, dont la présence de
l’enseignant sur la plateforme peut faciliter le sentiment de maîtrise des connaissances.
Dans la seconde catégorie dédiée à la demande d’aide et comportant 8 questions
à échelle de Lickert et 1 question ouverte, les étudiants confirment le faible usage de
la fonction d’anonymat lorsqu’ils demandent de l’aide (2.2) : une préférence que l’on
constate aussi du côté des étudiants qui souhaitent apporter leur aide, puisque 40% des
réponses à la question sur les informations nécessaires pour fournir une aide ciblent ex-
clusivement l’identité de la personne, et 27% ciblent l’identité et la performance (3.11).
D’autre part, les apprenants ne semblent pas vraiment plus enclins à préférer deman-
der de l’aide à tous plutôt qu’à une personne en particulier, le résultat à la question 2.3
montrant un écart-type élevé et une moyenne proche de 2,5 (pour une plage de valeurs
comprise entre 1 et 5). Ce résultat confirme donc la nécessité de proposer aux appre-
nants la stratégie d’une demande d’aide à tous ainsi que celle d’une demande indivi-
duelle. Enfin, nous constatons que les apprenants semblent plutôt satisfaits du temps
de réponse à leurs demandes (2.5) ainsi que des aides fournies (2.7) ; ce résultat doit
cependant être interprété en considérant le fait que, passé un certain délai, le système
redirige automatiquement les demandes sans réponse à un enseignant connecté sur la
plateforme (cf. section 6.3.3.2). En effet, les résultats d’usage montrent que le nombre de
prises en charge d’aide par des apprenants n’a pas significativement augmenté d’une
expérimentation à l’autre malgré le bonus utilisé comme levier motivationnel.
Enfin la troisième catégorie de questions concerne les prises en charge d’aides, à
travers 8 questions à échelle de Lickert, 2 questions ouvertes, et une question à choix
sur les informations nécessaires pour apporter de l’aide. Nous observons parmi les ré-
sultats les plus significatifs que les apprenants ont conscience de l’effet autorégulant
de l’offre d’aide. En effet, ils estiment qu’apporter de l’aide leur permet de vérifier et
consolider leurs connaissances (3.5), sans pour autant avoir l’impression de perdre du
temps pour réaliser leurs propres travaux (3.6). Toutefois, les résultats semblent mon-
trer que le système d’aide de Lab4CE n’a pas ou peu d’impact sur l’augmentation de
la confrontation de points de vue. L’aide semble donc être principalement appliquée
pour des cas où l’aidé ne sait pas comment réaliser la tâche demandée, et non pas dans
des cas où un doute existe et où l’aidé souhaite vérifier son point de vue. Enfin, dans la
dernière question, nous constatons que les apprenants semblent enclins à continuer de
s’entraider a posteriori, sans bonus additionnel (3.8).
7.4 Synthèse
Contenu
8.1 Engagement des apprenants et performance académique . . . . . . . 118
8.1.1 Conception et protocole expérimental #4 . . . . . . . . . . . . . 118
8.1.2 Impact du système sur l’engagement des étudiants . . . . . . . 119
8.1.3 Activité des apprenants et performance académique . . . . . . 120
8.2 Comportement des apprenants et réussite académique . . . . . . . . . 121
8.2.1 Conception et protocole expérimental #5 . . . . . . . . . . . . . 122
8.2.2 Jeu de données et performance académique . . . . . . . . . . . 122
8.2.3 Analyse des indicateurs quantitatifs . . . . . . . . . . . . . . . . 123
8.2.4 Analyse des motifs séquentiels d’actions . . . . . . . . . . . . . 124
8.2.5 Stratégies d’apprentissage . . . . . . . . . . . . . . . . . . . . . . 126
8.2.6 Résultats #5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
C E chapitre se focalise sur le rapport entre l’activité des apprenants sur le système
et leurs résultats d’apprentissage. Nous présentons ici les résultats de deux ana-
lyses dont le contexte général reste le même que celui présenté dans le chapitre pré-
cédent. Une première section présente la quatrième expérimentation dont l’objectif est
d’évaluer l’impact du système sur l’engagement des étudiants dans l’apprentissage du
système d’exploitation Linux, et de mesurer la potentielle corrélation entre l’activité de
ces apprenants et leur performance académique. Nous explorons dans une seconde et
dernière section, à un niveau de détail plus fin, les comportements individuels des su-
jets en terme d’actions réalisées pendant les sessions d’apprentissage pratique et leur
corrélation avec les résultats académiques des apprenants.
117
Chapitre 8. Performance et comportement dans Lab4CE
Avant l’expérimentation, un cours avait été dispensé à ces étudiants sur l’instal-
lation et l’utilisation de VirtualBox, ainsi que sur la création d’une machine virtuelle
reflétant l’environnement traditionnel de l’IUT. Ainsi, pour cette expérimentation, les
apprenants ont eu la liberté d’utiliser Lab4CE, accessible de manière permanente tout
au long de l’expérimentation, ou la machine virtuelle de leur ordinateur personnel.
Pour cette expérimentation, Lab4CE présentait les fonctionnalités suivantes :
— communication synchrone ;
— invitation à un laboratoire.
Outre les traces issues de Lab4CE, il a été également demandé aux apprenants, pen-
dant la première séance, de préciser s’ils avaient déjà déployé une machine virtuelle sur
leur propre ordinateur. À l’issue de l’expérimentation, nous avons aussi collecté leur ré-
sultat à l’examen académique qu’ils ont effectué 2 semaines après la dernière session
pratique. Cet examen consistait en un questionnaire à choix multiples d’une durée de
45 minutes, créé collaborativement par l’ensemble des enseignants impliqués dans ce
module. La variable dépendante définie pour cette étude, nommée performance aca-
démique, a été calculée à partir de l’extraction de 23 questions relatives aux concepts
abordés pendant les 4 sessions pratiques de l’expérimentation. Cette variable est une
valeur continue comprise entre 0 et 100.
Les statistiques d’usage de Lab4CE sont données par le Tableau 8.1. 71 étudiants
ont utilisé Lab4CE de manière continue, avec une moyenne de 7 sessions d’environ 40
minutes de travail par étudiant. Le nombre moyen de commandes saisies par machine
virtuelle est de plus de 770. Une donnée intéressante sont les jours de la semaine pen-
dant lesquels les apprenants se sont connectés au système : en dehors du lundi, jour
correspondant à la date butoire de la remise tardive des rapports, ils ont significative-
ment travaillé pendant le week-end, à savoir juste avant de déposer le rapport de la
semaine. Cette information suggère un effet positif de Lab4CE sur l’engagement des
apprenants lorsqu’il s’agit de pratiquer l’administration de système : plus de 50% des
sujets ont utilisé une machine virtuelle de Lab4CE, tandis que seulement 25% d’entre
eux (i.e., 31 étudiants) ont installé une machine virtuelle sur leur propre ordinateur.
À partir des données du Tableau 8.1, nous avons également analysé le travail collec-
tif entre apprenants. Dans cette expérimentation, seulement 75 messages ont été postés
sur le salon public du chat de l’expérience, la plupart d’entre eux ne présentant aucun
lien avec l’activité pédagogique. Seulement deux étudiants ont travaillé ensemble sur la
même machine virtuelle en utilisant le système d’invitation au laboratoire, et échangé
7 messages au sein du salon privé du laboratoire. Ces résultats peuvent être expliqués
par le fait que a) les étudiants devaient téléverser leur propre rapport pour une acti-
vité donnée, b) les étudiants n’étaient pas habitués à travailler à plusieurs lorsqu’ils
Indicateur Valeur
Nb. machines virtuelles (=Nb. d’utilisateurs Lab4CE) 71
Nb. sessions (avec un minimum d’1h entre chaque) 477
Nb. sessions par étudiant 6,7
Durée moyenne d’un session (minutes) 39
Nb. moyen de commandes par VM 772
Jours de la semaine où les étudiants étaient actifs Lundi (33%), Samedi
(26%), Dimanche (16%)
Nb. messages échangés dans le salon publique 75
Nb. moyen de travaux collectifs par laboratoire 0,014
Nb. moyen de messages par salon privé 7
n’étaient pas physiquement ensembles, c) les activités pratiques proposées dans cette
expérimentation n’étaient pas assez avancées pour requérir l’aide de pairs. De plus,
dans cette expérimentation, aucun outil d’awareness, de réflexion ou d’aide n’était dis-
ponible. Nous pouvons donc également émettre l’hypothèse que dans cette version du
système, les apprenants n’étaient pas incités à travailler ensemble.
Si presque tous les 139 étudiants impliqués dans l’expérimentation ont participé
à l’examen académique obligatoire, l’analyse illustrée par la Figure 8.1 ne prend en
compte que les étudiants qui ont réalisé l’examen et utilisé le système Lab4CE au moins
une fois (certains apprenants ont abandonné le parcours ou n’étaient pas présents lors
de l’examen). Pour corriger les données, nous avons également supprimé les outliers,
aussi bien parmi la population expérimentale que parmi les questions prises en compte
dans l’examen : si le score moyen des étudiants à une question était plus faible que le
premier ou plus grand que le troisième quartile, la question n’était pas prise en compte
dans notre analyse. Notre analyse porte, au final, sur 55 étudiants et 17 questions.
L’activité d’un apprenant i a été définie comme Ai = Ii /Si , où Ii est le nombre d’en-
trées (i.e., le nombre de commandes exécutées sur la machine virtuelle) d’un étudiant
i, et Si représente la durée passée (en min.) par cet étudiant sur le système. Le dia-
gramme de dispersion sur la Figure 8.1 montre une corrélation significative, confirmée
par le calcul du coefficient de corrélation de Pearson r = 0, 41, avec une significativité
p = 0, 002 < 0, 05. Ces résultats soulignent une tendance chez les étudiants qui réus-
sissent plus de 70% des questions à l’examen final à être plus productifs sur le système.
Cette analyse révèle également que cet indicateur pourrait être un bon prédicateur de
la réussite des apprenants, qui pourrait ainsi être utilisé pour détecter leurs difficultés
ou facilités avant l’examen, et ainsi personnaliser le scénario d’apprentissage.
Figure 8.1 – Corrélation entre l’activité des étudiants sur Lab4CE et leur performance académique
Une fois les valeurs extrêmes ôtées de l’échantillon, le jeu de données comprend
85 étudiants pour un total de 9183 commandes. Le nombre moyen de commandes par
apprenant est de 108,00 avec une déviation standard σ = 66, 62. Le minimum de com-
mandes soumises par un apprenant est de 22, tandis que le maximum est de 288.
Nous avons également défini pour cette étude la performance académique comme
variable dépendante, notée assessment score (AS). Cette variable est continue et comprise
entre 0 et 20, dénotant le score que les apprenants ont reçu à l’examen de fin de module.
La distribution de l’AS fait émerger différentes catégories qualitatives : bas (noté B,
0 <= B <= 6, 7 ; effectif N = 22 ; moyenne µ = 4, 90), moyen (6, 7 < M <= 10, 5 ;
N = 27 ; µ = 8, 45) et haut (H > 10, 5 ; N = 36 ; µ = 12, 44). Par la suite, les différentes
variables indépendantes seront évaluées aussi bien sur l’AS que sur les catégories d’AS,
aussi nommées niveau de performance.
Nous étudions dans un premier temps, pour chaque apprenant, quatre indicateurs
numériques : (1) le nombre de commandes soumises #soumissions ; (2) le pourcentage
de commandes techniquement justes (i.e., exécutées sans erreur) %succès ; (3) le temps
moyen écoulé entre deux commandes d’une même session de travail ∆temps ; (4) le
nombre de commandes relatives à une recherche d’aide #aides. Les trois premiers in-
dicateurs peuvent être trouvés dans d’autre travaux de recherche (Vihavainen, 2013;
Watson et al., 2013) et permettent de quantifier la productivité des apprenants. Le der-
nier indicateur identifie les accès à des supports d’aide, c’est-à-dire l’accès au manuel
des commandes par le terminal (on ne considère pas ici l’utilisation du système d’en-
traide, qui n’était pas actif pour cette expérience). Bien qu’il puisse être difficile de le
calculer dans d’autres contextes (i.e., lorsque les ressources d’aide résident en dehors de
l’environnement d’apprentissage), les VRL sont souvent dotés de leur propres artefacts
d’assistance, dont les accès peuvent être facilement tracés (Orduna et al., 2014).
Pour identifier les sessions de travail, nous avons appliqué un algorithme de seg-
mentation temporelle et vérifié pour chaque apprenant que les sessions étaient cohé-
rentes avec son emploi du temps (i.e., la liste des sessions de travail pour un apprenant
donné doit au moins inclure les sessions effectuées en présentiel). L’indicateur #aides
est calculé à partir de motifs connus tels que la commande man, qui fournit le manuel
d’une commande, ou encore les arguments –help et -h qui permettent d’en obtenir une
aide succincte. Le Tableau 8.2 expose le coefficient de corrélation de Pearson entre les
quatre indicateurs définis ci-dessus et l’AS.
r valeur-p
#soumissions 0,193 0,076
%succès 0,248 0,022
∆temps -0,127 0,247
#aides 0,226 0,037
Pour analyser plus finement le comportement des apprenants, nous avons appliqué
une analyse de fouille de motifs séquentiels sur notre jeu de données afin d’identifier
des motifs répétitifs et significatifs.
Notre approche pour la fouille de motifs séquentiels s’appuie non pas sur l’analyse
des commandes elles-mêmes, mais sur celle de leur nature et du résultat de leur exé-
cution, pour s’abstraire du contexte d’apprentissage. Nous définissons ainsi une action
soumise par un apprenant sur une ressource par son type, ses paramètres et sa nature.
Le type et les paramètres dépendent du contexte : par exemple, alimenter un circuit RLC
avec une tension de 12V représentent un type et un paramètre d’une action en électro-
nique. Dans notre contexte, le type est le nom de la commande, et les paramètres, ses
arguments. La nature, enfin, donne une information sémantique d’une action, à travers
sa relation avec celle qui a été exécutée précédemment.
Nous avons défini huit natures d’action exclusives : Sub_S, Sub_F, ReSub_S, ReSub_F,
VarSub_S, VarSub_F, Help et NewHelp. Les natures Sub_* s’appliquent à une action dont
le type est différent de la précédente, et qui est évaluée comme techniquement juste
(Sub_S) ou fausse (Sub_F). Les natures ReSub_* désignent une action identique à la pré-
cédente (i.e., même type et paramètres), tandis que les natures VarSub_* représentent
une soumission de même type que la précédente mais dont les paramètres varient (i.e.,
commandes identiques, arguments différents). Enfin, Help qualifie une action d’accès
à une aide relative au type de l’action précédente, tandis que NewHelp indique l’accès
à une aide sans lien avec l’action précédente. Par exemple, si la commande de réfé-
rence est ls –al, la commande suivante rm sera de nature Sub_F (commande différente et
techniquement fausse car la commande rm nécessite au moins un argument), ls –al de
nature ReSub_S, ls –alRu sera associée à VarSub_S, tandis que man ls sera qualifiée par
Help, et man rm par NewHelp.
Les motifs significatifs ont été identifiés à partir de séquences d’actions de lon-
gueur 2 et 3, aucune séquence de longueur supérieure n’apparaissant chez suffisam-
ment d’étudiants pour être exploitée. Les tests statistiques appliqués pour chaque sé-
quence furent une analyse de la variance (i.e., one-way ANOVA) avec les catégories de
performance établies précédemment, et un test de corrélation de Pearson avec AS. Les
motifs du Tableau 8.3 sont ceux pour lesquels la valeur-p est inférieure à 0,05 dans au
moins un des deux tests.
Le Tableau 8.3 expose les résultats des tests. La colonne « tendance d’usage » reflète
une relation d’ordre sur le nombre d’occurrences d’un motif entre les catégories d’étu-
diants : si H, M > B, il n’existe aucun étudiant de B ayant appliqué le motif plus de
fois que n’importe quel étudiant de H ou de M ; en revanche, la relation d’ordre n’est
pas vérifiée pour H et M. Nous avons obtenu 13 motifs significatifs. La plupart de ces
motifs présente une tendance d’usage significative entre les groupes de performance,
ainsi qu’une corrélation significative faible (i.e., 0, 1 < |r | < 0, 3) ou moyenne (i.e.,
0, 3 < |r | < 0, 5) avec l’AS. A titre d’exemple, la distribution du motif #1 est illustrée par
la Figure 8.2 et fait apparaître la tendance d’usage significative chez le groupe de haut
niveau de performance. Il apparaît que ces motifs corrélés positivement se rapportent,
pour la majorité d’entre eux, à des comportements de haut niveau de performance ; seul
un motif (i.e., motif #12) est appliqué plus souvent par les apprenants de faible niveau
que par les autres, lorsqu’ils soumettent à plusieurs reprises et sans succès une action
particulière en modifiant ses paramètres jusqu’à ce que la soumission réussisse. Aussi,
aucun motif ne permet de distinguer les groupes de haut et moyen niveaux.
D’autre part, nous remarquons que les motifs présentent certaines sémantiques
Figure 8.2 – Intervalles de confiance par catégorie de performance pour le motif Sub_S,VarSub_S
communes illustrant le comportement des apprenants. Par exemple, les motifs des
lignes 1, 6, 7, 8 et 9 reflètent l’enchaînement d’une action exécutée avec succès (i.e.,
Sub_S, ReSub_S ou VarSub_S) avec une action de type différent mais de même nature
et exécutée avec succès (i.e., VarSub_S). Ces motifs semblent illustrer une progression
chez l’apprenant dans la construction d’une action de plus en plus complexe.
Les séquences d’actions s’apparentent ainsi à des approches mises en œuvre par
les apprenants pour réaliser une tâche ou résoudre un problème. Certaines de ces ap-
proches se réfèrent à une méthodologie commune que nous désignons par stratégie
d’apprentissage, ou groupe d’actions, telle que désignée par (Pressley, 1995). Dans la
section suivante, nous définissons ces stratégies à partir des motifs étudiés ici, et analy-
sons leur relation avec la performance académique.
Les 13 motifs du Tableau 8.3 font émerger un ensemble de sept stratégies : confir-
mation, progression, succès-et-réflexion, réflexion-et-succès, échec-et-réflexion, tâtonnement et
abandon. Confirmation exprime la soumission réussie de mêmes actions (i.e., commande
et arguments inchangés), tandis que progression traduit une séquence d’actions réussies
de même type, mais dont les paramètres varient. Succès-et-réflexion exprime le fait de
réussir une soumission, puis d’accéder à l’aide de cette action. À l’inverse, réflexion-et-
succès reflète le fait de consulter l’aide d’un type d’action puis d’exécuter avec succès
une action de ce type. Echec-et-réflexion illustre l’accès à l’aide du type d’une action après
l’échec de son exécution. Tâtonnement expose le fait d’essayer au moins deux variantes
d’une même action, sans résultat positif. Enfin, abandon correspond à l’exécution d’une
action après l’échec de l’exécution d’une action de type différent.
Nous avons calculé le nombre d’occurrences de ces stratégies pour chaque
apprenant à partir d’expressions régulières. Par exemple l’expression régulière
« (Sub|ReSub|V arSub)_S,(Help,) ?VarSub_S » correspond à la stratégie progression, c’est-
à-dire à des séquences d’exécutions réussies d’une même action avec des paramètres
différents, dans lesquelles peuvent être intercalés des accès aux aides. Le Tableau 8.4
fournit les expressions régulières employées pour la détection des stratégies.
8.2.6 Résultats #5
Nous avons analysé la relation entre chacune des stratégies et la performance aca-
démique en appliquant les mêmes tests que pour les motifs séquentiels (i.e., ANOVA
pour les catégories de performance, et corrélation de Pearson pour AS). Le Tableau 8.5
illustre les résultats pour cette expérimentation. Les valeurs significatives apparaissent
en gras, alors que les stratégies pour lesquelles au moins un résultat significatif a été
calculé apparaissent en italique.
Progression, succès-et-réflexion, réflexion-et-succès et échec-et-réflexion sont les stratégies
qui présentent des résultats significatifs. Les trois premières permettent de distinguer
les apprenants selon leur catégorie de performance et semblent être un trait de compor-
tement des étudiants de haut et moyen niveaux de performance.
Aussi, toutes les stratégies significatives sont positivement corrélées à l’AS : les
8.3 Synthèse
Dans ce chapitre, nous avons présenté deux expérimentations réalisées encore une
fois en contexte d’apprentissage réel, et dont l’objectif commun est l’étude des liens
entre l’utilisation de la plateforme et la performance académique des apprenants. Dans
l’expérimentation #4, nous observons un lien de corrélation positif entre l’activité des
apprenants sur la plateforme et leur résultat à l’examen, ce qui suggère la capacité de la
plateforme à détecter des potentielles forces ou faiblesses de l’apprenant pendant son
activité pratique.
Pour appréhender plus finement cette relation, la cinquième expérimentation visait
à étudier les liens entre le comportement des apprenants en situation de travail pra-
tique et leur performance académique. Nous avons adopté une approche de fouille de
motifs séquentiels pour identifier les corrélations entre différentes stratégies d’appren-
tissage et la performance, dont les plus significatives sont : a) la progression, lorsque
les apprenants réalisent des actions de même nature en faisant varier leurs paramètres ;
la réflexion (à travers la consultation de ressources d’aide liées aux actions) b) avant ou
c) après l’exécution d’une action qui lui est liée. Ces stratégies semblent être représenta-
tives des étudiants de haut et moyen niveaux de performance. À partir de la découverte
de ces stratégies, nous avons pu mettre en place les outils de suivi des apprenants en
temps réel et le système de tuteur intelligent, présentés dans la section 5.5, qui s’ap-
puient tous les deux sur la détection à la volée de ces stratégies.
Contenu
Bilan général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
La définition de critères pour le support des théories de l’apprentis-
sage exploratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Lab4CE, un EIAH pour l’apprentissage pratique de l’Informatique . . 132
Des outils pour favoriser les interactions sociales . . . . . . . . . . . . . 133
La découverte de corrélations entre engagement, comportement et
performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Perspectives de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Passage à l’échelle de l’apprentissage de l’Informatique . . . . . . . . . 136
Modèles théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Entraide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Modèles computationnels pour l’engagement et la réflexion . . . . . . 138
Learning analytics et intelligences artificielles pour l’engagement et la
réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
Bilan général
Ce travail de thèse s’inscrit dans le domaine des EIAH et plus particulièrement ce-
lui des laboratoires virtuels et distants, et représente une contribution à la conception
d’environnements d’apprentissage pratique avec une application au contexte particu-
lier de l’enseignement de l’Informatique. Nous avons proposé de considérer dans ces
environnements les méthodes et théories pédagogiques relatives à l’enseignement pra-
tique, à savoir l’apprentissage exploratoire et le socio-constructivisme, dans l’objectif
d’améliorer l’engagement et la réflexion des apprenants dans leur apprentissage. Pour
atteindre ces résultats, nous nous sommes concentrés sur deux questions de recherche
sous-jacentes :
131
Conclusion
Conçu pour supporter l’ensemble de nos critères, Lab4CE est un environnement dé-
dié à l’apprentissage pratique de l’Informatique qui propose une architecture distribuée
et qui vise la simplification de la conception et de la réalisation d’expérimentations en
masquant les difficultés techniques de gestion de laboratoires. En s’appuyant sur un
gestionnaire de cloud, Lab4CE expose un ensemble de services pédagogiques permet-
tant de doter à la volée chaque apprenant de ressources virtuelles pour la réalisation
d’expériences conçues par l’enseignant. Avec l’outil auteur, celui-ci peut dessiner et
paramétrer la topologie de l’expérience, mais aussi définir quelles fonctionnalités de
l’EIAH activer pour aligner au mieux l’environnement à sa stratégie d’enseignement.
Notre approche technologique est centrée sur les learning analytics pour fournir aux
apprenants un support à l’awareness, à la réflexion ou encore les assister dans leurs in-
teractions sociales. Nous avons proposé un framework capable de capturer tout type
Par les différentes expérimentations menées pendant ces travaux de thèse, plusieurs
résultats ont été obtenus, contribuant notamment à l’identification de facteurs compor-
tementaux liés à la performance académique des apprenants. Si Lab4CE a été évalué
par les apprenants comme « bon » en termes d’utilisabilité, et si les outils d’awareness
et de réflexion ont été utilisés par la majorité d’entre eux, nous constatons que l’usage
de ces outils diminue lorsque la performance des apprenants mesurée in situ augmente.
Nous avons constaté une augmentation des demandes d’aide lorsqu’une source de
motivation est ajoutée, même si elle ne stimule pas la prise en charge de ces demandes
par les pairs. Toutefois, nous avons observé une contradiction dans la perception des
apprenants à propos de leur rapport à l’entraide et de l’usage effectif des outils : leur
regard sur l’entraide valide le besoin de proposer différentes stratégies de demande
d’aide, et confirme la conscience qu’ils ont du bénéfice sur leur apprentissage de la
Perspectives de recherche
Nous présentons ici les principales perspectives de recherche, aussi bien théoriques
que techniques, que nous souhaitons investiguer dans la suite de nos travaux.
Expérimentations
1. https://www.edx.org/
Modèles théoriques
Parmi les activités collectives que nous proposons avec Lab4CE, il est possible de
mettre en place des activités de collaboration. Cependant, l’outil auteur comme l’EIAH
ne permettent pas de définir précisément des points de coordination à des moments
de l’activité : il n’est pas possible d’orchestrer la collaboration pour définir comment les
membres du groupe doivent interagir, et comment ils devraient résoudre, ensemble, un
problème donné. Dans cette perspective, deux axes de recherche sont envisageables.
Lab4CE disposant d’un EIAH complet pour l’apprentissage pratique, il est possible
2. https://www.docker.com/
3. https://wiki.mozilla.org/WebExtensions
Entraide
Si Lab4CE vise les activités collectives, nous avons pu observer la faible utilisation
des outils dédiés à l’entraide, un fait que l’on retrouve dans le domaine général de la
recherche d’aide dans les environnements informatiques (Aleven et al., 2016, 2003).
Dans le domaine de l’entraide, notre étude des modèles théoriques a fait ressor-
tir l’existence d’un modèle du processus de demande d’aide qui apparaît comme un
standard de fait, mais également l’absence d’un modèle du processus d’offre d’aide,
que ce soit dans les SHS ou en Informatique. Nous pensons que développer un tel mo-
dèle apporterait une compréhension des facteurs de motivation des étudiants aidants.
Nous avons pu entrevoir précédemment le besoin de prendre en compte les différences
sociales des apprenants concernant l’entraide, tandis que plusieurs travaux identifient
différents facteurs liés à l’apprenant qui ont un impact sur la recherche d’aide (Trestini
et Cabassut, 2017; Brudermann et Pélissier, 2017). Pour envisager l’étude de fonction-
nalités de recommandation entre pairs (ex. : recommander un pair en fonction de la
demande d’aide), ou d’exploitation approfondie de learning analytics multi-modale,
l’intégration du profil de l’apprenant sur le système est une perspective de recherche
importante. Si nous pouvons constater l’existence de nombreux travaux dans ce do-
maine (Brusilovsky et Millán, 2007; Lin et al., 2016; Pelánek, 2017), tout comme celle de
standards pour concevoir de tel profils (ex. : IMS-LIP 4 ), il est nécessaire d’étudier la lit-
térature à ce sujet dans le contexte de l’apprentissage exploratoire. Aussi, nos perspec-
tives expérimentales peuvent être envisagées comme une source d’information pour
construire des modèles non supervisés d’apprenants.
Nous avons conçu une première métrique pour modéliser la performance de l’ap-
prenant in situ, fondée sur la justesse technique des actions qu’il exécute. Toutefois,
une action peut être techniquement juste sans pour autant être pertinente vis-à-vis de
l’objectif attendu. De plus, cette métrique ne reflète pas la sémantique des erreurs com-
mises, un problème de recherche d’actualité dans l’apprentissage de la programmation
(Ihantola et al., 2015). Nous souhaitons donc étendre nos travaux à la construction d’in-
dicateurs de performance pendant l’activité reflétant la sémantique des actions des ap-
prenants. L’administration des systèmes et des réseaux semble être un domaine ou la
modélisation des connaissances est peu avancée ; toutefois, les travaux de conception
d’ontologies pour l’apprentissage de la programmation dans d’autres langages sont à
considérer (Ibrahim Teo et Joy, 2017; y. Yun et al., 2009), de même que les travaux sur la
fouille de données à partir des code sources et des retours de leurs compilations (Rivers
et al., 2016), qui pourraient être appliqués à notre domaine.
pour susciter la réflexion. D’une part, nous souhaitons implanter un système de no-
tification pour alerter l’apprenant de l’analyse de ses activités par d’autres, mais éga-
lement intégrer cette information au sein de tableaux de bord résumant ses travaux,
les analyses qu’il a réalisées ainsi que celles opérées par ses pairs sur ses travaux. Cette
information, associée au niveau de difficulté des pairs consultant les travaux de l’appre-
nant, pourrait également être pertinente pour augmenter son sentiment d’appartenance
sociale et son impact sur le groupe.
De la même manière, si notre ITS peut fournir aujourd’hui une recommandation
de ressources d’aide ou de pairs, nous envisageons de permettre la recommandation
d’actions à exécuter sur une ressource dans le but de provoquer un conflit cognitif et
ainsi amener l’apprenant à la réflexion sur la différence entre ses schèmes mentaux et
les observations qu’il fait.
Que le contexte soit présentiel ou distanciel, les apprenants ont à leur disposition de
multiples sources d’informations et nous constatons très souvent l’utilisation de sites
web annexes pour les aider dans la réalisation de leurs tâches. Que ce soit pour la com-
préhension du comportement des apprenants, pour les doter eux-mêmes ou leurs en-
seignants d’analytics, ou pour améliorer les systèmes intelligents à leur service, savoir
ce qu’ils font en dehors de Lab4CE pendant leurs activités pratiques est une perspective
intéressante dont des efforts de recherche existent déjà, notamment dans le domaine de
l’apprentissage auto-dirigé (d’Aquin et al., 2017).
Enfin, envisager l’extension des sources de données pour les analytics ou ne serait-
ce que le partage de learning analytics entre différentes institutions de l’éducation sou-
lève la question de la gestion de la vie privée, apparaissant comme un défi majeur des
prochaines années (Pardo et Siemens, 2014; Slade et Prinsloo, 2013). Nous sommes éga-
lement sensibles à cette problématique, comme peut l’attester notre approche dotant
les apprenants d’une interface pour maîtriser la visibilité de leurs traces d’apprentis-
sage. Toutefois, la question de la vie privée est vaste et doit être considérée à un plus
haut niveau d’abstraction. Le contexte de notre équipe de recherche nous permet d’en-
visager certaines approches novatrices pour les EIAH, notamment par l’application des
modèles de confiance utilisés dans le domaine de la sécurité pour répondre aux problé-
matiques de vie privée (Wazan et al., 2016).
Annexes
141
A API REST de Lab4CE
C ETTE annexe présente l’API REST fournie par le composant « Gestion de VRL » de
Lab4CE. Le terme « initiateur » désigne l’utilisateur authentifié qui est à l’origine
de l’appel du service REST.
GET /Experiments
Obtention de la liste des expériences. Réservé aux concepteurs. Accessible
uniquement à partir de l’outil auteur.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
POST /Experiments
Création d’une expérience. Réservé aux concepteurs. Accessible uniquement à
partir de l’outil auteur.
— Code retour normal : 201
— Codes retours erreur : 400, 401, 403, 409, 503
PATCH /Experiments/{ :expId}
Modification d’élément de expérience expId. Réservé aux auteurs de
l’expérience. Accessible uniquement à partir de l’outil auteur.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 409, 503
DELETE /Experiments/{ :expId}
Suppression de l’expérience d’identifiant expId. Réservé aux auteurs de
l’expérience. Accessible uniquement à partir de l’outil auteur.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 503
143
Annexe A. API REST de Lab4CE
GET /Users
Obtention de la liste des utilisateurs. Accessible aux concepteurs de
l’expérience à partir de l’outil auteur
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
GET /Users/{ :userId}
Obtention du détail de l’utilisateur userId. Accessible aux enseignant et à
l’initiateur.
1 [
2 {
3 name: "BasicExecError",
4 description: "detect basic execution errors",
5 rule: function (command, args, response) {
6 var re = new RegExp("^" + command + "\\\s*:");
7 return re.test(response);
8 },
9 score: 0
10 },
11 {
12 name: "ShellExecError",
13 description: "detect shell execution errors",
14 rule: function (command, args, response) {
15 var re = /^\-?(bash|sh|\/bin\/sh):/;
16 return re.test(response);
17 },
18 score: 0
19 },
20 {
21 name: "UsageError",
22 description: "detect command usage errors",
23 rule: function (command, args, response) {
24 return response.startsWith(’Usage:’)
25 && ![’-h’, ’--help’, ’--h’, ’-help’]
26 .some(a => ~args.indexOf(a));
27 },
28 score: 0
29 },
30 {
31 name: "ScriptError",
32 description: "detect script execution errors",
33 rule: function (command, args, response) {
149
Annexe B. Règles d’inférence pour la justesse technique
— général ;
— demandes ;
— offres ;
— informations utiles sur les demandes d’aides.
Demande d’aide
153
Annexe C. Analyse du questionnaire sur l’entraide
au moins aussi efficaces pour mon apprentissage que les aides que je reçois
lors de séances de travaux pratiques traditionnelles.
Réponses libre pour la question « Avec Lab4CE je peux demander de l’aide à
d’autres étudiants aussi facilement que lors d’une séance de travaux pratiques
traditionnelle » (le score donnée à la question liée est fourni entre parenthèse) :
— « Il serait pratique de pouvoir interagir avec la console du poste que l’on
aide » (5)
— « il est plus convivial et plus pratique de demander de l’aide directement
plutôt que par l’intermédiaire d’une demande formelle. C’est plus rapide
et plus réactif. » (1)
— « Selon moi ça ne doit pas être la vocation principal d’une application en
classe » (2)
— « Pour ma part quand je rencontre une petite difficulté, le système
1 {
2 "id":"7b0e52a6-653a-4880-afb8-6125cf2083",
3 "actor": {
4 "account": {
5 "name": "pierrick.marie",
6 "homePage": "http://www.iut-tlse3.fr"
7 },
8 "objectType": "Agent"
9 },
10 "verb": {
11 "id": "http://traffic.irit.fr/xapi/verbs/executedinstruction",
12 "display": {"en-US": "executed", "fr-FR":"executa"}
13 },
14 "object": {
15 "id": "http://traffic.irit.fr/xapi/objects/computerinstruction",
16 "definition": {
17 "extensions": {
18 "http://exemple.irit.fr/xapi/objectextensions/
computerinstruction": {
19 "command":"rm",
20 "arguments":"-v myfile"
21 }
22 },
23 "name": {
24 "en-US": "computer instruction",
25 "fr-FR": "instruction informatique"
26 },
27 "description": {
28 "en-US": "an Shell instruction for a computer",
29 "fr-FR": "une instruction Shell informatique"
30 },
31 },
32 "objectType": "Activity"
159
Annexe D. Exemple d’un trace xAPI d’une commande
33 },
34 "result": {
35 "response": "rm : myfile : No such file or directory",
36 "success":false
37 },
38 "context": {
39 "extensions": {
40 "http://exemple.irit.fr/xapi/activityextensions/
computerinstruction": {
41 "expId": "c076c9880b814a9aad3c965c12cb74d0",
42 "labId": "de5a3c93bfb448ecae6099a96405a5c0",
43 "rscId": "5745d00c-a750-46a6-b9d3-3abf361b3c0c"
44 }
45 }
46 },
47 "timestamp": "2017-01-27T09:17:00.573Z",
48 "stored": "2017-01-27T09:17:01+00:00",
49 "version": "1.0.3",
50 "authority":{
51 "name":"lab4ceLRSAgent",
52 "mbox":"mailto:lab4ce@irit.fr",
53 "objectType":"Agent"
54 }
55 }
161
Bibliographie
Brett Alan B IXLER : The effects of scaffolding student’s problem-solving process via
question prompts on problem solving and intrinsic motivation in an online learning
environment. The Pennsylvania State University, 2007.
Allan C OLLINS et John Seely B ROWN : The computer as a tool for learning
through reflection. Learning issues for intelligent tutoring systems, 1:18, 1988.
URL https://doi.org/10.1007/978-1-4684-6350-7_1.
D Randy G ARRISON : E-learning in the 21st century : A framework for research and
practice. Taylor & Francis, 2011.
Graham G IBBS : Improving the quality of student learning : Based on the Improving
Student Learning Project funded by the Council for National Academic Awards.
Technical and Education Services, 1992.
Denis G OODRUM, Leonie Jean R ENNIE et Mark William H ACKLING : The status
and quality of teaching and learning of science in Australian schools : A research
report. Department of Education, Training and Youth Affairs Canberra, 2001.
Sten G OVAERTS, Yiwei C AO, Andrii V OZNIUK, Adrian H OLZER, Danilo Garbi
Z UTIN, Elio San Crist ?bal R UIZ, Lars B OLLEN, Sven M ANSKE, Nils FALTIN,
Christophe S ALZMANN et al. : Towards an online lab portal for
inquiry-based stem learning at school. Dans International Conference on
Web-Based Learning, pages 244–253. Springer, 2013.
Roger H IEMSTRA : Uses and benefits of journal writing. New directions for adult
and continuing education, 2001(90):19–26, 2001.
Chen L IN, Shitian S HEN et Min C HI : Incorporating student response time and
tutor instructional interventions into student modeling. Dans Proceedings of
Paul R AMSDEN : Improving learning : New perspectives. Nichols Pub Co, 1988.
ISBN 978-0893973094.
Leonie Jean R ENNIE : Evaluation of the science by doing stage one professional
learning approach 2010. Australian Academy of Science Canberra, 2010.
Ying X IE, Fengfeng K E et Priya S HARMA : The effect of peer feedback for
blogging on college students’ reflective learning processes. The Internet and
Higher Education, 11(1):18–25, 2008.