Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

2017TOU30164B

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 201

Les learning analytics pour promouvoir l’engagement et

la réflexion des apprenants en situation d’apprentissage


pratique
Remi Venant

To cite this version:


Remi Venant. Les learning analytics pour promouvoir l’engagement et la réflexion des apprenants
en situation d’apprentissage pratique. Environnements Informatiques pour l’Apprentissage Humain.
Université Paul Sabatier - Toulouse III, 2017. Français. �NNT : 2017TOU30164�. �tel-01946600�

HAL Id: tel-01946600


https://tel.archives-ouvertes.fr/tel-01946600
Submitted on 6 Dec 2018

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
THÈSE
En vue de l’obtention du

DOCTORAT DE L’UNIVERSITÉ DE TOULOUSE


Délivré par : l’Université Toulouse 3 Paul Sabatier (UT3 Paul Sabatier)

Présentée et soutenue le 08/12/2017 par :


Rémi Venant

Les learning analytics pour promouvoir l’engagement et la réflexion des


apprenants en situation d’apprentissage pratique

JURY
P IERRE D ILLENBOURG Professeur, EPFL Président du Jury

VANDA L UENGO Professeur, UPMC - LIP6 Rapporteur

S ÉBASTIEN G EORGE Professeur, Le Mans Rapporteur


Université - LIUM
J EAN -C HARLES M ARTY Maître de Conférences, Examinateur
Université de Savoie - LIRIS
E RIC S ANCHEZ Professeur, Université de Examinateur
Fribourg
D ANIEL M ARQUIÉ Maître de Conférences, Invité
Université Toulouse 3 - IRIT
J ULIEN B ROISIN Maître de Conférences, Encadrant
Université Toulouse 3 - IRIT
P HILIPPE V IDAL Professeur, Université Directeur de thèse
Toulouse 3 - IRIT

École doctorale et spécialité :


MITT : Domaine STIC : Réseaux, Télécoms, Systèmes et Architecture
Unité de Recherche :
Institut de Recherche en Informatique de Toulouse (IRIT) - UMR 5505
Directeur(s) de Thèse :
Philippe Vidal et Julien Broisin
Rapporteurs :
Vanda Luengo et Sébastien George
Résumé

L ES travaux pratiques représentent une composante incontournable de l’apprentis-


sage. Toutefois, leur mise en œuvre au sein de laboratoires physiques requiert des
infrastructures souvent coûteuses pour les institutions de formation qui peuvent ainsi
difficilement faire face à la forte augmentation du nombre d’étudiants.
Dans ce contexte, les laboratoires virtuels et distants (VRL) représentent une alter-
native pour assurer le passage à l’échelle des activités pratiques à moindre coût. De
nombreux travaux de recherche ont émergé au cours de la dernière décennie en se fo-
calisant sur les problématiques techniques et technologiques induites par ces nouveaux
usages, telles que la fédération, la standardisation, ou la mutualisation des ressources
de laboratoires. Cependant, les récentes revues de littérature du domaine mettent en
exergue la nécessité de se préoccuper davantage des facettes pédagogiques liées à ces
environnements informatiques innovants dédiés à l’apprentissage pratique.
Dans cet objectif, nos travaux exploitent les traces issues des activités réalisées par
les apprenants lors de sessions d’apprentissage pratique pour mettre en œuvre les théo-
ries socio-constructivistes qui sont au cœur de l’apprentissage exploratoire, et ainsi fa-
voriser l’engagement et le processus de réflexion des étudiants.
À partir de la littérature traitant des relations sociales entre apprenants, nous iden-
tifions dans un premier temps un ensemble de critères pour la conception de systèmes
d’apprentissage pratique engageants. En s’appuyant sur une architecture de cloud com-
puting, nous avons ensuite réalisé Lab4CE, un environnement web pour l’enseignement
de l’Informatique capable de masquer la complexité des tâches de gestion des labora-
toires, mais surtout d’exposer des capacités éducatives avancées. En effet, Lab4CE re-
pose sur les Learning Analytics pour supporter différentes formes d’apprentissage telles
que la collaboration, la coopération ou l’entraide entre pairs, mais également pour four-
nir des outils d’awareness et de réflexion visant à promouvoir l’apprentissage en pro-
fondeur pendant et après les activités pratiques.
Plusieurs expérimentations en contexte d’apprentissage réel et présentiel montrent
une évaluation positive de Lab4CE par les apprenants en terme d’utilisabilité, qu’ils
s’appuient de manière significative sur nos outils d’awareness et de réflexion, mais que
des artefacts supplémentaires sont nécessaires pour accroître leur engagement spon-

iii
Résumé

tané dans des interactions sociales d’apprentissage. De plus, ces expérimentations sou-
lignent l’existence d’une corrélation significative entre l’engagement des étudiants dans
la plateforme et les stratégies d’apprentissage qu’ils mettent en œuvre d’une part, et
leur performance académique d’autre part. Ces premiers résultats nous permettent
d’affirmer que les théories socio-constructivistes sont un levier à l’engagement et à la
réflexion dans les VRL. Ils nous invitent à confronter notre approche à d’autres moda-
lités d’apprentissage, mais aussi à intégrer de nouvelles sources d’informations pour
approfondir nos analyses du comportement et ainsi renforcer nos contributions à une
meilleure prise en compte de l’apprentissage pratique dans les EIAH.

iv Rémi Venant
Abstract

P RACTICAL activities, used in exploratory learning, represent a major component


of education : they make learners acquire not only knowledge, but also skills and
attitude, and they help them bridging the gap between theories and the real world
within they are applied. However, the physical laboratories hosting these activities rely
on expensive infrastructures that make very difficult for institutions to cope with the
high increase of the students’ population.
Within this context, virtual and remote laboratories (VRL) bring an affordable al-
ternative to provide practical activities at scale. Numerous research works have come
up for the last decade ; they mainly focused on technological issues such as the federa-
tion of remote laboratories, their standardization, or the pooling of the resources they
provide. Nevertheless, the recent literature reviews highlight the need to pay more at-
tention to the educational facets of these innovative learning environments.
With that purpose in mind, our works make use of the learners’ traces collected
through their practical learning sessions to sustain socio-constructivist theories, on
which practical activities rely on, and thus to engage students in their learning tasks
and further their reflection.
Starting from the study of scientific research, we identify as a first step a set of cri-
teria required to design practical learning systems that support social interactions bet-
ween learners. We then developed Lab4CE, a web-based environment for Computer
Science education. This environment relies on a cloud computing architecture to pro-
vide learners with their own virtual resources, and hides the complexity of the inherent
management tasks while offering advanced educational capabilities. Indeed, Lab4CE
builds on learning analytics to enable different forms of learning such as collaboration,
cooperation, or peer assistance, but also to supply learners as well as teachers aware-
ness and reflection tools that aim at promoting deep learning during and after practical
activities.
We carried out several experimentations in authentic and hands-on learning
contexts. They stressed the fact that learners evaluate positively the usability of Lab4CE,
and they significantly rely on our awareness and reflection tools. However, extra arti-
facts are required to increase their spontaneous engagement in social learning interac-

v
Abstract

tions. Moreover, theses experimentations suggested a significant correlation between,


on the one hand, student’s activity in the environment and the learning strategies they
apply and, on the other hand, their academic performance. These first results allow us
to assess that socio-constructivist theories leverage engagement and reflection within
VRL. They also invite us to put our approach into practice in other learning settings,
but also to extend the sources of information to deal with our behavioral analyses in
depth, and thus to enhance our contributions regarding the adoption of practical lear-
ning within technological environments.

vi Rémi Venant
Remerciements

T OUT a commencé à mon arrivée sur Toulouse et à l’IUT, avec la rencontre de celui
qui, jusqu’à aujourd’hui, m’a conseillé, guidé, et que je ne pourrai jamais assez re-
mercier, Julien Broisin. Sous ton aile, tu m’as fait découvrir l’univers de la recherche et
ton équipe, SIERA, tout comme toi exceptionnelle sur de nombreux aspects, et particu-
lièrement sur le plan humain.
C’est dans cette équipe que j’ai également rencontré Philippe Vidal, qui deviendra
par la suite mon directeur de thèse. Mais plus qu’un directeur tu as été pour moi tel un
père dans ce monde académique, et je te remercie de m’en avoir fourni les pointeurs
indispensables à sa compréhension.
Arrivé en Miage, une personne a aussi influencé de façon décisive mon parcours.
Daniel Marquié, ta détermination, ton dévouement à l’enseignement, ont participé à
mon orientation vers un domaine de recherche situé au confluent de l’Apprentissage
et de l’Informatique. Bien sûr, je vous remercie également Michelle Sibilia, Abdelmalek
Benzekri, Thierry Desprats, François Barrère, Emmanuel Lavinal et Samer Wazan ; vous
m’avez continuellement encouragé, et avez été un moteur à ma réflexion tout au long
des mes travaux.
À Cédric Teyssié et Romain Laborde, je vous réserve un remerciement tout particu-
lier. Vous m’avez apporté votre soutien inconditionnel toutes ces années et nos nom-
breuses discussions, riches d’enseignements et jamais dénuées d’humour, resteront à
jamais ancrées dans ma mémoire.
Je souhaite bien sûr remercier tous les doctorants que j’ai pus côtoyer dès mes pre-
mières expériences à l’IRIT (et docteurs aujourd’hui !) avec qui je garde un lien d’amitié
fort. Valentin Butoianu, Dana Codreanu, permettez-moi de vous dire tout simplement
vă mulţsumec foarte mult ! Tony, Raymmond, à quand votre prochaine discussion philo-
sophique chez les diocésains ? Arnaud Oglaza et Pierrick Marie continuez à faire per-
durer notre traditionnel vendredi soir, que cette équipe reste toujours aussi charmante
pour quiconque la rejoindra. Je ne vous oublie pas non plus, Messaoud Aouadj et Racim
Fassi ; sans vous, mes pauses café n’ont plus vraiment la même saveur. Enfin Franck
Silvestre, je suis ravi d’avoir partagé avec toi ce bureau pendant ces quatre dernières
années, et tes conseils avisés m’ont toujours été d’une grande utilité.

vii
Remerciements

Alors que je débutais ma thèse, j’ai compris très rapidement l’importance d’une
communauté de recherche, par la découverte de l’association francophone des EIAH.
Je me dois de tous vous remercier, chercheuses et chercheurs de cette communauté, avec
qui j’ai pris plaisir à échanger, pour les idées pertinentes que vous avez sues m’apporter,
mais surtout pour le plaisir que vous m’avez donné à arpenter cette thèse dans votre
domaine. Je souhaite tout particulièrement remercier un cercle plus restreint, sans qui
je n’aurais assurément pas atteint les mêmes résultats. Mesdames Marie Lefevre, Élise
Lavoué, Gaëlle Molinari, Vanda Luengo, et messieurs Jean-Charles Marty, Sébastien
George, Sébastien Iksal et Éric Sanchez, vous êtes à l’origine de mon sourire lorsque
vient le moment de vous retrouver pour une conférence !
Il y a également une autre communauté de laquelle j’ai énormément appris, et dont
la collaboration sera toujours une réjouissance : celle de l’EPFL, dont je remercie Pierre
Dillenbourg de m’y avoir accueilli. Je pense aussi en particulier à Kshitij Sharma ; la
confiance que tu m’as accordée dès le début, cette énergie que tu déploies sans relâche
pour ta recherche, et ton humilité à l’égard des sciences font de toi un modèle que je
m’efforcerai de suivre à l’avenir.
Il me reste bien évidemment à remercier ma famille. Michelle, Patrick et Aline, rien
de tout cela n’aurait pu débuter sans vous, et je suis très heureux de la confiance que
vous m’avez accordée et de l’aide que vous m’avez apportée. Je pense aussi à mes
amis tourangeaux d’enfance, à qui je conte avec bonheur mes pérégrinations toulou-
saines : Ali, Aline, François-Thomas, Gabriel, Louis, Marie, Mercredi, Quentin, et Thi-
bault, vous retrouver est toujours source d’impatience !
Cette thèse terminée, je souhaite te dédier ces derniers mots, Julie, qui m’a supporté
toutes ces années et dont je ne saurai jamais trouver les termes suffisants pour remercier
ton abnégation face à mes angoisses et mes colères auxquelles j’ai dû faire face.
Ainsi à tous, je vous remercie pour votre soutien et votre générosité qui m’ont per-
mis d’achever ces travaux avec sérénité. Continuez comme cela dans votre vie tout
comme vous continuerez, je l’espère, la lecture de ce manuscrit.

viii Rémi Venant


Table des matières

Résumé iii

Abstract v

Remerciements vii

Table des figures 1

Liste des tableaux 3

Introduction 5
Cadre Scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Problématiques de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Organisation du manuscrit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

I État de l’art 13

1 Les laboratoires virtuels et distants 15


1.1 Composantes des Travaux Pratiques . . . . . . . . . . . . . . . . . . . . . 16
1.1.1 Laboratoires et ressources . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.2 Expériences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Les VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

ix
Table des matières

1.2.1 Limites des TP traditionnels . . . . . . . . . . . . . . . . . . . . . . 17


1.2.2 Intérêts des VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.3 Comparaison entre VRL et laboratoires en présentiel . . . . . . . 19
1.2.4 EIAH pour VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Modèles d’apprentissage pour les travaux pratiques . . . . . . . . . . . . 21
1.3.1 Socio-constructivisme et apprentissage exploratoire . . . . . . . . 21
1.3.2 Les interactions sociales . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.3 Importance des interactions sociales dans les VRL . . . . . . . . . 23
1.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Facteurs d’engagement et de réflexion 25


2.1 Support technique aux interactions entre apprenants, enseignants, et res-
sources de laboratoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Communication entre utilisateurs . . . . . . . . . . . . . . . . . . 26
2.1.2 Réplication des laboratoires . . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Partage du contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Engagement des apprenants dans les interactions sociales . . . . . . . . . 29
2.2.1 Besoins pour les interactions sociales . . . . . . . . . . . . . . . . 29
2.2.2 Awareness personnelle et sociale . . . . . . . . . . . . . . . . . . . 29
2.2.3 Réflexion pendant et après l’activité . . . . . . . . . . . . . . . . . 34
2.3 Alignement des interactions à la pédagogie . . . . . . . . . . . . . . . . . 35
2.3.1 Diversité des modèles d’apprentissage social . . . . . . . . . . . . 35
2.3.2 Outils de conception d’expériences et modèle d’apprentissage . . 36
2.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Analyse des environnements existants 39


3.1 Le projet Lila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Le projet d’intégration de VRL dans un LMS . . . . . . . . . . . . . . . . 41
3.3 Le projet Go-Lab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Le projet iLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Le projet Labshare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6 Le projet WeColLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

x Rémi Venant
Table des matières

3.7 Le projet ReLOAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


3.8 Le projet eMersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.9 Le projet VESSL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.10 Le projet DIESEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.11 Le projet Trilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.12 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

II Lab4CE, a Laboratory for Computer Education 53

4 Un laboratoire pour l’apprentissage de l’Informatique 55


4.1 Historique et motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.1 Contexte de recherche . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.2 Contexte d’enseignement . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.3 Développement de Lab4CE . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Vue générale de Lab4CE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Concepts principaux . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Architecture logicielle globale . . . . . . . . . . . . . . . . . . . . . 59
4.3 Gestion des VRL dans Lab4CE . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3.1 OpenStack : un gestionnaire de cloud pour Lab4CE . . . . . . . . 61
4.3.2 Intégration d’OpenStack dans Lab4CE . . . . . . . . . . . . . . . . 62
4.3.3 Accès aux ressources . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.4 Services pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4 L’EIAH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.1 L’application auteur . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.2 L’application d’expérimentation . . . . . . . . . . . . . . . . . . . 67
4.5 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

5 Awareness et Réflexion dans Lab4CE 71


5.1 Les learning analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.1 Définition des learning analytics . . . . . . . . . . . . . . . . . . . 72
5.1.2 Learning analytics et awareness . . . . . . . . . . . . . . . . . . . 72

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique xi


Table des matières

5.2 Awareness de la performance dans les VRL . . . . . . . . . . . . . . . . . 73


5.2.1 Contraintes des VRL pour l’awareness du concept . . . . . . . . . 73
5.2.2 Awareness de la performance dans Lab4CE . . . . . . . . . . . . . 73
5.3 Gestion des traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1 Flux de données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.2 Modèle de traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.3 Framework d’analyse de données . . . . . . . . . . . . . . . . . . 76
5.3.4 Gestion individuelle des traces d’apprentissage . . . . . . . . . . 77
5.4 Outils pour l’awareness et la réflexion . . . . . . . . . . . . . . . . . . . . 77
5.4.1 Learning analytics pour le support à l’awareness et à la réflexion 77
5.4.2 L’outil de comparaison sociale . . . . . . . . . . . . . . . . . . . . 78
5.4.3 L’outil de réflexion a posteriori . . . . . . . . . . . . . . . . . . . . 79
5.4.4 L’outil de réflexion pendant l’action . . . . . . . . . . . . . . . . . 81
5.5 Outils de détection de stratégies d’apprentissage . . . . . . . . . . . . . . 82
5.5.1 Suivi du comportement de l’apprenant . . . . . . . . . . . . . . . 83
5.5.2 Système de tuteur intelligent . . . . . . . . . . . . . . . . . . . . . 84
5.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

6 Interactions sociales dans Lab4CE 87


6.1 Messagerie instantanée et salons de discussion . . . . . . . . . . . . . . . 88
6.2 Support à la collaboration et coopération . . . . . . . . . . . . . . . . . . 88
6.2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.2.2 Scénarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.2.3 Conception et développement . . . . . . . . . . . . . . . . . . . . 90
6.3 Support à l’entraide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3.2 Scénario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.3.3 Conception et développement . . . . . . . . . . . . . . . . . . . . 94
6.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

xii Rémi Venant


Table des matières

III Expérimentations 99

7 Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE 101


7.1 Contexte général des expérimentations . . . . . . . . . . . . . . . . . . . 102
7.1.1 Contexte pédagogique . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.2 Contexte technique . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.2 Étude de l’utilisabilité et de l’usage des outils d’awareness et de réflexion 104
7.2.1 Conception et protocole expérimental #1 . . . . . . . . . . . . . . 104
7.2.2 Résultats #1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.3 Étude de la perception et de l’usage du système d’entraide . . . . . . . . 110
7.3.1 Conception et protocoles expérimentaux #2 et #3 . . . . . . . . . . 110
7.3.2 Résultats #2 et #3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

8 Performance et comportement dans Lab4CE 117


8.1 Engagement des apprenants et performance académique . . . . . . . . . 118
8.1.1 Conception et protocole expérimental #4 . . . . . . . . . . . . . . 118
8.1.2 Impact du système sur l’engagement des étudiants . . . . . . . . 119
8.1.3 Activité des apprenants et performance académique . . . . . . . 120
8.2 Comportement des apprenants et réussite académique . . . . . . . . . . 121
8.2.1 Conception et protocole expérimental #5 . . . . . . . . . . . . . . 122
8.2.2 Jeu de données et performance académique . . . . . . . . . . . . 122
8.2.3 Analyse des indicateurs quantitatifs . . . . . . . . . . . . . . . . . 123
8.2.4 Analyse des motifs séquentiels d’actions . . . . . . . . . . . . . . 124
8.2.5 Stratégies d’apprentissage . . . . . . . . . . . . . . . . . . . . . . . 126
8.2.6 Résultats #5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

Conclusion 131
Bilan général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
La définition de critères pour le support des théories de l’apprentissage
exploratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique xiii


Table des matières

Lab4CE, un EIAH pour l’apprentissage pratique de l’Informatique . . . 132


Des outils pour favoriser les interactions sociales . . . . . . . . . . . . . . 133
La découverte de corrélations entre engagement, comportement et per-
formance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Perspectives de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Passage à l’échelle de l’apprentissage de l’Informatique . . . . . . . . . . 136
Modèles théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Entraide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Modèles computationnels pour l’engagement et la réflexion . . . . . . . 138
Learning analytics et intelligences artificielles pour l’engagement et la
réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

IV Annexes 141

A API REST de Lab4CE 143

B Règles d’inférence pour la justesse technique 149

C Analyse du questionnaire sur l’entraide 153

D Exemple d’un trace xAPI d’une commande 159

Bibliographie 161

xiv Rémi Venant


Table des figures

2.1 Environnement Wonderland utilisé dans (Fayolle et al., 2010) . . . . . . . 34

3.1 Topologie de l’architecture iLab pour des expériences intéractives (Har-


ward et al., 2008) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Interface d’apprentissage collaborative de LabShare (Lowe et al., 2009) . 45

4.1 Diagramme de cas d’utilisation de Lab4CE . . . . . . . . . . . . . . . . . 58


4.2 Diagramme de classes général de Lab4CE . . . . . . . . . . . . . . . . . . 59
4.3 Architecture conceptuelle de Lab4CE . . . . . . . . . . . . . . . . . . . . . 60
4.4 Exemple de déploiement de Lab4CE . . . . . . . . . . . . . . . . . . . . . 61
4.5 DCL détaillé du modèle d’expérience de Lab4CE . . . . . . . . . . . . . . 65
4.6 Interface de création de topologies . . . . . . . . . . . . . . . . . . . . . . 66
4.7 Présentation de l’expérience dans l’application d’expérimentation . . . . 68
4.8 Gestion des laboratoires sur l’application d’expérimentation . . . . . . . 69

5.1 Flux de données dans Lab4CE . . . . . . . . . . . . . . . . . . . . . . . . . 75


5.2 Exemple de traces xAPI d’une commande . . . . . . . . . . . . . . . . . . 75
5.3 Framework de traces de Lab4CE . . . . . . . . . . . . . . . . . . . . . . . 76
5.4 Outil de comparaison sociale . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.5 Outil de réflexion a posteriori . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.6 Outil de réflexion pendant l’action . . . . . . . . . . . . . . . . . . . . . . 82
5.7 Suivi du comportement des apprenants en temps réel . . . . . . . . . . . 83
5.8 Système de guidage orienté stratégies d’apprentissage . . . . . . . . . . . 84

1
Table des figures

6.1 Salons de discussion de la messagerie instantanée . . . . . . . . . . . . . 88


6.2 Gestion des laboratoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.3 Vue commune dans un laboratoire partagé . . . . . . . . . . . . . . . . . 92
6.4 Processus de recherche d’aide (Nelson-Le Gall, 1981; Newman, 1994) . . 93
6.5 Gestion de l’aide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.6 Formulaire de création d’une requête d’aide . . . . . . . . . . . . . . . . 95

7.1 Résultats du questionnaire COLLES . . . . . . . . . . . . . . . . . . . . . 108

8.1 Corrélation entre l’activité des étudiants sur Lab4CE et leur performance
académique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
8.2 Intervalles de confiance par catégorie de performance pour le motif
Sub_S,VarSub_S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

C.1 Questions générales sur l’aide . . . . . . . . . . . . . . . . . . . . . . . . . 154


C.2 Questions sur la demande d’aide . . . . . . . . . . . . . . . . . . . . . . . 155
C.3 Questions sur la prise en charge d’aides . . . . . . . . . . . . . . . . . . . 156
C.4 Informations utiles à la demande d’aide . . . . . . . . . . . . . . . . . . . 158

2 Rémi Venant
Liste des tableaux

2.1 Exemple de besoins chez l’apprenant ciblés par l’awareness . . . . . . . 31


2.2 Critères pour le support des interactions sociales dans les VRL . . . . . . 37

3.1 Synthèse de l’évaluation des environnements existants . . . . . . . . . . 51

4.1 Cycles de développement de Lab4CE . . . . . . . . . . . . . . . . . . . . 57


4.2 Permissions par rôle sur les expériences, laboratoires et ressources . . . . 64

7.1 Sessions d’utilisation de Lab4CE . . . . . . . . . . . . . . . . . . . . . . . 103


7.2 Mesures des capacités de charge du système . . . . . . . . . . . . . . . . 104
7.3 Statistiques d’usage de Lab4CE dans l’expérimentation #1 . . . . . . . . 107
7.4 Résultats d’usage pour l’étude de l’entraide . . . . . . . . . . . . . . . . . 112
7.5 Extrait des réponses du questionnaire sur l’entraide . . . . . . . . . . . . 113

8.1 Statistiques d’usage de Lab4CE dans l’expérimentation #4 . . . . . . . . 120


8.2 Corrélation entre indicateurs numériques et AS . . . . . . . . . . . . . . . 123
8.3 Analyse des motifs séquentiels d’actions . . . . . . . . . . . . . . . . . . . 125
8.4 Expressions régulières des stratégies d’apprentissage . . . . . . . . . . . 127
8.5 Analyse des stratégies d’apprentissage . . . . . . . . . . . . . . . . . . . . 128
8.6 Positionnement des contributions technologiques . . . . . . . . . . . . . 134

3
Introduction

Contenu
Cadre Scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
Problématiques de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
Contributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Organisation du manuscrit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

Cadre Scientifique

C’est au sein de l’équipe SIERA (System IntEgration and netwoRk Administration)


du laboratoire IRIT que se sont déroulés les travaux de thèse présentés dans ce manus-
crit. L’Institut de Recherche en Informatique de Toulouse est une Unité Mixte de Re-
cherche (UMR 5505), associant l’Université Toulouse 3 Paul Sabatier, le Centre National
de la Recherche Scientifique, l’Institut National Polytechnique de Toulouse, l’Univer-
sité Toulouse 1 Capitole et l’Université Toulouse 2 Jean Jaurès. Les travaux menés par
les 21 équipes de ce laboratoire couvrent un large spectre de la discipline Informatique,
dont les efforts de recherche portent sur 5 défis sociétaux : a) la santé, l’autonomie et
le bien-être, b) la révolution numérique des systèmes urbains, c) l’aéronautique et l’es-
pace, d) les média sociaux et les écosystèmes sociaux numériques, et e) l’e-Éducation.
L’équipe SIERA 1 articule ses travaux de recherche autour de la thématique de la
Gestion pour apporter des architectures, plateformes, outils ou encore des contributions
à la normalisation. Les domaines d’application visés concernent en particulier a) les
services et réseaux, b) la sécurité, et c) le e-learning. Dans ce domaine, l’équipe étudie la
conception, le développement et l’évaluation de systèmes dédiés à l’apprentissage par
le numérique. Ses travaux s’articulent autour de 3 axes de recherche :

1. https://www.irit.fr/-Equipe-SIERA-

5
Introduction

— la distribution à grande échelle de ressources éducatives libres ;


— la gestion des traces d’apprentissage en vue d’adapter et de personnaliser l’ap-
prentissage ;
— l’ingénierie d’environnements informatiques qui rendent les apprenants acteurs de
leur apprentissage.
Les travaux exposés dans ce manuscrit s’inscrivent pleinement dans ce dernier axe,
puisqu’ils font suite aux travaux de thèse de M. Bouabid (Bouabid, 2012) qui s’était
intéressé à la mise en ligne des travaux pratiques en Informatique.

Contexte

L’augmentation constante de la population étudiante dans l’enseignement supé-


rieur introduit un contexte sociétal dans lequel les méthodes traditionnelles d’ensei-
gnement peinent à assurer le passage à l’échelle. Les statistiques fournies par l’Institut
National de la Statistique et des Études Économiques 2 font état de cette augmenta-
tion, tout comme le recueil de données mondiales sur l’éducation établi par l’Institut
Statistiques de l’UNESCO (Institut de Statistique de l’UNESCO, 2009) : si en 1970 le
nombre mondial d’étudiants dans le supérieur était estimé à 28,6 millions, cette estima-
tion s’élève à 152,2 millions en 2007, subissant ainsi une croissance annuelle moyenne
de 4,6%. Cette augmentation du nombre d’étudiants fait donc apparaître un besoin
d’adaptation de l’enseignement supérieur, dans un contexte où la « formation tout au
long de la vie » s’est également imposée dans le paysage sociétal depuis une dizaine
d’années (Verdier, 2008).
Dans ce contexte, la modernisation des systèmes informatiques et des réseaux de
communication combinée à la diminution des coûts d’acquisition des équipements,
tant pour les organisations que pour les particuliers, ont renforcé l’intérêt porté à l’ap-
prentissage médiatisé par l’Informatique. Qu’ils soient appliqués à la gestion de l’ap-
prentissage (Lonn et Teasley, 2009), comme support à l’évaluation formative (Silvestre
et al., 2015), ou dans un contexte d’apprentissage tout au long de la vie (Hollands et Tir-
thali, 2014), les systèmes de e-learning ont atteint un niveau de maturité sur les plans
théorique et technique permettant leur exploitation dans différentes situations d’en-
seignement et d’apprentissage (Garrison, 2011). Toutefois, les travaux pratiques sont
encore peu répandus même s’ils représentent une composante importante voire indis-
pensable de l’apprentissage (Atlee et al., 2005), notamment dans l’enseignement des
STEM (science, technology, engineering, and mathematics), et qu’ils doivent également
être dispensés au plus grand nombre (Lelevé et al., 2003).

2. https://www.insee.fr/fr/statistiques/2387291

6 Rémi Venant
Introduction

Une spécificité des travaux pratiques est l’utilisation de ressources hébergées dans
« des laboratoires », c’est-à-dire des dispositifs sur lesquels les apprenants expéri-
mentent, consolident leurs connaissances et acquièrent des savoir-faire propres à l’in-
vestigation scientifique. Aligner les travaux pratiques traditionnellement délivrés en
présentiel à un enseignement s’appuyant sur le numérique nécessite donc de penser la
mise à disposition de ces laboratoires. Bien que l’apprentissage assisté par ordinateur
ait fait son apparition dans les années 70 (ex. : la première édition du journal Computer
& Education date de 1976), le premier concept de « laboratoire partagé » est à mettre au
compte d’Aburdene (1991), tandis que des premières implantations de laboratoires dis-
tants (i.e., la mise en ligne de dispositifs physiques pour réaliser des travaux pratiques
assistés par ordinateurs) apparaissent à partir du milieu des années 1990 (Knight et De-
Weerth, 1996; McKee et Barson, 1995; Aktan et al., 1996). Le véritable engouement pour
les travaux pratiques médiatisés par l’Informatique a toutefois émergé récemment, de-
puis maintenant une dizaine d’années, comme en témoigne notamment la création de la
communauté de recherche REV 3 (Remote Engineering and Virtual instrumentation) dont
la première conférence remonte à 2004. Durant cette décennie, des problématiques es-
sentiellement technologiques ont été étudiées pour permettre la création de laboratoires
virtuels et distants (Gravier et al., 2008) : rendre les ressources accessibles, automatiser
la gestion de leurs accès, proposer des architectures interopérables et standardisées qui
supportent le passage à l’échelle, ou encore intégrer ces travaux pratiques dans les cur-
riculums mis en ligne au sein de systèmes de gestion de l’apprentissage.

Problématiques de recherche

Questions de recherche

Sur le plan éducationnel, les travaux pratiques sont une instanciation de l’apprentis-
sage exploratoire (Inquiry-Based Learning), une théorie de l’apprentissage qui consiste à
amener les apprenants vers une autonomie dans leurs démarches scientifiques (De Jong
et al., 2013). L’apprentissage exploratoire est un apprentissage actif par lequel les appre-
nants n’ont pas à admettre des faits ou des modèles théoriques comme tels, mais s’en-
traînent à concevoir et à appliquer leurs propres démarches de construction du savoir :
définir leurs propres questions, collecter des preuves, les interpréter, lier leurs obser-
vations aux modèles théoriques étudiés, et ainsi pouvoir justifier et argumenter sur les
théories apprises (Bell et al., 2008). Pour reprendre les termes de Millar, l’apprentissage
exploratoire permet de « tisser des liens entre le monde des objets et des faits concrets,
et celui des idées » (Millar, 2004). Les travaux pratiques ciblent donc un apprentissage

3. http://www.rev-conference.org

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 7


Introduction

en profondeur, une situation dans laquelle les individus tentent d’aller au delà des
connaissances immédiates qu’ils étudient (Gibbs, 1992). Opposée à l’approche dite « en
surface », l’apprentissage en profondeur se concentre sur la signification même de ce
qu’est une connaissance, tente d’identifier les relations entre les différentes théories, et
vise le tissage de liens entre les concepts théoriques et l’observation du réel (Ramsden,
1988). Moon (2013) établit la réflexion comme étant un des piliers de l’apprentissage
en profondeur, et statue que « la réflexion apparaît être le moteur qui permet de passer
d’un apprentissage en surface à un apprentissage en profondeur ».
D’autre part, sur le plan épistémologique, les travaux pratiques reposent sur le
socio-constructivisme, fondement philosophique de l’apprentissage exploratoire. Jean
Piaget, à l’initiative du mouvement constructiviste, conceptualise toute connaissance
comme étant le résultat d’une expérience individuelle d’apprentissage qui repose sur
les concepts d’accommodation et d’assimilation, dont le premier de ces concepts vient
le plus souvent s’opposer aux savoirs établis (Piaget, 1967). Vygotsky (1978) amène
une dimension sociale à l’acquisition de connaissances, en considérant les interactions
sociales comme primordiales à l’apprentissage, et en développant le concept de zone
proximale de développement (situation dans laquelle l’individu peut progresser grâce
à l’appui de l’autre). Par la suite, Doise et Mugny, prolongeant les travaux précédents,
présentent les interactions entre pairs qui suscitent des conflits socio-cognitifs comme
étant une source de développement cognitif (Doise et al., 1975).
Ainsi, à partir des travaux de thèse de M. Bouabid (2012) sur la mise en ligne des tra-
vaux pratiques, nous considérons dans ce manuscrit les théories de l’apprentissage et
épistémologiques sur lesquelles reposent les travaux pratiques, et proposons de contri-
buer à l’enrichissement des environnements informatiques pour les travaux pratiques
afin de promouvoir l’apprentissage pratique médiatisé par l’Informatique au sein des
communautés enseignantes et apprenantes, et d’améliorer l’expérience d’apprentissage
pratique des étudiants, même dans un contexte de masse.
Nos questions de recherche peuvent donc être formulées ainsi :
1. Comment aligner un environnement d’apprentissage pratique aux théories socio-
constructivistes ?
2. Dans un contexte d’apprentissage exploratoire, quel impact ont les outils de sup-
port à l’awareness et à la réflexion sur les pratiques et la performance des appre-
nants ?

Méthodologie

Dans l’objectif d’adresser ces questions, nous adoptons la méthodologie de re-


cherche suivante :

8 Rémi Venant
Introduction

1. l’analyse des notions de laboratoires virtuels et distants, ainsi que des théories
d’apprentissage et épistémologiques sur lesquelles l’apprentissage pratique re-
pose, dans le but d’identifier les verrous à lever ;
2. la définition de critères de conception d’un environnement pour l’apprentissage
pratique afin de combler les lacunes identifiées ;
3. la conception et la réalisation d’un laboratoire virtuel et de son EIAH (Environne-
ment Informatique pour l’Apprentissage Humain) s’appuyant sur les traces d’ap-
prentissage pour respecter les critères ;
4. l’évaluation de l’environnement à travers plusieurs expérimentations menées dans
un contexte d’apprentissage réel.

Contributions

Les contributions apportées par ces travaux sont à la fois théoriques et technolo-
giques, et peuvent être regroupées en 4 catégories.

La définition de critères pour le support des théories de l’apprentissage ex-


ploratoire

À partir de l’analyse des concepts théoriques liés à l’apprentissage pratique et des


études expérimentales existantes, nous proposons un ensemble de critères pour conce-
voir des environnements d’apprentissage pratique qui supportent et invitent les appre-
nants à s’engager dans un apprentissage en profondeur. Ces critères ciblent l’awareness
et la réflexion ainsi que la prise en charge des interactions sociales, identifiées comme
un facteur important pour l’engagement des apprenants dans les activités pratiques.

Lab4CE, un EIAH pour l’apprentissage pratique de l’Informatique

Lab4CE, « Laboratory for Computer Education », est un système conçu et développé


aux cours de nos travaux pour l’apprentissage pratique de l’Informatique. Son archi-
tecture offre un déploiement aisé et à moindre coût, possiblement réparti, et permet de
doter automatiquement et à la volée chaque apprenant d’un ensemble de ressources vir-
tuelles pour réaliser des activités pratiques conçues par des enseignants sans nécessiter
de compétences techniques particulières. Pour supporter les différents critères définis
précédemment, nous proposons une approche centrée sur l’exploitation des learning
analytics et présentons un framework unifié et standardisé pour la collecte, l’enrichis-
sement et la réutilisation de traces d’apprentissage. En s’appuyant sur ce framework,

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 9


Introduction

nous offrons un support à l’awareness, à la réflexion et aux interactions sociales en ex-


ploitant notamment le calcul en temps réel d’indicateurs comme la performance in situ
des apprenants ou la détection de stratégies d’apprentissage.

Des outils pour favoriser les interactions sociales

À partir de ce framework d’analyse des apprentissages, nous introduisons un en-


semble de fonctionnalités au sein de Lab4CE pour encourager les interactions sociales
à travers la réalisation de tâches collectives telles que la collaboration, la coopération
et l’entraide. Nous permettons à l’enseignant de concevoir son activité et de configurer
l’environnement d’apprentissage en fonction de ses objectifs pédagogiques, mais pro-
posons également la réalisation de ces processus d’apprentissage collectif à l’initiative
des apprenants. D’autre part, à partir d’un modèle théorique existant, nous proposons
un système de gestion de l’entraide entre pairs pour faciliter les interactions spontanées
pendant l’activité pratique. Enfin, nous avons conçu un ensemble d’outils de learning
analytics pour le support à l’awareness aussi bien individuelle que collective, et pour
la réflexion sur les travaux effectués par les apprenants pendant et après l’activité.

La découverte de corrélations entre engagement, comportement et perfor-


mance

Nos expérimentations ciblent l’étude du comportement des apprenants dans l’en-


vironnement afin d’analyser les liens potentiels entre leurs activités et leurs résultats
académiques. Nos résultats montrent une corrélation positive et significative entre leur
activité sur la plateforme et leur performance. Nous avons également identifié certaines
stratégies d’apprentissage qui sont le marqueur d’un haut niveau de performance. Ces
résultats ont permis d’étendre les modèles théoriques appliqués dans nos travaux et de
concevoir de nouveaux outils susceptibles d’améliorer l’apprentissage des apprenants.

Organisation du manuscrit

Partie 1 : État de l’art

Cette première partie introduit à travers trois chapitres la définition de critères pour
le support à l’engagement et à la réflexion dans les situations d’apprentissage pratique.
Dans le premier chapitre, nous explicitons les notions fondamentales liées aux travaux
pratiques, et argumentons à partir de la littérature scientifique sur l’importance de
prendre en compte les interactions sociales dans les environnements d’apprentissage
pratique. Le second chapitre est dédié à l’état de l’art de la littérature scientifique sur

10 Rémi Venant
Introduction

les facteurs d’engagement, de réflexion et d’interactions sociales dans l’apprentissage


exploratoire. Nous en dérivons un ensemble de critères à respecter pour un EIAH dédié
à l’apprentissage pratique et analysons, dans un troisième chapitre, un échantillon de
laboratoires virtuels et distants existants selon ces critères.

Partie 2 : Lab4CE, a Laboratory for Computer Education

Nous détaillons en trois chapitres l’ensemble de nos contributions technologiques


à travers la réalisation de notre environnement d’apprentissage. Nous fournissons une
présentation générale du système dans un premier chapitre, en y détaillant son archi-
tecture et en y présentant les fonctionnalités pour la conception et la réalisation d’expé-
riences. Par la suite, nous exposons comment la gestion des traces est mise en oeuvre et
décrivons les outils de comparaison sociale et de réflexion après et pendant l’activité. À
la fin du second chapitre, nous présentons les outils conçus à partir des résultats expé-
rimentaux obtenus, c’est-à-dire l’interface de suivi du comportement des apprenants et
le système de tuteur intelligent fondés sur la détection à la volée de stratégies d’appren-
tissage. Dans un troisième et dernier chapitre, nous exposons les différents systèmes de
support aux tâches collectives.

Partie 3 : Expérimentations

Cinq expérimentations sont exposées dans cette dernière partie. Dans le premier
chapitre, après avoir établi le contexte général commun à nos études, nous évaluons
l’utilisabilité de Lab4CE et étudions l’usage des outils d’awareness, et réflexion et d’en-
traide à travers trois expérimentations. Le second chapitre présente les deux dernières
expérimentations qui visaient à étudier le lien entre la performance académique des
apprenants d’une part, et leur engagement sur le système ainsi que leur comportement
en termes de stratégies d’apprentissage d’autre part.
Nous terminons ce manuscrit par un chapitre de conclusion présentant la synthèse
de nos travaux et nos différentes perspectives de recherche.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 11


Première partie

État de l’art

13
1 Les laboratoires virtuels et
distants

Contenu
1.1 Composantes des Travaux Pratiques . . . . . . . . . . . . . . . . . . . . 16
1.1.1 Laboratoires et ressources . . . . . . . . . . . . . . . . . . . . . . 16
1.1.2 Expériences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Les VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1 Limites des TP traditionnels . . . . . . . . . . . . . . . . . . . . . 17
1.2.2 Intérêts des VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.2.3 Comparaison entre VRL et laboratoires en présentiel . . . . . . 19
1.2.4 EIAH pour VRL . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Modèles d’apprentissage pour les travaux pratiques . . . . . . . . . . 21
1.3.1 Socio-constructivisme et apprentissage exploratoire . . . . . . . 21
1.3.2 Les interactions sociales . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.3 Importance des interactions sociales dans les VRL . . . . . . . . 23
1.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

L ES travaux pratiques (TP) sont considérés comme une activité pédagogique impor-
tante, particulièrement dans l’enseignement des STEM, par l’ensemble de la com-
munauté des chercheurs et enseignants (Atlee et al., 2005; Boud et al., 1986; Hofstein et
Lunetta, 1982; Novak, 1976). Nersessian (1989) perçoit les TP comme étant au cœur de
l’apprentissage des sciences, tandis que Clough (2002) déclare qu’ils rendent « vivant »
les sciences. Les TP visent non seulement l’acquisition de connaissances scientifiques,
mais également celles de compétences exploratoires telles que la définition d’hypo-
thèses ou l’interprétation de résultats (Bell et al., 2008; Millar, 2004). Définis comme
une activité d’apprentissage et d’enseignement qui engage les apprenants dans la ma-
nipulation d’objets et l’analyse de phénomènes issus de leur manipulation (Bouabid,
2012), les travaux pratiques visent un apprentissage profond et tendent à favoriser la
réflexion (De Jong et al., 2013).

15
Chapitre 1. Les laboratoires virtuels et distants

1.1 Composantes des Travaux Pratiques

1.1.1 Laboratoires et ressources

Bien que plusieurs définitions des TP peuvent être trouvées dans la littérature des
Sciences de l’Éducation (Millar, 2004; Meester et Kirschner, 1995; National Research
Council and others, 2006; Hofstein et Lunetta, 2004), toutes présentent cette activité
d’apprentissage comme un engagement des apprenants dans l’observation et la ma-
nipulation d’artefacts. Si Millar (2004) définit les artefacts comme des objets réels et
matériels, d’autres auteurs comme BenMohamed (2007) étendent ce concept aux objets
virtuels (i.e., dispositifs logiciels) qui reflètent le comportement d’objets réels. Dans cet
ouvrage, nous désignons donc par ressource tout objet, réel ou virtuel, manipulé pour
la mise en œuvre de TP.
Quels que soient les points de vue, les ressources sont systématiquement hébergées
au sein de laboratoires qui, en Français, sont définis comme un « local disposé pour faire
des recherches scientifiques [...] » (Larousse 2017). D’une part, le laboratoire semble ne
pas être distingué du terme administratif « laboratoire de recherche », qui fait état d’une
activité de recherche au sens académique (ex. : Institut de Recherche en Informatique
de Toulouse). D’autre part, le laboratoire, considéré comme un « local », est donc un
élément réel, physique et localisé. Dans la littérature anglophone, la définition est toute
autre. Le dictionnaire de Cambridge, par exemple, définit le laboratoire comme « a place
used for scientific experiments ». Ici, un laboratoire appartient à l’ensemble des « places »,
qui désignent aussi bien un site géographique localisé (à rapprocher de la notion de « lo-
cal », en français) qu’un espace virtuel numérique. Le terme « scientific experiments »
représente un domaine d’activité différent de celui des « recherches scientifiques ». Si
les recherches scientifiques impliquent parfois des expériences scientifiques, l’inverse
n’est pas vrai. Une activité de TP ne fait pas partie en soit de la recherche scientifique
mais l’on y réalise des expériences scientifiques. Ainsi dans notre contexte où les appre-
nants réalisent des travaux scientifiques, où aujourd’hui les activités peuvent être réa-
lisées à distance, et où des acteurs et des ressources sont répartis géographiquement et
de manière dynamique, la définition française n’est pas applicable. Nous optons donc
pour un anglicisme sémantique, dans lequel nous attribuons au terme laboratoire la
définition de son équivalent anglais.
Du point de vue de la littérature scientifique, nous suivons la taxonomie des la-
boratoires proposée par BenMohammed (2007), qui les identifie dans le cadre des TP
selon trois catégories. Les laboratoires physiques sont des espaces physiques situés géo-
graphiquement qui regroupent des dispositifs technologiques physiques ; par exemple,
dans l’enseignement des langues, un laboratoire peut ainsi désigner une salle de classe
réservée à l’apprentissage pratique, dotée d’outils pour l’écoute et la communication.

16 Rémi Venant
1.2. Les VRL

Les laboratoires virtuels sont des espaces (physiques ou eux-mêmes virtuels) regrou-
pant un ensemble de dispositifs virtuels. Enfin, l’auteur présente une troisième catégo-
rie : les laboratoires hybrides regroupent des dispositifs physiques et virtuels (ex. : un
simulateur professionnel de cockpit d’avion), dont les ressources, même virtuelles, ne
peuvent être accédées qu’en présentiel. Dans ce manuscrit, nous considérons donc un
laboratoire comme un espace où des ressources sont mises à disposition pour les tra-
vaux pratiques. Cet espace et ses ressources peuvent être physiques ou virtuel(le)s, et
possiblement accessibles à distance. Par souci de concision, nous utiliserons l’acronyme
anglais VRL (Virtual and Remote Laboratory), ou la traduction littérale « laboratoires vir-
tuels et distants » pour désigner ces laboratoires.

1.1.2 Expériences

Nous avons jusqu’à présent défini les ressources pour l’apprentissage pratique, et le
laboratoire qui les héberge. Il est toutefois nécessaire de définir comment permettre la
mise en œuvre d’une activité pédagogique s’appuyant sur la manipulation de ces res-
sources. D’après Bouabid (2012), une expérience désigne les conditions et paramètres
des ressources qui permettent de réaliser une activité de travaux pratiques. Toutefois,
nous élargissons sa définition aux objectifs pédagogiques, aux tâches à réaliser et au
scénario mis en place pour atteindre ces objectifs.
Dans la définition des objectifs pédagogiques visés par l’expérience, on retrouve des
objectifs individuels comme la compréhension et l’acquisition de concepts théoriques
(Ma et Nickerson, 2006), ou encore le développement du raisonnement scientifique (Na-
tional Research Council and others, 2006). Mais une dimension sociale est également
présente dans la plupart des travaux : par exemple, le conseil national de la recherche
des États-Unis (2006) identifient dans les objectifs principaux d’une expérience le déve-
loppement du travail et de l’esprit d’équipe, tandis que Ma et Nickerson (2006) incluent
le développement de compétences sociales. Traditionnellement, les TP sont réalisés en
présentiel dans un laboratoire physique ou hybride (Aburdene et al., 1991), où le trai-
tement de la dimension sociale de l’expérience est direct, l’ensemble des acteurs du TP
étant réunis au même endroit au même moment.

1.2 Les VRL

1.2.1 Limites des TP traditionnels

Si l’apprentissage pratique en classe présente des avantages pédagogiques, sa mise


en œuvre n’est pas sans poser problème. Du point de vue économique, les écoles et uni-

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 17


Chapitre 1. Les laboratoires virtuels et distants

versités peinent à se doter, et à maintenir, des ressources de laboratoires. Selon les ma-
tières enseignées celles-ci peuvent être extrêmement coûteuses. Aussi, dans des forma-
tions spécialisées, notamment dans le domaine de la mécanique et de l’électronique in-
dustrielle, de nombreux appareils très spécialisés présentent un taux d’utilisation faible
par rapport à l’investissement financier et humain fourni.
De plus, la nécessité de réunir dans le laboratoire physique enseignants et étu-
diants à un même moment, impose des contraintes administratives et organisation-
nelles d’une part, et des contraintes sur l’apprentissage d’autre part. Puisque le labo-
ratoire est un lieu physique souvent dédié à une discipline de TP particulière (ex. :
une salle conçue pour des TP de chimie peut rendre l’application d’une autre forme
d’enseignement difficile), il est difficile d’obtenir un taux d’utilisation du laboratoire
similaire à celui d’une salle de cours ordinaire. De plus, des complications logistiques
apparaissent à l’échelle d’une université où différentes formations doivent se partager
un faible nombre de laboratoires. Enfin, assurer un enseignement qui met en avant la
pratique est également plus coûteux pour l’institution : l’apprentissage est réalisé en
plus petit effectif, augmentant à la fois le nombre de locaux nécessaires mais aussi le
nombre d’enseignants mobilisés pour chaque session d’apprentissage.
Concernant les contraintes sur l’apprentissage, si les TP reposent sur l’apprentis-
sage actif et tendent à engager l’apprenant dans son processus d’apprentissage pen-
dant l’activité, ils peuvent contraindre son processus de réflexion a posteriori. Lorsque
l’apprenant réalise l’expérience, les notes qu’il prend en parallèle représentent la seule
trace de son activité, limitant donc les possibilités de compréhension en profondeur des
concepts étudiés. D’autre part, le nombre limité de ressources vient en contradiction
avec l’augmentation constante de la population étudiante de ces dernières décennies
(Données INSEE 2017). Cette contradiction est perçue comme potentiellement dange-
reuse, puisqu’elle pourrait tendre vers un désengagement des étudiants envers l’ap-
prentissage des sciences (Goodrum et al., 2001; Hofstein et Lunetta, 2004; Rennie, 2010;
National Research Council and others, 2006; Lowe et al., 2013).

1.2.2 Intérêts des VRL

Aujourd’hui on peut observer la démocratisation de l’utilisation des LMS (Learning


Management System) comme Moodle 1 (Dougiamas et Taylor, 2003) ou Chamilo 2 (Maes,
2010) pour le support de l’apprentissage, et l’utilisation grandissante des Mooc (Mas-
sive Online Open Courses) (Hollands et Tirthali, 2014). Toutefois, bien que les LMS
implémentent des protocoles pour l’intégration d’outils externes (ex. : LTI 3 (Severance

1. https://moodle.org/
2. https://chamilo.org
3. https://www.imsglobal.org/activity/learning-tools-interoperability

18 Rémi Venant
1.2. Les VRL

et al., 2010)) et que des efforts de recherche sont menés pour intégrer des activités pra-
tiques au sein des LMS (Sancristobal et al., 2010; Bouabid et al., 2011), il n’y a pas à notre
connaissance une utilisation importante de cette nouvelle alternative dans les milieux
institutionnels. De même, les Mooc ne proposent encore que très peu d’activités d’ap-
prentissage pratique (Hollands et Tirthali, 2014). Les VRL semblent être un candidat
sérieux pour assurer le passage à l’échelle des apprentissages pratiques.
En effet, les VRL offrent des solutions aux verrous posés par les activités tradition-
nelles évoquées plus haut. Les VRL permettent de lever les contraintes administratives
et organisationnelles en s’affranchissant des limites spatio-temporelles, en permettant
un accès permanent et plus flexible aux ressources, et en offrant la possibilité de fédérer
les ressources de différents laboratoires et d’en partager l’accès (Lowe et al., 2012). Du
point de vue collectif et économique, le rendement des laboratoires est augmenté et leur
coût bien mieux amorti (Gomes et Bogosyan, 2009).
Comme les étudiants peuvent interagir plus longtemps avec les ressources, la pro-
babilité qu’ils développent une compréhension profonde des concepts étudiés aug-
mente. Enfin, les VRL bénéficient de la médiation par l’Informatique, dont la génération
de traces d’apprentissage permettent d’envisager l’application de différents supports à
l’apprentissage tels que la réflexion, la personnalisation, les aides automatiques pour les
apprenants, ou encore l’assistance au suivi pour les enseignants. Si les VRL présentent
de nombreux avantages, plusieurs chercheurs ont comparé les différentes formes de
laboratoire pour déterminer si du point de vue de l’apprentissage, les VRL étaient in-
férieurs, équivalents ou supérieurs aux laboratoires traditionnels. Alors que (Ertugrul,
1998; Hartson et al., 1996; Raineri, 2001; Striegel, 2001) militent pour certains bénéfices
apportés par les VRL, (Dewhurst et al., 2000; DiBiase, 2000) perçoivent le risque d’inhi-
bition de l’apprentissage due à l’appréhension de la technologie.

1.2.3 Comparaison entre VRL et laboratoires en présentiel

Ma et Nickerson (2006) tentent, dans une méta-analyse de 60 articles, de com-


prendre pourquoi tant d’avis contraires sur l’efficacité des types de laboratoire appa-
raissent dans la littérature. Les laboratoires physiques fournissent de vraies données et
facilitent l’émergence de conflits cognitifs par les observations contradictoires de phé-
nomènes dus à la nature réelle des appareils, mais ils sont considérés trop onéreux.
Les laboratoires distants permettent de diminuer le coût des expériences et d’augmen-
ter le nombre d’utilisateurs potentiels, mais l’environnement de contrôle à distance est
souvent considéré comme limité et source potentielle de distraction chez les étudiants
(Keilson et al., 1999) car les problèmes liés à l’Informatique peuvent mener à un désen-
gagement de leur part. Quant aux laboratoires virtuels, s’ils réduisent le temps néces-
saire pour réaliser une session d’apprentissage (moins de préparation requise, réuti-

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 19


Chapitre 1. Les laboratoires virtuels et distants

lisation immédiate des ressources) (Sicker et al., 2005), l’argument du coût est contre-
balancé par l’investissement souvent important qu’il faut apporter pour concevoir les
ressources virtuelles qu’ils exposent. Il est également mentionné chez certains auteurs
la probabilité de déconnexion entre le monde réel et celui simulé, avec le risque que
les apprenants limitent leur structures mentales construites pendant l’apprentissage au
seul monde virtuel.
Ma et Nickerson (2006) identifient dans les critiques des VRL la mise en doute chez
les étudiants de la crédibilité de ces environnements par rapport aux laboratoires phy-
siques, mais ils soulèvent également le manque de preuves scientifiques à cet égard,
différentes études tendant à montrer le contraire. Par exemple, Lowe et al. (2013) étu-
dient l’utilisation de laboratoires distants dans les écoles du secondaire sur 113 appre-
nants pendant deux périodes de 3 mois chacune. À l’issue d’un questionnaire post-
expérimental, les auteurs observent notamment que les apprenants considèrent les la-
boratoires distants tout autant crédibles que les environnements physiques. On notera
aussi que les auteurs remarquent un avis différent chez les enseignants : ces derniers
émettent la crainte que leurs apprenants soient moins engagés dans un apprentissage
avec les VRL, au motif qu’ils considèrent les données provenant du VRL comme moins
« crédibles » et l’expérience comme moins « véritable ». Finalement, plusieurs études
n’observent pas de différences significatives dans l’atteinte des objectifs pédagogiques
entre une activité de TP menée à travers un laboratoire traditionnel et celle menée à
travers un VRL (Ogot et al., 2003; Sonnenwald et al., 2003).
Si les VRL peuvent répondre à des problématiques posées par les laboratoires tra-
ditionnels, et ne semblent pas être moins efficaces pour l’apprentissage, les études
montrent l’importance de l’impact de l’environnement informatique qui vient s’inter-
facer entre les utilisateurs humains et les ressources qu’ils manipulent. De plus, cette
médiation par l’Informatique présente des capacités pour améliorer considérablement
l’expérience d’apprentissage et d’enseignement. Nous proposons donc de nous concen-
trer sur ces environnements informatiques pour le TP.

1.2.4 EIAH pour VRL

Un EIAH est conçu dans le but de favoriser la construction de connaissances chez


l’apprenant (Tchounikine, 2002). L’EIAH, au sens général, désigne le domaine de re-
cherche transdisciplinaire sur ces environnements. Les environnements pour les tra-
vaux pratiques sont une catégorie d’EIAH dit « orientés performance », qui sont définis
comme visant à créer une activité individuelle ou collective conçue pour favoriser l’ap-
prentissage de concepts et/ou l’acquisition de compétences, et pour laquelle les inter-
actions (apprenant-apprenant, apprenant-tuteur, apprenant-système) et les processus
d’apprentissage sont considérés comme des facteurs clés (Tchounikine, 2009).

20 Rémi Venant
1.3. Modèles d’apprentissage pour les travaux pratiques

Nous pouvons d’ores et déjà remarquer l’importance que porte cette définition aux
interactions entre apprenants. Dans le contexte des TP, le lien d’existence entre labora-
toire d’une part, et EIAH d’autre part, peut être perçu de deux manières. Dans un cas,
l’EIAH préexiste au laboratoire, ou possède son propre cycle de vie (Lelevé et al., 2003).
Dans ce contexte, nous rencontrons par exemple les problématiques liées à l’interopé-
rabilité et les projets de fédération de laboratoires autour d’un EIAH unique. L’autre
cas considère l’EIAH comme une conséquence de la mise en ligne d’un laboratoire :
l’environnement d’apprentissage est créé d’après le laboratoire.
Il s’avère que dans la littérature, le terme laboratoire est aussi utilisé pour désigner
l’EIAH qui lui est dédié (Jara et al., 2009), confusion que nous prendrons soin d’éviter
ici. Dans cet ouvrage, nous étudions les interactions des apprenants dans les activités
pratiques médiatisées par l’EIAH. Nous désignons par l’acronyme anglais VRL un la-
boratoire tel que défini précédemment, et nous désignons par le terme EIAH, ou plus
simplement environnement, le logiciel utilisé par les utilisateurs pour réaliser l’expé-
rience à partir des ressources offertes par le laboratoire.

1.3 Modèles d’apprentissage pour les travaux pratiques

1.3.1 Socio-constructivisme et apprentissage exploratoire

Les TP s’appuient sur le modèle de l’apprentissage exploratoire (Rocard et al., 2007;


Hofstein et Lunetta, 2004; Millar, 2004), qui lui-même repose sur la théorie socio-
constructiviste de l’apprentissage.
Le constructivisme, et par extension, le socio-constructivisme, considèrent l’ac-
quisition de connaissances comme le produit de l’interaction entre les connaissances
existantes d’un individu et ses expériences individuelles et sociales (Vygotsky, 1978;
McKinley, 2015). À l’origine, le constructivisme est une philosophie de la nature de
la connaissance. Du point de vue de l’apprenant, Piaget présente la construction de
la connaissance comme l’enchaînement de deux processus, celui de l’assimilation et de
l’accommodation. Un individu assimile de nouvelles informations, qu’il incorpore dans
un cadre mental sans pour autant en changer sa structure. À l’issue de ce processus peut
subvenir un conflit. Selon les contradictions détectées, l’individu va alors rentrer dans le
processus d’accommodation, où il va restructurer sa représentation mentale du monde
extérieur pour tenter de résoudre les incohérences. Ainsi, la connaissance se construit
en fonction du passé de l’individu et de ses interactions avec le monde extérieur. Le
socio-constructivisme peut être perçu comme une extension de cette philosophie où les
interactions sociales font partie de la construction du savoir.
Défini comme une théorie épistémologique (Piaget, 1967), le constructivisme est le

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 21


Chapitre 1. Les laboratoires virtuels et distants

socle de différentes théories d’apprentissage (ex. : le constructionisme (Papert et Ha-


rel, 1991)) et d’enseignement, dont l’apprentissage actif. Les théories de l’enseignement
sont définies par Depover (2007) comme « un ensemble de lois ou de principes qui
décrivent la manière dont l’apprentissage se déroule » et, en ce sens, la théorie de l’ap-
prentissage actif est définie par Bonwell et Eison (1991) comme une méthode qui tend
à engager les apprenants dans leur propre processus d’apprentissage. L’apprentissage
exploratoire est ainsi considéré comme dérivé de l’apprentissage actif et donc hérite
du socle du constructivisme, et notamment des interactions sociales entre apprenants,
facteur de la construction de connaissances chez ces individus (Palincsar, 1998).
L’apprentissage exploratoire propose une forme d’apprentissage où l’apprenant est
amené à appliquer la méthode scientifique pour l’apprentissage de la Science (Aubé
et David, 2003). Ainsi les étudiants sont engagés à réaliser leur propre investigation
d’un phénomène, et ainsi à acquérir de nouvelles connaissances tout en pratiquant l’ap-
proche scientifique (Bell 2010). Plusieurs processus sont définis dans cette méthode : la
création de questions par les apprenants, l’obtention de preuves pour répondre à la
question, l’explication des preuves collectées, la confrontation des explications obte-
nues, la réflexion a posteriori et la création de savoirs (Bell et al., 2010). Ces différents
processus s’enchaînent et se répètent, à la manière d’une boucle d’amélioration conti-
nue.

1.3.2 Les interactions sociales

Les interactions sociales, au sens le plus large, sont définies dans les Sciences Hu-
maines et Sociales (SHS) comme un échange d’informations entre deux ou plusieurs
individus. Mucchielli (1991) propose une définition du point de vue de la psychologie
comme étant une « relation interhumaine par laquelle une intervention verbale ou une
attitude, une expression significative ou une action provoquent une action en réponse,
qui retentit sur l’initiateur (échanges) ». Toujours en psychologie, d’autre auteurs tels
que Cicourel (1974), définissent de manière plus restrictive l’interaction sociale comme
le processus de stimulation/réponse réciproque entre deux personnes. Ces différentes
définitions ont en commun le caractère humain des entités sur lesquelles portent les in-
teractions sociales, ainsi que le caractère rétroactif de l’interaction. Le signal de l’émet-
teur provoque une réaction chez le récepteur qui peut provoquer à son tour l’envoi
d’un signal. Nous considérons ce cycle comme l’élément crucial de l’interaction, qui en
fait un facteur clé de l’apprentissage. Dans ce document, nous utilisons donc le terme
« interactions sociales » en respect de ces définitions, et nous considérons que supporter
une telle interaction nécessite de permettre cette rétroaction entre utilisateurs humains.

22 Rémi Venant
1.3. Modèles d’apprentissage pour les travaux pratiques

1.3.3 Importance des interactions sociales dans les VRL

Les interactions sociales, telles que définies précédemment, sont donc cruciales à
l’apprentissage exploratoire puisque dans ce modèle, les apprenants sont amenés à tra-
vailler ensemble à toutes les étapes, notamment dans la confrontation des explications
et justifications de différents apprenants, mais aussi par la coopération pour obtenir des
preuves ou les interpréter. Dans leurs revues de la littérature, Ma et Nickerson (2006) et
Gravier et al. (2008) constatent que la dimension sociale est la moins représentée dans
les articles étudiés, bien qu’identifiée comme l’un des buts les plus importants pour
l’apprentissage de l’ingénierie. Dans (Nickerson et al., 2007), un modèle est proposé
pour l’évaluation de laboratoires distants. Ici aussi, on retrouve l’importance des inter-
actions. Parmi les 6 objectifs globaux des laboratoires, celui de « fonctionner en équipe »
apparaît. Les auteurs exposent alors l’importance de permettre la coordination sociale
dans les environnements pour permettre aux apprenants de s’entraider ou d’obtenir
de l’aide de l’enseignant, et évoquent la nécessité pour les VRL d’être munis de ca-
pacités de communication synchrones entre utilisateurs (Scanlon et al., 2004). Lowe et
al. (2013) remarquent également qu’un laboratoire traditionnel est perçu par les élèves
comme plus engageant ; une observation qui peut être expliquée par le fait que ces
élèves considèrent les expériences en laboratoires à distance comme nécessitant moins
de négociations interpersonnelles et d’interactions sociales. Les enseignants partagent
également ce point de vue : tous ont considéré que la qualité du travail en groupe était
plus faible lors de l’utilisation du VRL par rapport à l’apprentissage sur un laboratoire
traditionnel. Les auteurs pointent également les problèmes d’interactions entre les utili-
sateurs et l’interface informatique qui ont été rencontrés pendant l’expérimentation, et
concluent sur l’importance de concevoir des environnements d’apprentissage pratique
adaptés aux capacités et aux besoins des élèves et professeurs.
Au regard de la recherche plus récente sur les VRL , on retrouve cette contradic-
tion entre l’importance annoncée des interactions sociales et leur prise en compte dans
l’ingénierie des environnements. La recherche sur les VRL se focalise aujourd’hui essen-
tiellement sur la conception d’architectures (Harward et al., 2008), la gestion de l’accès
aux ressources exclusives (Lowe et al., 2013), la répartition de charge pour la mise à
l’échelle (Sancristobal et al., 2010), la standardisation (Salzmann et al., 2015), et plus ré-
cemment le traitement des traces d’apprentissage dans les learning analytics (Clemente
et al., 2018 in press). Tout comme l’ont constaté Gravier et al. (2008), les VRL prenant en
charge les interactions sociales restent encore de nos jours minoritaires.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 23


Chapitre 1. Les laboratoires virtuels et distants

1.4 Synthèse

Dans ce chapitre, nous avons défini les composantes propres aux travaux pratiques
que sont les laboratoires, les ressources qu’ils hébergent et les expériences, réalisations
des activités pratiques. Parmi l’ensemble des laboratoires existants, les VRL, labora-
toires physiques ou virtuels, médiatisés par l’Informatique, peuvent répondre aux pro-
blématiques de passage à l’échelle des activités pratiques sans pour autant présenter
un désavantage sur le plan pédagogique, et offrent des bénéfices économiques et un
potentiel d’amélioration de l’apprentissage et de l’enseignement. L’EIAH utilisé dans
le cadre des VRL apparaît comme un élément crucial : il devient le point de jonction
des interactions qui apparaissent dans une activité pratique entre les utilisateurs et les
ressources, et entre les utilisateurs eux-mêmes. Nous avons également montré dans ce
chapitre l’importance des interactions sociales dans le contexte des TP, qui sont au cœur
des théories de l’apprentissage mises en jeu ici, et considérées à la fois comme un vec-
teur d’amélioration de la rétention en profondeur des concepts transmis, mais aussi
comme une composante de l’apprentissage menant à l’amélioration des compétences
de travail en groupe. Nous avons toutefois remarqué que l’étude des interactions so-
ciales reste minoritaire dans le contexte de la recherche traitant des VRL. Nous prenons
ainsi position sur le rôle important de l’EIAH qui a la charge de supporter les interac-
tions dans un contexte d’activités pratiques, mais également de susciter ces interactions
dans l’objectif d’améliorer l’apprentissage.

24 Rémi Venant
2 Facteurs d’engagement et de
réflexion

Contenu
2.1 Support technique aux interactions entre apprenants, enseignants,
et ressources de laboratoires . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Communication entre utilisateurs . . . . . . . . . . . . . . . . . 26
2.1.2 Réplication des laboratoires . . . . . . . . . . . . . . . . . . . . . 28
2.1.3 Partage du contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Engagement des apprenants dans les interactions sociales . . . . . . 29
2.2.1 Besoins pour les interactions sociales . . . . . . . . . . . . . . . 29
2.2.2 Awareness personnelle et sociale . . . . . . . . . . . . . . . . . . 29
2.2.3 Réflexion pendant et après l’activité . . . . . . . . . . . . . . . . 34
2.3 Alignement des interactions à la pédagogie . . . . . . . . . . . . . . . 35
2.3.1 Diversité des modèles d’apprentissage social . . . . . . . . . . . 35
2.3.2 Outils de conception d’expériences et modèle d’apprentissage . 36
2.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

C E chapitre explore les besoins fonctionnels d’un EIAH pour les VRL supportant et
favorisant les interactions sociales. Une première section est dédiée au support des
interactions, dont l’objectif est de permettre aux apprenants d’interagir entre eux pen-
dant leur activité. Dans un second temps, nous envisageons l’EIAH comme un envi-
ronnement qui offre l’opportunité d’inciter l’apprenant à concevoir son environnement
social comme un catalyseur à la construction de ses connaissances : les concepts d’awa-
reness et de réflexion et des outils associés nous permettent de déterminer des critères
pour l’engagement des apprenants dans les interactions sociales au sein des VRL. En-
fin, une troisième et dernière section prend en compte l’enseignant et sa liberté dans
les choix pédagogiques d’une activité pratique, en proposant de lui permettre d’aligner
l’environnement d’apprentissage à la stratégie qu’il souhaite appliquer.

25
Chapitre 2. Facteurs d’engagement et de réflexion

2.1 Support technique aux interactions entre apprenants, en-


seignants, et ressources de laboratoires

Pendant un enseignement exploratoire, les apprenants sont amenés à communiquer


entre eux pour échanger leurs observations et confronter leurs réflexions. Lorsqu’un ap-
prenant se trouve dans une situation de difficulté qu’il ne peut résoudre par lui-même,
celui-ci peut également s’adresser à un pair, un enseignant ou un tuteur pour demander
de l’aide. Aussi, l’enseignant peut souhaiter intervenir dans l’expérience d’un appre-
nant pour, par exemple, s’assurer de sa progression. Quelles que soient ces situations,
elles nécessitent toutes de l’environnement d’apprentissage des fonctionnalités fonda-
mentales relatives à l’échange d’informations entre deux ou plusieurs utilisateurs.

2.1.1 Communication entre utilisateurs

Du point de vue temporel, deux modalités existent : une communication synchrone,


que l’on retrouve dans les solutions de messagerie instantanée (chat) ou d’audio- et
visio-conférence, et la communication asynchrone présente dans des environnements
dotés de forums ou encore de e-journaux. Dans le cadre d’un apprentissage pratique,
la dernière peut être utile a posteriori pour aider les apprenants à réfléchir sur leurs ex-
périences passées, à garder une trace de leurs réflexions et résultats d’expérimentation,
mais également pour proposer une solution de transfert de connaissances entre diffé-
rentes sessions pratiques. En revanche, au sein même de la session d’apprentissage où
les utilisateurs manipulent des équipements dont le comportement impose une réac-
tivité des échanges plus importante, une communication asynchrone est difficilement
envisageable. Nous considérons ainsi la communication synchrone comme fondamen-
tale pour les interactions se produisant pendant la réalisation d’une expérience.
Plusieurs choix s’offrent au concepteur d’environnements pour permettre à un uti-
lisateur de communiquer avec un autre. En reprenant la définition des interactions so-
ciales définies précédemment, et rapportée à notre contexte d’apprentissage, l’infor-
mation a pour but de provoquer un cycle de réaction-rétroaction qui peut permettre à
chacun des protagonistes de progresser dans son apprentissage. Toutefois, l’informa-
tion ne peut déclencher ce phénomène que si elle est prompte à provoquer chez son
destinataire une prise de décision ; une définition que l’on retrouve dans la théorie de
la décision (Ben-Haim, 2006). Par exemple, une information reçue peut aider à amélio-
rer la représentation mentale que l’on a d’une connaissance, ou à l’inverse, soulever une
contradiction avec nos connaissances préalables et ainsi provoquer une rétroaction de
notre part sous la forme d’une argumentation contradictoire avec celle du pair. Toute-
fois, rien n’indique que cette information puisse déclencher une telle prise de décision.

26 Rémi Venant
2.1. Support technique aux interactions entre apprenants, enseignants, et ressources de laboratoires

Au regard de sa définition mathématique, l’information est une mesure liée à la proba-


bilité d’un événement d’apparaître : un message tente à porter plus d’informations si la
probabilité de ce dernier à apparaître est faible (Kullback et Leibler, 1951).
Lorsque deux apprenants communiquent ensemble pour confronter leurs ré-
flexions, plus l’échange est porteur d’informations, plus les apprenants réduisent leur
incertitude sur la compréhension de ce que l’autre a observé. De même, un enseignant
qui souhaite aider un apprenant sera également confronté à l’interprétation du message
que lui transmet l’apprenant, et plus l’information sera élevée, moins l’enseignant aura
d’incertitude sur la réponse à apporter. Les travaux de recherche menés en communi-
cation ont permis d’identifier que les signaux de communication informels que sont les
attitudes, la gestuelle, ou encore la tonalité utilisée lors d’une communication tendent
à augmenter l’information (Isbister et Nass, 2000; Loveland et al., 1997; de Gelder et
Hadjikhani, 2006). En d’autres termes, fournir un canal de communication audio-visuel
serait plus porteur d’informations qu’un canal textuel.
Cependant, il s’avère que la communication synchrone textuelle présente d’autres
avantages. Bien que peu d’études comparatives des différents médiums de communi-
cation synchrone aient été réalisées dans le contexte des VRL, Joinson (2004) a observé
une préférence chez les apprenants à la communication textuelle, pour l’anonymat
qu’elle procure par rapport au médium audiovisuel : les apprenants plutôt « timides »
auront tendance à exploiter davantage le médium textuel. Une conclusion que l’on re-
trouve dans l’analyse des études comparatives entre la communication textuelle mé-
diatisée par ordinateur et la communication en face à face dans l’apprentissage (Bordia,
1997). D’autre part, la messagerie instantanée permet de conserver la trace immédiate
de l’échange dans l’interface, ce qui tend à diminuer le besoin de répétition. Enfin les
contraintes techniques sont un élément important à prendre en compte. Les capacités
de transfert du réseau utilisé doivent être plus importantes dans le cadre d’une com-
munication audio-visuelle, tant dans le débit requis qu’au regard de la régularité de
l’acheminement de l’information : si une latence variable peut subvenir dans une com-
munication textuelle sans impacter l’utilisateur, une diffusion saccadée des messages
audios ou vidéos rend la communication beaucoup plus difficile. Enfin, les échanges
entre utilisateurs représentent autant de traces d’apprentissage qu’il pourrait être in-
téressant d’exploiter. Les communications textuelles sont facilement enregistrables et
leur traitement aujourd’hui assez aisé (Chowdhury, 2003), alors que les communica-
tions audios et vidéos restent plus délicates à traiter puisque leur analyse directe est
à la fois plus complexe et plus coûteuse en terme de puissance de calcul. Pour ces di-
verses arguments, notre choix ici se porte donc sur la communication textuelle comme
un critère fondamental du support des interactions dans un EIAH pour VRL.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 27


Chapitre 2. Facteurs d’engagement et de réflexion

2.1.2 Réplication des laboratoires

Au-delà des avantages de la communication textuelle, il est nécessaire de prendre


en compte la limitation qu’elle impose dans l’information échangée. Une source d’in-
formation importante reste la ressource de laboratoire elle-même. Dans les environne-
ments présentiels, lors d’un échange entre pairs ou entre un apprenant et un enseignant,
l’observation commune du phénomène est importante : elle permet aux utilisateurs de
considérer un ensemble partagé de données. Ces données, dont l’information devient
très faible, ne sont plus à communiquer et les protagonistes peuvent dès lors échanger
sur la base de ces observations en diminuant le risque de déformer une observation
faite par sa retranscription. Ainsi, avoir une vue partagée de la ressource observée est
un complément important au canal de communication. Par exemple, lorsqu’un appre-
nant souhaite aider un pair, il est nécessaire qu’il puisse observer ce que fait (et donc ce
qu’observe) l’étudiant qu’il aide sur sa ressource.

2.1.3 Partage du contrôle

Dans un TP, la communication entre individus et la vision partagée des ressources


ne sont pas les seuls leviers d’interaction. La manipulation conjointe d’une ressource
est un phénomène récurrent dans un contexte présentiel, et source d’interaction. Dans
les laboratoires, l’intervention d’un pair peut également se faire de manière pratique,
par une action directe sur la ressource de l’autre. De même, un enseignant peut être
amené à agir sur l’équipement d’un apprenant pour qu’il effectue de nouvelles obser-
vations. Outre le partage de l’observation d’une ressource, il est également important
de pouvoir partager le contrôle de celle-ci. Bien que dans certains cas, il soit possible
d’interagir à plusieurs simultanément sur une ressource, notamment dans les labora-
toires virtuels, la plupart des ressources physiques sont à usage exclusif. Par exemple,
permettre à plusieurs utilisateurs d’envoyer simultanément des commandes à un bras
robotique rendrait la compréhension des actions impossible. Cependant, cette problé-
matique d’accès exclusif, vue à travers le prisme de la littérature scientifique sur les
systèmes informatiques concurrentiels (Quinn, 2003), est bien documentée. Plusieurs
solutions existent pour permettre à différents utilisateurs de partager une ressource ex-
clusive, en s’appuyant notamment sur la notion de jeton d’accès octroyé à un utilisateur
et dont on peut définir certaines propriétés comme le temps pendant lequel l’utilisateur
peut posséder le jeton, ou l’algorithme d’affectation du jeton (Jara et al., 2012).
Nous considérons les supports fondamentaux exposés dans cette section comme
prérequis à toute interaction sociale dans les VRL, mais ils n’assurent en aucune ma-
nière l’engagement des apprenants dans ces interactions. Des moyens sont donc néces-
saires pour inciter les apprenants à interagir entre eux.

28 Rémi Venant
2.2. Engagement des apprenants dans les interactions sociales

2.2 Engagement des apprenants dans les interactions sociales

2.2.1 Besoins pour les interactions sociales

Les interactions sociales sont au cœur de l’apprentissage par les pairs, dont Top-
ping (2005) définit l’objectif comme « l’acquisition de connaissances et de savoir-faire à
travers l’aide ou le support actif entre compagnons de statut égal ou correspondant ».
Dans ses travaux sur la modélisation des processus en jeu dans cette forme d’apprentis-
sage, il souligne le caractère implicite de processus d’apprentissage comme la rétention,
la généralisation ou l’auto-régulation, et souligne que l’apprenant doit avoir à sa dispo-
sition les informations nécessaires pour réaliser ces processus et en prendre conscience.
Forme particulière de l’apprentissage par les pairs, la collaboration est présentée
comme une variété de pratiques éducationnelles dans lesquelles les interactions entre
pairs constituent le facteur le plus important de l’apprentissage (Dillenbourg et al.,
2009). Dillenbourg, dans ses travaux sur l’apprentissage collaboratif médiatisé par ordi-
nateur (CSCL, Computer Supported Collaborative Learning), synthétise la recherche dans
ce domaine en deux questions principales : quelles conditions sont nécessaires pour
déclencher une interaction spécifique ? Quelles interactions peuvent prédire un objec-
tif d’apprentissage particulier ? L’auteur interroge notamment le besoin chez l’appre-
nant d’avoir des informations métacognitives pour initier une interaction, et permettre
à celle-ci de participer à la construction de ses connaissances ainsi que de celles des
autres protagonistes de la relation. Enfin, on peut retrouver ces mêmes besoins dans
la recherche sur la demande d’aide. Nelson Le gall établit comme première étape la
prise de conscience chez l’apprenant du besoin d’aide et la prise de décision quant à la
demande d’aide (1998; 2001).
Ainsi, on constate le besoin de fournir aux apprenants des informations cognitives
et/ou méta-cognitives pour permettre l’apparition de relations sociales qui participent
à leur apprentissage. Que ces informations concernent l’individu lui-même, son en-
vironnement social (ex. : ses pairs, les enseignants ou tuteurs), ou les relations qu’il
entretient avec son environnement, Stedman et Anderono considèrent que ces données
jouent un rôle crucial sur l’apprentissage (Stedman et Andenoro, 2007).

2.2.2 Awareness personnelle et sociale

2.2.2.1 Concepts généraux

Faire prendre conscience à l’apprenant d’un élément de son contexte d’apprentis-


sage est un objet d’étude que l’on retrouve sous le terme awareness, aussi bien dans la
littérature internationale que française. À travers ces travaux, on trouve plusieurs dé-

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 29


Chapitre 2. Facteurs d’engagement et de réflexion

finitions de l’awareness. Nombre d’entre elles se concentrent sur le rapport à l’autre :


Dourish et Bellotti (1992) la définissent comme « la compréhension des activités des
autres, qui fournit un contexte pour notre propre activité [...] » et (Faerber, 2003) comme
« la perception que possède chacun de (1) la présence, (2) la localisation, (3) l’identité,
(4) la disponibilité de l’autre à un moment donné ». Cependant, les travaux qui ont à
dessein une taxonomie de l’awareness semblent ne pas limiter son domaine d’applica-
tion à la perception qu’a un individu des autres.
Ainsi, Gutwin et al. (1995) étendent le modèle proposé initialement par Goldman
(1992) et proposent 4 types d’awareness : l’awareness sociale, celle de la tâche, celle
du concept, et celle de l’espace de travail. L’awareness sociale concerne la prise de
conscience de l’apprenant par rapport aux connections sociales qu’il a avec le groupe.
Cette awareness sert l’apprenant dans sa manière d’interagir avec le groupe, de définir
son rôle au sein de ce dernier ou encore de déterminer ceux des autres. L’awareness
de la tâche concerne l’activité que doit réaliser l’apprenant dans une session d’appren-
tissage. Elle englobe notamment la conscience qu’il a des ressources à sa disposition
et de ce qu’il en fait, de la manière dont il sera évalué, etc. Rapportée à son modèle
cognitif, l’awareness du concept considère la conscience qu’a l’apprenant par rapport à
ses propres connaissances : celles qu’il détient pour réaliser une tâche ou encore celles
dont il manque. Enfin, l’awareness de l’espace de travail, au centre des travaux de Gut-
win (1995), est définie comme la connaissance que l’on a de l’interaction des autres
apprenants avec l’espace de travail partagé ; par exemple, le fait de savoir où les autres
étudiants sont, que ce soit physiquement ou au sein de l’espace virtuel de travail.
Toutefois, ces définitions varient d’un modèle à l’autre. Par exemple, Tee et al. (2009)
définissent l’awareness des artefacts comme la connaissance que l’utilisateur a de l’uti-
lisation des artefacts et outils que les acteurs utilisent pour réaliser leurs travaux in-
dividuels ; une définition à rapprocher de l’awareness de la tâche selon Gutwing. De
même, si l’on considère la définition de l’espace de travail collaboratif proposée dans le
domaine du CSCL, on se doit de considérer cet espace comme la source de trois catégo-
ries d’informations : les informations contextuelles, celles sur les tâches et processus, et
les informations socio-émotionnelles (Sonnenwald et al., 2004). En ce sens, on recouvre
en partie les définitions du modèle de Gutwing concernant l’awareness sociale, de la
tâche et d’espace de travail. Enfin, nous pouvons noter l’existence de modèles syno-
nymes ou plus étendus, comme celui de l’awareness de contexte proposé par Gross et
Prinz (2003) qui regroupe awareness de l’espace de travail et awareness de l’artefact. Si
cette polysémie complexifie la mise en commun des efforts de recherche, il est toute-
fois possible de percevoir l’awareness non pas à travers le prisme d’une catégorisation
exclusive, mais par celui d’un espace dimensionnel.
Tout comme (Mikroyannidis et al., 2015; Morais et al., 2015; Keding et Nan, 2015),

30 Rémi Venant
2.2. Engagement des apprenants dans les interactions sociales

nous distinguons l’awareness personnelle (self-awareness) et l’awareness sociale (social


awareness). La première se rapporte à la conscience qu’a l’apprenant de lui-même face à
la tâche ou encore à ses connaissances, et la seconde relate de sa perception des autres
et de lui-même par rapport au groupe.
Nous proposons également une seconde dimension qui désigne le sujet de l’aware-
ness selon 3 valeurs : a) l’awareness des artefacts, au sens de Tee et al. (2009), désignant
la connaissance qu’a l’apprenant des appareils qu’il manipule et des artefacts pédago-
giques, b) l’awareness du concept au sens de Gutwin qui désigne la connaissance qu’a
l’apprenant de sa progression dans les tâches qui lui sont demandées, et c) celle de l’es-
pace de travail, au sens de Gutwin. Nous considérerons dans ce modèle l’awareness de
la performance, terme fréquemment utilisé dans la littérature comme faisant partie de
l’awareness du concept, puisqu’il s’agit dans ce cas de fournir une information agré-
gée à l’apprenant de sa progression de l’apprentissage (ou de celle de ses pairs, pour
le cas d’une awareness sociale). Nous synthétisons dans le Tableau 2.1 les différents
type d’awareness, que nous considérons dans cet ouvrage, en exposant les questions
auxquelles ils apportent des éléments de réponse.

Tableau 2.1 – Exemple de besoins chez l’apprenant ciblés par l’awareness

Personnelle Sociale
Artefacts Dans quel état sont mes res- Sur quelles ressources tra-
sources ? Quelles ressources vaillent mes pairs ? Comment
ai-je à ma disposition ? ont-ils réalisé l’expérience ?
Concepts Ai-je les connaissances suffi- Comment s’en sortent mes
sante pour effectuer la tâche pairs ?
pratique ? Quelles difficultées
ai-je rencontré lors de mon
apprentissage ?
Espace de travail Comment suis-je représenté Qui d’autre participent à l’ex-
sur l’environnement ? périence ? Comment puis-je
interagir avec les autres ?

2.2.2.2 Outils d’awareness pour les VRL

Lowe et al. (2009) considèrent les outils d’awareness comme un élément qui ex-
plique l’efficacité des VRL pour promouvoir l’engagement des apprenants dans des
activités pratiques à distance, collaboratives ou non (Corter et al., 2011). Leur objectif

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 31


Chapitre 2. Facteurs d’engagement et de réflexion

est de rendre les apprenants capables d’analyser ce qu’ils font et pourquoi ils le font
dans le but de supporter leurs processus cognitifs et métacognitifs (Jonassen, 1999), et
ils ont été approchés de différentes manières du point de vue de leur ingénierie.
Les outils d’awareness personnelle exposent traditionnellement aux apprenants dif-
férentes informations sur leur niveau de connaissance. Dans la plupart des cas, ces
outils composent des tableaux de bord pour retourner un feedback aux apprenants
à propos de leurs résultats (Prensky, 2011), leur niveau global de performance (Ar-
nold et Pistilli, 2012), leurs forces et faiblesses (Howlin et Lynch, 2014), ou à propos de
concepts précis à travers leur évaluation (Miller, 2009; Ricketts et Wilks, 2002). Concer-
nant l’awareness sociale, des outils comparatifs sont conçus pour rendre la performance
de chaque apprenant identifiable et leur permettre de comparer leurs activités à celles
de leur pairs. Les feedback de comparaison sociale ont ainsi pour but de permettre aux
membres d’un groupe de se situer par rapport à leurs pairs (Michinov et Primois, 2005),
et visent l’augmentation du sentiment de connection entre pairs (Lowe et al., 2009). Ces
outils évaluent donc la performance de l’apprenant à travers l’étude de leur acquisition
de connaissances théoriques. Cependant le contexte des VRL les rend inapplicables
car ces outils ne concernent pas la capacité des apprenants à utiliser et appliquer ces
connaissances théoriques lorsqu’ils font face à une situation concrète.
Au regard de la définition que l’on propose de l’awareness sociale, il également pos-
sible de faire le rapprochement avec la théorie de la présence sociale, dont Lowenthal et
Dunlap (2014) se servent pour définir cette awareness comme une « opérationnalisation
minimale de la théorie de la présence sociale », qui est le degré auquel une personne est
perçue par les autres comme une « personne réelle ». Ils observent les conséquences bé-
néfiques aux interactions sociales lorsque les utilisateurs ont conscience de la présence
des autres dans un environnement informatique, et que celles-ci augmentent lorsque la
présence est considérée comme « active », c’est-à-dire lorsque les utilisateurs perçoivent
une activité chez des autres. Dans le cadre de l’éducation, on notera également les ré-
sultats expérimentaux de Swan et Shih (2005) et de Pollard et al. (2014), qui concluent
sur l’impact positif de la présence sociale de l’instructeur sur la perception de l’appren-
tissage dans des discussions en ligne entre étudiants.
Fournir un feedback sur ce qui se passe sur l’appareil a souvent été réalisé à travers
la vidéosurveillance (Kostulski et al., 2011; Lowe et al., 2013; Nickerson et al., 2007). Ainsi
un apprenant qui effectue une action sur un dispositif a immédiatement un retour sur
son action (awareness personnel de l’artefact) et l’on peut facilement imaginer la pos-
sibilité pour les autres de percevoir ce retour (awareness sociale). Toutefois, dans un
contexte collaboratif où plusieurs apprenants interagissent avec la même ressource, il
devient difficile voire impossible de lier un feedback particulier (ex. : un instant donné
du retour vidéo de l’appareil observé) à une action particulière. De même, ces dispo-

32 Rémi Venant
2.2. Engagement des apprenants dans les interactions sociales

sitifs sont inopérants sur des appareils pour lesquels les actions n’entraînent pas de
changement physique observable par la simple vidéosurveillance. En Électronique, par
exemple, les actions n’entraînent pas systématiquement de changements observables
visuellement. Cette faiblesse avait également été observée dans le contexte des VRL en
général par Machotka et Nedic (2008), qui remarquent que dans de nombreux VRL où
les utilisateurs peuvent accéder au même laboratoire en même temps, ils n’ont aucune
idée de ce que font les autres. Une autre approche de l’awareness sociale s’appuie non
plus sur le dispositif lui-même mais sur l’environnement d’apprentissage. de La torre
et al. (2013) utilisent la propagation d’événements issus d’un utilisateur dans l’interface
des autres utilisateurs. Ainsi, l’état d’une ressource résultant d’une action effectuée par
un des participants est diffusé à tous les autres. Toutefois, il n’est plus possible dans ce
paradigme pour un apprenant de voir ce que sont en train de faire les autres, il peut
uniquement constater le résultat de leurs actions.
Pour améliorer l’awareness de l’artefact et de l’espace de travail, plusieurs travaux
de recherche ont opté pour l’utilisation de monde virtuels en 3D appliquée au VRL
(Fayolle et al., 2010; Scheucher et al., 2009; Arango et al., 2007; García-Zubia et al., 2010).
Ces environnements fournissent une scène virtuelle dans laquelle des avatars contrô-
lés par les utilisateurs évoluent, et où ils peuvent manipuler divers objets virtuels. Par
exemple, (Fayolle et al., 2010; Scheucher et al., 2009) ont utilisé l’environnement Won-
derworld pour y intégrer des EIAH pour VRL pré-existants (cf. Figure 2.1). On retrouve
ce même principe dans (García-Zubia et al., 2010). Ces environnements fournissent une
awareness sociale de l’environnement importante : chacun est représenté par un avatar
qui, dans certains cas, est personnalisable (Arango et al., 2007), et les utilisateurs pré-
sents dans le même espace virtuel peuvent se voir évoluer mutuellement. Ces outils ont
aussi l’avantage de fournir une awareness sociale de l’artefact intéressante : puisque les
ressources sont modélisées par un objet virtuel de l’environnement, chacun peut voir
ce à quoi les autres sont occupés. Toutefois ces environnements présentent différentes
contraintes qui limitent les possibilités de fournir d’autres formes d’awareness (ex. :
awareness du concept). Ces environnements sont d’abord plus coûteux en terme de
temps de développement. D’autre part,les ressources étant elles-mêmes modélisées par
un objet 3D (Arango et al., 2007), tracer finement les actions de l’apprenant sur la res-
source nécessite de tracer l’ensemble des interactions de son avatar avec la ressource
virtuelle : le traitement des données est alors plus complexe, avec un risque inhérent
d’obtenir des interprétations biaisées par des actions de l’utilisateur qui ne reflètent
pas sa volonté d’interaction avec la ressource. Enfin la restitution des informations né-
cessite un effort de développement significatif au sein du monde virtuel.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 33


Chapitre 2. Facteurs d’engagement et de réflexion

Figure 2.1 – Environnement Wonderland utilisé dans (Fayolle et al., 2010)

2.2.3 Réflexion pendant et après l’activité

L’awareness est donc un support à l’engagement, aux interactions sociales mais éga-
lement à la réflexion (Wilson et Jan, 1993). Toutefois, la réflexion de l’individu dans
un contexte social est un processus intrinsèquement lié aux interactions sociales : elles
sont un levier à la réflexion (Boud et al., 1986), qui peut elle-même mener à engager
l’apprenant dans de nouvelles interactions (Lavoué et al., 2015). La notion de réflexion
souffrant du même défaut que celui de l’awareness, à savoir une polysémie menant à
différentes interprétations, nous adoptons la définition proposée par Boud (2013) : un
processus qui consiste à revenir sur les expériences passées, les ré-évaluer et apprendre
de cette ré-évaluation pour adapter son comportement futur. La réflexion est considé-
rée comme un facteur important pour l’apprentissage en profondeur (Moon, 2013), qui
aide à l’atteinte des objectifs pédagogiques lorsqu’elle est correctement prise en compte
dans les dispositifs d’apprentissage (Means et al., 2009). Par exemple, l’écriture de blog
(Xie et al., 2008) ou de journaux (Hiemstra, 2001) par l’apprenant a pour objectif de le
mener à ce processus par la synthèse et la critique de ses activités passées. Cet objec-
tif est également visé par l’évaluation formative (Wang et al., 2006) ou la résolution de
problèmes qui visent la provocation d’un conflit cognitif (Bixler, 2007) ou socio-cognitif
(Silvestre et al., 2015) chez l’apprenant. Ainsi, les EIAH peuvent encourager la réflexion
par l’émission de messages invitant les apprenants à changer leur stratégie d’appren-
tissage (Chung et al., 1999) ou à fournir une explication (Crippen et Earl, 2007).
Il ne faut toutefois pas sur-interpréter le terme « expériences passées » utilisé par
Boud (1986) ; si les travaux présentés ci-dessus concernent un support à la réflexion
après l’activité d’apprentissage, la réflexion peut exister pendant cette activité (Davis
et al., 2013; Matthew et Sternberg, 2009). Par exemple, Silvestre et al. (2015) proposent,
dans leurs travaux sur l’évaluation formative, un modèle d’interactions où les appre-
nants sont amenés pendant un cours, à formuler une réponse argumentée à une ques-
tion posée par l’enseignant, puis dans un second temps, à se positionner par rapport à

34 Rémi Venant
2.3. Alignement des interactions à la pédagogie

une réponse contraire à la leur et formulée par un pair. Nous considérons ici ces deux
temporalités comme complémentaires pour le processus d’apprentissage.
La réflexion pendant l’action (reflection-in-action) a été introduite par Schön (1984)
comme le fait que « lorsqu’un étudiant échoue, il analyse sa propre compréhension et
effectue une expérience qui sert aussi bien une nouvelle compréhension du phénomène
qu’un changement dans la situation ». Caractérisée comme un processus en temps réel
(Seibert, 1999), elle est considérée comme une caractéristique des étudiants de haut
niveau de compétence (Jonassen, 1999). De plus, dans une étude sur l’apprentissage
du Test-Driven-Development, Edwards (2004) observe un lien de causalité entre l’enga-
gement des apprenants dans la réflexion pendant l’action et leur apprentissage. Tout
comme les outils d’awareness, ceux visant à favoriser la réflexion pendant l’action ont
été envisagés dans les VRL via la retranscription audio et vidéo des ressources que ma-
nipulent les apprenants (Kostulski et al., 2011; Lowe et al., 2013; Nickerson et al., 2007),
et via le partage d’écran pour la réflexion à partir de comparaison sociale (de la Torre
et al., 2013; Jara et al., 2012). Après l’activité, la réflexion peut être engagée par différentes
stratégies impliquant l’apprenant et ses activités d’apprentissage passées, tel que le re-
jeu d’activités (Collins et Brown, 1988) ou les travaux cités précédemment (écriture de
blogs ou de journaux par exemple).

2.3 Alignement des interactions à la pédagogie

2.3.1 Diversité des modèles d’apprentissage social

Comme mentionné dans la section 2.2.1, différents paradigmes d’apprentissage


s’appuient sur les interactions sociales, tels que la collaboration, la coopération ou en-
core l’entraide. La littérature présente de nombreuses études qui tentent de comprendre
quelles implémentations de ces formes d’apprentissage en classe sont les plus effec-
tives. Par exemple, (Dillenbourg et al., 1995; Kuhn, 1972) statuent sur l’efficacité de la
collaboration lorsque la différence entre apprenants est optimale (i.e., lorsque les étu-
diants sont d’un niveau différent sans pour autant que cette différence soit trop impor-
tante). On constate qu’il n’y a pas de hiérarchie stricte de ces modèles d’apprentissage
en termes de performance (Topping, 2005). De ce fait, nous considérons dans l’idéal
qu’il n’est pas du ressort du concepteur de choisir a priori le ou les modèles d’ap-
prentissage possibles sur l’EIAH, mais que celui-ci doit pouvoir supporter les choix
de l’enseignant ou de l’ingénieur pédagogique. D’autre part, l’étude de ces modèles au
sein des EIAH nécessite d’éviter l’introduction de biais provoqués par le changement
d’environnement. Par exemple, lorsque Trowbridge (1987) conclut que la coopération
est plus efficace lorsque le groupe est pair, il évoque le besoin de reproduire son étude

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 35


Chapitre 2. Facteurs d’engagement et de réflexion

et de comparer les résultats à des études sur la collaboration ; études plus facilement
comparables si l’environnement utilisé subit le moins de changement possible.
Si des EIAH pour VRL comme proposés par Fayolle et al. (2010) permettent, d’of-
frir différentes possibilités d’apprentissage par les pairs, la limitation existe sur d’autres
environnements. Dans DIESEL (Callaghan et al., 2002), par exemple, la formation de
groupes se fait par l’échange de messages électroniques asynchrones, et il n’est pas pos-
sible de rompre cette formation tant que l’expérience n’est pas finie. Cette mécanique
est appropriée pour concevoir la collaboration à l’échelle de l’expérience, mais pas pour
permettre une entraide spontanée de durée limitée. Nous sommes donc attentifs à ne
pas brider les possibilités d’utilisation des interactions sociales par l’environnement.

2.3.2 Outils de conception d’expériences et modèle d’apprentissage

Dans le domaine des VRL, des EIAH comme ceux que proposent (Nickerson et al.,
2007) ou encore (de Jong et al., 2014) disposent d’interfaces dédiées à l’enseignant pour
concevoir un scénario pédagogique. Toutefois, ceux-ci se placent à un niveau « macro »,
où l’enseignant compose une séquence d’apprentissage en choisissant un ensemble
d’expériences et d’outils collaboratifs, définis a priori.
D’une part, l’expérience doit permettre une activité collective, à partir d’un choix
de ressources adaptées. Il est ainsi nécessaire de doter l’enseignant d’un outil auteur
qui permet de définir l’expérience en fonction des objectifs pédagogiques. D’autre part,
l’EIAH lui-même doit pouvoir être adapté à ces objectifs. Si nous souhaitons fournir
un ensemble de fonctionnalités pour supporter les différentes modalités d’interactions
sociales, l’enseignant doit pouvoir choisir quelles sont celles dont les apprenant doivent
disposer pour leur expérience.
Nous considérons donc, comme deux derniers critères d’un VRL orienté interac-
tions sociales, la mise à disposition d’un outil auteur pour concevoir des expériences
selon différents objectifs pédagogiques, et le paramétrage de l’environnement en fonc-
tions des modèles d’apprentissage à mettre en œuvre. Notre objectif étant la concep-
tion d’EIAH pour les VRL, nous ne nous traiterons toutefois pas le domaine des scripts
(Kobbe et al., 2007), mais considérons ce critère comme une base pour, a posteriori, pou-
voir imaginer des systèmes qui puissent automatiser le paramétrage des fonctionnalités
d’interactions sociales d’après un objectif de plus haut niveau d’abstraction.

2.4 Synthèse

Du constat de la nécessité de prendre en compte les interactions sociales dans les


VRL, nous avons dérivé dans ce chapitre un ensemble de critères que devrait respec-

36 Rémi Venant
2.4. Synthèse

ter un EIAH pour permettre, inciter et gérer ces interactions. Dans un premier temps,
nous proposons aux étudiants l’opportunité de communiquer entre eux de façon syn-
chrone, de partager la vue de leur laboratoire en temps réel, mais également de prendre
le contrôle du laboratoire d’un autre. Pour engager les apprenants dans ces interactions,
nous avons statué sur la nécessité de leur fournir une awareness personnelle et sociale
qui aille au-delà de la simple awareness de l’artefact qu’offre par nature un VRL, mais
également de doter l’environnement d’outils pour faciliter la réflexion pendant et après
l’activité pratique. Enfin, dans un troisième temps, nous avons argumenté en faveur
d’un environnement qui offre la possibilité de réaliser différents types d’apprentissage
par les pairs, tout en laissant l’enseignant libre d’adapter l’EIAH selon le modèle d’ap-
prentissage social qu’il souhaite mettre en œuvre Le Tableau 2.2 résume l’ensemble de
ces critères, utilisés dans la partie suivante pour analyser les différents environnements
de VRL existants. L’awareness personnelle des artefacts est absente des critères puisque
celle-ci est de facto soutenue par un EIAH pour VRL, dont la perception des ressources
est indispensable dans le contexte des travaux pratiques.

Tableau 2.2 – Critères pour le support des interactions sociales dans les VRL

Index fonctionnalité Indicateur


A.1 Support aux interactions Communication synchrone
A.2 Support aux interactions Vue partagée du VRL (awareness sociale
des artefacts)
A.3 Support aux interactions Partage du contrôle
B.1 Engagement des interactions Awareness personnelle et sociale de l’en-
vironnement
B.2 Engagement des interactions Awareness personnelle et sociale du
concept
B.3 Engagement des interactions Support à la réflexion pendant l’action
B.4 Engagement des interactions Support à la réflexion après l’action
C.1 Gestion des interactions Interactions spontanées
C.2 Gestion des interactions Outil auteur pour la conception d’expé-
rience alignée à la stratégie pédagogique
C.3 Gestion des interactions Paramétrage de l’environnement d’ap-
prentissage en fonction des objectifs pé-
dagogiques

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 37


3 Analyse des environnements
existants

Contenu
3.1 Le projet Lila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Le projet d’intégration de VRL dans un LMS . . . . . . . . . . . . . . 41
3.3 Le projet Go-Lab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.4 Le projet iLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Le projet Labshare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6 Le projet WeColLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.7 Le projet ReLOAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.8 Le projet eMersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.9 Le projet VESSL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.10 Le projet DIESEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.11 Le projet Trilab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.12 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

N OUS avons décliné notre problématique en un ensemble de critères qu’un EIAH


pour les VRL doit respecter pour permettre la prise en compte des interactions so-
ciales. Dans ce chapitre, nous analysons à travers le prisme de nos critères un ensemble
d’initiatives dédiées à divers domaines d’apprentissage pratique des STEM.
Nous avons étudié 14 environnements. Les projets WebLab-Deusto (García-Zubía
et al., 2006), Lab2Go (Zutin et al., 2010) et Bulid (Yan, 2011) (respectivement, un dépôt
de laboratoires unifiés dans un même environnement d’apprentissage, un VRL pour
l’apprentissage de la Micro-électronique, et un VRL pour l’apprentissage de l’Informa-
tique) ne sont pas présentés ici puisqu’ils ne correspondent à aucun de nos critères.
Parmi les projets détaillés, les 3 premiers ont pour objectif la fédération de VRL exis-
tants ou leur intégration, tandis que les 8 suivants visent la conception et l’implantation
d’un VRL spécifique ; parmi eux, 5 ont été motivés par la problématique de l’apprentis-
sage par les pairs.

39
Chapitre 3. Analyse des environnements existants

3.1 Le projet Lila

Lila (Richter et al., 2011), « Library of Labs », est un projet financé par la communauté
Européenne pour fédérer différents laboratoires virtuels et distants. L’objectif principal
de ce projet est la création d’une infrastructure à l’échelle européenne pour permettre
le partage d’expériences, en ciblant principalement les études du secondaire en STEM.
Lila vise aussi la recommandation d’expériences aux apprenants, et leur intégration au
sein des curriculums.
L’architecture 4-tier de Lila est composée de a) une couche « content », qui représente
l’ensemble des dispositifs (laboratoires virtuels et distants, ressources, documents, etc.)
mis à disposition ; b) une couche « accessibility », qui fournit un ensemble de services
pour l’accès, la découverte et la gestion administrative des VRL ; c) une couche « inte-
gration » pour composer des cours avec des activités pratiques, masi également pour
guider les apprenants à l’aide d’un ITS ; et d) une interface utilisateur.
L’environnement n’a pas pour vocation l’apprentissage par les pairs : Richter pré-
sente clairement l’ITS de la couche « integration » comme une alternative à la consulta-
tion par un apprenant d’un pair expérimenté. Le système permet de faire des recom-
mandations d’activités pendant l’expérience, en s’appuyant sur un modèle de l’appre-
nant qui contient un indicateur de performance d’après les expériences réalisées (Rich-
ter et al., 2006). Ainsi, cette couche n’a pas pour vocation de promouvoir les interactions
sociales mais bien de les remplacer par des interactions entre l’apprenant et le système.
De même, les traces collectées ne permettent pas de concevoir des outils des réflexion
sur l’action, celles-ci ayant été conçues pour alimenter l’ITS uniquement.
La couche supérieure de l’architecture, le « portail virtuel », s’appuie sur un pro-
jet développé par Sun Microsystem. Project Wonderland 1 est un monde virtuel en 3D,
utilisé ici comme portail d’accès aux différents VRL. Le monde virtuel propose un sys-
tème de VoIP (Voice over IP) pour permettre aux différents utilisateurs de communi-
quer entre eux de manière synchrone. Toutefois, s’il est possible pour les apprenants de
communiquer par cette interface, la manipulation des laboratoires mis à disposition,
qu’ils soient virtuels ou distants, reste individuelle. Enfin, Lila offre aux enseignants
un outil de conception d’enseignement à base d’activités pratiques. L’enseignant peut
choisir et orchestrer différents VRL, mais ne peut pas définir à un niveau plus fin (i.e.,
configurer les ressources elles-mêmes) quelle expérience réaliser sur un VRL particulier.

1. http://openwonderland.org/

40 Rémi Venant
3.2. Le projet d’intégration de VRL dans un LMS

3.2 Le projet d’intégration de VRL dans un LMS

Sancristobal et al. (2010) proposent d’intégrer des environnements web pour des la-
boratoires virtuels et distants au sein des LMS afin de bénéficier de leurs fonctionnalités
(chat, forums, conception de modules d’apprentissage, etc.). Les auteurs s’appuient sur
iLab (voir plus loin), pour présenter une méthode d’intégration au sein d’un LMS à
travers l’utilisation de l’API SCORM (Sharable Content Object Reference Model 2 ).
Les auteurs souligne le manque d’outils collectifs dans les VRL, et proposent l’uti-
lisation de ceux offerts par les LMS. En utilisant SCORM pour les VRL, ils permettent
de les manipuler au sein des LMS comme n’importe quelle ressource d’apprentissage.
Si cette contribution serait à remettre aujourd’hui en question avec la démocratisation
de protocoles conçus pour répondre à cette problématique d’intégration, tels que LTI,
certaines limites conceptuelles seraient toujours présentes. Les LMS proposent pour
la plupart des outils de communication synchrone (ex. : chat) et asynchrone (ex. : fo-
rums), ils ne permettent pas de partager la vue ou le contrôle d’un laboratoire. Quand
bien même LTI permet aujourd’hui de remonter des données d’apprentissage du labo-
ratoire vers le LMS, il n’existe pas d’outils d’awareness ou de réflexion qui permettrait
d’exploiter des traces à un niveau fin. Par exemple, la solution proposée par les auteurs
ne s’appuie que sur les traces de connexion au système pour fournir des indicateurs
d’activité, et uniquement aux enseignants. Dans ces travaux, le support aux interac-
tions entre apprenants est ainsi limité à la communication.

3.3 Le projet Go-Lab

Go-Lab est un projet financé par la commission européenne pour la fédération de


VRL dans l’apprentissage des STEM. Par exemple, le laboratoire HYPATIA 3 mis à dis-
position par le Centre Européen pour la Recherche Nucléaire pour l’apprentissage de la
physique des particules est un des VRL proposés (de Jong et al., 2014). Go-Lab propose
une approche de l’apprentissage exploratoire guidée par l’environnement, à travers la
notion d’Inquiry Learning Space (ILS). Un ILS est une structure qui intègre tout ou par-
tie des étapes d’un cycle exploratoire (i.e., orientation, conceptualisation, investigation,
conclusion) (Gillet et al., 2014). Un enseignant peut choisir et paramétrer chaque étape
de son ILS, notamment en ajoutant des ressources pédagogiques ou des applications
proposées par le portail Go-Lab, à travers un outil auteur s’appuyant sur Graasp 4 .
Toutefois, Go-Lab travaille à un niveau de granularité plus gros que le VRL. Si

2. http://www.adlnet.org/adl-research/scorm/
3. http://hypatia.phys.uoa.gr/
4. http://graasp.eu/

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 41


Chapitre 3. Analyse des environnements existants

Graasp permet de construire son ILS, de choisir quels VRL et quelles applications uti-
liser pour les différentes phases du cycle d’apprentissage exploratoire, il n’est pas pos-
sible de paramétrer le VRL lui-même. Ainsi, un enseignant ne peut pas définir en détail
l’expérience menée sur un VRL. Enfin, les fonctionnalités « sociales » évoquées dans
(Gillet et al., 2013) désignent le fait de pouvoir commenter et évaluer un laboratoire,
et de le partager sur des réseaux sociaux externes (ex. : facebook). Tout comme Lila,
on retrouve ici une volonté de se concentrer sur les interactions entre l’apprenant et le
système, tandis que les interactions entre apprenants sont mises de côté.
Même si Go-Lab ne se focalise pas sur l’apprentissage par les pairs, on notera tout
de même la présence d’un système de traces et d’exploitation de celles-ci dans des outils
de learning analytics, dont certains ont été plus récemment dédiés aux apprenants pour
les engager dans un processus de réflexion (Vozniuk et al., 2016). Parmi les outils en lien
avec nos critères définis précédemment, Go-Lab permet d’intégrer un chat (SpeakUp
widget) dans un ILS, deux outils de support à l’awareness sociale de l’environnement
(Online users visualization, pour afficher les utilisateurs actuellement connectés à un ILS,
et Semantic group formation app, un outil qui regroupe et affiche les apprenants d’un
ILS par groupe de connaissance), et plusieurs outils d’analytics pour la réflexion (ex. :
Reflection tool ou Action Statistics, qui s’appuient sur le temps passé par les utilisateurs
dans un ILS et sur leurs actions) (Govaerts et al., 2013; Vozniuk et al., 2014).

3.4 Le projet iLab

Mené par le Massachusetts Institute of Technology (MIT), iLab (Harward et al., 2008)
vise l’accès à des laboratoires distants en proposant une architecture distribuée. L’ob-
jectif principal est la mise à l’échelle mondiale de l’accès aux VRL. Le projet a débuté
en 1998 dans le contexte de l’apprentissage secondaire et universitaire en Microélectro-
nique. En 2008, iLab était utilisé par différentes institutions et son architecture avait été
adaptée aux nouvelles technologies du web, notamment par le passage à une architec-
ture orientée service, nommée ISA (Ilab Shared Architecture).
Du point de vue du concepteur de VRL, ISA peut être perçue comme une méthodo-
logie de développement d’un VRL, à laquelle WebLab par exemple (Del Alamo et al.,
2003; Hardison et al., 2005), un laboratoire pour la Microélectronique, fut le premier à
être adapté. L’architecture fournit un ensemble de services communs selon le type de
laboratoire que prend en charge ISA : a) ceux qui proposent des expériences « en batch »
et b) ceux dont les expériences sont interactives. Les premiers sont des VRL où les ap-
prenants fournissent les paramètres de l’expérience en amont, au sein d’une demande
d’exécution qui est mise en attente. Lorsque le VRL est disponible, l’expérience est exé-
cutée et les résultats sont mis à disposition. Les laboratoires interactifs proposent en re-

42 Rémi Venant
3.4. Le projet iLab

vanche de manipuler les ressources du VRL tout au long de l’expérience. En s’appuyant


sur ce modèle théorique, ISA propose une architecture 3 tiers composée du serveur de
laboratoire d’un côté, du client de l’autre, et d’un « service broker » entre les deux. Pour
les laboratoires « en batch », le respect de la communication en couche est strict : toutes
les interactions passent par le broker de service (voir Figure 3.1). Cet intermédiaire per-
met aux clients d’accéder à différents laboratoires, de manière transparente, tant que le
client et le laboratoire respectent la spécification des services web proposés par ISA. Le
broker n’a donc aucune connaissance de la nature des expériences. Pour les laboratoires
dits interactifs, un composant de stockage des informations d’expériences ainsi qu’un
composant dédié à la réservation de laboratoires ont été ajoutés.

Figure 3.1 – Topologie de l’architecture iLab pour des expériences intéractives (Harward et al., 2008)

iLab fonde sa réponse aux problématiques d’accès aux laboratoires sur l’hypothèse
d’un accès unique en écartant donc celle d’une expérience collective. Aussi, cette sépa-
ration franche entre les différents tiers de l’architecture répond à plusieurs probléma-
tiques d’interopérabilité et de sécurité, mais impose certaines limitations. Les informa-
tions stockées par le broker, seul composant ayant connaissance des activités liées à une
ressource ou une expérience, proposent un niveau de détail trop faible pour supporter
l’awareness et la réflexion. Les brokers eux-mêmes étant distribués mais ne commu-
niquant pas les uns avec les autres, il n’est pas possible non plus d’obtenir une vue
globale sur l’ensemble des activités. Enfin, si l’on considère une expérience conjointe
où plusieurs étudiants accèderaient au même laboratoire mais à des moments diffé-
rents, l’architecture ne permet pas de fournir aux apprenants des informations sur le
déroulé des expériences de leurs pairs. De même, l’implémentation d’iLab ne propose
pas non plus de messagerie instantanée ni d’outil auteur.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 43


Chapitre 3. Analyse des environnements existants

3.5 Le projet Labshare

LabShare (Lowe et al., 2009) est un projet de l’University of Technology, Sydney


(UTS), et dont l’objectif vise l’intégration d’un support à la collaboration entre appre-
nants, et au suivi pour les enseignants. L’UTS fournit cinq laboratoires distants dédiés
à cinq expériences différentes (programmation d’un microcontrôleur, étude des rayons
laser, de la dynamique des pneumatiques, de la mécanique des fluides, et conception
de puces électroniques programmables).
Les cinq VRL partagent l’architecture logicielle d’accès et pour chacun d’entre eux,
un serveur virtuel dédié permet de manipuler ses équipements par l’utilisation d’ap-
plications graphiques. À travers une interface web commune, un étudiant peut obtenir
l’adresse de l’un de ces serveurs lorsque celui-ci est disponible, et y accéder. Une fois
connecté, l’étudiant a accès aux différents logiciels pour manipuler les équipements du
laboratoire concerné et réaliser l’expérience. L’accès au serveur est intégré dans l’appli-
cation web en utilisant l’outil AVNC (Alkit VNC 5 ), qui repose sur le protocole d’accès
au bureau à distance VNC (Virtual Network Computing). Les auteurs ont également
ajouté une messagerie instantanée ; les étudiants et enseignants sont donc capables de
communiquer entre eux. Ainsi, plusieurs utilisateurs peuvent voir simultanément l’in-
terface graphique d’un même serveur virtuelle. Un enseignant peut donc, par exemple,
voir en temps réel l’état de l’interface graphique, et donc du laboratoire, manipulé par
des étudiants. D’autre part, les auteurs ont implémenté une fonctionnalité de demande
d’assistance, qui permet d’afficher un message sur l’interface des tuteurs (enseignants)
à la demande d’un apprenant. Un tuteur peut alors, soit aller « voir » l’expérience de
l’apprenant, soit en prendre le contrôle (i.e., avoir le contrôle du serveur virtuelle). L’in-
terface d’apprentissage complète est illustrée par la Figure 3.2.
Le projet Labshare offre donc un support à la communication synchrone et à la
réplication des laboratoires. La prise de contrôle partagée n’est toutefois que partielle :
la manipulation du serveur virtuel du VRL étant exclusive, seul un utilisateur peut y
travailler à la fois. Et si un tuteur peut prendre le contrôle de la machine d’un apprenant,
il ne peut pas en donner l’accès à un pair. Enfin, bien que l’environnement réponde à
des critères fondamentaux pour les interactions sociales, aucun outil d’awareness ou
de réflexion n’est présent, et aucun système de traces n’est proposé.

3.6 Le projet WeColLab

WeColLab (Bochicchio et Longo, 2009) , initié en 2009 à l’Université de Salento (Ita-


lie), est un système dont l’objectif est de permettre la prise de contrôle d’un équipement
5. http://w2.alkit.se/avnc/

44 Rémi Venant
3.6. Le projet WeColLab

Figure 3.2 – Interface d’apprentissage collaborative de LabShare (Lowe et al., 2009)

distant et le partage d’expériences entre groupes d’étudiants à travers le web. La pla-


teforme a été utilisée pour deux laboratoires distants chacun dédié à un équipement
spécifique : un microscope à électrons et un télescope.
WeColLab propose différents outils de collaboration (i.e., tableaux blancs partagés,
annotation, chat) et permet la vision partagée des équipements. De par la nature des
ressources, les auteurs s’appuient là aussi sur l’hypothèse qu’un seul utilisateur ne
peut accéder à l’équipement à la fois. L’architecture proposée est ici aussi une archi-
tecture 3-tier. La couche « Equipement » prend en charge la gestion des équipements dis-
tants. La couche supérieur « Clients » est constituée de l’ensemble des applications web
(conçues en Flash), et la couche intermédiaire « Collaboration », est divisée en deux par-
ties : le moteur de collaboration (Serveur Flash Media) et Micronet, un courtier entre les
deux autres couches. Cette architecture a permis d’implanter une application qui offre
des fonctionnalités de chat et de visioconférence. Concernant le contrôle de l’équipe-
ment, l’application ne permet pas à l’apprenant de laisser un pair prendre le contrôle
de l’équipement ; seul l’enseignant peut choisir quel apprenant manipule l’équipement.
Si ce choix est compréhensible pour le faible nombre d’équipements manipulés dans ce
cas d’étude (1 seul équipement par expérience), il limite les possibilités de l’environne-
ment dans d’autres contextes. D’autre part, aucun outil pour la réflexion n’est proposé,
et aucun système de traces n’est présenté.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 45


Chapitre 3. Analyse des environnements existants

3.7 Le projet ReLOAD

ReLOAD est un laboratoire distant pour l’apprentissage de l’Ingénierie mécanique


développé et utilisé à l’université de Leeds (UK) (Hanson et al., 2008). Le projet vise
le support de l’apprentissage pratique par les pairs. L’expérience proposée par le labo-
ratoire est la manipulation d’un cerveau-moteur puis l’analyse des données collectées
(i.e., position de l’équipement au cours du temps) pour l’étude de la réponse en fré-
quence d’un système réel. L’environnement est une interface web, utilisable depuis un
navigateur quelconque. Pour chaque étudiant, le système propose des objectifs expéri-
mentaux différents (i.e., un comportement particulier du cerveau-moteur). L’étudiant
précise alors les valeurs des paramètres du cerveau-moteur (ex. : sa fréquence), puis
soumet l’exécution de l’expérience. Lorsque le laboratoire est disponible (une file d’at-
tente est gérée par le système), l’expérience est exécutée, puis les données générées sont
retournées à l’apprenant via l’interface web. De plus, un feedback est retourné, consi-
dérant l’écart entre les résultats expérimentaux et ceux théoriques attendus.
Tous les résultats des diverses expériences sont agrégés dans un graphe cumula-
tif consultable par tous les étudiants. Les étudiants peuvent commenter leurs propres
résultats et s’auto-évaluer, mais leurs annotations restent limitées à l’usage de l’ensei-
gnant. Dans la description du système, il n’est pas fait état de fonctionnalités de travail
collaboratif à proprement parler. Les interactions directes entre apprenants semblent se
faire en dehors de la plateforme, en classe. L’environnement ne dispose donc pas d’ou-
til de communication. Toutefois, le système propose un outil d’awareness sociale et de
réflexion. Le graphe cumulatif des résultats d’expériences permet à l’apprenant de se
situer par rapport au groupe du point de vue de ses résultats expérimentaux. Il est ainsi
incité à réfléchir sur les paramètres qu’il a calculés, et à terme, à vouloir consulter des
pairs pour l’aider (processus situé en dehors de l’environnement d’apprentissage). Le
graph étant complètement anonyme, il est toutefois difficile d’identifier des potentiels
pairs qui pourraient aider l’apprenant en difficulté. De même, l’ensemble des informa-
tions (commentaires, auto-évaluations) transmises par l’apprenant au système ne sont
pas exploitées pour fournir d’autres données d’analyse aux utilisateurs.

3.8 Le projet eMersion

Développé à l’École Polytechnique Fédérale de Lausanne (EPFL), le projet vise à


supporter la collaboration lors de la réalisation d’expériences en Électronique à partir
d’un laboratoire distant et via l’utilisation de technologies web (Gillet et al., 2005). Le
laboratoire met à disposition des apprenants un ensemble d’équipements électroniques
manipulables à distance. L’architecture de l’environnement est constituée, côté client,

46 Rémi Venant
3.9. Le projet VESSL

de 3 applications web. La première est une applet Java qui permet à l’apprenant de
réaliser l’expérience : manipuler les équipements et observer leur comportement via
une webcam, mais aussi visualiser les mesures électriques réalisées par un oscilloscope
via l’interface. À tout moment l’apprenant peut enregistrer les mesures prises ainsi que
réaliser des captures d’écran de la webcam. La seconde interface, nommée « eJournal »,
est l’application centrale du projet : elle permet l’édition et la collaboration asynchrone
pour faciliter les activités de reporting et le partage des résultats d’expériences par les
apprenants. Enfin la troisième application est une interface web dédiée à l’analyse des
résultats d’expériences préalablement sauvegardés, récupérés depuis un fichier local
sur la machine de l’apprenant ou directement depuis eJournal.
L’application eJournal suit la métaphore d’un journal de bord. Un étudiant peut
créer et partager différents artefacts issus de ses expériences : ses captures d’écrans,
les paramètres qu’il a saisis pour une expérience, les résultats obtenus, ou encore du
texte libre. Chaque artefact peut être annoté pour faciliter la recherche a posteriori. Les
artefacts peuvent être soumis à l’enseignant pour évaluation, mais également partagés
avec d’autres étudiants. La gestion des pairs est également possible et les étudiants sont
libres de composer leur groupe comme ils le souhaitent. Enfin, l’application fournit un
ensemble d’outils dédiés à l’awareness. La liste des utilisateurs connectés avec leur
localisation (à l’université, en salle de TP ou ailleurs) offre une awareness sociale de
présence, tandis qu’une awareness de l’artefact aussi bien personnelle que sociale est
dispensée par la liste des artefacts proposés par les autres apprenants et synthétisée par
des graphiques de l’activité du groupe (artefacts ajoutés par les membres du groupe).
eMersion est donc un environnement de VRL qui vise l’engagement des apprenants
par une collaboration supportée par l’EIAH. Si l’outil ne permet pas la collaboration
pendant l’expérience, il permet la constitution de groupes d’apprenants à la volée et
offre des outils pour l’awareness personnelle et sociale, qui sont toutefois asynchrones.

3.9 Le projet VESSL

Vesll « Virtual Engineering Sciences Learning Lab » (August et al., 2016) est un envi-
ronnement pour laboratoires virtuels qui s’appuie sur Second Life 6 (un environnement
virtuel 3D). VESLL est utilisé pour l’apprentissage de concepts quantitatifs (ex. : sys-
tèmes numériques, opérations logiques, portes logiques, etc.). L’environnement utilise
le concept « d’île privée » de Second Life, qui permet à des utilisateurs d’interagir dans
un espace virtuel avec différents objets pédagogiques créés à cette occasion (ex. : équa-
tion hexadécimale sous la forme d’un cadenas à déverrouiller), ainsi qu’entre eux grâce
à leur avatar. Les interactions entre utilisateurs sont donc directes et synchrones, uti-
6. http://secondlife.com

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 47


Chapitre 3. Analyse des environnements existants

lisant l’audio ou le chat et la notion d’avatar virtuel. Toutefois, si l’utilisation d’un tel
environnement virtuel a montré plusieurs bénéfices (August et al., 2016) comme la pos-
sibilité de gamification et la sensation d’immersion chez les apprenants, cette solution
présente différents inconvénients.
Outre les inconvénient liés à l’utilisation d’un environnement 3D, discutés dans la
section 2.2.2 (coût, limitations de l’awareness de concept, complexité du traitement des
données d’apprentissage), VESLL propose finalement un support aux interactions entre
apprenants limité. En effet, les auteurs constatent la difficulté d’extraction et la faible
finesse des traces d’interactions entre utilisateurs et artefacts pédagogiques, mais égale-
ment la difficulté de tracer les interactions entre utilisateurs. Ainsi, si l’environnement
offre une plus grande immersion et une interaction synchrone augmentée par l’envi-
ronnement 3D, le support à l’awareness et à la réflexion, comme aux learning analytics
en général, semble bien plus complexe à mettre en place.

3.10 Le projet DIESEL

Le projet DIESEL (Distance Internet-Based Embedded System Experimental La-


boratory) a pour objectif principal le développement de laboratoires distants pour
des cours d’Électronique embarquée (Callaghan et al., 2002). Les apprenants peuvent
contrôler différents microcontrôleurs via une interface web dotée de fonctionnalités col-
laboratives (Callaghan et al., 2007).
L’architecture de DIESEL est distribuée sur 3 groupes de composants. a) Les stations
de travail sont le point d’accès aux équipements des laboratoires. Elle sont administrées
par b) le serveur web central, et directement accédées par c) les applications clientes lors
des manipulations. Le serveur web central offre les fonctionnalités d’authentification,
de réservation des accès aux laboratoires et de gestion des stations. Ainsi, lorsqu’un ap-
prenant désire effectuer une expérience, il s’authentifie et réserve un laboratoire via le
serveur web central, pour se connecter ensuite directement à la station de travail et réa-
liser l’expérience. Enfin, le serveur de collaboration permet à plusieurs utilisateurs de
travailler simultanément sur la même station de travail. Ce serveur est une implanta-
tion d’un MOM (Message Oriented Middleware) où un utilisateur souscrit au fil d’événe-
ments d’un groupe de travail particulier. Dès lors, toute manipulation d’un utilisateur
sur un équipement est répercutée aux applications clientes des autres utilisateurs du
groupe. Le serveur de collaboration offre également la possibilité pour les utilisateurs
d’interagir ensemble, en utilisant un canal audio/vidéo ainsi qu’un chat.
Toutefois le processus de collaboration n’est pas direct : un apprenant qui souhaite
inviter un pair à rejoindre son expérience doit lui envoyer un courriel contenant l’URI
de l’expérience. L’utilisation d’un outil asynchrone pendant une expérience synchrone

48 Rémi Venant
3.11. Le projet Trilab

semble ici paradoxale, et ne permet pas les formes d’apprentissage par les pairs spon-
tanées comme l’entraide. De même, il ne semble pas prévu de pouvoir mettre fin à une
invitation, ni de pouvoir inviter un utilisateur en simple observateur : une fois qu’un
utilisateur a invité par courriel un ou plusieurs pairs, chacun d’entre eux à un accès
complet aux ressources du laboratoire, jusqu’à la fin de l’expérience. Enfin, il n’y a pas
non plus de support à l’awareness personnelle et sociale permettant à l’apprenant de
prendre conscience de son apprentissage par rapport à celui des autres, ni de support
à la réflexion pendant ou après l’expérience. Bien que l’architecture proposée semble le
permettre, aucune gestion des traces n’est effectuée.

3.11 Le projet Trilab

Trilab est un projet pour l’apprentissage de la chimie à l’université de Loughbo-


rough (UK) (Abdulwahed et Nagy, 2013). Les équipements de ce laboratoire com-
prennent différents types de pompes et valves connectées, ainsi que différents capteurs
de température, de pression et de niveau d’eau. L’ensemble des équipements est égale-
ment surveillé par une webcam, dont le flux vidéo est retransmis aux apprenants. Les
outils de manipulation à distance ont été intégrés au sein d’un portail web qui offre éga-
lement accès aux ressources pédagogiques en lien avec les expériences (contenu textuel,
vidéo). Le portail, développé avec le framework Joomla, offre de base des fonctionnali-
tés propres aux réseaux sociaux, un outil awareness de présence sociale (nombre et liste
des personnes connectées, chat). Toutefois, l’intégration des outils de manipulation des
équipements au sein de la plateforme web ne permet pas la remontée d’informations
à partir de ces outils (i.e., traces des activités des étudiants) vers la plateforme. L’envi-
ronnement n’offre donc pas d’outils d’awareness ou de réflexion qui s’appuient sur les
traces d’apprentissage. De plus, si la plateforme permet aux apprenants de communi-
quer entre eux, il n’est pas mentionné s’ils peuvent travailler ensemble sur les mêmes
équipements, ou voir mutuellement ce qu’ils font sur leurs propres équipements.

3.12 Synthèse

Une synthèse de l’analyse des projets vis-à-vis des critères identifiés précédemment
est fournie dans le Tableau 3.1. À la colonne « Interactions spontanées », le sigle « NA »,
« Non Applicable », est utilisé lorsque le VRL ne dispose pas de fonctionnalité de par-
tage de l’environnement (vue partagée et possiblement partage du contrôle).
Parmi les initiatives étudiées dont aucune ne respecte l’ensemble des critères défi-
nis, nous pouvons observer deux grandes catégories d’environnements. Ceux dédiés
à la fédération ou à l’intégration des VRL dans des LMS présentent pour la plupart

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 49


Chapitre 3. Analyse des environnements existants

un support à la réflexion, et pour certains d’entre eux un système de traces, sans tou-
tefois atteindre un niveau de détail élevé. La seconde catégorie concerne les projets
de construction d’un environnement dédié à un ou plusieurs VRL précis. Dans ces
derniers, on retrouve pour beaucoup d’entre eux des propositions pour répondre à la
problématique de communication entre apprenants pendant une activité, notamment
pour permettre à chacun de voir l’environnement de l’autre, ou de pouvoir manipuler
ensemble le même équipement.
Pour la plupart des environnements étudiés ici, nous pouvons observer que le sup-
port à l’awareness est homogène et relativement simple. Qu’ils soient virtuels ou dis-
tants, les laboratoires proposent trivialement une awareness de l’artefact personnelle,
et la plupart d’entre eux résume l’awareness de l’espace de travail à la présence so-
ciale des utilisateurs sur la plateforme. En revanche, nous pouvons constater l’absence
quasi-totale d’awareness du concept, qu’elle soit personnelle ou sociale, en raison du
manque de gestion des traces d’apprentissage collectées sur ces EIAH.
Ce problème s’étend également aux outils pour le support d’analyse et de synthèse.
Si plusieurs projets proposent de tels outils a posteriori, nombreux sont ceux qui ne
proposent aux apprenants que leurs propres résultats d’expériences, et qui ne mettent
pas à disposition des traces d’un fort niveau de détail retranscrivant, par exemple, le
déroulé de l’expérience ou les difficultés qu’ils ont rencontrées. De plus, nous n’avons
constaté aucune proposition pour de tels outils pendant l’expérience.
De plus, les outils auteurs restent marginaux dans les VRL que nous avons étudiés.
Dans le cas de Go-Lab, l’outil auteur permet de concevoir un scénario pédagogique
fondé sur les activités pratiques, mais ne permet pas de concevoir l’expérience elle-
même ni de paramétrer l’environnement utilisé pour réaliser l’expérience elle-même.
Finalement, nous constatons, tout comme Gravier et al. 2008, qu’il y a encore peu
d’EIAH pour les VRL qui disposent de fonctionnalités pour les interactions sociales.
Ceux construits au-dessus de VRL existants se focalisent sur des problématiques d’in-
tégration, d’indexation et de recherche de VRL, tandis que les EIAH dédiés à un VRL
particulier se concentrent souvent sur des problématiques d’accès, de mise à l’échelle
et d’immersion de l’apprenant dans un environnement virtuel. Ainsi les fonctionna-
lités dédiées aux intéractions sociales se limitent le plus souvent à la communication
synchrone, la présence sociale et pour certains, à la possibilité de partager la vue de
l’environnement et l’offre d’outils de réflexion a posteriori.

50 Rémi Venant
3.12. Synthèse

Tableau 3.1 – Synthèse de l’évaluation des environnements existants

Awareness de l’environnement
Communication synchrone

Réflexion pendant l’action

Interactions spontanées

Paramétrage de l’EIAH
Réflexion après l’action
Awareness du concept
Vue partagée du VRL
Critères d’évaluation

Partage du contrôle

Outil auteur
Environnement A.1 A.2 A.3 B.1 B.2 B.3 B.4 C.1 C.2 C.3
WebLab-Deusto - - - ∼ - - - NA - -
Lab2Go - - - - - - - NA - -
Bulid - - - - - - - NA - -
Lila + ∼ - + - - - ∼ - -
Integration LMS + - - + - - ∼ ∼ - -
Go-Lab + - - + - - + - ∼ ∼
iLab - - - - - - ∼ NA ∼ -
LabShare + + ∼ + - - - - - -
WeColLab + + - + - - - + - -
ReLOAD - - - + + - + NA - -
eMersion - ∼ - + ∼ - + + - -
VESSL + + - + - - - + - -
DIESEL + + + - - - - + - -
Trilab + - - - - - - NA - -

+ Critère respecté
∼ Critère partiellement respecté
- Critère non respécté
NA Non Applicable

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 51


Deuxième partie

Lab4CE, a Laboratory for Computer


Education

53
4 Un laboratoire pour
l’apprentissage de
l’Informatique

Contenu
4.1 Historique et motivations . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.1 Contexte de recherche . . . . . . . . . . . . . . . . . . . . . . . . 56
4.1.2 Contexte d’enseignement . . . . . . . . . . . . . . . . . . . . . . 56
4.1.3 Développement de Lab4CE . . . . . . . . . . . . . . . . . . . . . 57
4.2 Vue générale de Lab4CE . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Concepts principaux . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Architecture logicielle globale . . . . . . . . . . . . . . . . . . . . 59
4.3 Gestion des VRL dans Lab4CE . . . . . . . . . . . . . . . . . . . . . . . 61
4.3.1 OpenStack : un gestionnaire de cloud pour Lab4CE . . . . . . . 61
4.3.2 Intégration d’OpenStack dans Lab4CE . . . . . . . . . . . . . . . 62
4.3.3 Accès aux ressources . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.4 Services pédagogiques . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4 L’EIAH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.1 L’application auteur . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4.2 L’application d’expérimentation . . . . . . . . . . . . . . . . . . 67
4.5 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

C E premier chapitre introduit nos contributions par la présentation de Lab4CE, « La-


boratory for Computer Education », un environnement dédié à l’apprentissage pra-
tique de l’Informatique.

55
Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

4.1 Historique et motivations

4.1.1 Contexte de recherche

Les travaux de thèse de M. Bouabid sur la mise en ligne de travaux pratiques (2012)
ont abouti à la proposition d’un modèle d’information qui s’appuie sur le standard
CIM 1 (Common Information Model), un méta-modèle orienté objet et normalisé par
le DMTF (Desktop Management Task Force), pour représenter tout élément adminis-
trable (d’une porte automatique, à un logiciel installé sur une machine). Le modèle,
étendu aux travaux pratiques, considère la ressource et l’expérience comme des entités
autonomes faiblement couplées. Nos travaux sur le support des interactions sociales
s’appuient sur, et étendent, la solution proposée par Bouabid.

4.1.2 Contexte d’enseignement

L’équipe SIERA est également impliquée dans l’enseignement de l’Informatique à


l’IUT (Institut Universitaire de Technologie) « A » Paul Sabatier de Toulouse, et notam-
ment dans l’enseignement de l’administration des systèmes et réseaux. Dans ces ensei-
gnements, où la pratique est mise en avant, les étudiants doivent acquérir un ensemble
de connaissances théoriques liées à l’architecture des systèmes et réseaux (ex. : système
de gestion de fichiers, processus, gestion des contrôles d’accès, couches réseau), ainsi
que différents savoir-faire inhérents à la maîtrise des commandes qu’offre un système
d’exploitation. À l’IUT, les travaux pratiques représentent une part importante des en-
seignements au sein desquels les étudiants peuvent confronter leur compréhension des
concepts à la réalité d’une infrastructure informatique, et s’exercer à la configuration et
l’administration de ses différents composants.
Les laboratoires physiques mis à disposition à l’Université souffrent des probléma-
tiques évoquées dans la section 1.2.1, c’est-à-dire un nombre insuffisant de machines,
avec des périodes d’accès restreintes : par exemple, l’IUT n’est pas en mesure de fournir
un poste par étudiant à chaque TP. De plus, cette matière soulève d’autres probléma-
tiques. Un grand nombre de manipulations exige les droits d’accès complets (nommé
utilisateur « administrateur » sur les systèmes Microsoft© Windows© ou « root » sur les
systèmes Unix/Linux) sur la machine (ex. : pour installer un logiciel, configurer une
carte réseau), rôle qui ne peut trivialement être donné aux apprenants sur les machines
physiques. De plus, l’apprentissage pratique des réseaux n’a d’intérêt que si les étu-
diants sont amenés à travailler avec un réseau de machines, c’est-à-dire un ensemble
d’ordinateurs et d’équipements réseaux. Or doter chaque apprenant de plusieurs ma-
chines est inenvisageable d’un point de vue logistique et économique.
1. http://www.dmtf.org/standards/cim

56 Rémi Venant
4.2. Vue générale de Lab4CE

4.1.3 Développement de Lab4CE

Lab4CE est un environnement composé d’un VRL reposant sur un gestionnaire de


cloud permettant la création et la réalisation d’expériences, et dont l’EIAH propose des
fonctionnalités se focalisant sur les critères que nous avons identifiés dans le chapitre
précédent. La plateforme est accessible en anglais comme en français. Le développe-
ment de Lab4CE a suivi une approche itérative par cycles courts et dirigée par les mo-
dèles et les tests, dont les cycles majeurs sont exposés dans le Tableau 4.1.

Tableau 4.1 – Cycles de développement de Lab4CE

Cycle Principales fonctionnalités ajoutées


Couche laboratoire
Cycle 1 Composants « Gestion des VRL » et « Accès aux ressources » du midd-
leware
Interface de contrôle de l’EIAH
Cycle 2 Application auteur
Composant pédagogique du middleware
Cycle 3 Système de partage des laboratoires
Outils de comparaison sociale
Framework de traces Xapi unifié
Cycle 4
Outils de réflexion
Cycle 5 Système d’entraide

4.2 Vue générale de Lab4CE

4.2.1 Concepts principaux

Dans les VRL traditionnels, les ressources sont hébergées par un laboratoire et pré-
existent à l’expérience. Les utilisateurs accèdent au laboratoire via l’environnement
puis manipulent les ressources qui y sont proposées. Lab4CE (Broisin et al., 2015a,b)
propose un paradigme différent, en exploitant les capacités offertes par une infrastruc-
ture de cloud computing (détaillée dans la section 4.3.1). L’expérience préexiste aux
laboratoires et aux ressources : à partir de celle-ci, le système va créer automatique-
ment un laboratoire et ses ressources pour chaque utilisateur de l’expérience. Pour une
expérience donnée, chaque utilisateur possède alors son propre laboratoire et dispose
d’un accès complet à l’ensemble des ressources qui lui sont associées.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 57


Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

À travers l’EIAH proposé par Lab4CE et dans le contexte d’une expérience don-
née, les utilisateurs peuvent interagir entre eux de façon synchrone, s’inviter mutuelle-
ment dans leur laboratoire, ou encore demander de l’aide de la même manière que s’ils
étaient physiquement ensemble. Enfin, l’EIAH est doté d’un ensemble d’outils pour
l’awareness et la réflexion qui s’appuient sur un framework commun de learning ana-
lytics, interopérable avec des outils externes.
La Figure 4.1 présente le diagramme de cas d’utilisation de Lab4CE en fonction du
rôle de l’utilisateur. L’expérimentateur désigne un utilisateur du système pouvant réa-
liser une expérience, et cible donc les étudiants comme les enseignants. Le concepteur
peut également créer des expériences, et désigne particulièrement les enseignants ou
les concepteurs pédagogiques. La Figure 4.2 présente le modèle de données à un haut
niveau d’abstraction, sous la forme d’un diagramme de classes.

Figure 4.1 – Diagramme de cas d’utilisation de Lab4CE

Dans Lab4CE, une expérience est l’artefact pédagogique défini dans la section 1.1.2.
Créée par un concepteur, elle décrit notamment la topologie des ressources nécessaires
pour réaliser une activité pratique. À une expérience sont associés différents expéri-
mentateurs. Chacun de ces expérimentateurs possède son propre laboratoire, une en-
tité comprenant l’ensemble des ressources de la topologie définie dans l’expérience. Si
l’on retrouve la distinction entre expérience et ressources, comme chez Bouabid (2012),

58 Rémi Venant
4.2. Vue générale de Lab4CE

Figure 4.2 – Diagramme de classes général de Lab4CE

notre modèle ajoute la notion de laboratoire comme une instance de cette expérience
destinée à un ou plusieurs utilisateurs. Ici, chaque apprenant est propriétaire de son
laboratoire virtuel, dans lequel il peut également inviter d’autres utilisateurs afin de
mener des activités collectives.

4.2.2 Architecture logicielle globale

L’architectures spécifiée par le projet iLab a été largement adoptée, notamment pour
faciliter le passage à l’échelle et pour la robustesse qu’elle propose concernant la gestion
des VRL (Hardison et al., 2008; Niederstaetter et al., 2010; Zutin et al., 2011). L’architec-
ture de Lab4CE illustrée par la Figure 4.3 s’appuie également sur celle d’iLab (Harward
et al., 2008). Lab4CE repose sur une architecture 3-tier faiblement couplée pour respec-
ter la distinction entre VRL et EIAH et ainsi permettre à différents fournisseurs de VRL
et différentes institutions de collaborer facilement, tout en facilitant l’intégration de dif-
férents services pédagogiques.
Sur la Figure 4.3, la couche « laboratoire » représente le gestionnaire de cloud qui
est responsable de la gestion des machines et réseaux virtuels proposés aux utilisa-
teurs pour l’apprentissage de l’Informatique à grande échelle. La couche intermédiaire
« middleware » agit comme un courtier entre les couches supérieure et inférieure en
proposant un ensemble de services pour d’une part, interagir avec la couche laboratoire
sans nécessiter de compétences techniques propres à la manipulation de ressources vir-
tuelles (ces services sont assurés par les composants « Gestion des VRL » et « Accès
aux ressources ») et d’autre part, améliorer l’expérience d’apprentissage et d’enseigne-
ment à travers un ensemble de fonctionnalités s’appuyant sur l’exploitation des traces

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 59


Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

Figure 4.3 – Architecture conceptuelle de Lab4CE

d’apprentissage (services assurés par le composant « Services pédagogiques »). Enfin,


la couche supérieure « apprentissage » représente l’EIAH et comprend deux applica-
tions web : un outil auteur pour la création d’expériences, et une interface de contrôle
pour la réalisation de celles-ci.
Une qualité de cette architecture est de faciliter son déploiement sur des infrastruc-
tures existantes qui n’ont pas été pensées pour l’interopérabilité. Lab4CE a été conçu
pour permettre à des entités consommatrices de VRL (ex. : universités, écoles, etc.) et à
des entités producteurs de VRL (ex : laboratoires de recherche, entreprises, universités,
etc.) de travailler de concert alors que leurs infrastructures ne permettent pas forcément
la mise en place d’une solution logicielle distribuée. Il est donc nécessaire de proposer
aux différent acteurs une solution facile à déployer et qui n’impacte pas, ou peu, les
configurations existantes. Nous illustrons un exemple de déploiement sur la Figure 4.4.
Les composants communiquent entre eux en utilisant uniquement le protocole
HTTP et un protocole de communication synchrone s’appuyant sur HTTP (WebSo-
cket, HTTP Streaming ou HTTP long polling, selon les restrictions de l’infrastructure).
Lab4CE ne nécessite donc pas de configuration particulière des infrastructures exis-
tantes chez les deux entités productrices et consommatrices en matière de sécurité.

60 Rémi Venant
4.3. Gestion des VRL dans Lab4CE

Figure 4.4 – Exemple de déploiement de Lab4CE

Le composant « Services pédagogiques » sert de point d’entrée aux clients web ainsi
qu’à l’authentification. Placé côté université, il est le seul composant où les informations
sensibles sur les apprenants sont persistantes (i.e., traces d’apprentissage). Les compo-
sants situés sur l’entité producteur ne sont responsables que de la gestion des VRL.
Enfin, chaque composant permet le passage à l’échelle par duplication et/ou fédéra-
tion : les composants du middleware sont des serveurs autonomes dont la redondance
pour la balance de charge est facilitée par les technologies utilisées, tandis que la couche
laboratoire s’appuie sur une technologie qui offre la possibilité d’augmenter le nombre
de serveurs à la volée. Les détails de ces technologies sont fournis ci-dessous.

4.3 Gestion des VRL dans Lab4CE

Dans notre approche, un laboratoire virtuel est créé pour chaque apprenant dans
le cadre d’une expérience définie par un enseignant. L’objectif principal du gestion-
naire de VRL est donc de permettre la conception d’une topologie réseau correspon-
dant à l’expérience, puis de l’instancier automatiquement pour chaque expérimenta-
teur. Le gestionnaire doit également proposer un modèle de contrôle d’accès permet-
tant à chaque apprenant d’accéder à son propre VRL, de manipuler les dispositifs qui
y sont présents (par exemple : démarrer, arrêter une machine), mais également d’ac-
céder au VRL d’un autre apprenant si celui-ci l’y autorise. Ces différents besoins nous
amènent à opter pour l’utilisation d’un gestionnaire de cloud présenté ci-dessous.

4.3.1 OpenStack : un gestionnaire de cloud pour Lab4CE

En informatique, la virtualisation est un concept qui peut être défini comme l’abs-
traction de ressources informatiques au niveau logique (CPU, stockage, réseau, mé-
moire vive, etc.) et l’exploitation de ces ressources en tant que services, indépendam-
ment de leur réalité physique (Xing et Zhan, 2012). Le concept de « Cloud Computing »

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 61


Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

est associé à l’avènement de nouveaux paradigmes pour la gestion d’infrastructures


informatiques (Hayes, 2008). Vaquero et al. (2008) proposent la définition d’un cloud
comme « un grand groupe de ressources virtualisées facilement utilisables et acces-
sibles. Ces ressources peuvent être dynamiquement reconfigurées ou ajustées selon la
montée en charge pour offrir une utilisation optimale ». Le cloud computing s’appuie
ainsi sur la virtualisation pour permettre un provisionnement de ressources informa-
tiques à la demande, ainsi qu’une grande élasticité de l’infrastructure pour répondre à
des besoins dynamiques de mise à l’échelle (Xing et Zhan, 2012).
Parmi les catégories de cloud computing proposées dans (Vaquero et al., 2008),
l’Infrastructure as a Service (IaaS) vise l’attribution à la demande de systèmes informa-
tiques quelconques (machine, stockage, réseaux) par un fournisseur d’infrastructures
à un client. Ce scénario correspond parfaitement aux besoins de Lab4CE où les pro-
ducteurs de VRL sont les fournisseurs, tandis que les consommateurs de VRL jouent le
rôle de client. Notre choix de solution IaaS s’est porté sur OpenStack, un projet entière-
ment open source développé par la NASA 2 , dont la gestion de la virtualisation répond
à nos besoins techniques. OpenStack 3 est une solution constituée d’un ensemble de
composants appelés « projets » permettant de gérer les différentes ressources virtuelles
à travers un ensemble d’API REST. Chaque projet est un serveur autonome, exposant
sa propre API REST, et peut être répliqué à volonté pour faciliter la mise à l’échelle.

4.3.2 Intégration d’OpenStack dans Lab4CE

Pour assurer un couplage faible entre la couche laboratoire et la couche middleware,


nous avons opté pour l’implantation du modèle de gestion des expériences, des labo-
ratoires et du contrôle d’accès au sein de la couche laboratoire uniquement, en adap-
tant le modèle d’OpenStack puisque l’implémentation de celui-ci (dite « schema-less »)
offre la possibilité d’étendre les différentes entités proposées avec d’autres attributs.
De même, OpenStack propose également un modèle de contrôle d’accès qui s’appuie
sur le modèle RBAC (Role Based Access Control), et pour lequel il est possible de définir
de nouveaux rôles et permissions. Nous avons donc étendu ce modèle pour y inclure
les rôles de concepteur, d’expérimentateur, d’enseignant, et d’apprenant. Ainsi, nous
évitons un couplage fort entre les deux couches basses de l’architecture, et offrons la
possibilité d’envisager une autre plateforme d’IaaS qu’OpenStack.
D’autre part, pour ne pas déporter des données sensibles sur les entités producteurs,
nous permettons l’utilisation de LTI (Severance et al., 2010), une spécification qui vise la
standardisation et l’intégration d’applications externes au sein d’un LMS. LTI répond
à la problématique de l’authentification en permettant au LMS, sur lequel l’utilisateur
2. https://www.nasa.gov/
3. https://www.openstack.org/

62 Rémi Venant
4.3. Gestion des VRL dans Lab4CE

est authentifié et identifié, de transmettre une preuve d’authentification à l’application


exécutée à partir de celui-ci. Dans l’architecture de Lab4CE, chaque composant de l’ap-
plication peut se référer aux services pédagogiques pour vérifier l’authentification (voir
les flèches en pointillées sur la Figure 4.3).

4.3.3 Accès aux ressources

Si OpenStack permet de gérer aisément le cycle de vie d’un ensemble d’équipe-


ments virtuels, l’accès aux terminaux des machines virtuelles doit être traité indé-
pendamment. Une connexion directe aux machines virtuelles n’étant pas envisageable
pour des raison de sécurité et de passage à l’échelle, nous avons opté pour l’utilisation
d’un proxy HTTP-SSH situé dans la couche middleware. À partir d’un projet aban-
donné de Google, « ShellInABox », nous avons conçu un serveur HTTP qui permet
d’initier une connexion SSH sur une machine virtuelle à partir de son identifiant (et
après vérification des droits d’accès). Intégré à l’EIAH, un terminal web se connecte à
ce serveur et reproduit fidèlement le comportement d’un terminal classique.

4.3.4 Services pédagogiques

OpenStack expose une vision technique des ressources virtuelles, ce qui nécessite
une connaissance approfondie dans ce domaine pour pouvoir manipuler les ressources
gérées. Le composant « Gestion des VRL » du middleware a pour rôle d’exposer des
services de gestion des laboratoires du point de vue pédagogique et non technique,
et d’assurer l’automatisation de différents traitements, notamment ceux liés à la créa-
tion et à la suppression des laboratoires à partir de la description d’une expérience.
L’API REST détaillée est fournie en annexe A de ce manuscrit. Le Tableau 4.2 résume
les principales permissions associées à chaque rôle sur les différents objets pédago-
giques. Le composant « Services pédagogiques » fournit quant à lui un ensemble de
services propres à l’apprentissage. Les deux composants sont exposés sous la forme
d’applications serveur web, développées avec le framework Spring 4 . Le LRS, connecté
au second composant, a été développé pour Lab4CE et repose sur la base de données
NoSQL MongoDb 5 . Le choix des technologies a été effectué, entre autres, pour assurer
une mise à l’échelle aisée des différentes couches : les applications serveurs peuvent être
répliquées aisément, tandis que le LRS peut se voir adjoindre des noeuds de données à
la volée sans reconfiguration préalable (Chodorow, 2013).

4. https://spring.io/
5. https://www.mongodb.com/

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 63


Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

Tableau 4.2 – Permissions par rôle sur les expériences, laboratoires et ressources

Objet Concepteur Expérimentateur


Expérience Créer, consulter, Consulter
modifier, suppri-
mer
Propriétaire du laboratoire Invité
Laboratoire Consulter, démarrer, arrêter, Consulter
inviter, désinviter
Ressource Consulter, Modifier l’état Consulter, Accé-
(démarrer, arrêter, mettre en der au terminal
veille), Accéder au terminal

4.4 L’EIAH

La couche « apprentissage » de Lab4CE expose deux environnements client : un


pour la création d’expériences destiné aux enseignants et ingénieurs pédagogiques, et
un environnement principal pour la réalisation des expériences. Ces deux applications
sont dites responsive, pour être utilisées sur divers types d’équipements, et single page,
c’est-à-dire conçues pour améliorer l’immersion de l’utilisateur en évitant notamment
le rechargement de page (Mikowski et Powell, 2013). Le cœur des applications a été
développé avec AngularJS 6 , un framework qui facilite la création d’applications web
complexes en s’appuyant sur les paradigmes d’IoC (Inversion of Control) et de MVVM
(Model - View - ViewModel). Le framework Bootstrap 7 est utilisé pour traiter le formatage
des pages et la capacité à s’adapter à différents supports d’affichage et périphériques
d’entrée (i.e., clavier/souris, écran tactile). Enfin, l’API Javascript D3 8 est utilisée pour
l’ensemble des visualisations ainsi que pour la création de topologies d’expériences.

4.4.1 L’application auteur

Si certains projets comme Go-Lab (Gillet et al., 2014) présentent des outils auteur, ces
derniers adoptent une vision macroscopique : l’auteur ne conçoit pas son expérience,
mais orchestre un ensemble d’expériences prédéfinies dans un scénario d’apprentis-
sage exploratoire. Comme nous l’avons identifié précédemment, il est nécessaire de
pouvoir doter l’enseignant d’un outil auteur qui lui permette de définir finement son
6. https://angularjs.org/
7. https://getbootstrap.com/
8. https://d3js.org/

64 Rémi Venant
4.4. L’EIAH

expérience ainsi que les modalités d’interactions que celui-ci souhaite rendre dispo-
nibles chez les apprenants. Notre application auteur permet de concevoir une expé-
rience, dont le modèle de données détaillé est illustré à la Figure 4.5. L’expérience com-
prend a) une description textuelle des objectifs pédagogiques, b) un résumé textuel de
l’expérience, c) une date de début et de fin d’accessibilité, d) une topologie d’équipe-
ments et, optionnellement, e) une liste ordonnée d’exercices, éléments semi-structurés
dont chacun contient un intitulé, du texte et des images.

Figure 4.5 – DCL détaillé du modèle d’expérience de Lab4CE

Une expérience est liée à l’environnement d’apprentissage puisqu’elle comprend


les fonctionnalités d’interactions disponibles au sein de celui-ci. Les associations entre
l’expérience et les fonctionnalités d’interactions expriment un lien d’inhibition. Si une
fonctionnalité n’est pas liée à l’expérience, elle sera disponible lors de la réalisation
de celle-ci. D’autre part, nous avons pris en compte une problématique inhérente aux
expérimentations menées dans le cadre de recherches scientifiques. Pour faciliter la sé-
paration d’une population expérimentale en différents groupes, notamment lors du test
d’hypothèses, il est possible de désactiver une fonctionnalité pour un apprenant donné.
À la création d’une expérience, l’outil permet à travers un formulaire de saisir les
informations textuelles et, optionnellement, de déposer une archive contenant une page
HTML décrivant l’ensemble des exercices et des images associées. Une fois ces informa-
tions fournies, l’interface, illustrée par la Figure 4.6 permet de dessiner et de configurer
la topologie même de l’expérience (i.e., l’ensemble des ressources et des associations qui
sera créé pour chaque VRL). L’espace de dessin, (1) sur la Figure 4.6, permet de créer

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 65


Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

la topologie en glissant/déposant les différents composants proposés dans le panneau


« composants » situé à droite (et non représenté sur la Figure 4.6). Actuellement 3 types
de composants sont proposés : ordinateur, routeur et commutateur. Un commutateur
sera instancié par le gestionnaire de cloud sous la forme d’un commutateur virtuel. Un
ordinateur ou un routeur résultera en une machine virtuelle, avec des règles de sécurité
particulières pour le second. Pour tous ces composants, une configuration logicielle par
défaut est proposée et peut être adaptée aux besoins de l’expérience à travers l’onglet
Paramètres (2). Il est possible de choisir le système d’exploitation à partir du catalogue
proposé par le gestionnaire de cloud, mais aussi de choisir un ensemble de logiciels à
pré-installer (3 sur la Figure 4.6). Finalement, lorsque le concepteur relie des ordinateurs
ou routeurs à des commutateurs, des interfaces réseaux sont créées sur les machines, et
peuvent être configurées à la conception.

Figure 4.6 – Interface de création de topologies

Un commutateur peut être « commun aux laboratoires ». Ce commutateur sera créé


en dehors du contexte d’un laboratoire particulier, et accessible par tous les laboratoires
liés à l’expérience. Cette configuration permet proposer un travail coopératif ou colla-
boratif où chaque apprenant ou groupe d’apprenants a son propre laboratoire mais doit
interagir avec celui des autres : il est possible de concevoir, par exemple, une expérience
où des apprenants doivent sécuriser leurs machines, tandis que d’autres doivent tenter
d’attaquer les dites machines.
Enfin, le concepteur choisit les fonctionnalités d’interactions à désactiver pour cette
expérience. L’expérience est ensuite enregistrée sous la forme d’un groupe OpenStack
par le biais du middleware à travers l’appel d’un service REST pour la création d’une
expérience. Le concepteur a également la possibilité d’inscrire des apprenants à cette
expérience. Si une expérience est accédée depuis un LMS dans lequel Lab4CE est in-
tégré via LTI, les apprenants seront automatiquement ajoutés à l’expérience dès leur
première connexion. Lorsqu’un apprenant est ajouté, son laboratoire est automatique-
ment créé et il peut alors le « démarrer », c’est-à-dire ordonner la création automatique

66 Rémi Venant
4.4. L’EIAH

de l’ensemble des ressources virtuelles correspondant à la topologie de l’expérience.

4.4.2 L’application d’expérimentation

L’application web principale de Lab4CE est son environnement d’apprentissage,


utilisé pour réaliser les expériences et interagir avec les autres utilisateurs. Le chapitre
5 étant dédié au modèle de traces et à son exploitation dans Lab4CE, tandis que le
chapitre 6 détaille les fonctions d’interactions entre utilisateurs, cette section présente
l’application dans ses grandes lignes ainsi que les fonctionnalités de base.

4.4.2.1 Interface de présentation de l’expérience

Une fois connecté au contexte d’une expérience, l’utilisateur, qu’il soit apprenant
ou enseignant, accède à l’interface illustrée par la Figure 4.7. L’interface est divisée en
5 grandes zones. En haut (1), la barre de navigation permet d’accéder à l’ensemble des
fonctionnalités. En bas (2), en vert, se trouve la barre des salons de discussions pour
la messagerie instantanée (cf. section 6.1). À droite (3), sont situés, de haut en bas, le
composant de gestion de l’entraide (cf. section 6.3), le composant d’awareness person-
nelle et sociale (cf. section 5.4.2), ainsi que la liste des utilisateurs connectés exploitée
pour fournir l’awareness individuelle et pour initier certaines interactions entre pairs
(cf. section 6.2). Lorsque ces fonctionnalités sont activées pour une expérience donnée,
elles restent toujours affichées, quelque soit l’état de l’application.
La zone centrale de l’application (4) contient les informations saisies dans l’outil
auteur, et présente les informations générales de l’expérience (objectifs, descriptions,
dates d’accès). Enfin, le panneau du bas (5) expose, le cas échéant, les diverses étapes
de l’expérience. Dans ce dernier composant, si les étapes ont été conçues comme sé-
quentielles et si l’utilisateur connecté est un apprenant pour l’expérience, le passage de
l’étape N à l’étape N + 1 se fait par validation manuelle et entraîne l’impossibilité de
revenir en arrière. Ce dernier panneau est lui aussi affiché pendant la manipulation de
ressource (voir Figure 4.8).
Cette interface est toujours accessible depuis la barre de navigation. Le bouton « Ac-
céder aux laboratoires » en bas du panneau central ainsi que le lien « Laboratoires » de
la barre de navigation permettent d’accéder à l’interface de gestion des laboratoires et
de manipulation de leurs ressources.

4.4.2.2 Interface de gestion des laboratoires et de manipulation des ressources

Illustré par la Figure 4.8, le panneau « Laboratoires » contient l’ensemble des labo-
ratoires auxquels l’utilisateur a accès. Si l’utilisateur possède toujours son propre labo-

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 67


Chapitre 4. Un laboratoire pour l’apprentissage de l’Informatique

Figure 4.7 – Présentation de l’expérience dans l’application d’expérimentation

ratoire, il pourra également, dans certains cas, accéder à celui d’autres utilisateurs réali-
sant cette expérience. Sur la Figure 4.8 est présenté un seul laboratoire, pour lequel l’uti-
lisateur est propriétaire (1). S’il amène ses ressources dans un état défaillant empêchant
toute intervention, il peut à tout moment arrêter son laboratoire (2), ce qui détruira
l’ensemble des ressources virtuelles qu’il contient, puis le redémarrer. Une fois démar-
rées, les différentes ressources manipulables apparaissent sous l’intitulé du laboratoire.
Dans le cas illustré par la Figure 4.8, le laboratoire comprend 7 machines virtuelles. La
première ligne est composée de boutons à liste (3) qui permettent de contrôler l’état
d’alimentation de chaque machine (éteinte, allumée, en veille). Sous ces boutons, est
placée une icône d’accès au terminal de chacune des machines. Lorsque la machine est
allumée, le terminal est disponible (ex. : machine F1).
Lorsqu’un terminal est ouvert (4) l’utilisateur est invité à s’authentifier auprès de
la machine. Le terminal dispose de plusieurs fonctionnalités de base, accessibles par
son menu contextuel (5). L’utilisateur peut changer le type de clavier et dispose égale-
ment des opérations de copier/coller à travers le menu contextuel ou via un raccourci
clavier. Enfin, bien que l’interface ne permette d’afficher qu’un seul terminal à la fois,
les terminaux restent ouverts pour éviter à l’utilisateur de procéder de nouveau à l’au-
thentification sur la machine distante et lui permettre de passer d’une ressource à l’autre
rapidement.

68 Rémi Venant
4.5. Synthèse

Figure 4.8 – Gestion des laboratoires sur l’application d’expérimentation

4.5 Synthèse

Lab4CE est un système distribué pour l’apprentissage pratique de l’informatique.


Son architecture multi-tiers repose sur a) une couche « laboratoire » constituée princi-
palement d’un gestionnaire de cloud, b) un middleware d’exposition de services pé-
dagogiques et de gestion des traces d’apprentissage, et c) une couche « apprentissage »
comprenant un EIAH pour la création et la réalisation d’expériences. L’architecture est
conçue pour permettre à des institutions de l’éducation, ainsi qu’à des structures telles
que des entreprises qui souhaiteraient mettre à disposition leurs ressources, de collabo-
rer facilement en minimisant l’impact sur leurs infrastructures existantes et en offrant
la conservation des données sensibles des utilisateurs du côté de l’institution.
Grâce à l’application auteur, Lab4CE permet à des enseignants ou ingénieurs pé-
dagogiques de concevoir aisément une expérience puisqu’aucune connaissance tech-
nique relative à la gestion d’un cloud n’est requise. Pour une expérience, chaque expé-
rimentateur se voit alors attribuer automatiquement un laboratoire, dans lequel il est
propriétaire de ses propres ressources informatiques, conformément à la topologie de
l’expérience. L’EIAH permet d’accéder facilement à l’ensemble de ces ressources, de les
manipuler et de s’y connecter grâce à un terminal web embarqué. Dans le chapitre 5,
nous introduisons les outils d’awareness et de réflexion qui s’appuient sur un moteur
de collecte et d’enrichissement de traces, tandis que nous exposerons les différentes
fonctionnalités de support aux interactions dans le chapitre 6.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 69


5 Awareness et Réflexion dans
Lab4CE

Contenu
5.1 Les learning analytics . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.1 Définition des learning analytics . . . . . . . . . . . . . . . . . . 72
5.1.2 Learning analytics et awareness . . . . . . . . . . . . . . . . . . 72
5.2 Awareness de la performance dans les VRL . . . . . . . . . . . . . . . 73
5.2.1 Contraintes des VRL pour l’awareness du concept . . . . . . . . 73
5.2.2 Awareness de la performance dans Lab4CE . . . . . . . . . . . . 73
5.3 Gestion des traces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1 Flux de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.2 Modèle de traces . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.3 Framework d’analyse de données . . . . . . . . . . . . . . . . . 76
5.3.4 Gestion individuelle des traces d’apprentissage . . . . . . . . . 77
5.4 Outils pour l’awareness et la réflexion . . . . . . . . . . . . . . . . . . 77
5.4.1 Learning analytics pour le support à l’awareness et à la réflexion 77
5.4.2 L’outil de comparaison sociale . . . . . . . . . . . . . . . . . . . 78
5.4.3 L’outil de réflexion a posteriori . . . . . . . . . . . . . . . . . . . 79
5.4.4 L’outil de réflexion pendant l’action . . . . . . . . . . . . . . . . 81
5.5 Outils de détection de stratégies d’apprentissage . . . . . . . . . . . . 82
5.5.1 Suivi du comportement de l’apprenant . . . . . . . . . . . . . . 83
5.5.2 Système de tuteur intelligent . . . . . . . . . . . . . . . . . . . . 84
5.6 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

C E chapitre présente les fonctionnalités de Lab4CE qui supportent l’awareness du


concept (personnelle et sociale) et de l’environnement de travail, ainsi que celles
liées à la réflexion pendant et après l’activité pratique. Notre approche s’appuie es-
sentiellement sur les learning analytics (LA), présentés ci-dessous. Dans une seconde
section nous exposons l’approche sémantique que nous avons suivie pour définir un

71
Chapitre 5. Awareness et Réflexion dans Lab4CE

indicateur de performance sur lequel reposent nos propositions. Une troisième section
présente le framework intégré dans Lab4CE pour collecter les traces, les enrichir et les
restituer en temps réel ou a posteriori. Nous exposons dans les deux dernières sections
les outils d’analytics intégrés dans l’EIAH pour l’awareness et la réflexion.

5.1 Les learning analytics

À travers notre état de l’art, nous avons évoqué l’usage des traces d’apprentissage
pour pouvoir faciliter le support à l’awareness et la réflexion. Il nous faut toutefois dé-
finir plus précisément ce que sont les LA et expliquer pourquoi ceux-ci sont pertinents
dans nos travaux.

5.1.1 Définition des learning analytics

Le champs des learning analytics peut paraître récent (la première conférence Lear-
ning Analytics and Knowledge (LAK) s’est déroulée en 2011), mais les LA s’appuient sur
des domaines plus anciens tels que la fouille de données (Data Mining) ou encore les in-
teractions homme-machine (IHM). Définis lors de la 1re conférence LAK comme « la me-
sure, la collecte, l’analyse et le report des données sur les apprenants et leurs contextes,
pour la compréhension et l’optimisation de l’apprentissage et des environnements qui
leur sont dédiés », les LA ont un objectif qui fait consensus : la compréhension des
processus d’apprentissage et d’enseignement. Duval (2011) précise l’objectif des LA en
distinguant deux buts pratiques principaux : la visualisation et la recommandation.
Dans le premier cas, le raisonnement sur l’information est laissé à l’utilisateur, tandis
que dans le second, le système lui-même applique un raisonnement pour offrir à l’uti-
lisateur un choix pertinent de ressources, d’activités ou de pairs. D’autre part, Siemens
et Baker (2012), les présentent comme centrés sur l’aide à la décision pour supporter
les apprenants et enseignants dans leurs tâches, plus que sur l’adaptation automatique
de systèmes. Nous adoptons ainsi dans ce manuscrit la définition des LA énoncée ci-
dessus, en considérant notamment son approche centrée utilisateur, qu’il s’agisse d’en-
seignants ou d’apprenants.

5.1.2 Learning analytics et awareness

Morais (2015) propose une interprétation de la définition fournie ci-dessus, en consi-


dérant deux principes majeurs des LA : a) la collecte de preuves sur la progression des
apprenants dans leurs objectifs pédagogiques, et b) la réflexion des enseignants et des
étudiants à partir des feedbacks qu’ils reçoivent sur ces informations pour améliorer

72 Rémi Venant
5.2. Awareness de la performance dans les VRL

l’enseignement et l’apprentissage. Cette interprétation se retrouve chez d’autres au-


teurs qui considèrent pertinente l’application des LA à l’awareness (Schneider et al.,
2012). Plusieurs travaux présentent ainsi la conception de tableaux de bord permettant
aux apprenants d’avoir un feedback sur leurs résultats généraux (Prensky, 2011), leur
niveau global de performance, ou encore leurs forces et faiblesses (Howlin et Lynch,
2014). L’awareness sociale est également traitée, comme dans (Govaerts et al., 2010) où
les apprenants peuvent consulter leurs statistiques d’activité, voir celles des autres étu-
diants, et ainsi se situer par rapport au reste de la classe.

5.2 Awareness de la performance dans les VRL

5.2.1 Contraintes des VRL pour l’awareness du concept

L’application des LA à l’awareness du concept nécessite de réfléchir aux informa-


tions qui doivent être restituées à l’apprenant pour lui permettre de se situer dans son
apprentissage. À ce titre, la performance de l’apprenant illustre sa capacité à démon-
trer des aptitudes spécifiques et la maîtrise de connaissances (Achumba et al., 2013). Sa
mesure repose classiquement sur des évaluations effectuées après l’activité d’apprentis-
sage (Arnold et Pistilli, 2012) comme dans (Ritzhaupt et al., 2015), ou par l’observation
physique (Achumba et al., 2013). Par nature, la mesure a posteriori est incompatible
avec toute forme d’awareness au cours d’une activité pratique. La mesure immédiate
de la performance dans le contexte des VRL nécessite donc la définition d’une métrique
qui s’appuie sur les actions menées par les apprenants pendant le TP.

5.2.2 Awareness de la performance dans Lab4CE

Dans Lab4CE, les informations d’apprentissage émanant des apprenants pro-


viennent, entre autres, des instructions exécutées par ces derniers sur leurs ressources
virtuelles. Ces séquences d’instructions représentent le déroulé de l’activité pratique
réalisée par l’apprenant et reflètent donc sa progression au sein du TP. Ces instructions
peuvent être automatiquement évaluées comme techniquement justes ou fausses : la
réponse retournée par la ressource distante fournit des informations qui peuvent être
utilisées pour inférer l’état de son exécution. Nous nous référons à cet état par le terme
de justesse technique : une instruction qui est techniquement juste signifie qu’elle a été
correctement exécutée. Pour inférer cet indicateur, nous avons identifié les différents
patrons de messages d’erreurs qui peuvent survenir dans un terminal quand une com-
mande techniquement fausse est exécutée (Broisin et al., 2017). À partir de cette étude,
un ensemble de règles fournies en annexe B ont été définies, pour révéler les erreurs
survenant par exemple lorsque des arguments d’une commande sont manquants ou

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 73


Chapitre 5. Awareness et Réflexion dans Lab4CE

lorsque celle-ci est inconnue. Pour valider le calcul de notre indicateur, nous avons ma-
nuellement évalué la justesse technique d’un échantillon de 300 commandes produites
par les étudiants. Sur la base de cet échantillon, 298 commandes furent évaluées de fa-
çon identique par le moteur, soit dans 99.3% des cas. Ainsi, il est possible de fournir
une awareness de la performance de l’apprenant dans le contexte des VRL. La section
suivante présente le framework mis en oeuvre dans Lab4CE pour permettre la capture
de traces et l’inférence de la justesse technique de chaque instruction en temps réel.

5.3 Gestion des traces

La plupart des interactions de l’utilisateur avec Lab4CE sont collectées : les


connexions à la plateforme, les messages instantanés, les demandes d’aide, les actions
sur les laboratoires et les ressources, et la navigation entre les différentes interfaces de
la plateforme. Concernant les interactions entre les utilisateurs et les terminaux des ma-
chines, chaque frappe de touche et, à un plus haut niveau d’abstraction, les instructions
exécutées sur les machines, sont tracées (Venant, 2016).

5.3.1 Flux de données

La Figure 5.1 représente les flux de données qui existent entre les trois couches de
Lab4CE. Le flux bleu représente les données endogènes de Lab4CE, telles que les évé-
nements d’invitation à une collaboration ou les messages instantanés échangés entre
utilisateurs. Le flux vert représente les données de gestion des expériences, laboratoires
et ressources : les informations pédagogiques d’une expérience ou encore l’état d’une
ressource d’un laboratoire. Enfin, le flux rouge représente les données propres à l’inter-
action d’un utilisateur avec une ressource par le moyen du terminal web.
Pour chacune des données échangées dans ces flux, une trace est émise de l’EIAH
vers le LRS. Par exemple, lorsque l’apprenant écrit dans le terminal, les données sont
transmises via le flux rouge à la ressource virtuelle, et une « copie » sous forme de trace
d’apprentissage est envoyée au LRS.

5.3.2 Modèle de traces

La spécification xAPI 1 , utilisée aujourd’hui dans de nombreux projets (Murray et al.,


2012; Rabelo et al., 2015), a été adoptée pour concevoir notre modèle de traces. xAPI
propose une structuration flexible des données pour représenter les actions d’utilisa-
teurs sur des ressources. Un enregistrement xAPI (statement en anglais) se compose
1. https://experienceapi.com

74 Rémi Venant
5.3. Gestion des traces

Figure 5.1 – Flux de données dans Lab4CE

d’au moins trois éléments : l’acteur (l’utilisateur), le verbe (l’action) et l’objet (la res-
source). Il peut aussi comprendre la date de réalisation de l’action, son contexte ou son
résultat.
Pour représenter une instruction exécutée sur une machine distante, nous avons
conçu un objet xAPI spécifique. Par exemple, l’instruction « rm –v myfile », dont la
réponse retournée par la machine sur laquelle elle a été exécutée est « rm : myfile : No
such file or directory », est représentée par un objet computerinstruction illustré par la
Figure 5.2 ; un exemple complet de cet enregistrement xAPI est fourni en annexe D.

Figure 5.2 – Exemple de traces xAPI d’une commande

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 75


Chapitre 5. Awareness et Réflexion dans Lab4CE

5.3.3 Framework d’analyse de données

Le framework illustré par la Figure 5.3 a pour objectif la génération et le stockage


d’enregistrements xAPI, ainsi que l’enrichissement de ces derniers par l’inférence d’in-
dicateurs (Venant et al., 2016). Il s’inspire d’infrastructures existantes telles que celle
proposée dans le projet Migen (Gutierrez-Santos et al., 2010) ou dans l’approche flexible
et extensible de Hecking et al. (2014). Cependant, à la différence de ces approches, notre
architecture réside essentiellement côté client afin de bénéficier du potentiel de calcul
distribué sur les postes clients connectés à la plateforme.

Figure 5.3 – Framework de traces de Lab4CE

Notre proposition inclut trois couches de composants faiblement couplés côté client,
ainsi que deux dépôts distants. Les capteurs surveillent les flux de données sur des
composants spécifiques de Lab4CE ((1) sur la Figure 5.3), génèrent des éléments xAPI
et les envoient au forgeur d’enregistrements sous forme d’événements (2). Le forgeur
agrège les différents éléments en enregistrements xAPI, qui sont alors routés soit au mo-
teur d’enrichissement (3a), soit directement au dépôt de traces (3b). Après une phase
initiale où le moteur d’enrichissement souscrit au forgeur (B) pour recevoir les enregis-
trements qu’il peut enrichir d’après les règles décrites dans le dépôt de règles (A), il
infère et ajoute à chaque enregistrement un ou plusieurs indicateurs, et les renvoie au
forgeur (4) avant leur stockage dans le LRS (5).
Les composants côté client ont été développés avec AngularJS comme pour le reste
des applications web. Les deux dépôts ont été conçus sous la forme d’une pile appli-
cative comprenant une base de données NoSQL (MongoDb) pour faciliter l’intégra-
tion de nouvelles structures d’enregistrement, ainsi qu’une couche d’accès Spring Java
pour exposer à la fois une interface d’accès REST et des point d’accès full-duplex multi-
protocoles (i.e., WebSocket, XHR streaming, XHR polling). Pour exploiter les traces, un
composant peut utiliser l’interface REST de manière asynchrone, ou souscrire à un flux
d’enregistrements xAPI en temps-réel via un point d’accès full-duplex.

76 Rémi Venant
5.4. Outils pour l’awareness et la réflexion

5.3.4 Gestion individuelle des traces d’apprentissage

Si Lab4CE trace l’ensemble des interactions de chaque utilisateur, il est possible


pour chacun d’entre eux de contrôler ses propres données. Nous proposons en effet de
fournir à l’utilisateur un contrôle sur la visibilité de ses traces. Celui-ci peut configurer
son profil depuis la barre de navigation et choisir de donner accès à ses traces à tous les
participants à l’expérience courante, ou uniquement aux membres de son laboratoire.
Ces cas de figure sont présentés dans le chapitre suivant et concernent les utilisateurs
invités dans un laboratoire, ainsi que les pairs qui viennent aider l’utilisateur.

5.4 Outils pour l’awareness et la réflexion

Les outils de visualisation présentés ici s’appuient sur la justesse technique des ins-
tructions exécutées par les apprenants, et visent à fournir une connaissance de leur
performance afin de leur permettre d’analyser ce qu’ils font et pourquoi ils le font.
Nous exposons dans un premier temps les problématiques liées à l’intégration des LA
pendant les sessions d’apprentissage, puis exposons l’ensemble de nos outils. Afin de
faciliter la compréhension de l’utilisation de ces outils, nous les exposons à travers un
scénario d’utilisation.

5.4.1 Learning analytics pour le support à l’awareness et à la réflexion

Pour restituer la performance des apprenants, les tableaux de bord munis de mul-
tiples fonctionnalités de visualisation et d’exploration semblent être une exploitation
fréquente de l’analyse de données : SAM (Govaerts et al., 2012), FORGE (Mikroyanni-
dis et al., 2015), Realizeit (Howlin et Lynch, 2014) et SocialLearn (Ferguson et Shum,
2012) sont autant d’outils de ce type.
Intégrer aisément ces outils à Lab4CE pose cependant un certain nombre de pro-
blèmes. Realizeit et LearningLocker sont propriétaires et ne permettent pas d’être in-
tégrés librement. D’autre part, les outils SocialLearn ou Realizeit ne reposent pas sur
des formats de données interopérables, à la différence de SAM ou FORGE qui reposent
respectivement sur les formats Contextualized Attention Metadata (CAM) et xAPI.
L’awareness pour les situations d’apprentissage pratique nécessite une synchroni-
sation entre les actions réalisées par les apprenants et les informations qui leur sont
retournées. Ces informations doivent refléter l’instant présent, ce qui implique un trai-
tement et une restitution en pseudo temps-réel. Dans SAM, les données exploitées par
les tableaux de bord semblent être mises à jour de manière asynchrone. Par contre, Mi-
kroyannidis et al. (2015) ou Hecking et al. (2014) proposent des architectures s’appuyant

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 77


Chapitre 5. Awareness et Réflexion dans Lab4CE

sur l’utilisation des WebSocket pour retourner un feedback immédiat.


Enfin, ces approches exposent les données à travers des tableaux de bord détaillés,
obligeant les apprenants à alterner entre ces interfaces de visualisation et celles dé-
diées à l’apprentissage. Des formes plus simples de visualisation, conçues comme des
composants légers tels que ceux proposés dans ROLE (Gutierrez-Santos et al., 2010), di-
minueraient la charge cognitive supplémentaire. En effet, Kirsh (2000) suggère d’éviter
l’affichage simultané de différents composants complexes qui amènent l’apprenant à
diviser son attention pour appréhender les multiples informations.

5.4.2 L’outil de comparaison sociale

Objectifs. Cet outil doit encourager la réflexion des apprenants pendant l’activité
en fournissant une awareness personnelle et sociale du concept, dont le lien de causalité
est soutenu par l’étude expérimentale de Wilson et Jan (1993). Les outils de comparai-
son sociale sont conçus pour doter les apprenants d’une conscience sur la performance
du groupe. Ces outils permettent ainsi aux étudiants de comparer leur progression par
rapport à celle de leurs pairs (Michinov et Primois, 2005).
Scénario. Pendant que les apprenants travaillent sur Lab4CE, ils visualisent leur
propre performance ainsi que celle de leurs pairs avec le moins de surcharge cognitive
possible, pour ne pas diminuer leur attention sur leurs activités.

Figure 5.4 – Outil de comparaison sociale

Conception et développement. L’outil affiche un ensemble de barres de progression


qui reflète le niveau de performance des apprenants (d’après la justesse technique d’une
instruction) par un code couleur simple (vert si la valeur est vraie, rouge sinon), en ac-
cord avec différentes études (Sweller, 1994; Chandler et Sweller, 1996) qui montrent que

78 Rémi Venant
5.4. Outils pour l’awareness et la réflexion

des visualisations de la performance doivent nécessiter peu d’attention pour être com-
prises et bénéfiques aux apprenants. Une barre de progression est un composant léger
qui reçoit un flux d’enregistrements xAPI d’instructions à propos d’un apprenant ou
d’un groupe d’apprenants. L’outil dessine alors un dégradé de couleurs au fil des enre-
gistrements reçus. Cet outil illustré en haut de la Figure 5.4 est intégré dans Lab4CE et
fournit trois barres de progression distinctes. La première (Ma session en cours) reflète
la performance individuelle de l’apprenant connecté à la plate-forme pendant sa ses-
sion courante ; la seconde exprime le cumul de cette performance pour l’ensemble des
sessions de travail réalisées par l’apprenant sur l’expérience qu’il réalise ; la dernière
expose ce même cumul, mais pour l’ensemble des apprenants inscrits à l’expérience
courante. Ainsi, ce mode de visualisation demeure opérationnel que les étudiants tra-
vaillent en même temps, ou de manière désynchronisée, puisque les barres sont auto-
matiquement mises à jour à chaque nouvelle commande exécutée par un apprenant.
Dans le menu des utilisateurs connectés (composant en bas de la Figure 5.4), les
barres de progression de la session en cours de chaque utilisateur connecté sont égale-
ment répliquées. Ces visualisations sont fournies pour aider un apprenant en difficulté
à identifier un pair qui pourrait lui venir en aide (cf. chapitre 6).
Cet outil de comparaison sociale permet aux apprenants de prendre conscience de
leur performance et de celle de leurs pairs, avec un faible effort cognitif leur permettant
de rester concentrés sur leur activité. La visualisation de la performance individuelle,
en conjonction avec celle de la performance du groupe, permet aux apprenants de se
positionner par rapport au groupe et peut les aider à se sentir plus engagés dans leurs
tâches (Kollöffel et de Jong, 2016). De plus, les tuteurs sont conscients du niveau de
performance de la classe et sont donc plus à même d’ajuster les objectifs ou le déroulé
de l’expérience. Cependant, cette visualisation simple ne permet pas aux apprenants
d’analyser en détail les actions effectuées ; l’outil suivant répond à ce besoin.

5.4.3 L’outil de réflexion a posteriori

Objectifs. Définie dans la section 2.2.3 de ce manuscrit, la réflexion a posteriori


est un processus qui consiste à repenser les expériences effectuées, les réévaluer, et ap-
prendre de ces processus de réévaluation. Les apprenants deviennent conscients de leur
progression, et capables de prendre des décisions appropriées pour l’améliorer (Davis
et al., 2013). Puisque certaines approches considèrent que la réflexion pour l’appren-
tissage en profondeur ne doit pas se limiter à l’analyse de son propre travail (Wilson,
2008), l’outil présenté ici agit à la fois au niveau individuel et collectif, et vise à sup-
porter la réflexion a posteriori en offrant aux utilisateurs la possibilité de découvrir en
détail ce qu’ils ont fait, mais également ce que leurs pairs ont effectué.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 79


Chapitre 5. Awareness et Réflexion dans Lab4CE

Scénario. Les utilisateurs ré-évaluent leurs propres instructions, ou celles exécutées


par leurs pairs, pour une session de travail donnée ou depuis le début d’une expérience,
sur une ressource particulière ou sur l’ensemble des ressources qu’ils ont manipulées.
Ils peuvent ainsi analyser leur propre travail, mais également découvrir comment leurs
pairs ont procédé pour atteindre les objectifs pédagogiques.
Conception et développement. Pour revoir une session de travail, nous propo-
sons une interface illustrée par la Figure 5.5 qui permet aux apprenants d’analyser
leur propre travail ou celui de leurs pairs (si la permission d’accéder aux traces existe,
comme expliqué dans la section 5.3). L’outil est accessible via le menu de navigation de
Lab4CE, ou en cliquant sur l’une des barres de progression du composant précédent
pour visualiser les actions de la session courante de l’utilisateur correspondant.

Figure 5.5 – Outil de réflexion a posteriori

Le formulaire en haut de l’interface offre un ensemble de filtres pour visualiser une


session selon un utilisateur, une date ou une ressource, afin de faciliter la fouille d’in-
formations à un faible niveau de granularité. Pour chaque ressource sélectionnée, une
chronologie des instructions exécutées est représentée par une timeline dont chaque
nœud représente une instruction, coloré selon sa justesse technique. Le passage du cur-
seur sur un nœud fait apparaître le détail de l’instruction dans un simili-terminal.
L’outil de réflexion a posteriori permet aux utilisateurs de naviguer dans l’histo-
rique des actions qui ont été menées pour une activité pratique donnée, et ainsi amener
les apprenants dans une situation d’apprentissage réflexif où ils peuvent analyser leurs
sessions de travail en détail, selon différents intervalles temporels. De plus, les appre-
nants peuvent facilement se concentrer, grâce au code couleur des artefacts, sur les
difficultés qu’ils ont expérimentées. Aussi, combiné avec l’outil de comparaison sociale

80 Rémi Venant
5.4. Outils pour l’awareness et la réflexion

introduit précédemment, les apprenants sont capables de facilement rechercher une


aide de leurs pairs en analysant les commandes exécutées par les utilisateurs qui sont
en train de travailler sur le système. Cet outil offre également aux enseignants la pos-
sibilité de rejouer les actions des apprenants et d’évaluer leur performance. Ils peuvent
également découvrir des commandes pour lesquelles plusieurs apprenants éprouvent
des difficultés, et ainsi adapter leur enseignement pour atteindre les objectifs péda-
gogiques visés. Enfin, ces derniers peuvent également différencier les étudiants qui
rencontrent une difficulté occasionnelle (i.e., lorsque les nœuds rouges sont accumu-
lés dans la même partie de la timeline), de ceux qui font face à une situation d’échec
pendant une longue période (i.e., lorsque les nœuds rouges sont distribués le long de
la timeline).

5.4.4 L’outil de réflexion pendant l’action

Objectifs. En contraste avec la réflexion a posteriori, la réflexion pendant l’action


s’applique en temps réel (Seibert, 1999) et vise à amener l’apprenant, lorsqu’il échoue,
vers une nouvelle compréhension du phénomène observé (Schon, 1984). Dans notre
contexte, les utilisateurs peuvent effectuer une réflexion pendant l’action grâce aux ter-
minaux : ils peuvent dérouler l’historique de ceux-ci pour analyser ce qui vient d’être
fait, et ainsi exécuter une nouvelle commande et investiguer les changements de la ma-
chine le cas échéant. L’objectif de cet outil est d’augmenter la réflexion pendant l’action
par la possibilité de savoir ce que les pairs viennent juste de faire sur leurs ressources.
Scénario. Pendant l’apprentissage, un apprenant souhaite découvrir si la démarche
qu’il applique pour réaliser la tâche demandée est celle appliquée par un pair, ou dé-
couvrir comment ses pairs réalisent l’expérience proposée.
Conception et développement. L’outil de réflexion pendant l’action illustré par la
Figure 5.6 est accessible depuis la barre de navigation, ou à partir de l’outil de réflexion
a posteriori en cliquant sur le bouton « Revoir la session » situé en haut de chaque
timeline. Cet outil agit comme un lecteur vidéo de terminal et dispose de fonctionnalités
de mise en pause, reprise et arrêt. Lorsqu’il est accédé depuis la barre de navigation,
les mêmes filtres que pour l’outil précédent sont proposés. Lorsque l’outil est ouvert
depuis l’outil de réflexion a posteriori, il rejoue automatiquement la session affichée sur
la timeline, et permet de fournir des détails supplémentaires, dont les hésitations des
apprenants qui n’apparaissent pas au sein des timelines. Tout comme l’outil précédent,
les traces sont obtenues via les services REST fournis par le composant pédagogique du
middleware. En revanche, lorsqu’une session courante est visualisée, l’outil de reflexion
pendant l’action reçoit également les nouvelles traces de l’utilisateur en temps réel.
Pendant une session de travail pratique en présentiel, les apprenants sont habitués

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 81


Chapitre 5. Awareness et Réflexion dans Lab4CE

Figure 5.6 – Outil de réflexion pendant l’action

à aller voir l’écran de leurs partenaires pour obtenir la syntaxe exacte d’un code source,
ou pour comparer leurs résultats. Notre outil vise ainsi à reproduire ce processus dans
une configuration à distance. De plus, combiné avec l’outil de comparaison sociale,
l’outil de réflexion pendant l’action augmente le support de l’apprentissage par les
pairs : les apprenants peuvent facilement identifier les pairs qui réussissent (i.e., les uti-
lisateurs qui exécutent des instructions techniquement justes), et peuvent investiguer
comment ceux-ci résolvent les difficultés de l’activité pratique. Enfin, les enseignants
peuvent observer ce que les apprenants font, et même leur demander de regarder leur
propre terminal pour faciliter l’explication par l’exemple.

5.5 Outils de détection de stratégies d’apprentissage

Suite à l’expérimentation présentée dans le chapitre 8, nous avons constaté l’exis-


tence de corrélations entre le comportement des apprenants sur leurs terminaux et leur
performance académique (i.e., leurs résultats aux examens). Ces comportements sont
formalisés par la notion de stratégies d’apprentissage, tels que la progression ou le tâ-
tonnement détaillées dans la section 8.2.5. Nous nous intéressons ici à leur réutilisation
au sein d’outils destinés aux utilisateurs. En utilisant notre framework d’analyse de
données, les stratégies d’apprentissage sont identifiées et stockées dans le LRS au fur
et à mesure des commandes exécutées par les apprenants sur leurs machines. Deux
outils exploitent ces stratégies : une visualisation pour le suivi du comportement des

82 Rémi Venant
5.5. Outils de détection de stratégies d’apprentissage

apprenants, et un système de tuteur intelligent (Venant et al., 2017b).

5.5.1 Suivi du comportement de l’apprenant

Objectifs. Pendant les sessions d’apprentissage, l’enseignant peut bénéficier d’ou-


tils pour suivre l’engagement ou la progression des apprenants, et pour appréhender
leur comportement face à l’activité, défini par la notion d’engagement comportemen-
tal (Fredricks et al., 2004; Molinari et al., 2016). Cet outil vise donc à supporter l’ensei-
gnant dans son activité par la restitution des stratégies d’apprentissage mises en œuvre
par les apprenants. D’autre part, en situation d’apprentissage pratique, les apprenants
doivent faire preuve de compétences d’auto-régulation (self-regulated learning) (Loyens
et al., 2008), dont les environnements qui les encouragent ont été identifiés comme béné-
fiques pour l’apprentissage (Mason, 2004). Restituer à l’apprenant son comportement
pendant le TP vise donc également à améliorer sa capacité d’auto-régulation.
Scénario. Pendant un TP, l’enseignant peut consulter à tout moment les différentes
stratégies mises en œuvre par les apprenants. L’apprenant dispose quant à lui de la
restitution de ses propres stratégies au fur et à mesure de son activité.

Figure 5.7 – Suivi du comportement des apprenants en temps réel

Conception et développement. L’outil permet de visualiser pendant l’expérience


les stratégies d’apprentissage mises en œuvre par un ou plusieurs apprenants. Illustrée
sur la Figure 5.7, l’interface permet de filtrer l’affichage selon a) les stratégies, b) les
utilisateurs, ou c) les sessions de travail. Dans le cas où toute l’expérience ou la session
courante est sélectionnée, la visualisation se met à jour au fur et à mesure de l’appa-
rition de stratégies chez le(s) apprenant(s) sélectionné(s). Pour chaque apprenant, la
visualisation fait apparaître ses stratégies. Sur la Figure 5.7, seules les stratégies Succès-
puis-réflexion (en vert) et réflexion-puis-succès (en violet) ont été sélectionnées. Les
zones noires sont les intervalles de temps ou aucune de ces deux stratégies n’ont été
détectées.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 83


Chapitre 5. Awareness et Réflexion dans Lab4CE

5.5.2 Système de tuteur intelligent

Objectifs. Les systèmes de tuteur Intelligent (Intelligent Tutoring System, ITS) ont
pour objectifs « d’engager les apprenants dans des activités de raisonnement soutenu
et d’interagir avec eux en s’appuyant sur une compréhension profonde de leur compor-
tement » (Corbett et al., 1997). Nous souhaitons ici soutenir la réflexion par l’utilisation
d’un ITS fondé sur les stratégies d’apprentissage.
Scénario. À partir des stratégies identifiées pendant l’activité pratique, l’ITS peut
fournir à l’apprenant un feedback adapté à son comportement pour l’engager dans
un processus de réflexion, en lui proposant la consultation de ressources d’aide ou en
l’invitant à demander de l’aide auprès d’un pair.

Figure 5.8 – Système de guidage orienté stratégies d’apprentissage

Conception et développement. Notre ITS illustré sur la Figure 5.8 fournit, sous la
forme de messages qui apparaissent au dessus du terminal de l’apprenant, des recom-
mandations lorsque celui-ci rencontre une difficulté pour réaliser la tâche demandée.
Par exemple, lorsque la détection de la stratégie d’essai/erreur se prolonge dans le
temps, le système recommande l’utilisation du manuel de la commande, sans pour au-
tant faire l’action à la place de l’apprenant. Dans le cas où l’apprenant aurait déjà effec-
tué cette opération, sans toutefois surmonter la difficulté rencontrée, l’outil de guidage
recommande alors un pair sélectionné à partir de trois informations : a) les stratégies
appliquées, b) les mesures de performance, et c) la charge d’aide des utilisateurs, pour
éviter de recommander un pair qui serait déjà en train d’aider une personne (le proces-
sus d’entraide est expliqué en détail à la section 6.3). Cet outil permet ainsi de guider
les apprenants selon les stratégies qu’ils mettent en œuvre, et promeut les interactions
sociales entre apprenants en les incitant à s’entraider.

84 Rémi Venant
5.6. Synthèse

5.6 Synthèse

Dans ce chapitre, nous avons exposé comment les learning analytics peuvent être
exploités pour fournir des outils et artefacts capables de supporter l’awareness et la ré-
flexion. Dans notre contexte de situation d’apprentissage pratique, nous avons défini
la justesse technique, une métrique qui s’appuie sur les actions réalisées par les appre-
nants sur leurs ressources. Nous avons également proposé un framework générique
pour la capture et l’enrichissement de traces au format xAPI, utilisé notamment pour
traiter cet indicateur en temps réel. En s’appuyant sur ce framework, nous avons réalisé
plusieurs outils capables de restituer, en temps réel ou a posteriori, ces traces d’appren-
tissage. L’outil de comparaison sociale permet à l’apprenant de prendre conscience de
sa performance et de sa progression en temps réel, et de les comparer à celles de la
classe sans avoir à déporter son attention de son travail en cours. Pendant l’activité,
l’apprenant peut également se référer au travail des autres, à l’aide de l’outil de ré-
flexion pendant l’action, qui lui permet de consulter les terminaux de ses pairs. Propo-
sant une vision plus synthétique, l’outil de réflexion après l’action expose la progres-
sion de la performance des apprenants sous forme de timelines détaillées. Enfin, les
deux derniers outils, dédiés au suivi et au guidage du comportement des apprenants,
s’appuient sur la détection à la volée de stratégies d’apprentissage, calculées par notre
framework de traces d’après les commandes exécutées par les apprenants.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 85


6 Interactions sociales dans
Lab4CE

Contenu
6.1 Messagerie instantanée et salons de discussion . . . . . . . . . . . . . 88

6.2 Support à la collaboration et coopération . . . . . . . . . . . . . . . . . 88

6.2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.2.2 Scénarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.2.3 Conception et développement . . . . . . . . . . . . . . . . . . . 90

6.3 Support à l’entraide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6.3.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6.3.2 Scénario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6.3.3 Conception et développement . . . . . . . . . . . . . . . . . . . 94

6.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

N OUS introduisons ici le support à l’apprentissage par les pairs que nous considé-
rons comme un levier pour favoriser les situations sociales. Pour permettre ces
formes d’apprentissage, nous avons défini parmi nos critères fondamentaux, celui de
la vision partagée d’un laboratoire et de ses ressources, mais également la possibilité
de prise de contrôle d’un laboratoire par différents utilisateurs. Nous avons également
évoqué différentes formes d’apprentissage par les pairs, dont certaines nécessitent que
les apprenants puissent interagir de manière spontanée. Nous présentons ici les fonc-
tions de Lab4CE assurant ces critères. Nous exposons dans un premier temps la messa-
gerie instantanée, outil commun à toutes les activités collectives supportées par notre
environnement, puis exposons le support à la collaboration, la coopération et l’entraide.

87
Chapitre 6. Interactions sociales dans Lab4CE

6.1 Messagerie instantanée et salons de discussion

Lab4CE implémente une messagerie instantanée illustrée par la Figure 6.1 (Broisin
et al., 2015b). Celle-ci propose 3 types de salons : a) un salon public pour les participants
d’une même expérience, b) un salon privé par laboratoire et c) un salon temporaire
créée à la demande d’un utilisateur pour communiquer avec un autre, accessible depuis
le menu contextuel d’un utilisateur illustré par la Figure 5.4. Les salons publiques et
privés peuvent être affichés depuis leur bouton correspondant sur la barre de chat (1
sur la Figure 6.1) et masqués depuis cette même barre ou depuis la fenêtre du salon
elle-même (2). Ces salons étant liés respectivement à l’expérience et au laboratoire, ils
ne peuvent être supprimés de l’interface, à la différence des salons créés à la volée (3).
La discussion au sein du salon publique est appropriée pour les conversations
d’ordre général sur les modalités pédagogiques, ou encore sur les connaissances théo-
riques pour atteindre les objectifs de l’expérience. Pour supporter les activités de col-
laboration ou de coopération qui s’effectuent au sein d’un laboratoire, le salon privé
associé à ce laboratoire est plus approprié.

Figure 6.1 – Salons de discussion de la messagerie instantanée

6.2 Support à la collaboration et coopération

Lab4CE a été pensé pour permettre la collaboration et la coopération (Broisin et al.,


2017). Si certains auteurs utilisent ces termes de manière interchangeable, comme par
exemple Topping (2005) qui y fait référence par le terme « Cooperative learning », d’autres
auteurs en précisent les différences. Nous suivons ici les définitions proposées par Ro-
schelle et al. (1995), et reprises par Dillenbourg et al. (1995). Nous considérons que dans
la coopération, le travail est divisé parmi les participants en tâches indépendantes, tan-
dis que la collaboration implique un effort coordonné de ces participants pour résoudre
le problème donné. Dans Lab4CE nous nous sommes jusqu’à présent concentrés sur les

88 Rémi Venant
6.2. Support à la collaboration et coopération

besoins communs à ces apprentissages : la communication et le partage d’artefacts nu-


mériques sur lesquels les apprenants doivent travailler. Toutefois, nous n’avons pas
traité le besoin de coordination à des étapes précises de l’apprentissage collaboratif
(Dillenbourg et al., 1995) qui nécessitent la mise en œuvre d’outils pour l’implantation
de scripts au sein de l’activité. Par soucis de lisibilité, nous utiliserons l’acronyme CL
(Collaborative/Cooperative learning) ou le terme « collectif » pour désigner indépen-
damment l’une ou l’autre de ces formes d’apprentissage.

6.2.1 Objectifs

Nous abordons le CL à travers deux visions différentes de la mise en œuvre d’épi-


sodes collectifs. Dans la première, l’enseignant détermine à la création de l’expérience
les modalités pédagogiques de CL qu’il souhaite appliquer. D’autre part, il est égale-
ment intéressant de laisser la possibilité aux apprenants d’être à l’initiative de coopéra-
tions ou de collaborations.

6.2.2 Scénarios

6.2.2.1 Scénarios de CL à l’initiative de l’enseignant

À la création de son expérience, l’enseignant souhaite définir des groupes de travail


dont les membres seront affectés au même laboratoire, pour coopérer ou collaborer. Par
exemple, dans une activité de configuration de services réseau, il est possible d’affecter
des tâches différentes aux apprenants : l’un d’entre eux est en charge de la configuration
des serveurs et client NFS (Network File System), le second définit les règles de filtrage
des pare-feux, tandis qu’un troisième configure un serveur d’authentification LDAP
utilisé par les autres serveurs. Dans cette coopération, les trois apprenants font parti du
même laboratoire et travaillent sur des ressources communes.
Toutefois, il peut être intéressant de concevoir des expériences où une partie de
la topologie est partagée. Par exemple, dans une topologie distribuée, une partie des
apprenants configure ses machines comme un client tandis que les autres proposent un
ensemble de services qui seront consommés par les clients. Les apprenants ne doivent
donc pas accéder aux machines des autres, mais communiquer leurs informations de
configuration aux uns et aux autres pour que l’ensemble du réseau soit fonctionnel.
Lors des épisodes de CL, les apprenants d’un même laboratoire pouvent communi-
quer ensemble sur le salon privé mais également voir les terminaux de chacun (utilisés
pour accéder aux machines), et doivent être également notifiés lorsque de nouvelles
actions ont été effectuées sur une ressource du laboratoire.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 89


Chapitre 6. Interactions sociales dans Lab4CE

6.2.2.2 Scénarios de CL à l’initiative de l’apprenant

À un moment de l’activité, plusieurs apprenants souhaitent se partager les tâches


prescrites et coopérer pour atteindre les objectifs demandés, ou plusieurs apprenants
souhaitent collaborer sur les mêmes problématiques pour compléter leurs connais-
sances et savoir-faire. Une fois les objectifs atteints, l’activité collective se termine, éga-
lement à l’initiative des apprenants. L’apprenant à l’initiative de l’activité collective
invite ses pairs à rejoindre son laboratoire. Par la suite, les différents expérimentateurs
du laboratoire (propriétaires ou invités) communiquent sur le salon privé, consultent
les terminaux des autres et accèdent aux outils de réflexion pour regarder en détail les
travaux des membres du laboratoire. Lorsqu’un utilisateur n’est plus invité à un labo-
ratoire, ses droits sur celui-ci sont révoqués.

6.2.3 Conception et développement

6.2.3.1 Outils pour le CL à l’initiative de l’enseignant

Pour permettre à l’enseignant de concevoir des activités de CL, nous nous appuyons
sur le modèle de Lab4CE présenté dans la section 4.3, qui permet l’affectation de plu-
sieurs apprenants à un même laboratoire, mais également la définition de topologies
d’expériences où certaines ressources sont communes aux différents laboratoires qui
seront générés. Lorsque plusieurs apprenants sont initialement affectés au même labo-
ratoire, chacun en est le propriétaire, et peut effectuer toutes les opérations possibles
sur celui-ci (i.e., le démarrer, l’arrêter) et sur les ressources qu’il contient. Cette confi-
guration est à l’initiative du concepteur de l’expérience, qui peut définir les groupes
d’apprenants travaillant au sein du laboratoire ; nous précisons toutefois que cette op-
tion est encore indisponible dans l’application auteur.

6.2.3.2 Outils pour le CL à l’initiative de l’apprenant

Nous proposons un système d’invitation pour permettre à un apprenant d’inviter


un ou plusieurs pairs dans son laboratoire, à n’importe quel instant de l’expérience. À
partir de la liste des utilisateurs connectés, un apprenant peut demander à un pair de
rejoindre son laboratoire (cf. Figure 5.4). Si ce dernier accepte, les deux protagonistes
sont notifiés, et le second est ajouté comme invité au laboratoire du premier. Nous rap-
pelons qu’un invité a un nombre d’actions restreint par le middleware et la couche la-
boratoire : il ne peut que consulter les états du laboratoire et des ressources (ex. : voir si
une machine est éteinte ou pas) sans pouvoir les modifier, mais peut cependant ouvrir
un terminal sur une des machines pour interagir avec celle-ci.

90 Rémi Venant
6.2. Support à la collaboration et coopération

Figure 6.2 – Gestion des laboratoires

Dans l’interface de gestion des laboratoires illustrée par la Figure 6.2, l’utilisateur
connecté, Richard, voit son propre laboratoire ainsi que deux autres laboratoires dans
lesquels il est invité, celui de Sharon (replié sur la figure) et celui de Stuart. Pour une
expérience, les laboratoires ayant la même topologie et le même nombre de ressources,
une représentation en tableau a été choisie pour une offrir une vue compacte des res-
sources accessibles et faciliter la comparaison entre deux ressources de même nom sur
deux laboratoires différents. À tout moment, un propriétaire de laboratoire peut mettre
fin à une invitation : dans ce cas, l’invité est exclu du laboratoire.

6.2.3.3 Vue commune dans un laboratoire partagé

Dans le composant de gestion des laboratoires, chaque membre d’un laboratoire


est matérialisé par une ligne. Sur la Figure 6.3 qui représente l’interface de l’utilisateur
Rémi, la ligne « Charles Boisvert » correspond aux différents terminaux de cet autre
membre, pour chacune des machines du laboratoire de Rémi. Si une machine est allu-
mée et que Charles travaille (comme par exemple, R2 sur la Figure 6.3), ou a récemment
travaillé dessus, Rémi peut ouvrir en lecture seule le terminal de Charles et consulter
ce qu’il fait. Lorsque Charles travaille sur une machine, si Rémi n’est pas déjà en train
de regarder ce que fait Charles, une icône spécifique apparaît pour notifier Rémi (ex. :
F1 sur la Figure 6.3) que des activités sont en train d’être exécutées par Charles.
Pour permettre cette vue partagée des terminaux en temps réel, le système utilise le
framework de traces et un des services synchrones proposés par le middleware. Lors-
qu’une trace relative à la manipulation d’une machine (ex. : un nouveau caractère affi-
ché sur le terminal) est émise par un utilisateur du laboratoire, celle-ci est diffusée à tous

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 91


Chapitre 6. Interactions sociales dans Lab4CE

Figure 6.3 – Vue commune dans un laboratoire partagé

les autres membres. Lorsqu’un utilisateur se connecte, il reçoit également les dernières
traces émises, pour lui permettre de consulter rapidement ce que les autres membres
ont effectué avant son arrivée. Si ce dernier souhaite retrouver les actions menées au-
paravant, il dispose des outils de réflexion. Il est ainsi possible de consulter les actions
d’un autre même lors d’une connexion a posteriori.
Ainsi, lors d’une collaboration ou d’une coopération, chaque participant est notifié
d’une action d’un pair sur une des ressources du laboratoire, et peut consulter le termi-
nal de ce pair en temps réel. Enfin, l’accès à un laboratoire par un apprenant, qu’il soit
invité ou propriétaire, lui octroie le droit de consulter le travail des autres membres par
les outils de réflexion, et de dialoguer dans le salon privé du laboratoire.

6.3 Support à l’entraide

6.3.1 Objectifs

Si la collaboration et la coopération sont courantes dans la littérature en Sciences


de l’Éducation, le tutorat par les pairs peut être défini comme l’autre grande famille
de l’apprentissage par les pairs, caractérisé par un rôle spécifique pris par l’apprenant
(Topping, 2005). L’entraide, phénomène désignant un épisode où l’apprenant va re-
chercher ou offrir de l’aide auprès d’un autre, se rapporte donc au tutorat par les pairs,
puisqu’elle engage les apprenants dans des interactions entre aidant et aidé. Toutefois,
l’entraide se distingue de l’aspect structuré des interactions présentées par Topping par

92 Rémi Venant
6.3. Support à l’entraide

Figure 6.4 – Processus de recherche d’aide (Nelson-Le Gall, 1981; Newman, 1994)

son caractère spontané : ces interactions, observables dans les situations d’apprentis-
sage pratique en classe, ne sont pas initiées ni gérées par l’enseignant.
Nous avons souhaité explorer cette forme d’apprentissage, dont les VRL semblent
être un terrain propice à son implantation (Venant et al., 2017c). Dans le reste de ce
manuscrit, nous désignerons l’étudiant qui reçoit une aide par le terme « aidé », tandis
que nous emploierons le terme « aidant » pour l’étudiant qui fournit une aide.

6.3.2 Scénario

L’aide dans des contextes sociaux tels que la classe a été l’objet de nombreuses
études en SHS. La plupart des recherches que nous avons revues se concentre exclu-
sivement sur la recherche d’aide, à la différence de l’offre d’aide, bien que les deux
activités témoignent d’aptitudes d’auto-régulation (Puustinen, 1998), de connaissances
du domaine et de connaissances métacognitives (Newman, 1998).
À titre de définition formelle de la recherche d’aide, (Nelson-Le Gall, 1981; New-
man, 1994) ont proposé un modèle de processus illustré par la Figure 6.4 qui est la base
de notre scénario pédagogique. La première étape requiert de l’apprenant des capaci-
tés métacognitives telles que l’évaluation de la difficulté d’une tâche ou la surveillance
du progrès de son apprentissage (Nelson-Le Gall, 1981). Les EIAH peuvent fournir à
l’apprenant l’awareness personnelle utile au support de ces fonctions (Aleven et Koe-
dinger, 2001), tel que l’outil présenté dans la section 5.4.2. Une fois conscient du besoin
de rechercher de l’aide, le passage à l’action n’est pas trivial. Par exemple, la peur d’être
perçu(e) comme incompétent par ses pairs ou par les enseignants peut être un verrou
à la prise de décision (Ryan et al., 2001), même si plusieurs études ont montré les béné-
fices de l’aide à la demande, en comparaison avec une aide automatiquement fournie
par le système : Wood et Wood (1999) ont trouvé une corrélation significative positive
de la demande d’aide à l’atteinte des objectifs pédagogiques, tandis que Renkl (2002) a
observé que dans le cas de l’aide initiée à la demande de l’apprenant, les explications
sont fournies à un moment plus approprié.
L’étape suivante dans le modèle de référence est l’identification des sources d’aide

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 93


Chapitre 6. Interactions sociales dans Lab4CE

potentielles. En contexte présentiel, les étudiants ont pour habitude de formuler leur
demande à leurs voisins. Toutefois, demander de l’aide à une personne en particulier
ou interroger l’ensemble de la classe sont deux stratégies possibles qui peuvent corres-
pondre à différents profils d’apprenants, et qui doivent être rendues possibles. Trouver
une aide spécifique nécessite également chez l’apprenant la prise de conscience de la
manière dont leurs pairs réussissent la tâche en cours, un problème qui rejoint la re-
cherche sur la présence sociale (Swan et Shih, 2005) et l’awareness (Gutwin et al., 1995)
dans les EIAH, discutée dans le chapitre 2.2.2 et dont les outils de support sur Lab4CE
ont été présentés dans les sections 4.4.2.2 et 5.4.2 respectivement.
Une fois les sources d’aide potentielles identifiées, l’apprenant doit formuler une
demande appropriée pour obtenir une aide efficace. Une fois l’épisode d’aide terminé,
les apprenants doivent évaluer l’aide qu’ils ont reçue et, par analogie, celle qu’ils ont
fournie. Cette étape est importante dans un EIAH, puisque les résultats d’évaluation
peuvent être utilisés pour des traitements a posteriori tels que la recommandation de
pairs (Ferguson et Shum, 2012).

6.3.3 Conception et développement

À partir de ce modèle, nous avons dérivé un ensemble de contraintes qu’un EIAH


doit respecter pour favoriser l’entraide, dont certaines font partie de notre cadre de réfé-
rence pour les interactions sociales : a) le support à l’aide à la demande, b) la gestion des
demandes et des offres d’aide, c) la liberté pour l’apprenant de choisir la (les) source(s)
d’aide, d) l’identification d’un pair comme source d’aide potentielle, e) le support à la
communication synchrone, et f) le partage des artefacts numériques de travail.
En nous appuyant sur les fonctionnalités existantes de Lab4CE préalablement pré-
sentées dans ce manuscrit, nous avons conçu un système de gestion de l’aide autour
duquel s’articule la réalisation des différentes étapes du processus de la Figure 6.4.
Pendant une session de travail, notre système permet d’envoyer des requêtes d’aide
aux autres, et de répondre à ces demandes. Illustré par les Figures 6.5a et 6.5b, les vues
et fonctionnalités de ce composant sont différentes selon le rôle de l’utilisateur.
L’outil de comparaison sociale présenté au chapitre précédent permet aux appre-
nants de comparer leur performance, et les supporte ainsi dans la tâche métacognitive
d’évaluation du besoin de demande d’aide. Accessible à tout moment, en respect de la
contrainte (a), le bouton « Demander de l’aide » (1 sur la Figure 6.5a) ouvre un formu-
laire de requête d’aide, illustré Figure 6.6. Les apprenants sont invités à saisir le nom de
l’exercice (i.e., la tâche) sur lequel ils travaillent accompagné d’une courte description
du problème. De plus, les apprenants peuvent choisir d’envoyer leur requête anony-
mement : cette stratégie peut aider à réduire le risque d’évitement de l’aide (Ryan et al.,

94 Rémi Venant
6.3. Support à l’entraide

(a) Vue apprenant (b) Vue enseignant

Figure 6.5 – Gestion de l’aide

2001). Enfin, le formulaire permet d’envoyer une requête à tous les autres participants
(i.e., une requête collective), ou à un pair ou enseignant particulier (i.e., une requête
individuelle), ce qui répond à la contrainte (c) définie précédemment. Pour aider les
apprenants à identifier un pair spécifique, le formulaire reprend la vue du composant
des utilisateurs connectés (cf. Figure 5.4) qui renseigne, pour chacun d’entre eux, leur
performance individuelle. Cette vue facilite ainsi le choix d’une source d’aide, en res-
pect de la contrainte (d).

Figure 6.6 – Formulaire de création d’une requête d’aide

La liste des requêtes d’aide (2 dans la Figure 6.5a) est ainsi ordonnée : les requêtes
d’aide individuelles (destinées à l’utilisateur connecté) apparaissent en premier et sont
munies d’une icône d’alerte permettant de prévenir l’utilisateur qu’une requête lui est
spécifiquement destinée, et de les distinguer des requêtes collectives qui apparaissent
sous les requêtes individuelles. Pour chaque type de requête, le classement est réalisé
par ordre d’apparition décroissant, c’est-à-dire de la plus ancienne à la plus récente.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 95


Chapitre 6. Interactions sociales dans Lab4CE

Chaque requête apparaît avec le nom de son auteur, ou bien l’expression « étudiant
anonyme » le cas échéant, suivie de l’exercice et de la description du problème.
L’apprenant peut alors prendre en charge ou ignorer n’importe quelle requête.
Aussi, à partir d’une requête collective, un étudiant peut automatiquement créer une
même requête d’aide (i.e., requête collective pour le même exercice et le même pro-
blème) en cliquant sur l’option « Moi aussi ! » (3 sur la Figure 6.5a). Cette fonctionnalité
a pour but d’engager les apprenants dans le processus de recherche d’aide, en les ras-
surant sur le fait qu’un pair rencontre la même difficulté. Une fois qu’une requête a été
prise en charge par un utilisateur, ou annulée par son auteur, celle-ci est supprimée de
tous les systèmes de gestion de l’aide auxquels elle a été transmise.

6.3.3.1 Système de gestion de l’aide pour l’enseignant

Les enseignants peuvent également examiner les requêtes en cours et les prendre en
charge. La liste des requêtes d’aide dans cette vue (1 sur la Figure 6.5b) est ordonnée dif-
féremment : tandis que la même distinction entre requêtes individuelles et collectives
s’applique, chaque groupe est agrégé par requête commune, c’est-à-dire selon l’exer-
cice et le descriptif de la requête. Ainsi, pour plusieurs apprenants qui ont cliqué sur le
bouton « Moi aussi ! » d’une certaine requête, l’ensemble des requêtes est regroupé sous
la forme d’une liste, adjointe d’un badge indiquant le nombre de requêtes communes
(2 sur la Figure 6.5b). Cette liste peut être développée pour faire apparaître les identités
des différents auteurs de ces requêtes. Les identités sont toujours fournies à l’ensei-
gnant, que la requête soit anonyme ou non avec, pour le premier cas, un indicateur
supplémentaire notifiant l’enseignant du caractère anonyme. Cette visualisation per-
met ainsi à l’enseignant de détecter rapidement un problème rencontré par plusieurs
apprenants, et donc de réaliser une action de groupe et non individuelle.

6.3.3.2 Règles de gestion

Le processus d’aide à la demande peut provoquer certains comportements indési-


rables. Les apprenants peuvent être tentés de s’appuyer sur les autres pour atteindre les
objectifs pédagogiques sans développer leurs compétences d’auto-régulation (Puusti-
nen, 1998), une problématique connue des ITS où certains apprenants jouent avec le
système pour recevoir le plus d’aide possible. Dans le but de limiter de tels comporte-
ments, quatres principes de régulation ont été implantés. Un apprenant ne peut réaliser
qu’une seule demande à la fois (règle 1). Une fois la requête soumise, l’apprenant doit
attendre que celle-ci soit prise en charge, ou bien l’annuler, pour pouvoir soumettre une
nouvelle requête. Lorsque la requête est prise en charge, celle-ci disparaît automatique-
ment des interfaces de gestion de l’entraide des différents utilisateurs. D’autre part,

96 Rémi Venant
6.3. Support à l’entraide

une fois engagé dans un épisode d’aide, l’apprenant ne peut pas faire une nouvelle
demande : il doit d’abord terminer l’épisode dans lequel il est engagé (règle 2).
Concernant les étudiants aidants, ils disparaissent de la liste des sources d’aide po-
tentielles lors de la création d’une requête individuelle lorsqu’ils sont déjà engagés dans
une offre d’aide (règle 3). Cette troisième règle vise à réduire le risque pour les étu-
diants les plus performants d’être trop sollicités visuellement par le système de gestion
de l’aide, et donc de ne plus réaliser leur propre travail ou, à l’inverse, de ne plus prêter
attention aux demandes d’aide.
Enfin, passé une certaine période (ex. : 3 minutes dans notre configuration de
Lab4CE, fixées arbitrairement dans un premier temps), une demande d’aide collective
sans réponse est automatiquement redirigée à un enseignant en tant que demande in-
dividuelle, et l’auteur de la demande en est averti (règle 4). Cette règle cible les risques
d’abandon de la recherche d’aide après un trop grand nombre de requêtes sans réponse.

6.3.3.3 Épisode d’aide et évaluation

Quand un utilisateur prend en charge une requête, trois droits d’accès différents lui
sont octroyés. L’utilisateur n’est pas ajouté au laboratoire, mais il dispose d’un accès au
salon privé de l’apprenant aidé pour permettre aux deux protagonistes de communi-
quer entre eux. L’aidant peut également accéder à l’outil d’analyse des traces de l’aidé
pour visualiser en détail les tâches réalisées auparavant par cet apprenant, et aussi voir,
en temps réel, les différents terminaux de cet apprenant. Si l’interface de gestion des
laboratoires d’un aidant ressemble à celle des laboratoires partagés, il n’a pas accès
aux ressources du laboratoire, mais uniquement aux vues des terminaux de l’appre-
nant qu’il aide, ce qui répond au critère (f) défini pour l’entraide. Combinées ensemble,
ces différentes fonctionnalités permettent ainsi à l’aidant et à l’aidé de coordonner leurs
perceptions et leurs connaissances pour atteindre un degré commun de compréhension
du problème rencontré par l’aidé.
Enfin, l’un ou l’autre des utilisateurs impliqués dans un épisode d’aide peut clore
cette session à tout moment. Le système notifie alors les deux utilisateurs et leur de-
mande d’évaluer succinctement l’épisode : l’aidant indique sa satisfaction quant à l’aide
qu’il a apportée, tandis que l’aidé donne son appréciation sur l’aide reçue. Cette éva-
luation est configurable dans Lab4CE par une mesure booléenne (avis positif/négatif),
ou par une échelle de Lickert graduée de 1 à 5.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 97


Chapitre 6. Interactions sociales dans Lab4CE

6.4 Synthèse

Par son système de communication synchrone, de partage de la vue et du contrôle


des laboratoires et des ressources, Lab4CE propose différentes modalités d’interaction
entre apprenants. La collaboration ou la coopération peuvent être à l’initiative de l’en-
seignant qui, lors de la phase de conception d’une expérience, a la possibilité de do-
ter plusieurs apprenants du même laboratoire. Partageant les mêmes droits d’accès, ils
peuvent réaliser de concert l’activité pratique. Cette forme d’apprentissage peut éga-
lement être pensée à l’échelle de l’expérience, par la création de ressources communes
aux différents laboratoires. L’enseignant dispose donc à la fois d’une liberté de choix sur
le plan technique de la création d’une expérience (quelles ressources, quelle topologie,
etc.), mais aussi d’une liberté de choix sur le plan pédagogique de l’activité.
D’autre part, Lab4CE peut également donner la maîtrise à l’apprenant de ses inter-
actions. Le système d’invitation aux laboratoires permet à un étudiant d’inviter un ou
plusieurs de ses pairs quand il le souhaite et pour la durée qu’il désire, pour coopérer
ou collaborer sur tout ou partie de l’expérience. Enfin, en s’appuyant sur un modèle
théorique de référence de la recherche d’aide, et des études associées, Lab4CE supporte
l’entraide spontanée entre pairs mais aussi l’aide fournie par les tuteurs, et propose un
système de régulation de ces processus.
Nous avons ainsi présenté comment Lab4CE répond aux critères pour le support
aux interactions sociales définis au chapitre 2, en présentant des outils qui s’appuient
sur les possibilités du modèle de gestion exposé au chapitre 4, et travaillent conjointe-
ment avec les outils de LA présentés au chapitre 5.

98 Rémi Venant
Troisième partie

Expérimentations

99
7 Perception de l’expérience
d’apprentissage et utilisabilité
de Lab4CE

Contenu
7.1 Contexte général des expérimentations . . . . . . . . . . . . . . . . . . 102
7.1.1 Contexte pédagogique . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.2 Contexte technique . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.2 Étude de l’utilisabilité et de l’usage des outils d’awareness et de ré-
flexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.1 Conception et protocole expérimental #1 . . . . . . . . . . . . . 104
7.2.2 Résultats #1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.3 Étude de la perception et de l’usage du système d’entraide . . . . . . 110
7.3.1 Conception et protocoles expérimentaux #2 et #3 . . . . . . . . . 110
7.3.2 Résultats #2 et #3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.4 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

L AB4CE a été utilisé en contexte d’apprentissage réel tout au long des travaux ex-
posés dans ce manuscrit. Au cours des utilisations, diverses expérimentations de
terrain ont été menées. Cette partie est dédiée à leur présentation et à l’analyse des
résultats obtenus.
La première section de ce chapitre expose le contexte général dans lequel Lab4CE
a été utilisé. Nous y présentons également les mesures des capacités de charge du sys-
tème pour permettre au lecteur d’évaluer la réutilisabilité du système, et faciliter la
reproductibilité des expérimentations. La seconde section présente une première ex-
périmentation dont l’objectif est l’évaluation de l’utilisabilité de Lab4CE et l’étude de
l’usage des outils d’awareness et de réflexion du point de vue des apprenants. Une
troisième section se focalise sur leur perception de l’entraide et sur l’usage du système
dédié proposé dans le chapitre 6.

101
Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

7.1 Contexte général des expérimentations

7.1.1 Contexte pédagogique

Les expérimentations traitées dans ce manuscrit s’appuient toutes sur l’utilisation


de Lab4CE à l’Institut Universitaire Technologique (IUT) « A » Paul Sabatier de Tou-
louse, au département Informatique, sur une période de trois années. L’enseignement
dispensé s’inscrit dans le champ disciplinaire de l’Architecture matérielle, des Systèmes
d’exploitation et des Réseaux, et concerne les modules M1101 et M3102 1 définis dans le
Programme Pédagogique National de 2013 (Ministère du supérieur et de la recherche,
2013). Lab4CE a été utilisé par des étudiants de 1re et 2e année du parcours de formation
initiale, ainsi que par des étudiants inscrits en année spéciale (AS, parcours délivrant le
diplôme universitaire technologique en une seule année).
Le Tableau 7.1 présente l’ensemble des sessions d’utilisation de Lab4CE. Dans la
colonne « Année », qui expose l’année dans laquelle sont inscrits les apprenants, « AS »
désigne l’année spéciale. Le nombre d’utilisateurs « Nb. Util. » fait référence au nombre
d’apprenants qui ont manipulé au moins une fois une de leurs ressources sur Lab4CE
pendant un TP. Pour l’expérimentation #1 effectuée lors de la session 2, le nombre d’in-
dividus ayant participé à cette expérimentation est différent du nombre d’utilisateurs
de Lab4CE : 32 des 107 étudiants ont participé à l’expérimentation pour former un
groupe test (cf. 7.2). En dehors de ce cas particulier, le nombre d’utilisateurs d’une ses-
sion correspond au nombre de participants aux expérimentations correspondantes. La
Colonne « Nb. TP » indique le nombre de TP en présentiel réalisés pendant la session.
Enfin, la dernière colonne « Indice Exp. » correspond au numéro de l’expérimentation
auquel nous faisons référence dans la suite de cette partie.

7.1.2 Contexte technique

Le déploiement de Lab4CE a été réalisé sur un unique serveur physique, hébergé à


l’IRIT. L’ensemble des couches de Lab4CE était localisé sur la même machine, jouant le
rôle de serveur de virtualisation, de serveur d’applications web et de LRS. Le serveur
est accessible depuis l’extérieur, et a été utilisé par les apprenants depuis différentes
localisations (à l’IUT comme en dehors des locaux universitaires).
Un ensemble de tests de performance a été mené pour valider l’utilisabilité du sys-
tème du point de vue technique, dont nous résumons ici les résultats.
La machine a les caractéristiques suivantes :
— Type de serveur : DELL PowerEdge R520 TPM ;
1. Les modules A2101 et A2103, spécifiques aux AS, sont dérivés des modules M2101 et M3102

102 Rémi Venant


7.1. Contexte général des expérimentations

Tableau 7.1 – Sessions d’utilisation de Lab4CE

Session Module/intitulé Année Nb. Util. Nb. TP Période Indices Exp.


de l’activité
1 M1101 - Intro- 1ère 139 4 oct. 2014 4
duction au Shell
2 M1101 - Pro- 1ère 107 3 nov., dec. 1, 5
grammation 2015, janv.
Shell 2016
3 A2103 - Réseaux AS 18 3 mars 2016
2
4 M3102 - Réseaux 2ème 56 3 oct., nov. 2
2016
5 M1101 - Intro- 1ère 128 3 oct., nov.,
duction au Shell dec. 2016
6 A1104 - Réseaux AS 24 4 nov., dec. 3
2016
7 A2103 - Réseaux AS 24 4 mars., avr.
2 2017

— Processeurs : 2 Intel Xeon E5-2450 2,10Ghz (pour un total de 32 coeurs virtuels) ;


— Mémoire vive : 64 Go ;
— Espace disque Système : 300 Go SAS 6Gbit/s, 15000tr/min ;
— Espace disque Données : 2To SAS 6Gbit/s 7200tr/min ;
— Connexion Réseau : 1Gb/s ;
— Coût de l’équipement : 4600€.
La couche logicielle installée est la suivante :
— OS : Linux Ubuntu Server 14.04 ;
— Hyperviseur : KVM ;
— Gestionnaire de cloud : OpenStack Kilo (v. 2015.1.4) ;
— Serveur d’applications web : Glassfish 4.1 / Java 8u45 ;
— SGBD LRS : MongoDb (v. 2.4.9).
Le Tableau 7.2 résume les mesures de capacités de charges du système. Les capacités
maximales du serveur sont tout juste suffisantes pour supporter une promotion entière
d’IUT (par exemple, les effectifs de première année à l’IUT de Toulouse sont d’environ
175 étudiants) dans le cadre d’une expérience simple (une machine par étudiant), ou

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 103


Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

pour un groupe d’étudiants sur une expérience plus complexe (pour une expérience
comportant 4 machines, 46 étudiants peuvent travailler en parallèle).
Il est a noté que lors de l’utilisation de la plateforme, certaines latences ont été re-
marquées. L’analyse des journaux du serveur et le suivi de sa charge, qui ne montrent
pas de signes de faiblesse particuliers, nous amène à conclure sur l’hypothèse d’un
goulot d’étranglement situé sur l’infrastructure réseau de l’IUT ou de celle de l’IRIT.

Tableau 7.2 – Mesures des capacités de charge du système

Mesure Valeur
Nombre maximal de machines virtuelles 187
exécutées en parallèle
Temps moyen de création d’une machine < 3s.
Temps moyen de création d’un laboratoire < 10s.
composé de 3 machines et 2 réseaux
Nombre maximal de connexions clientes web 180
simultanées

7.2 Étude de l’utilisabilité et de l’usage des outils d’awareness


et de réflexion

Dans cette section, nous étudions l’impact des outils d’awareness et de réflexion
présentés à la section 5.4 sur la perception des apprenants quant à leur apprentissage
pendant une activité pratique, selon les 5 dimensions suivantes : la pertinence du sys-
tème, la réflexion, les interactions, le support des pairs et l’interprétation.
Pour cette expérimentation, notre objectif était de comparer la perception de l’ap-
prentissage ressentie par des étudiants utilisant Lab4CE avec celle d’étudiants exploi-
tant le contexte d’apprentissage traditionnel de l’IUT (Broisin et al., 2017, 2015a).

7.2.1 Conception et protocole expérimental #1

L’expérimentation #1 a impliqué 80 étudiants dont la répartition en genre reflétait


celle de l’IUT (9 filles, 71 garçons), et qui étaient inscrits au module M1101 traitant du
système d’exploitation Linux et de la programmation Shell. L’expérimentation a été
conduite pendant 3 sessions pratiques en présentiel de 90 minutes chacune. Ces ses-
sions portaient toutes sur la programmation Shell : les étudiants devaient découvrir
et tester par eux-mêmes des commandes Shell sur leur terminal, puis composer avec

104 Rémi Venant


7.2. Étude de l’utilisabilité et de l’usage des outils d’awareness et de réflexion

celles-ci des scripts dans l’objectif de créer des programmes interactifs. Les étudiants
devaient soumettre également un premier rapport en lien avec la première session,
ainsi qu’un second rapport à l’issue des deuxième et troisième sessions. Ces rapports
devaient être téléversés sur le LMS de l’IUT (Moodle) quatre jours après les première et
troisième sessions respectivement, de manière à permettre aux apprenants de terminer
leurs devoirs pendant le week-end.
Un groupe contrôle d’étudiants (N = 48 ; 6 filles, 42 garçons ; âge moyen = 18,8
ans) avait accès, de façon classique, au système d’exploitation Debian à partir des or-
dinateurs de l’IUT pour mener leurs activités. Le groupe test (N = 32 ; 3 filles, 29
garçons ; âge moyen=18,6 ans) avait à sa disposition l’environnement Lab4CE. L’expé-
rience conçue pour les activités pratiques était composée d’une unique machine vir-
tuelle par apprenant, sur laquelle ils réalisaient l’ensemble de leurs manipulations.
Deux enseignants différents ont effectué une démonstration de Lab4CE et de ses fonc-
tionnalités au groupe test pendant les 10 premières minutes de la première session.
Pour cette expérimentation, Lab4CE disposait des fonctionnalités suivantes :

— communication synchrone ;

— invitation à un laboratoire ;

— outil de comparaison sociale (awareness personnelle et sociale du concept) ;

— outil de réflexion pendant l’action ;

— outil de réflexion a posteriori.

À la fin de la dernière session pratique, les deux groupes d’étudiants ont été invités
à répondre au questionnaire COLLES (Constructivist Online Learning Environment Sur-
vey). Ce questionnaire (Taylor et Maor, 2000) comporte vingt-quatre questions dont les
réponses sont fournies sur une échelle de Likert graduée sur 5 niveaux (i.e., « presque
jamais », « rarement », « des fois », « souvent », « presque toujours ») ; il a pour objectif
de mesurer la perception de l’expérience d’apprentissage des étudiants, et a été appli-
qué avec succès dans de nombreuses études (Sthapornnanon et al., 2009; Johnson et al.,
2006; Tierney et Palmer, 2013). Le COLLES a été originellement conçu pour comparer
l’expérience désirée des apprenants (i.e., ce qu’ils attendent d’un enseignement) et leur
expérience effective (i.e., ce qu’ils ont reçu de l’enseignement). Dans notre expérimenta-
tion, l’expérience effective des deux groupes d’apprenants a été comparée : nous avons
demandé au groupe contrôle d’évaluer leur expérience avec les ordinateurs de l’ins-
titution, tandis que le groupe test devait évaluer leur expérience d’apprentissage avec
Lab4CE. De plus, le questionnaire SUS (System Usability Scale), reconnu comme un outil
rapide et fiable pour mesurer la perception de l’utilisabilité d’un système (Brooke et al.,
1996), a également été dispensé aux apprenants.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 105


Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

7.2.2 Résultats #1

7.2.2.1 COLLES

L’ensemble des mesures d’usage de Lab4CE et de ses fonctionnalités est présenté


dans le Tableau 7.3. Il est à noté que le nombre d’apprenants actifs du groupe test pen-
dant la première session (i.e., 17) diffère significativement du nombre d’étudiants total
du groupe test (N = 32). Cette différence peut s’expliquer par le fait que pendant la
première session, certains étudiants utilisaient, pour se connecter à Lab4CE, une ma-
chine physique de l’institut dont le système d’exploitation était lui-même fondé sur
Linux ; ces étudiants pouvaient alors ne pas utiliser Lab4CE mais directement le termi-
nal de la machine physique. Pour les sessions suivantes, les étudiants du groupe test
qui utilisaient les machines physiques de l’institution devaient démarrer celle-ci sous
le système d’exploitation Microsoft© Windows© pour accéder à notre environnement.
Vingt deux étudiants du groupe test et 36 du groupe contrôle ont répondu au ques-
tionnaire COLLES. Le diagramme des quartiles sur la Figure 7.1 illustre la distribution
des réponses relatives à cinq des six dimensions évaluées par le COLLES. La dimension
« support du tuteur » a été retirée de notre analyse, puisque les conditions expérimen-
tales (i.e., sessions en présentiel et aucun tuteur connecté à Lab4CE) ne permettaient pas
d’évaluer ce critère. La Figure 7.1 expose, pour chaque dimension, les résultats obtenus
auprès du groupe contrôle et du groupe test ; les médianes, quartiles et extremums sont
illustrées par les boîtes de Tukey, les moyennes par les points reliés entre eux.
La première dimension « pertinence » exprime l’intérêt ressenti par les apprenants
dans le cours par rapport à une future pratique professionnelle. La moyenne du score
donné par le groupe test est légèrement supérieure à celle du groupe contrôle, tandis
que la répartition des résultats est plus recentrée. Cette dimension du questionnaire
traitant plus de l’enseignement lui-même que de l’environnement support, des fortes
différences n’étaient pas attendues. Toutefois, cette échelle montre que travailler sur
une plateforme dotée d’outils supplémentaires pour l’awareness n’impacte pas négati-
vement la perception des apprenants sur les savoir-faire qu’ils acquièrent pour réussir
leurs pratiques professionnelles futures.
La seconde dimension « réflexion » s’intéresse à la réflexion et à la pensée critique.
Même si l’environnement traditionnel évalué par le groupe contrôle ne fournit pas
d’outils pour l’awareness ou la réflexion, le graphique ne fait pas apparaître de dif-
férence significative entre les deux groupes puisque seules la moyenne et la médiane
sont faiblement supérieures pour le groupe test. Pour expliquer ce résultat inattendu,
nous faisons ici l’hypothèse que les apprenants du groupe test ne réalisaient pas qu’ils
étaient engagés dans un processus réflexif lorsqu’ils consultaient les outils de Lab4CE.
En effet, selon les statistiques d’usage du Tableau 7.3, presque 42% des apprenants du

106 Rémi Venant


7.2. Étude de l’utilisabilité et de l’usage des outils d’awareness et de réflexion

Tableau 7.3 – Statistiques d’usage de Lab4CE dans l’expérimentation #1

Session pratique 1 2 3
Nb. d’utilisateurs actifs 17 32 30
dans le groupe
% d’utilisateurs actifs 53,1% 100,0% 93,8%
dans le groupe
Outil de comparaison sociale
Nb. d’utilisateurs actifs 13 19 18
qui ont affiché l’outil
% d’utilisateurs actifs 76,5% 59,4% 60,0%
qui ont affiché l’outil
Performance moyenne 84,8 86,0 87,6
des utilisateurs actifs
(de 0 à 100)
Outils de Réflexion Après Pendant Après Pendant Après Pendant
Nb. d’utilisateurs ac- 7 1 14 3 12 5
tifs qui ont analysé leur
propre travail
% d’utilisateurs actifs 41,2% 5,9% 43,8% 9,4% 40,0% 16,7%
qui ont analysé leur
propre travail
Nb. d’utilisateurs actifs 11 3 15 2 9 2
qui ont analysé le tra-
vail de pairs
% d’utilisateurs actifs 34,7% 17,7% 46,9% 6,3% 30,0% 6,7%
qui ont analysé le tra-
vail de pairs
Sessions collaboratives
% d’utilisateurs actifs 29,4% 21,9% 16,7%
qui ont travaillé avec
au moins un pair

groupe test ont utilisé l’outil de réflexion a posteriori pour étudier leurs propres ses-
sions de travail. D’un autre côté, nous pensons que les sujets du groupe contrôle ont
considéré dans leur évaluation les processus de réflexion qui se passaient en classe,
c’est-à-dire en dehors de leur environnement d’apprentissage.
Les retours des deux groupes sont presque équivalents pour la dimension « interac-
tion » du questionnaire, qui mesure l’étendue des conversations relatives à l’apprentis-

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 107


Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

Figure 7.1 – Résultats du questionnaire COLLES

sage entre étudiants et les échanges d’idées. Ici, des résultats plus élevés pour le groupe
test que pour le groupe contrôle étaient attendus : a) puisque l’expérience s’est dérou-
lée en présentiel, les interactions et dialogues entre apprenants étaient indépendants de
l’environnement informatique utilisé pour réaliser l’activité pratique ; b) Lab4CE four-
nit une messagerie où les étudiants peuvent échanger instantanément des messages
textuels, et un total de 166 messages ont été transmis pendant les 3 sessions. De plus,
les statistiques d’usage montrent que 30% des sujets du groupe test ont travaillé au
moins 1 fois avec un pair en utilisant le système d’invitation à un laboratoire. De même
que pour la dimension précédente, nous pensons que les apprenants ne se sont pas
sentis fortement impliqués dans des activités d’interaction lorsqu’ils expliquaient leurs
idées à leurs pairs ou lorsqu’ils recevaient des réponses ou des explications.
Les résultats à propos du support par les pairs sont également similaires pour les
deux groupes, voire même légèrement inférieurs pour le groupe test. Outre les hypo-
thèses précédentes qui peuvent expliquer ces résultats inattendus (ici aussi, 47% des su-
jets du groupe test ont utilisé l’outil de réflexion a posteriori pour analyser le travail de
pairs), cette dimension de l’analyse révèle une amélioration potentielle de notre plate-
forme. Les apprenants ont significativement utilisé les outils de réflexion pour analyser

108 Rémi Venant


7.2. Étude de l’utilisabilité et de l’usage des outils d’awareness et de réflexion

le travail effectué par leurs pairs, mais le système ne fournit pas d’awareness aux appre-
nants d’une telle information. Dans le COLLES, la dimension du support par les pairs
est traité selon les sentiments qu’a un apprenant de l’encouragement de ses pairs à sa
participation, ou encore de la valeur qu’ils apportent à sa contribution. Nous pensons
donc que fournir aux apprenants une information portant sur les analyses effectuées
par des pairs sur leurs travaux permettrait d’augmenter ce sentiment.
Enfin, la dernière dimension « interprétation » vise à évaluer la pertinence ressentie
par les apprenants des messages échangés entre eux, et entre eux et les enseignants.
La moyenne légèrement plus élevée ainsi que la concentration de la distribution plus
prononcée pour le groupe test semblent montrer que les utilisateurs ont plus de faci-
lités à échanger des messages pertinents. Il semble donc que l’utilisation d’outils de
réflexion tend à les aider à obtenir une meilleure compréhension de leurs actions, et
ainsi permettre un dialogue plus adéquat.
En plus des statistiques d’usage commentées précédemment, une donnée intéres-
sante est le nombre d’analyses de travaux de pairs effectuées le jour où le premier
rapport devait être soumis : presque 43% des étudiants du groupe test ont analysé au
moins une session d’un pair en utilisant l’outil de réflexion a posteriori. Nous émettons
l’hypothèse que ces étudiants ne savaient pas comment achever les objectifs de leurs
travaux pratiques, et ont ainsi cherché de l’aide dans les travaux effectués par leurs
pairs. Cette hypothèse est supportée par les statistiques d’usage : le niveau moyen de
performance des apprenants dont les sessions ont été analysées par d’autres est de 90.
Le Tableau 7.3 révèle également que l’outil de réflexion pendant l’action n’a presque ja-
mais été utilisé. Cette tendance peut être expliquée par le fait que les sessions effectuées
pendant l’expérimentation ont pris place dans un contexte présentiel où les apprenants
pouvaient se déplacer et aller consulter l’écran de leurs pairs, mais aussi par le fait que
les apprenants ont utilisé les fonctions de partage de terminaux de Lab4CE (comme
mentionné précédemment, environ 30% des sujets du groupe test ont réalisé des ses-
sions de travail collectives sur l’environnement) qui offrent déjà une vue en temps réel
du terminal des différents participants.
Enfin, l’outil de comparaison sociale qui, par défaut, est masqué dans l’interface de
l’utilisateur, a été affiché par la plupart des utilisateurs à chaque session. Comme le
montre le Tableau 7.3, le pourcentage d’utilisateurs qui affichent l’outil diminue avec
l’augmentation de la performance. Cette observation concorde avec la recherche sur les
outils de comparaison sociale : leur impact sur les performances cognitives et acadé-
miques a été abondamment examiné, et les résultats principaux montrent que situer les
apprenants sur leurs propres performances par rapport aux performances des autres
encourage les efforts d’apprentissage et augmente la performance de la tâche (Kollöffel
et de Jong, 2016; Michinov et Primois, 2005).

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 109


Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

7.2.2.2 System Usability Scale

Le score au SUS a été calculé selon (Brooke et al., 1996). Le score mesuré est de
62,4 pour le groupe contrôle et de 73,6 pour le groupe test. Selon (Bangor et al., 2009),
les équipements de l’institut ont été évalués comme étant sous la limite acceptable de
l’utilisabilité d’un système, tandis que Lab4CE a été qualifié comme bon selon ce critère.

7.3 Étude de la perception et de l’usage du système d’entraide

Nous avons conduit deux autres expérimentations pour étudier l’usage du système
de gestion de l’aide. Notre étude porte ici sur l’analyse de la perception de l’entraide
chez les apprenants, ainsi que sur l’usage des outils d’entraide, aussi bien du point de
vue de l’aidé que de celui de l’aidant (Venant et al., 2017c).

7.3.1 Conception et protocoles expérimentaux #2 et #3

Les deux expériences ont été menées dans le cadre d’un cours d’administration de
réseaux sur deux populations différentes. Ce cours visait chez les apprenants la décou-
verte par la pratique, à travers plusieurs sessions en présentiel, de différents concepts
liés à la mise en place d’infrastructures réseaux et à la configuration des services as-
sociés. Les étudiants disposaient, au sein de leur laboratoire, de différentes machines
virtuelles et routeurs qu’ils devaient administrer. Pendant les sessions en classe, les ap-
prenants ont travaillé en dyades ; nous considérons donc les résultats observés comme
ceux de dyades et non d’individus. Pour ces expérimentations, Lab4CE embarquait les
fonctionnalités suivantes :
— communication synchrone ;
— système de gestion de l’entraide avec évaluation des épisodes par valeur booléenne
(satisfait / insatisfait) ;
— outil de comparaison sociale (awareness personnelle et sociale du concept) ;
— outil de réflexion pendant l’action ;
— outil de réflexion a posteriori.
Dans l’expérimentation #2 (Exp. #2), nous souhaitions déterminer si les apprenants
avaient tendance à s’entraider spontanément, sans aucune intervention de l’enseignant.
Pour cette expérimentation, 28 dyades d’étudiants de seconde année ont suivi 3 ses-
sions en présentiel de 90 minutes chacune (N = 56 ; 5 filles, 51 garçons ; âge moyen
= 19,8 ans). Aucun enseignant n’était disponible sur Lab4CE, et les apprenants étaient

110 Rémi Venant


7.3. Étude de la perception et de l’usage du système d’entraide

libres d’utiliser le système de gestion de l’aide. Enfin, au moment de l’expérimenta-


tion, le système de gestion de l’aide ne permettait pas encore, lors de la création d’une
requête d’aide, de fournir l’exercice et la description liés à la difficulté rencontrée.
Dans l’expérimentation #3 (Exp. #3), 12 dyades (N = 24 ; 7 filles, 16 garçon ; âge
moyen = 24,26 ans) d’étudiants inscrits en année spéciale ont effectué 4 sessions en pré-
sentiel de 90 minutes chacune pour réaliser les tâches demandées, et un enseignant était
connecté à Lab4CE lors de toutes les sessions. L’enseignant a informé au préalable les
apprenants que l’engagement dans des interactions d’entraide pouvait leur octroyer 2
points supplémentaires à leur note à l’examen final (sur une échelle comprise entre 0
et 20). Toutefois, il n’a pas spécifié combien d’interactions étaient attendues pour obte-
nir ce bonus, ni s’il considérait les demandes et les réponses d’aide différemment. Pour
cette expérimentation, le système de gestion de l’aide présenté à la section 6.3. était
pleinement disponible. Enfin, à l’issue de cette expérimentation, un questionnaire a été
délivré aux apprenants, pour évaluer leur perception de l’entraide lors d’une activité
pratique.

7.3.2 Résultats #2 et #3

7.3.2.1 Résultats de l’usage du système d’entraide

Les résultats d’usage sont fournis dans le Tableau 7.4. Pour être capable d’analyser
les résultats des deux expérimentations de manière similaire, nous avons calculé tous
les indicateurs (excepté les pourcentages) par sessions de travail, ces dernières étant de
même durée à chaque fois. Une première observation est l’usage quasi nul de l’aide
dans Exp. #2 : le nombre moyen de requêtes par dyade et par session est de 0,47, tandis
que celui des prises en charge par dyade et par session est de 0,15 seulement. Le constat
est donc le même que pour Renkl (2002) : les apprenants ne semblent pas utiliser sou-
vent le système d’aide par eux-mêmes. Cependant, l’élément motivationnel introduit
dans Exp. #3 (i.e., le bonus de 2 points) semble augmenter considérablement l’utilisa-
tion du système d’entraide. Puisqu’aucun enseignant n’était disponible pendant Exp.
#2, le pourcentage d’aides fournies par des apprenants par rapport au total d’aides four-
nies vaut logiquement 100%. Alors que pour Exp. #3 le pourcentage d’aides fournies est
deux fois plus grand que pour Exp. #2 (i.e., 33% pour Exp. #2 et 66% pour Exp. #3), 41%
des aides fournies l’ont été par l’enseignant. D’autre part, concernant le pourcentage
d’aides fournies par les apprenants par rapport à l’ensemble des demandes, on observe
ici des résultats similaires pour Exp. #2 et Exp. #3, i.e., 33% et 39% respectivement. Il
semble donc que le facteur motivationnel encourage les apprenants à rechercher de
l’aide, mais que d’autres sources d’engagement sont à identifier pour améliorer la prise
en charge d’aide par les apprenants.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 111


Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

Tableau 7.4 – Résultats d’usage pour l’étude de l’entraide

Indicateur Exp. #2 Exp. #3


Moyenne du nb. de demandes d’aide par session 13,00 35,25
Moyenne du nb. de demandes d’aide par session et par 0,47 2,94
dyade
Moyenne du nb. d’aides fournies par session 4,33 23,25
Moyenne du nb. d’aides fournies par des apprenants par 0,15 1,15
session et par dyade
% d’aides fournies par rapport au demandes d’aide 33% 66%
% d’aides fournies par des apprenants par rapport au total 100% 59%
d’aides fournies
% d’aides fournies par des apprenants par rapport aux 33% 39%
demandes
% évaluations positives de la part des aidés 46% 69%
% évaluations positives de la part des aidants 23% 60%

Nous pouvons également constater que les évaluations des épisodes d’aide entre
apprenants sont significativement meilleures pour Exp. #3. Dans Exp. #2, les pourcen-
tages d’évaluations positives des aidés comme des aidants sont en dessous de 50% (i.e.,
46% et 23% respectivement), tandis que pour Exp. #3, ils sont à 69% et 60% respective-
ment. Cette augmentation significative, en particulier concernant les aidants, peut s’ex-
pliquer notamment par la présence de l’enseignant sur la plateforme qui peut augmen-
ter la confiance des apprenants souhaitant fournir leur aide. Cette hypothèse semble
être confirmée par les retours de l’enseignant suite à l’expérimentation, qui a expliqué
que plusieurs apprenants lui avaient demandé de confirmer leurs explications lorsque
ces derniers étaient en train d’aider un pair.

7.3.2.2 Questionnaire sur l’entraide

Le questionnaire a été rempli par 15 des 24 étudiants de Exp. #3. Les résultats dé-
taillés ainsi que l’intégralité du questionnaire sont fournis en annexe C, tandis qu’une
sélection de questions, dont les résultats sont les plus significatifs est exposée dans le
Tableau 7.5. À travers 28 questions métacognitives, le questionnaire vise à mesurer le
ressenti des apprenants sur leur rapport à l’aide en général, et à la manière dont celle-ci
s’opère sur Lab4CE. Le questionnaire est structuré en 3 catégories de questions.
La première catégorie cible le rapport qu’ont les apprenants à l’aide en général, et
comprend 6 questions pour lesquelles les réponses sont données à l’aide d’une échelle

112 Rémi Venant


7.3. Étude de la perception et de l’usage du système d’entraide

Tableau 7.5 – Extrait des réponses du questionnaire sur l’entraide

Catégorie Indice Question x σ


Général 1.3 Dans le cadre de mon apprentissage, 3,53 1,41
j’ai l’habitude de demander de l’aide à
d’autres étudiants.
Général 1.4 Dans le cadre de mon apprentissage, j’ai 3,73 1,03
l’habitude d’aider d’autres étudiants.
Général 1.6 Dans le cadre de mon apprentissage, j’ai 4,00 1,22
pour habitude d’aider les autres même si
je ne suis pas certain de ma réponse.
Demande 2.2 Avec Lab4CE, je préfère demander de 1,93 1,22
l’aide anonymement.
Demande 2.3 Avec Lab4CE, je préfère demander de 2,46 1,41
l’aide à quelqu’un en particulier plutôt
qu’à tous.
Demande 2.5 On a répondu à mes demandes dans des 3,60 1,12
délais raisonnables.
Demande 2.7 Je suis satisfait dans l’ensemble des aides 4,00 0,76
que l’on m’a apportées.
Offre 3.5 Apporter de l’aide m’a permis de vérifier 3,60 0,99
et consolider la maîtrise de mes connais-
sances.
Offre 3.6 Répondre à des demandes d’aide m’a 2,40 1,24
donné l’impression de ne pas avoir assez
de temps pour réaliser mon travail per-
sonnel.
Offre 3.7 L’aide m’a permis de confronter mon 3,00 1,25
point de vue à celui des autres.
Offre 3.8 À l’avenir, si mes offres ou demandes 3,47 1,30
d’aide n’apportent pas de bonus sur ma
note finale, j’utiliserai toujours le système
d’aide.
Offre 3.11 Informations utiles pour demander de
l’aide à un utilisateur :
• Indentité : 40%
• Performance : 33%
• Indentité et performance : 27%

de Lickert dont les valeurs varient de 1 (pas du tout d’accord) à 5 (tout à fait d’accord).
Nous constatons que les apprenants considèrent qu’ils n’hésitent pas à demander de

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 113


Chapitre 7. Perception de l’expérience d’apprentissage et utilisabilité de Lab4CE

l’aide à des pairs (1.3), ainsi qu’à en offrir (1.4), mais semblent moins enclins à en offrir
s’ils ne sont pas certains de leurs réponses (1.6). Ce résultat va dans le sens des obser-
vations faites précédemment à propos de l’usage de l’outil d’aide, dont la présence de
l’enseignant sur la plateforme peut faciliter le sentiment de maîtrise des connaissances.
Dans la seconde catégorie dédiée à la demande d’aide et comportant 8 questions
à échelle de Lickert et 1 question ouverte, les étudiants confirment le faible usage de
la fonction d’anonymat lorsqu’ils demandent de l’aide (2.2) : une préférence que l’on
constate aussi du côté des étudiants qui souhaitent apporter leur aide, puisque 40% des
réponses à la question sur les informations nécessaires pour fournir une aide ciblent ex-
clusivement l’identité de la personne, et 27% ciblent l’identité et la performance (3.11).
D’autre part, les apprenants ne semblent pas vraiment plus enclins à préférer deman-
der de l’aide à tous plutôt qu’à une personne en particulier, le résultat à la question 2.3
montrant un écart-type élevé et une moyenne proche de 2,5 (pour une plage de valeurs
comprise entre 1 et 5). Ce résultat confirme donc la nécessité de proposer aux appre-
nants la stratégie d’une demande d’aide à tous ainsi que celle d’une demande indivi-
duelle. Enfin, nous constatons que les apprenants semblent plutôt satisfaits du temps
de réponse à leurs demandes (2.5) ainsi que des aides fournies (2.7) ; ce résultat doit
cependant être interprété en considérant le fait que, passé un certain délai, le système
redirige automatiquement les demandes sans réponse à un enseignant connecté sur la
plateforme (cf. section 6.3.3.2). En effet, les résultats d’usage montrent que le nombre de
prises en charge d’aide par des apprenants n’a pas significativement augmenté d’une
expérimentation à l’autre malgré le bonus utilisé comme levier motivationnel.
Enfin la troisième catégorie de questions concerne les prises en charge d’aides, à
travers 8 questions à échelle de Lickert, 2 questions ouvertes, et une question à choix
sur les informations nécessaires pour apporter de l’aide. Nous observons parmi les ré-
sultats les plus significatifs que les apprenants ont conscience de l’effet autorégulant
de l’offre d’aide. En effet, ils estiment qu’apporter de l’aide leur permet de vérifier et
consolider leurs connaissances (3.5), sans pour autant avoir l’impression de perdre du
temps pour réaliser leurs propres travaux (3.6). Toutefois, les résultats semblent mon-
trer que le système d’aide de Lab4CE n’a pas ou peu d’impact sur l’augmentation de
la confrontation de points de vue. L’aide semble donc être principalement appliquée
pour des cas où l’aidé ne sait pas comment réaliser la tâche demandée, et non pas dans
des cas où un doute existe et où l’aidé souhaite vérifier son point de vue. Enfin, dans la
dernière question, nous constatons que les apprenants semblent enclins à continuer de
s’entraider a posteriori, sans bonus additionnel (3.8).

114 Rémi Venant


7.4. Synthèse

7.4 Synthèse

Nous avons présenté dans ce chapitre 3 expérimentations en contexte présentiel.


La première visait à évaluer la perception des étudiants de leur apprentissage lors de
la réalisation de travaux pratiques avec Lab4CE, et de la comparer à celle d’un envi-
ronnement traditionnel. Nous constatons que la majorité des outils d’awareness et de
réflexion ont été utilisés par la plupart des étudiants actifs, et observons une diminu-
tion de l’usage de l’outil d’awareness sociale au fur et à mesure que la performance
individuelle augmente. Les résultats du questionnaire COLLES montrent que les étu-
diants ont évalué de manière similaire Lab4CE et l’environnement traditionnel en ce
qui concerne l’interaction entre pairs ou la réflexion. Si l’évaluation semble présenter
un biais de par le contexte présentiel des enseignements, et que le questionnaire lui-
même peut être remis en question par son caractère peut être trop généraliste pour
l’utilisation que nous en avons faite, ces résultats soulignent, avec l’utilisation faible
du système de collaboration à la demande, le manque d’awareness sociale de l’espace
de travail proposé par Lab4CE. Ainsi, nous avons identifié qu’un système de notifica-
tion de l’analyse des travaux d’un apprenant par ses pairs pourrait être important pour
augmenter sa réflexion et susciter les interactions sociales.
Les deuxième et troisième expérimentations présentées dans ce chapitre ciblent
l’analyse de l’usage des outils d’entraide et la mesure de la perception des apprenants
de l’aide entre pairs dans les TP. Nous constatons un paradoxe entre l’usage factuel de
l’entraide par les apprenants et leur perception : ils ne formulent ni ne répondent sou-
vent à des demandes d’aide, mais estiment toutefois qu’ils ont l’habitude de s’entrai-
der. Avec une source de motivation supplémentaire, nous observons une augmentation
significative des demandes d’aide. Toutefois, le levier utilisé ici ne semble pas impac-
ter, ou très peu, leur prise en charge. La mesure de la perception des apprenants nous
permet également de valider le besoin qu’ils ont à disposer de plus de stratégies pour
demander de l’aide. Enfin, ces résultats semblent également confirmer la conscience
des apprenants quant au bénéfice de l’entraide sur l’apprentissage.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 115


8 Performance et comportement
dans Lab4CE

Contenu
8.1 Engagement des apprenants et performance académique . . . . . . . 118
8.1.1 Conception et protocole expérimental #4 . . . . . . . . . . . . . 118
8.1.2 Impact du système sur l’engagement des étudiants . . . . . . . 119
8.1.3 Activité des apprenants et performance académique . . . . . . 120
8.2 Comportement des apprenants et réussite académique . . . . . . . . . 121
8.2.1 Conception et protocole expérimental #5 . . . . . . . . . . . . . 122
8.2.2 Jeu de données et performance académique . . . . . . . . . . . 122
8.2.3 Analyse des indicateurs quantitatifs . . . . . . . . . . . . . . . . 123
8.2.4 Analyse des motifs séquentiels d’actions . . . . . . . . . . . . . 124
8.2.5 Stratégies d’apprentissage . . . . . . . . . . . . . . . . . . . . . . 126
8.2.6 Résultats #5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
8.3 Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

C E chapitre se focalise sur le rapport entre l’activité des apprenants sur le système
et leurs résultats d’apprentissage. Nous présentons ici les résultats de deux ana-
lyses dont le contexte général reste le même que celui présenté dans le chapitre pré-
cédent. Une première section présente la quatrième expérimentation dont l’objectif est
d’évaluer l’impact du système sur l’engagement des étudiants dans l’apprentissage du
système d’exploitation Linux, et de mesurer la potentielle corrélation entre l’activité de
ces apprenants et leur performance académique. Nous explorons dans une seconde et
dernière section, à un niveau de détail plus fin, les comportements individuels des su-
jets en terme d’actions réalisées pendant les sessions d’apprentissage pratique et leur
corrélation avec les résultats académiques des apprenants.

117
Chapitre 8. Performance et comportement dans Lab4CE

8.1 Engagement des apprenants et performance académique

8.1.1 Conception et protocole expérimental #4

8.1.1.1 Echantillon et contexte pédagogique

L’expérimentation #4 (Broisin et al., 2015b) a été menée pendant un cours d’intro-


duction aux commandes et à la programmation Shell, avec 139 étudiants de première
année, dont la répartition en genre reflétait celle de l’IUT (123 garçons et 16 filles) avec
un âge moyen de 18,64 ans. L’expérimentation ayant été menée au tout début du cours,
nous considérons tous les étudiants comme débutants en Informatique. L’expérimen-
tation s’est étalée sur une période de quatre semaines. Chaque semaine, une session
pratique en présentiel de 90 minutes était dispensée.
Pendant ces quatre semaines, le cours visait trois objectifs pédagogiques princi-
paux : la compréhension des commandes Shell principales, la gestion du système de
fichiers Linux par ces commandes, et la compréhension de concepts rudimentaires
de la programmation Shell. Pour chaque session, les apprenants devaient accomplir
une liste de tâches nécessitant l’utilisation d’un ensemble de commandes. Ils devaient
comprendre quelles fonctionnalités proposaient les commandes, comment celles-ci de-
vaient être manipulées (i.e., quels arguments devaient ou pouvaient être utilisés), et
exécuter ces commandes pour effectuer les tâches demandées. Dans la dernière session
pratique, les apprenants devaient employer les commandes découvertes préalablement
pour développer de simples scripts Shell à partir de structures conditionnelles et itéra-
tives. Pour parvenir à ce dernier objectif, les étudiants devaient également transférer
des compétences acquises auparavant dans un cours d’introduction à l’algorithmique.
Enfin, pour chacune des quatre semaines, les apprenants devaient téléverser un rap-
port à propos de l’activité de la semaine sur le LMS de l’IUT.

8.1.1.2 Support technologique

Avant l’expérimentation, un cours avait été dispensé à ces étudiants sur l’instal-
lation et l’utilisation de VirtualBox, ainsi que sur la création d’une machine virtuelle
reflétant l’environnement traditionnel de l’IUT. Ainsi, pour cette expérimentation, les
apprenants ont eu la liberté d’utiliser Lab4CE, accessible de manière permanente tout
au long de l’expérimentation, ou la machine virtuelle de leur ordinateur personnel.
Pour cette expérimentation, Lab4CE présentait les fonctionnalités suivantes :
— communication synchrone ;
— invitation à un laboratoire.

118 Rémi Venant


8.1. Engagement des apprenants et performance académique

Une présentation de la plateforme a été effectuée pendant les 5 premières minutes


de la première séance en présentielle, par les enseignants chargés des séances de tra-
vaux pratiques. Après cette brève introduction à Lab4CE, les apprenants ont disposé
d’une liberté totale dans l’utilisation de l’une ou l’autre des solutions technologiques.

8.1.1.3 Informations collectées

Outre les traces issues de Lab4CE, il a été également demandé aux apprenants, pen-
dant la première séance, de préciser s’ils avaient déjà déployé une machine virtuelle sur
leur propre ordinateur. À l’issue de l’expérimentation, nous avons aussi collecté leur ré-
sultat à l’examen académique qu’ils ont effectué 2 semaines après la dernière session
pratique. Cet examen consistait en un questionnaire à choix multiples d’une durée de
45 minutes, créé collaborativement par l’ensemble des enseignants impliqués dans ce
module. La variable dépendante définie pour cette étude, nommée performance aca-
démique, a été calculée à partir de l’extraction de 23 questions relatives aux concepts
abordés pendant les 4 sessions pratiques de l’expérimentation. Cette variable est une
valeur continue comprise entre 0 et 100.

8.1.2 Impact du système sur l’engagement des étudiants

Les statistiques d’usage de Lab4CE sont données par le Tableau 8.1. 71 étudiants
ont utilisé Lab4CE de manière continue, avec une moyenne de 7 sessions d’environ 40
minutes de travail par étudiant. Le nombre moyen de commandes saisies par machine
virtuelle est de plus de 770. Une donnée intéressante sont les jours de la semaine pen-
dant lesquels les apprenants se sont connectés au système : en dehors du lundi, jour
correspondant à la date butoire de la remise tardive des rapports, ils ont significative-
ment travaillé pendant le week-end, à savoir juste avant de déposer le rapport de la
semaine. Cette information suggère un effet positif de Lab4CE sur l’engagement des
apprenants lorsqu’il s’agit de pratiquer l’administration de système : plus de 50% des
sujets ont utilisé une machine virtuelle de Lab4CE, tandis que seulement 25% d’entre
eux (i.e., 31 étudiants) ont installé une machine virtuelle sur leur propre ordinateur.
À partir des données du Tableau 8.1, nous avons également analysé le travail collec-
tif entre apprenants. Dans cette expérimentation, seulement 75 messages ont été postés
sur le salon public du chat de l’expérience, la plupart d’entre eux ne présentant aucun
lien avec l’activité pédagogique. Seulement deux étudiants ont travaillé ensemble sur la
même machine virtuelle en utilisant le système d’invitation au laboratoire, et échangé
7 messages au sein du salon privé du laboratoire. Ces résultats peuvent être expliqués
par le fait que a) les étudiants devaient téléverser leur propre rapport pour une acti-
vité donnée, b) les étudiants n’étaient pas habitués à travailler à plusieurs lorsqu’ils

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 119


Chapitre 8. Performance et comportement dans Lab4CE

Tableau 8.1 – Statistiques d’usage de Lab4CE dans l’expérimentation #4

Indicateur Valeur
Nb. machines virtuelles (=Nb. d’utilisateurs Lab4CE) 71
Nb. sessions (avec un minimum d’1h entre chaque) 477
Nb. sessions par étudiant 6,7
Durée moyenne d’un session (minutes) 39
Nb. moyen de commandes par VM 772
Jours de la semaine où les étudiants étaient actifs Lundi (33%), Samedi
(26%), Dimanche (16%)
Nb. messages échangés dans le salon publique 75
Nb. moyen de travaux collectifs par laboratoire 0,014
Nb. moyen de messages par salon privé 7

n’étaient pas physiquement ensembles, c) les activités pratiques proposées dans cette
expérimentation n’étaient pas assez avancées pour requérir l’aide de pairs. De plus,
dans cette expérimentation, aucun outil d’awareness, de réflexion ou d’aide n’était dis-
ponible. Nous pouvons donc également émettre l’hypothèse que dans cette version du
système, les apprenants n’étaient pas incités à travailler ensemble.

8.1.3 Activité des apprenants et performance académique

Si presque tous les 139 étudiants impliqués dans l’expérimentation ont participé
à l’examen académique obligatoire, l’analyse illustrée par la Figure 8.1 ne prend en
compte que les étudiants qui ont réalisé l’examen et utilisé le système Lab4CE au moins
une fois (certains apprenants ont abandonné le parcours ou n’étaient pas présents lors
de l’examen). Pour corriger les données, nous avons également supprimé les outliers,
aussi bien parmi la population expérimentale que parmi les questions prises en compte
dans l’examen : si le score moyen des étudiants à une question était plus faible que le
premier ou plus grand que le troisième quartile, la question n’était pas prise en compte
dans notre analyse. Notre analyse porte, au final, sur 55 étudiants et 17 questions.
L’activité d’un apprenant i a été définie comme Ai = Ii /Si , où Ii est le nombre d’en-
trées (i.e., le nombre de commandes exécutées sur la machine virtuelle) d’un étudiant
i, et Si représente la durée passée (en min.) par cet étudiant sur le système. Le dia-
gramme de dispersion sur la Figure 8.1 montre une corrélation significative, confirmée
par le calcul du coefficient de corrélation de Pearson r = 0, 41, avec une significativité
p = 0, 002 < 0, 05. Ces résultats soulignent une tendance chez les étudiants qui réus-
sissent plus de 70% des questions à l’examen final à être plus productifs sur le système.

120 Rémi Venant


8.2. Comportement des apprenants et réussite académique

Cette analyse révèle également que cet indicateur pourrait être un bon prédicateur de
la réussite des apprenants, qui pourrait ainsi être utilisé pour détecter leurs difficultés
ou facilités avant l’examen, et ainsi personnaliser le scénario d’apprentissage.

Figure 8.1 – Corrélation entre l’activité des étudiants sur Lab4CE et leur performance académique

8.2 Comportement des apprenants et réussite académique

Si la recherche sur la prédiction du succès de l’apprentissage est au cœur de nom-


breuses études depuis plusieurs dizaines d’années (Bunderson et Christensen, 1995;
Workman, 2004; Blikstein, 2011; Vihavainen, 2013), celle-ci s’appuie traditionnellement
sur la collecte de données à partir de pré-tests, de questionnaires, des résultats acadé-
miques antérieurs, voire d’informations telles que les styles d’apprentissage, l’efficacité
(Wilson et Shrock, 2001) ou encore les attentes de l’apprenant envers le cours (Roun-
tree et al., 2004). Cependant, le développement des TICE, l’émergence de la fouille de
données d’apprentissage, et l’analyse de ces dernières offrent de nouvelles possibilités
pour explorer le comportement des apprenants en situation d’apprentissage et étudier
son influence sur leur performance.
C’est ainsi que dans cette cinquième et dernière expérimentation, nous proposons
d’étudier les relations entre les actions effectuées par les apprenants sur les machines
virtuelles de Lab4CE lors des séances de travaux pratiques, et leur performance acadé-
mique évaluée à l’issue du cours (Venant et al., 2017a,b).

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 121


Chapitre 8. Performance et comportement dans Lab4CE

8.2.1 Conception et protocole expérimental #5

Comme mentionné dans le Tableau 7.1 du chapitre précédent, l’expérimentation #5


s’appuie sur les sessions d’apprentissage de l’expérimentation #1. Toutefois, les échan-
tillons diffèrent ici. Dans l’expérimentation #1, nous avions défini un groupe test d’étu-
diants sous Lab4CE (N = 32) et un groupe contrôle d’étudiants utilisant l’environne-
ment traditionnel fourni à l’IUT (N = 48). Pour l’expérimentation #5, notre échantillon
comprend 107 étudiants ayant tous travaillé sous Lab4CE. Cet échantillon est composé
du groupe test précédent, et d’autres étudiants n’ayant pas participé à cette première
expérimentation, mais ayant utilisé Lab4CE.
Nous rappelons ici les modalités pédagogiques de l’expérimentation. Les étudiants
ont suivi un cours d’introduction aux commandes et à la programmation Shell pendant
3 semaines, à raison d’une session pratique en présentiel de 90 minutes par semaine,
avec un accès permanent à Lab4CE pendant toute la durée de l’expérimentation. Le
cours visait trois objectifs pédagogiques principaux : la compréhension des commandes
Shell principales, la gestion du système de fichiers Linux par ces commandes, et la com-
préhension de concepts rudimentaires de la programmation Shell. De même, les appre-
nants devaient découvrir et comprendre par eux-mêmes ces commandes. Les infor-
mations pédagogiques disponibles dans Lab4CE ne comprenaient qu’une description
textuelle des tâches à accomplir, le nom des commandes à utiliser, ainsi que quelques
menus exemples. Pour une compréhension complète d’une certaine commande, les ap-
prenants devaient consulter le manuel par eux-mêmes, fourni par le Shell.

8.2.2 Jeu de données et performance académique

Une fois les valeurs extrêmes ôtées de l’échantillon, le jeu de données comprend
85 étudiants pour un total de 9183 commandes. Le nombre moyen de commandes par
apprenant est de 108,00 avec une déviation standard σ = 66, 62. Le minimum de com-
mandes soumises par un apprenant est de 22, tandis que le maximum est de 288.
Nous avons également défini pour cette étude la performance académique comme
variable dépendante, notée assessment score (AS). Cette variable est continue et comprise
entre 0 et 20, dénotant le score que les apprenants ont reçu à l’examen de fin de module.
La distribution de l’AS fait émerger différentes catégories qualitatives : bas (noté B,
0 <= B <= 6, 7 ; effectif N = 22 ; moyenne µ = 4, 90), moyen (6, 7 < M <= 10, 5 ;
N = 27 ; µ = 8, 45) et haut (H > 10, 5 ; N = 36 ; µ = 12, 44). Par la suite, les différentes
variables indépendantes seront évaluées aussi bien sur l’AS que sur les catégories d’AS,
aussi nommées niveau de performance.

122 Rémi Venant


8.2. Comportement des apprenants et réussite académique

8.2.3 Analyse des indicateurs quantitatifs

Nous étudions dans un premier temps, pour chaque apprenant, quatre indicateurs
numériques : (1) le nombre de commandes soumises #soumissions ; (2) le pourcentage
de commandes techniquement justes (i.e., exécutées sans erreur) %succès ; (3) le temps
moyen écoulé entre deux commandes d’une même session de travail ∆temps ; (4) le
nombre de commandes relatives à une recherche d’aide #aides. Les trois premiers in-
dicateurs peuvent être trouvés dans d’autre travaux de recherche (Vihavainen, 2013;
Watson et al., 2013) et permettent de quantifier la productivité des apprenants. Le der-
nier indicateur identifie les accès à des supports d’aide, c’est-à-dire l’accès au manuel
des commandes par le terminal (on ne considère pas ici l’utilisation du système d’en-
traide, qui n’était pas actif pour cette expérience). Bien qu’il puisse être difficile de le
calculer dans d’autres contextes (i.e., lorsque les ressources d’aide résident en dehors de
l’environnement d’apprentissage), les VRL sont souvent dotés de leur propres artefacts
d’assistance, dont les accès peuvent être facilement tracés (Orduna et al., 2014).
Pour identifier les sessions de travail, nous avons appliqué un algorithme de seg-
mentation temporelle et vérifié pour chaque apprenant que les sessions étaient cohé-
rentes avec son emploi du temps (i.e., la liste des sessions de travail pour un apprenant
donné doit au moins inclure les sessions effectuées en présentiel). L’indicateur #aides
est calculé à partir de motifs connus tels que la commande man, qui fournit le manuel
d’une commande, ou encore les arguments –help et -h qui permettent d’en obtenir une
aide succincte. Le Tableau 8.2 expose le coefficient de corrélation de Pearson entre les
quatre indicateurs définis ci-dessus et l’AS.

Tableau 8.2 – Corrélation entre indicateurs numériques et AS

r valeur-p
#soumissions 0,193 0,076
%succès 0,248 0,022
∆temps -0,127 0,247
#aides 0,226 0,037

Les indicateurs #soumissions et ∆temps ne présentent pas de résultats significatifs


(valeur-p > 0, 05). Aussi, si %succès et #aides présentent une corrélation faible significa-
tive avec l’AS, ils ne donnent qu’une indication sommaire sur le comportement des ap-
prenants : %succès est un indicateur de production ne prenant pas en compte le proces-
sus d’apprentissage, tout comme #aides qui ne relate pas la manière dont les étudiants
accèdent aux aides (i.e., après un échec, avant de tester une nouvelle commande, etc.).

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 123


Chapitre 8. Performance et comportement dans Lab4CE

Pour approfondir l’analyse du comportement, nous explorons dans la section suivante


comment ils ont réalisé leur activité en terme de séquence de commandes.

8.2.4 Analyse des motifs séquentiels d’actions

Pour analyser plus finement le comportement des apprenants, nous avons appliqué
une analyse de fouille de motifs séquentiels sur notre jeu de données afin d’identifier
des motifs répétitifs et significatifs.

8.2.4.1 Nature des actions

Notre approche pour la fouille de motifs séquentiels s’appuie non pas sur l’analyse
des commandes elles-mêmes, mais sur celle de leur nature et du résultat de leur exé-
cution, pour s’abstraire du contexte d’apprentissage. Nous définissons ainsi une action
soumise par un apprenant sur une ressource par son type, ses paramètres et sa nature.
Le type et les paramètres dépendent du contexte : par exemple, alimenter un circuit RLC
avec une tension de 12V représentent un type et un paramètre d’une action en électro-
nique. Dans notre contexte, le type est le nom de la commande, et les paramètres, ses
arguments. La nature, enfin, donne une information sémantique d’une action, à travers
sa relation avec celle qui a été exécutée précédemment.
Nous avons défini huit natures d’action exclusives : Sub_S, Sub_F, ReSub_S, ReSub_F,
VarSub_S, VarSub_F, Help et NewHelp. Les natures Sub_* s’appliquent à une action dont
le type est différent de la précédente, et qui est évaluée comme techniquement juste
(Sub_S) ou fausse (Sub_F). Les natures ReSub_* désignent une action identique à la pré-
cédente (i.e., même type et paramètres), tandis que les natures VarSub_* représentent
une soumission de même type que la précédente mais dont les paramètres varient (i.e.,
commandes identiques, arguments différents). Enfin, Help qualifie une action d’accès
à une aide relative au type de l’action précédente, tandis que NewHelp indique l’accès
à une aide sans lien avec l’action précédente. Par exemple, si la commande de réfé-
rence est ls –al, la commande suivante rm sera de nature Sub_F (commande différente et
techniquement fausse car la commande rm nécessite au moins un argument), ls –al de
nature ReSub_S, ls –alRu sera associée à VarSub_S, tandis que man ls sera qualifiée par
Help, et man rm par NewHelp.

8.2.4.2 Motifs séquentiels d’actions

Les motifs significatifs ont été identifiés à partir de séquences d’actions de lon-
gueur 2 et 3, aucune séquence de longueur supérieure n’apparaissant chez suffisam-
ment d’étudiants pour être exploitée. Les tests statistiques appliqués pour chaque sé-

124 Rémi Venant


8.2. Comportement des apprenants et réussite académique

quence furent une analyse de la variance (i.e., one-way ANOVA) avec les catégories de
performance établies précédemment, et un test de corrélation de Pearson avec AS. Les
motifs du Tableau 8.3 sont ceux pour lesquels la valeur-p est inférieure à 0,05 dans au
moins un des deux tests.

Tableau 8.3 – Analyse des motifs séquentiels d’actions

# Motif Tendance valeur-p Coef. valeur-p


d’usage ANOVA corr. corr.
1 Sub_S, VarSub_S H, M > B < 0, 001 0,335 0,002
2 Help, ReSub_S H, M > B 0,003 0,293 0,006
3 VarSub_S, NewHelp H, M > B 0,007 0,210 0,053
4 VarSub_S, Sub_S H, M > B 0,021 0,264 0,014
5 ReSub_S, NewHelp H, M > B 0,026 0,361 < 0, 001
6 VarSub_S, VarSub_S H, M > B 0,031 0,203 0,062
7 Sub_S, VarSub_S, VarSub_S H, M > B 0,002 0,286 0,008
8 VarSub_S, VarSub_S, Sub_S H, M > B 0,003 0,294 0,006
9 Sub_S, VarSub_S, NewHelp H, M > B 0,007 0,250 0,020
10 NewHelp, Sub_S, VarSub_S H, M > B 0,009 0,243 0,025
11 Sub_S, ReSub_S, NewHelp H, M > B 0,020 0,335 0,002
12 Sub_F, VarSub_F, VarSub_S B > H, M 0,021 -0,217 0,046
13 Sub_S, NewHelp, ReSub_S H, M > B 0,047 0,244 0,024

Le Tableau 8.3 expose les résultats des tests. La colonne « tendance d’usage » reflète
une relation d’ordre sur le nombre d’occurrences d’un motif entre les catégories d’étu-
diants : si H, M > B, il n’existe aucun étudiant de B ayant appliqué le motif plus de
fois que n’importe quel étudiant de H ou de M ; en revanche, la relation d’ordre n’est
pas vérifiée pour H et M. Nous avons obtenu 13 motifs significatifs. La plupart de ces
motifs présente une tendance d’usage significative entre les groupes de performance,
ainsi qu’une corrélation significative faible (i.e., 0, 1 < |r | < 0, 3) ou moyenne (i.e.,
0, 3 < |r | < 0, 5) avec l’AS. A titre d’exemple, la distribution du motif #1 est illustrée par
la Figure 8.2 et fait apparaître la tendance d’usage significative chez le groupe de haut
niveau de performance. Il apparaît que ces motifs corrélés positivement se rapportent,
pour la majorité d’entre eux, à des comportements de haut niveau de performance ; seul
un motif (i.e., motif #12) est appliqué plus souvent par les apprenants de faible niveau
que par les autres, lorsqu’ils soumettent à plusieurs reprises et sans succès une action
particulière en modifiant ses paramètres jusqu’à ce que la soumission réussisse. Aussi,
aucun motif ne permet de distinguer les groupes de haut et moyen niveaux.
D’autre part, nous remarquons que les motifs présentent certaines sémantiques

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 125


Chapitre 8. Performance et comportement dans Lab4CE

Figure 8.2 – Intervalles de confiance par catégorie de performance pour le motif Sub_S,VarSub_S

communes illustrant le comportement des apprenants. Par exemple, les motifs des
lignes 1, 6, 7, 8 et 9 reflètent l’enchaînement d’une action exécutée avec succès (i.e.,
Sub_S, ReSub_S ou VarSub_S) avec une action de type différent mais de même nature
et exécutée avec succès (i.e., VarSub_S). Ces motifs semblent illustrer une progression
chez l’apprenant dans la construction d’une action de plus en plus complexe.
Les séquences d’actions s’apparentent ainsi à des approches mises en œuvre par
les apprenants pour réaliser une tâche ou résoudre un problème. Certaines de ces ap-
proches se réfèrent à une méthodologie commune que nous désignons par stratégie
d’apprentissage, ou groupe d’actions, telle que désignée par (Pressley, 1995). Dans la
section suivante, nous définissons ces stratégies à partir des motifs étudiés ici, et analy-
sons leur relation avec la performance académique.

8.2.5 Stratégies d’apprentissage

Les 13 motifs du Tableau 8.3 font émerger un ensemble de sept stratégies : confir-
mation, progression, succès-et-réflexion, réflexion-et-succès, échec-et-réflexion, tâtonnement et
abandon. Confirmation exprime la soumission réussie de mêmes actions (i.e., commande
et arguments inchangés), tandis que progression traduit une séquence d’actions réussies
de même type, mais dont les paramètres varient. Succès-et-réflexion exprime le fait de
réussir une soumission, puis d’accéder à l’aide de cette action. À l’inverse, réflexion-et-

126 Rémi Venant


8.2. Comportement des apprenants et réussite académique

succès reflète le fait de consulter l’aide d’un type d’action puis d’exécuter avec succès
une action de ce type. Echec-et-réflexion illustre l’accès à l’aide du type d’une action après
l’échec de son exécution. Tâtonnement expose le fait d’essayer au moins deux variantes
d’une même action, sans résultat positif. Enfin, abandon correspond à l’exécution d’une
action après l’échec de l’exécution d’une action de type différent.
Nous avons calculé le nombre d’occurrences de ces stratégies pour chaque
apprenant à partir d’expressions régulières. Par exemple l’expression régulière
« (Sub|ReSub|V arSub)_S,(Help,) ?VarSub_S » correspond à la stratégie progression, c’est-
à-dire à des séquences d’exécutions réussies d’une même action avec des paramètres
différents, dans lesquelles peuvent être intercalés des accès aux aides. Le Tableau 8.4
fournit les expressions régulières employées pour la détection des stratégies.

Tableau 8.4 – Expressions régulières des stratégies d’apprentissage

Stratégie Expression régulière


Confirmation ( ? :Sub|ReSub|VarSub)_S,( ? :Sub_S,)*( ? :Sub_S)
Progression ( ? :Sub|ReSub|VarSub)_S,( ? :Help,) ?VarSub_S
Succès-et-réflexion ( ? :Sub|ReSub|VarSub)_S,( ? :Help|NewHelp)
Réflexion-et-succès ( ? :Help|NewHelp),( ? :Sub|ReSub|VarSub)_S
Échec-et-réflexion ( ? :Sub|ReSub|VarSub)_F,( ? :Help|NewHelp)
Tâtonnement ( ? :Sub|ReSub|VarSub)_F,
( ? :( ? :ReSub|VarSub)_F,)*( ? :ReSub|VarSub)_F
Abandon ( ? :Sub|ReSub|VarSub)_F,( ? :Help,)*( ? :NewHelp,Sub_)

8.2.6 Résultats #5

Nous avons analysé la relation entre chacune des stratégies et la performance aca-
démique en appliquant les mêmes tests que pour les motifs séquentiels (i.e., ANOVA
pour les catégories de performance, et corrélation de Pearson pour AS). Le Tableau 8.5
illustre les résultats pour cette expérimentation. Les valeurs significatives apparaissent
en gras, alors que les stratégies pour lesquelles au moins un résultat significatif a été
calculé apparaissent en italique.
Progression, succès-et-réflexion, réflexion-et-succès et échec-et-réflexion sont les stratégies
qui présentent des résultats significatifs. Les trois premières permettent de distinguer
les apprenants selon leur catégorie de performance et semblent être un trait de compor-
tement des étudiants de haut et moyen niveaux de performance.
Aussi, toutes les stratégies significatives sont positivement corrélées à l’AS : les

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 127


Chapitre 8. Performance et comportement dans Lab4CE

Tableau 8.5 – Analyse des stratégies d’apprentissage

Tendance d’usage p-valeur Coef. p-valeur


ANOVA corr. corr.
Confirmation ø 0,745 0,108 0,321
Progression H, M > B 0,001 0,294 0,006
Succès-et-réflexion H, M > B 0,010 0,282 0,008
Réflexion-et-succès H, M > B 0,015 0,242 0,026
Échec-et-réflexion ø 0,020 0,273 0,011
Tâtonnement ø 0,341 -0,050 0,670
Abandon ø 0,457 -0,004 0,968

résultats ne laissent donc pas apparaître de comportement d’apprentissage récurrent


chez les étudiants de faible niveau de performance. La stratégie tâtonnement ne pré-
sente pas de résultat significatif dans cette expérimentation. Toutefois, le contexte de
cette expérimentation peut expliquer ces résultats : les étudiants étaient débutants en
Informatique, et les travaux pratiques ont été réalisés sous la forme d’apprentissage
exploratoire puisque les étudiants devaient découvrir par eux-mêmes les commandes
manipulées. Dans ce type d’apprentissage, effectuer de multiples essais pour découvrir
et comprendre comment la machine réagit est un comportement attendu (De Jong et al.,
2013), quelque soit le niveau de performance de l’apprenant.
Un autre résultat intéressant est la stratégie abandon, qui ne semble pas corrélée à
l’AS. Cette stratégie, employée par tous les apprenants, quel que soit leur niveau de per-
formance, n’exprime pas le fait qu’ils échouent à réaliser une tâche particulière. Inter-
rompre la réalisation d’une action peut s’expliquer par différentes hypothèses comme
la curiosité ou la découverte d’actions non corrélées avec l’objectif pédagogique. Il ne
semble donc pas pertinent de s’appuyer sur cette stratégie pour la prédiction de perfor-
mance ou pour la prise de décision.
Cette étude sur les stratégies d’apprentissage révèle principalement des comporte-
ments positivement corrélés au score de performance. Avec la stratégie de progression,
les étudiants de haut niveau de performance semblent décomposer leur problème en
étapes de complexité croissante. Les trois autres stratégies utilisées par cette catégorie
d’étudiants sont liées à la réflexion à travers l’usage de ressources d’aide. Combiné aux
résultats précédents obtenus avec l’étude sur l’indicateur #aides, l’utilisation de ces stra-
tégies semble indiquer que l’accès aux aides est statistiquement significatif lorsque son
contexte (i.e., si l’aide est liée aux actions précédentes ou suivantes) est pris en compte.

128 Rémi Venant


8.3. Synthèse

8.3 Synthèse

Dans ce chapitre, nous avons présenté deux expérimentations réalisées encore une
fois en contexte d’apprentissage réel, et dont l’objectif commun est l’étude des liens
entre l’utilisation de la plateforme et la performance académique des apprenants. Dans
l’expérimentation #4, nous observons un lien de corrélation positif entre l’activité des
apprenants sur la plateforme et leur résultat à l’examen, ce qui suggère la capacité de la
plateforme à détecter des potentielles forces ou faiblesses de l’apprenant pendant son
activité pratique.
Pour appréhender plus finement cette relation, la cinquième expérimentation visait
à étudier les liens entre le comportement des apprenants en situation de travail pra-
tique et leur performance académique. Nous avons adopté une approche de fouille de
motifs séquentiels pour identifier les corrélations entre différentes stratégies d’appren-
tissage et la performance, dont les plus significatives sont : a) la progression, lorsque
les apprenants réalisent des actions de même nature en faisant varier leurs paramètres ;
la réflexion (à travers la consultation de ressources d’aide liées aux actions) b) avant ou
c) après l’exécution d’une action qui lui est liée. Ces stratégies semblent être représenta-
tives des étudiants de haut et moyen niveaux de performance. À partir de la découverte
de ces stratégies, nous avons pu mettre en place les outils de suivi des apprenants en
temps réel et le système de tuteur intelligent, présentés dans la section 5.5, qui s’ap-
puient tous les deux sur la détection à la volée de ces stratégies.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 129


Conclusion

Contenu
Bilan général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
La définition de critères pour le support des théories de l’apprentis-
sage exploratoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
Lab4CE, un EIAH pour l’apprentissage pratique de l’Informatique . . 132
Des outils pour favoriser les interactions sociales . . . . . . . . . . . . . 133
La découverte de corrélations entre engagement, comportement et
performance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Perspectives de recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Expérimentations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
Passage à l’échelle de l’apprentissage de l’Informatique . . . . . . . . . 136
Modèles théoriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Entraide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Modèles computationnels pour l’engagement et la réflexion . . . . . . 138
Learning analytics et intelligences artificielles pour l’engagement et la
réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

Bilan général

Ce travail de thèse s’inscrit dans le domaine des EIAH et plus particulièrement ce-
lui des laboratoires virtuels et distants, et représente une contribution à la conception
d’environnements d’apprentissage pratique avec une application au contexte particu-
lier de l’enseignement de l’Informatique. Nous avons proposé de considérer dans ces
environnements les méthodes et théories pédagogiques relatives à l’enseignement pra-
tique, à savoir l’apprentissage exploratoire et le socio-constructivisme, dans l’objectif
d’améliorer l’engagement et la réflexion des apprenants dans leur apprentissage. Pour
atteindre ces résultats, nous nous sommes concentrés sur deux questions de recherche
sous-jacentes :

131
Conclusion

1. Comment aligner un environnement d’apprentissage pratique aux théories socio-


constructivistes ?
2. Dans un contexte d’apprentissage exploratoire, quel impact ont les outils de sup-
port à l’engagement et à la réflexion sur les pratiques et la performance des appre-
nants ?
Nous dressons ici un bilan des contributions apportées par notre travail, en réponse à
ces questions.

Critères pour le support des théories de l’apprentissage exploratoire

À partir de la revue de la littérature, nous avons identifié un ensemble de critères


à respecter pour un EIAH de laboratoire virtuel ou distant, afin de supporter, mais
également d’inviter les apprenants à l’engagement et à la réflexion. Ainsi, trois de ces
critères visent le support aux interactions sociales pour permettre aux apprenants de
communiquer, de voir les activités réalisées par chacun, et de partager le contrôle d’un
laboratoire entre pairs. Nous avons identifié également la nécessité de mettre à dis-
position des apprenants une awareness du concept individuelle et collective pendant
l’activité, relatant de la progression de chacun, ainsi que des outils facilitant l’analyse
de l’apprentissage, pendant et après l’activité. Enfin, puisque les interactions peuvent
être mises en œuvre à travers diverses formes d’apprentissage par les pairs, nous avons
mis en avant la nécessité pour l’enseignant de pouvoir adapter sa stratégie à l’expé-
rience au niveau même du choix des ressources et de leur topologie, de l’affectation des
apprenants aux laboratoires, mais également par le paramétrage de l’environnement
d’apprentissage.

Lab4CE, un EIAH pour l’apprentissage pratique de l’Informatique

Conçu pour supporter l’ensemble de nos critères, Lab4CE est un environnement dé-
dié à l’apprentissage pratique de l’Informatique qui propose une architecture distribuée
et qui vise la simplification de la conception et de la réalisation d’expérimentations en
masquant les difficultés techniques de gestion de laboratoires. En s’appuyant sur un
gestionnaire de cloud, Lab4CE expose un ensemble de services pédagogiques permet-
tant de doter à la volée chaque apprenant de ressources virtuelles pour la réalisation
d’expériences conçues par l’enseignant. Avec l’outil auteur, celui-ci peut dessiner et
paramétrer la topologie de l’expérience, mais aussi définir quelles fonctionnalités de
l’EIAH activer pour aligner au mieux l’environnement à sa stratégie d’enseignement.
Notre approche technologique est centrée sur les learning analytics pour fournir aux
apprenants un support à l’awareness, à la réflexion ou encore les assister dans leurs in-
teractions sociales. Nous avons proposé un framework capable de capturer tout type

132 Rémi Venant


Conclusion

d’événements émanant de l’EIAH, de les collecter sous la forme de traces d’appren-


tissage conformes au standard xAPI, de les enrichir à partir d’indicateurs définis par
les enseignants ou ingénieurs pédagogiques, et enfin de les stocker au sein d’un dépôt
de traces. Conçu de façon similaire à un middleware orienté message, le framework
permet l’exploitation de ces traces en temps réel ou a posteriori.

Des outils pour favoriser les interactions sociales

Pour supporter les interactions sociales pendant l’activité, plusieurs mécanismes


ont été proposés et implantés dans Lab4CE : la possibilité pour l’enseignant de définir
des expériences collectives par groupe d’apprenants ou entre groupes d’apprenants,
et la possibilité pour les apprenants de s’inviter mutuellement dans leurs laboratoires
respectifs pour initier la réalisation d’une tâche commune. D’autre part, Lab4CE assure
l’entraide spontanée par l’implantation d’un système de gestion des demandes d’aide
et de leur prise en charge par les pairs.
À partir d’un indicateur de performance fondé sur l’analyse de la justesse technique
des commandes exécutées par les apprenants, nous proposons également plusieurs ou-
tils de learning analytics pour le support à l’awareness et à la réflexion. Un outil de
comparaison sociale permet à l’apprenant de prendre conscience de sa performance et
de son évolution, et de se comparer à celle de la classe. Un outil de réflexion pendant
l’action permet aux apprenants de visionner le travail des pairs, pour les amener à ré-
fléchir à la manière dont les pairs ont résolu un problème donné. A posteriori, un outil
permet d’analyser son propre travail ou celui des pairs, en proposant une visualisation
synthétique de l’activité mettant en exergue les difficultés rencontrées.
Enfin, à partir de résultats issus de différentes expérimentations, nous proposons
un outil de visualisation des stratégies d’apprentissage appliquées par les apprenants
pour faciliter leur suivi en temps réel par les enseignants, mais également pour aider
l’apprenant à développer des capacités d’auto-régulation. Aussi, un système de tuteur
intelligent détecte les stratégies d’apprentissage à la volée et supporte l’apprenant dans
la réalisation de ses tâches par la recommandation de sources d’aide et de pairs.
À titre de résumé, le Tableau 8.6 reprend nos critères définis précédemment et posi-
tionne chaque composant de Lab4CE.

Corrélations entre engagement, comportement et performance

Par les différentes expérimentations menées pendant ces travaux de thèse, plusieurs
résultats ont été obtenus, contribuant notamment à l’identification de facteurs compor-
tementaux liés à la performance académique des apprenants. Si Lab4CE a été évalué

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 133


Conclusion

Tableau 8.6 – Positionnement des contributions technologiques

Index Indicateur Contribution


A.1 Communication synchrone Outil de messagerie instantanée 6.1
A.2 Vue partagée du VRL (aware- Système de vue partagée des terminaux
ness sociale des artefacts) 6.2.3.3
Modèle de gestion des laboratoires 4.3
A.3 Partage du contrôle
Système d’invitation au laboratoire
6.2.3.2
B.1 Awareness personnelle et so- Composant des utilisateurs connectés
ciale de l’environnement 4.4.2
B.2 Awareness personnelle et so- Outil de comparaison sociale 5.4.2
ciale du concept
B.3 Support à la réflexion pen- Outils de réflexion pendant l’action 5.4.4
dant l’action
B.4 Support à la réflexion après Outil de réflexion a posteriori 5.4.3
l’action
Système d’invitation au laboratoire
C.1 Interactions spontanées
6.2.3.2
Système de gestion de l’entraide 6.3
C.2 Outil auteur pour la concep- Application auteur : création de topolo-
tion d’expérience alignée aux gies 4.4.1
objectifs pédagogiques
C.3 Paramétrage de l’environ- Application auteur : choix des fonction-
nement d’apprentissage nalités de Lab4CE pour une expérience
en fonction des stratégies donnée 4.4.1
d’apprentissage

par les apprenants comme « bon » en termes d’utilisabilité, et si les outils d’awareness
et de réflexion ont été utilisés par la majorité d’entre eux, nous constatons que l’usage
de ces outils diminue lorsque la performance des apprenants mesurée in situ augmente.
Nous avons constaté une augmentation des demandes d’aide lorsqu’une source de
motivation est ajoutée, même si elle ne stimule pas la prise en charge de ces demandes
par les pairs. Toutefois, nous avons observé une contradiction dans la perception des
apprenants à propos de leur rapport à l’entraide et de l’usage effectif des outils : leur
regard sur l’entraide valide le besoin de proposer différentes stratégies de demande
d’aide, et confirme la conscience qu’ils ont du bénéfice sur leur apprentissage de la

134 Rémi Venant


Conclusion

prise en charge de demandes d’aide, malgré un usage limité des outils.


Concernant leur comportement, nous constatons une corrélation positive entre l’ac-
tivité d’un apprenant sur Lab4CE et sa performance académique. Enfin, nous avons pu
détecter par la fouille de motifs séquentiels d’actions menées par les apprenants sur
les ressources, plusieurs stratégies d’apprentissage présentant une corrélation positive
avec la performance académique : a) la progression, lorsque les apprenants réalisent
des actions de même nature en faisant varier leurs paramètres, et la réflexion b) avant
ou c) après l’exécution d’une action.

Perspectives de recherche

Nous présentons ici les principales perspectives de recherche, aussi bien théoriques
que techniques, que nous souhaitons investiguer dans la suite de nos travaux.

Expérimentations

Plusieurs expérimentations sont à envisager pour approfondir les études menées


sur la réflexion et l’engagement. À court terme, les derniers outils développés (i.e., l’in-
terface de suivi des stratégies et le système de tuteur intelligent) restent à évaluer tant
du point de vue de leur utilisabilité que de leur impact sur l’apprentissage.
À moyen terme, nous envisageons une analyse multi-modale de plus grande enver-
gure dans l’objectif de découvrir de nouveaux facteurs comportementaux significatifs
de la progression ou de l’échec de l’apprentissage. Aligner différentes sources de don-
nées au sein d’une même analyse semble être encore aujourd’hui un défi (Ochoa et al.,
2016; Prieto et al., 2016), mais différentes initiatives menées récemment peuvent fournir
des méthodes et des outils pertinents pour atteindre cet objectif (Prieto et Rodrıguez-
Triana, 2017). De même, proposer une implantation dans Lab4CE des protocoles d’in-
teropérabilité avec des plateformes d’enseignement massif à distance telles qu’edX 1
offrirait un terrain d’expérimentation propice à l’analyse sur de grandes populations.
À plus long terme, les corrélations significatives que nous avons identifiées restent
à être confrontées à de nouvelles expérimentations. Nous souhaitons réitérer ces ex-
périmentations sur d’autres échantillons de notre population d’apprenants et dans la
mesure du possible, confronter notre approche à d’autres populations dont la culture
varie. Comme l’ont dans le passé observé Shwalb et Sukemune (1998), l’entraide diffère
d’une culture à l’autre, et les environnements d’apprentissage devraient dans l’idéal
s’adapter à cette variable. Aussi, si nos travaux se sont dans un premier temps focali-

1. https://www.edx.org/

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 135


Conclusion

sés sur l’étude de lien de corrélation, la découverte de certaines relations significatives


nous amène à approfondir nos analyses afin d’étudier leur lien de causalité, notam-
ment en ce qui concerne les stratégies d’apprentissage. Cette analyse peut être envi-
sagée par l’expérimentation du système de tuteur intelligent qui, en tentant d’amener
l’apprenant à changer de stratégie, peut nous permettre d’évaluer si une modification
volontaire provoque une variation de la performance académique. Enfin, si l’ensemble
de nos expérimentations ont été effectuées dans un contexte présentiel, Lab4CE est un
environnement d’apprentissage permettant l’apprentissage à distance pour lequel dif-
férents biais de mesure (ex. : le fait que les apprenants puissent communiquer en dehors
de la plateforme) seraient grandement diminués.

Passage à l’échelle de l’apprentissage de l’Informatique

L’apprentissage de l’Informatique suscite un intérêt grandissant, notamment en


France (Ministère de de l’éducation nationale, 2015, 2016). Offrir l’accès à l’appren-
tissage pratique au plus grand nombre demeure une problématique Informatique ac-
tuelle. La démocratisation des systèmes de virtualisation ou de conteneurs (ex. : Do-
cker 2 ) au grand public représente une piste intéressante à cette problématique puis-
qu’elle ouvre la voie à un changement de paradigme dans l’architecture même de
Lab4CE. En effet, cette évolution, couplée a) à l’accroissement de la puissance des or-
dinateurs et b) à l’augmentation de l’interopérabilité et des fonctionnalités offertes par
les extensions de navigateur web 3 , permet d’envisager un style d’architecture où la
couche laboratoire serait déployée à même le dispositif physique de l’apprenant, com-
muniquant via le navigateur avec l’environnement d’apprentissage. Cette architecture
« renversée » lèverait le goulot d’étranglement que représente la couche laboratoire en
distribuant l’ensemble de la charge aux différents utilisateurs du système et serait par
nature, propre à supporter le passage à l’échelle.

Modèles théoriques

Parmi les activités collectives que nous proposons avec Lab4CE, il est possible de
mettre en place des activités de collaboration. Cependant, l’outil auteur comme l’EIAH
ne permettent pas de définir précisément des points de coordination à des moments
de l’activité : il n’est pas possible d’orchestrer la collaboration pour définir comment les
membres du groupe doivent interagir, et comment ils devraient résoudre, ensemble, un
problème donné. Dans cette perspective, deux axes de recherche sont envisageables.
Lab4CE disposant d’un EIAH complet pour l’apprentissage pratique, il est possible

2. https://www.docker.com/
3. https://wiki.mozilla.org/WebExtensions

136 Rémi Venant


Conclusion

d’y implanter les modèles de définition de scripts collaboratifs issus du domaine de


recherche du CSCL (Dillenbourg et Jermann, 2007). Leur exécution nécessitera d’une
part l’adaptation de l’EIAH à la réalisation d’activités scénarisées, et d’autre part l’ex-
traction, à partir des actions des apprenants, des informations nécessaires à la prise
de décision de l’enseignant ou du système pour passer d’une étape à l’autre (Dillen-
bourg et Tchounikine, 2007). Un autre axe de recherche consiste à penser Lab4CE non
pas comme un système endogène où l’ensemble de l’activité collaborative est réalisée,
mais comme une brique d’un scénario de plus haut niveau. Il serait ainsi intéressant de
considérer les avancées de la recherche sur l’ingénierie d’outils qui visent à définir aisé-
ment les enchaînement d’activités collaboratives (Håklev et al., 2017). Cette intégration
dans un écosystème collaboratif nécessite de penser comment automatiser l’instancia-
tion d’expériences en fonction des tâches réalisées par les apprenants sur les autres
environnements de l’écosystème, et d’identifier les informations générées par Lab4CE
qui seraient susceptibles d’être réutilisées pour les activités suivantes.
D’autre part, les stratégies d’apprentissage traduisant le comportement des étu-
diants ont été définies de manière ad hoc ; leur formalisation à partir des recherches
issues du domaine des Sciences Humaines et Sociales permettrait de les doter d’une
définition pérenne et de fournir une base solide pour l’étude comportementale des ap-
prenants dans diverses situations pédagogiques.
Finalement, nous avons navigué dans nos travaux entre apprentissage exploratoire
et socio-constructivisme pour recueillir des éléments de soutien à l’engagement et à la
réflexion des apprenants. Cette analyse reste bien sûre ouverte à l’intégration d’autres
fondements théoriques de l’apprentissage ou de la construction de connaissances. Pour
supporter l’augmentation de la complexité d’un modèle théorique des facteurs d’en-
gagement et de réflexion, et de leurs relations, il nous semble intéressant de réfléchir
à l’application d’une méthode de modélisation des buts, telles que KAOS ou i*, déjà
utilisée dans des travaux de notre équipe (Toueir, 2014; Bulusu et al., 2017). Par la déri-
vation des buts d’engagement et de réflexion à l’awareness ou encore aux interactions
sociales, jusqu’aux learning analytics, ces méthodes peuvent servir de guide pour une
prise en compte pertinente des modèles théoriques lors de la conception d’EIAH.

Entraide

Si Lab4CE vise les activités collectives, nous avons pu observer la faible utilisation
des outils dédiés à l’entraide, un fait que l’on retrouve dans le domaine général de la
recherche d’aide dans les environnements informatiques (Aleven et al., 2016, 2003).
Dans le domaine de l’entraide, notre étude des modèles théoriques a fait ressor-
tir l’existence d’un modèle du processus de demande d’aide qui apparaît comme un

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 137


Conclusion

standard de fait, mais également l’absence d’un modèle du processus d’offre d’aide,
que ce soit dans les SHS ou en Informatique. Nous pensons que développer un tel mo-
dèle apporterait une compréhension des facteurs de motivation des étudiants aidants.
Nous avons pu entrevoir précédemment le besoin de prendre en compte les différences
sociales des apprenants concernant l’entraide, tandis que plusieurs travaux identifient
différents facteurs liés à l’apprenant qui ont un impact sur la recherche d’aide (Trestini
et Cabassut, 2017; Brudermann et Pélissier, 2017). Pour envisager l’étude de fonction-
nalités de recommandation entre pairs (ex. : recommander un pair en fonction de la
demande d’aide), ou d’exploitation approfondie de learning analytics multi-modale,
l’intégration du profil de l’apprenant sur le système est une perspective de recherche
importante. Si nous pouvons constater l’existence de nombreux travaux dans ce do-
maine (Brusilovsky et Millán, 2007; Lin et al., 2016; Pelánek, 2017), tout comme celle de
standards pour concevoir de tel profils (ex. : IMS-LIP 4 ), il est nécessaire d’étudier la lit-
térature à ce sujet dans le contexte de l’apprentissage exploratoire. Aussi, nos perspec-
tives expérimentales peuvent être envisagées comme une source d’information pour
construire des modèles non supervisés d’apprenants.

Modèles computationnels pour l’engagement et la réflexion

Nous avons conçu une première métrique pour modéliser la performance de l’ap-
prenant in situ, fondée sur la justesse technique des actions qu’il exécute. Toutefois,
une action peut être techniquement juste sans pour autant être pertinente vis-à-vis de
l’objectif attendu. De plus, cette métrique ne reflète pas la sémantique des erreurs com-
mises, un problème de recherche d’actualité dans l’apprentissage de la programmation
(Ihantola et al., 2015). Nous souhaitons donc étendre nos travaux à la construction d’in-
dicateurs de performance pendant l’activité reflétant la sémantique des actions des ap-
prenants. L’administration des systèmes et des réseaux semble être un domaine ou la
modélisation des connaissances est peu avancée ; toutefois, les travaux de conception
d’ontologies pour l’apprentissage de la programmation dans d’autres langages sont à
considérer (Ibrahim Teo et Joy, 2017; y. Yun et al., 2009), de même que les travaux sur la
fouille de données à partir des code sources et des retours de leurs compilations (Rivers
et al., 2016), qui pourraient être appliqués à notre domaine.

Learning analytics et intelligences artificielles pour l’engagement et la ré-


flexion

L’expérimentation menée sur l’awareness et la réflexion nous a permis dans un pre-


mier temps d’identifier de nouveaux outils d’awareness qui pourraient être importants
4. http://www.imsglobal.org/profiles/index.html

138 Rémi Venant


Conclusion

pour susciter la réflexion. D’une part, nous souhaitons implanter un système de no-
tification pour alerter l’apprenant de l’analyse de ses activités par d’autres, mais éga-
lement intégrer cette information au sein de tableaux de bord résumant ses travaux,
les analyses qu’il a réalisées ainsi que celles opérées par ses pairs sur ses travaux. Cette
information, associée au niveau de difficulté des pairs consultant les travaux de l’appre-
nant, pourrait également être pertinente pour augmenter son sentiment d’appartenance
sociale et son impact sur le groupe.
De la même manière, si notre ITS peut fournir aujourd’hui une recommandation
de ressources d’aide ou de pairs, nous envisageons de permettre la recommandation
d’actions à exécuter sur une ressource dans le but de provoquer un conflit cognitif et
ainsi amener l’apprenant à la réflexion sur la différence entre ses schèmes mentaux et
les observations qu’il fait.
Que le contexte soit présentiel ou distanciel, les apprenants ont à leur disposition de
multiples sources d’informations et nous constatons très souvent l’utilisation de sites
web annexes pour les aider dans la réalisation de leurs tâches. Que ce soit pour la com-
préhension du comportement des apprenants, pour les doter eux-mêmes ou leurs en-
seignants d’analytics, ou pour améliorer les systèmes intelligents à leur service, savoir
ce qu’ils font en dehors de Lab4CE pendant leurs activités pratiques est une perspective
intéressante dont des efforts de recherche existent déjà, notamment dans le domaine de
l’apprentissage auto-dirigé (d’Aquin et al., 2017).
Enfin, envisager l’extension des sources de données pour les analytics ou ne serait-
ce que le partage de learning analytics entre différentes institutions de l’éducation sou-
lève la question de la gestion de la vie privée, apparaissant comme un défi majeur des
prochaines années (Pardo et Siemens, 2014; Slade et Prinsloo, 2013). Nous sommes éga-
lement sensibles à cette problématique, comme peut l’attester notre approche dotant
les apprenants d’une interface pour maîtriser la visibilité de leurs traces d’apprentis-
sage. Toutefois, la question de la vie privée est vaste et doit être considérée à un plus
haut niveau d’abstraction. Le contexte de notre équipe de recherche nous permet d’en-
visager certaines approches novatrices pour les EIAH, notamment par l’application des
modèles de confiance utilisés dans le domaine de la sécurité pour répondre aux problé-
matiques de vie privée (Wazan et al., 2016).

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 139


Quatrième partie

Annexes

141
A API REST de Lab4CE

C ETTE annexe présente l’API REST fournie par le composant « Gestion de VRL » de
Lab4CE. Le terme « initiateur » désigne l’utilisateur authentifié qui est à l’origine
de l’appel du service REST.

Gestion des expériences

GET /Experiments
Obtention de la liste des expériences. Réservé aux concepteurs. Accessible
uniquement à partir de l’outil auteur.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
POST /Experiments
Création d’une expérience. Réservé aux concepteurs. Accessible uniquement à
partir de l’outil auteur.
— Code retour normal : 201
— Codes retours erreur : 400, 401, 403, 409, 503
PATCH /Experiments/{ :expId}
Modification d’élément de expérience expId. Réservé aux auteurs de
l’expérience. Accessible uniquement à partir de l’outil auteur.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 409, 503
DELETE /Experiments/{ :expId}
Suppression de l’expérience d’identifiant expId. Réservé aux auteurs de
l’expérience. Accessible uniquement à partir de l’outil auteur.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 503

143
Annexe A. API REST de Lab4CE

GET /Experiments/{ :expId}


Obtention des détails de l’expérience expId. Accessible aux membres de
l’expérience.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
GET /Experiments/{ :expId}/public
Obtention du nom de l’expérience d’après son identifiant expId. Accessible
publiquement.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503

Gestion des laboratoires d’une expérience

GET /Experiments/{ :expId}/Labs


Obtention de la liste des laboratoires de l’expérience expId auxquels l’initiateur
de la requête participe (pour lesquels ce derniers à un rôle), ou pour tous si
l’initiateur de la requête est enseignant. Accessible aux membres de
l’expérience.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
GET /Experiments/{ :expId}/Labs/{ :labId}
Obtention des détails du laboratoire labId (ressources, liste des membres...).
Accessible aux enseignants de l’expérience et aux membres du laboratoire.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
PUT /Experiments/{ :expId}/Labs{ :labId}/state
Modification de l’état du laboratoire labId démarré ou arrêté. Accessible aux
propriétaires du laboratoires
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 409, 503

144 Rémi Venant


Gestion des invités d’un laboratoire

GET /Experiments/{ :expId}/Labs{ :labId}/Guests


Obtention de la liste des invités du laboratoire labId. Accessible aux
propriétaires du laboratoire.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
POST /Experiments/{ :expId}/Labs{ :labId}/Guests/{ :userId}
Ajout de l’invité userId au laboratoire labId. Accessible aux propriétaires du
laboratoire.
— Code retour normal : 201
— Codes retours erreur : 400, 401, 403, 409, 503
GET /Experiments/{ :expId}/Labs{ :labId}/Guests/{ :userId}
Obtention des informations publiques de l’utilisateur userId, invité au
laboratoire labId. Accessible aux propriétaires du laboratoire.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
DELETE /Experiments/{ :expId}/Labs{ :idLab}/Guests/{ :userId}
Fin d’invitation de l’invité userId. Accessible aux propriétaires du laboratoire.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 503

Gestion des ressources d’un laboratoire

GET /Experiments/{ :expId}/Labs{ :labId}/Resources/


Obtention de la liste des ressources (identifiant, nom et état) du laboratoire.
Accessible aux membres du laboratoire et aux enseignants de l’expérience.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
GET /Experiments/{ :expId}/Labs{ :labId}/Resources/{ :rscId}
Obtention des information contractuelles de la ressource rscId (nom, état,
description) et de la liste des nom de ses propriétés requêtable (ex. : adresse IP)

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 145


Annexe A. API REST de Lab4CE

du laboratoire. Accessible aux membres du laboratoire et aux enseignants de


l’expérience.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
PATCH /Experiments/{ :expId}/Labs{ :labId}/Resources/{ :rscId}
Modification de l’état de la ressource rscId (démarrée, arrêtée, en veille).
Accessible aux propriétaires du laboratoire.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 409, 503
GET /Experiments/{ :expId}/Labs{ :labId}/Resources/{ :rs-
cId}/Properties/{ :propName}
Obtention d’une propriété particulière propName de la ressource :rscId (ex. :
adresse IP). Accessible aux membres du laboratoire.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
POST /Experiments/{ :expId}/Labs{ :labId}/Resources/{ :rs-
cId}/Properties/{ :propName}
Modification d’une propriété particulière propName de la ressource :rscId
(service non utilisé jusqu’à présent). Accessible aux propriétaires du
laboratoire.
— Code retour normal : 201
— Codes retours erreur : 400, 401, 403, 409, 503

Gestion des utilisateurs de la plateforme

GET /Users
Obtention de la liste des utilisateurs. Accessible aux concepteurs de
l’expérience à partir de l’outil auteur
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
GET /Users/{ :userId}
Obtention du détail de l’utilisateur userId. Accessible aux enseignant et à
l’initiateur.

146 Rémi Venant


— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
PUT /Users/ChangePassword
Demande de génération d’une requête de changement de mot de passe pour
l’utilisateur initiateur. Accessible uniquement dans une configuration non LTI.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 409, 503
PUT /Users/ChangePassword/{ :queryId}
Changement de mot de passe pour la requête de changement queryId.
Accessible par l’utilisateur initiateur de la requête de changement, uniquement
dans une configuration non LTI.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 409, 503

Gestion des utilisateurs de l’expérience

GET /Experiments/{ :expId}/Users


Obtention de la liste des utilisateurs de l’expérience expId. Accessible aux
concepteurs de l’expérience à partir de l’outil auteur, uniquement dans une
configuration non LTI.
— Code retour normal : 200
— Codes retours erreur : 400, 401, 403, 503
POST /Experiments/{ :expId}/Users/{ :userId}
Ajout d’un utilisateur userId à l’expérience expId. Accessible aux concepteurs
de l’expérience à partir de l’outil auteur, uniquement dans une configuration
non LTI.
— Code retour normal : 201
— Codes retours erreur : 400, 401, 403, 409, 503
DELETE /Experiments/{ :expId}/Users/{ :userId}
Suppression d’un utilisateur userId à l’expérience expId. Accessible aux
concepteurs de l’expérience à partir de l’outil auteur, uniquement dans une
configuration non LTI.
— Code retour normal : 204
— Codes retours erreur : 400, 401, 403, 404, 503

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 147


B Règles d’inférence pour la
justesse technique

1 [
2 {
3 name: "BasicExecError",
4 description: "detect basic execution errors",
5 rule: function (command, args, response) {
6 var re = new RegExp("^" + command + "\\\s*:");
7 return re.test(response);
8 },
9 score: 0
10 },
11 {
12 name: "ShellExecError",
13 description: "detect shell execution errors",
14 rule: function (command, args, response) {
15 var re = /^\-?(bash|sh|\/bin\/sh):/;
16 return re.test(response);
17 },
18 score: 0
19 },
20 {
21 name: "UsageError",
22 description: "detect command usage errors",
23 rule: function (command, args, response) {
24 return response.startsWith(’Usage:’)
25 && ![’-h’, ’--help’, ’--h’, ’-help’]
26 .some(a => ~args.indexOf(a));
27 },
28 score: 0
29 },
30 {
31 name: "ScriptError",
32 description: "detect script execution errors",
33 rule: function (command, args, response) {

149
Annexe B. Règles d’inférence pour la justesse technique

34 return ~response.indexOf(command + ’:’)


35 && ([’syntax error’, ’Syntax error’, ’division by 0’,
36 ’arithmetic expression: expecting EOF:’]
37 .some(a => ~response.indexOf(a))
38 || response.endsWith(’not found’));
39 },
40 score: 0
41 },
42 {
43 name: "scripError2",
44 description: "detect error in script",
45 rule: function (command, args, response) {
46 var subcommands = command.split(’/’);
47 var lastSubCmd = subcommands[subcommands.length - 1];
48 if (lastSubCmd === ’sh’ || lastSubCmd === ’bash’) {
49 var firstArg = args.split(" ")[0];
50 var subResponses = response.split(’\n’);
51 var lastSubResponse = subResponses[subResponses.length - 1];
52 if (lastSubResponse.startsWith(firstArg + ": ")) {
53 return true;
54 }
55 }
56 return false;
57 },
58 score: 0
59 },
60 {
61 name: "ifconfigError",
62 description: "detect specific ifconfig errors",
63 rule: function (command, args, response) {
64 return command === ’ifconfig’
65 && [’Device not found’, ’Péripherique non trouvé’]
66 .some(a => ~response.indexOf(a));
67 },
68 score: 0
69 },
70 {
71 name: "manError",
72 description: "detect specific man errors",
73 rule: function (command, args, response) {
74 return command === ’man’
75 && [’No manual entry for’, ’Aucune entrée de manuel pour’
]
76 .some(a => ~response.indexOf(a));
77 },
78 score: 0
79 },
80 {

150 Rémi Venant


81 name: "iptablesError",
82 description: "detect specific iptables errors",
83 rule: function (command, args, response) {
84 var re = /^iptables( v[\d\.]+)?:/;
85 return command === ’iptables’
86 && re.test(response);
87 },
88 score: 0
89 },
90 {
91 name: "wgetError",
92 description: "detect specific wget errors",
93 rule: function (command, args, response) {
94 return command === ’wget’
95 && (response.endsWith(’ERROR 403: Forbidden.’)
96 || response.endsWith(’ERROR 403: Forbidden.’)
97 || ~response.indexOf(’unable to resolve host address’
));
98 },
99 score: 0
100 },
101 {
102 name: "opensslError",
103 description: "detect specific wget errors",
104 rule: function (command, args, response) {
105 return command === ’openssl’
106 && [’req [options]’, ’error’]
107 .some(a => ~response.indexOf(a));
108 },
109 score: 0
110 },
111 {
112 name: "aptgetError",
113 description: "detect specific apt-get errors",
114 rule: function (command, args, response) {
115 return (command === ’apt-get’ || command === ’aptitude’)
116 && [’Unable to locate package’, ’Invalid operation’]
117 .some(a => ~response.indexOf(a));
118 },
119 score: 0
120 },
121 {
122 name: "mkfsError",
123 description: "detect specific mkfs errors",
124 rule: function (command, args, response) {
125 return command === ’mkfs’
126 && (response.endsWith(’No such file or directory’,
127 ’n\’existe pas’)

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 151


Annexe B. Règles d’inférence pour la justesse technique

128 || [’option requires and argument’]


129 .some(a => ~response.indexOf(a)); );
130 },
131 score: 0
132 },
133 {
134 name: "psError",
135 description: "detect specific ps errors",
136 rule: function (command, args, response) {
137 return command === ’ps’
138 && response.startsWith(’error’);
139 },
140 score: 0
141 },
142 {
143 name: "lessError",
144 description: "detect specific wget errors",
145 rule: function (command, args, response) {
146 return command === ’less’
147 && [’: No such file or directory’, ’: Aucun fichier’]
148 .some(a => ~response.indexOf(a));
149 },
150 score: 0
151 }
152 ]

152 Rémi Venant


C Analyse du questionnaire sur
l’entraide

L E questionnaire sur l’entraide a été renseigné par


15 étudiants. L’analyse suivante est réalisées par catégorie de questions :

— général ;
— demandes ;
— offres ;
— informations utiles sur les demandes d’aides.

Rapport à l’entraide en général

Questions de Lickert (réponses données en Figure C.1 :


1. En général, je me sens à l’aise pour dialoguer avec les autres avec un outil
de messagerie instantanée (chat)
2. Dans le cadre de mon apprentissage, je me sens à l’aise pour dialoguer
avec les autres avec un outil de messagerie instantanée (chat)
3. Dans le cadre de mon apprentissage j’ai l’habitude de demander de l’aide
à d’autres étudiants
4. Dans le cadre de mon apprentissage j’ai l’habitude d’aider d’autres
étudiants
5. Quand j’aide quelqu’un j’essaye de donner des indications plutôt que la
réponse elle même
6. Dans le cadre de mon apprentissage j’ai pour habitude les autres même si
je ne suis pas certain de ma réponse

Demande d’aide

Questions de Lickert (réponses données en Figure C.2 :

153
Annexe C. Analyse du questionnaire sur l’entraide

Figure C.1 – Questions générales sur l’aide

1. Avec Lab4CE, je peux demander de l’aide à d’autres étudiants aussi


facilement que lors d’une séance de travaux pratiques traditionnelle ;
2. Avec Lab4CE, je préfère demander de l’aide anonymement ;
3. Avec Lab4CE, je préfère demander de l’aide à quelqu’un en particulier
plutôt qu’à tous ;
4. J’ai souvent demandé de l’aide à partir d’une demande d’aide existante
« moi aussi » ;
5. On a répondu à mes demandes dans des délais raisonnables ;
6. L’aide que l’on m’a apportée s’est souvent résumée à la réponse à mon
problème sans plus d’explications ;
7. Je suis satisfait dans l’ensemble des aides que l’on m’a apportées ;
8. Les aides qui m’ont été fournies par d’autres étudiants avec Lab4CE sont

154 Rémi Venant


Figure C.2 – Questions sur la demande d’aide

au moins aussi efficaces pour mon apprentissage que les aides que je reçois
lors de séances de travaux pratiques traditionnelles.
Réponses libre pour la question « Avec Lab4CE je peux demander de l’aide à
d’autres étudiants aussi facilement que lors d’une séance de travaux pratiques
traditionnelle » (le score donnée à la question liée est fourni entre parenthèse) :
— « Il serait pratique de pouvoir interagir avec la console du poste que l’on
aide » (5)
— « il est plus convivial et plus pratique de demander de l’aide directement
plutôt que par l’intermédiaire d’une demande formelle. C’est plus rapide
et plus réactif. » (1)
— « Selon moi ça ne doit pas être la vocation principal d’une application en
classe » (2)
— « Pour ma part quand je rencontre une petite difficulté, le système

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 155


Annexe C. Analyse du questionnaire sur l’entraide

Figure C.3 – Questions sur la prise en charge d’aides

d’entraide que propose Lab4CE suffit, mais si je rencontre un problème de


compréhension, l’explication par un échange oral reste le plus efficace. » (2)

Prise en charge d’aides

Questions de Lickert (réponses données en Figure C.3 :


1. Avec Lab4CE je peux aider 1 autre étudiant aussi facilement que lors d une
séance de travaux pratiques traditionnelle ;
2. Avec Lab4CE je peux aider plusieurs autres étudiants aussi facilement que
lors d’une séance de travaux pratiques traditionnelle ;
3. Je suis satisfait dans l’ensemble des aides que j’ai apportées ;
4. Les aides que j’ai fournies à d autres étudiants avec Lab4CE sont au moins

156 Rémi Venant


aussi efficaces pour mon apprentissage que les aides que j apporte lors de
séances de travaux pratiques traditionnelles ;
5. Apporter de l’aide m’a permis de vérifier / consolider la maîtrise de mes
connaissances ;
6. Répondre à des demandes d’aide m’a donné l’impression de ne pas avoir
assez de temps pour réaliser mon travail personnel ;
7. L’aide m’a permis de confronter mon point de vue à celui des autres ;
8. À l’avenir si mes offres ou demandes d’aide n’apportent pas de bonus sur
ma note, j’utiliserais toujours le système d aide.
Réponses libre pour la question « Avec Lab4CE je peux aider 1 autre étudiant
aussi facilement que lors d’une séance de travaux pratiques traditionnelle » (le
score donnée à la question liée est fourni entre parenthèse) :
— « Explication de la réponse : il est plus facile d’expliquer quelque chose à
quelququ’un irl que par message textuel.
Pour une utilisation de Lab4CE pour des travaux à la maison : rajouter une
fonctionnalité permettant un conversation orale. En classe : rien à
proposer. » (2)
— « Un serveur vocal. Il y est peut etre deja mais je ne l’ai pas vu/utilisé. » (2)
— « C’est moins agréable et moins pratique. » (1)
— « on est tenté de vouloir l’aider verbalement, cela reste plus rapide et pus
simple. » (2)
— « de même, je pense que l’aide directe est plus efficace dans le cadre des
cours. De plus les indications par chat sont moins précises que lorsqu’elles
sont données directement » (2)
— « je peut expliquer la question facilement » (1)
Réponses libre pour la question « Avec Lab4CE je peux aider plusieurs autres
étudiants aussi facilement que lors d une séance de travaux pratiques
traditionnelle » (le score donnée à la question liée est fourni entre parenthèse) :
— « Meme raison que precedemment. Je parle plus vite que ce que j’écris, j’ai
besoin de montrer des choses sur des dessins, etc... » (2)
— « Idem » (1)
— « oui, dans le cas ou les étudiant ne sont pas à côté » (4)
— « Peut-être pouvoir montrer une manipulation en simulant une nouvelle
machine héritée de la session du demandeur d’aide » (1)

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 157


Annexe C. Analyse du questionnaire sur l’entraide

Figure C.4 – Informations utiles à la demande d’aide

Informations utiles sur les demandes d’aides

La répartition des réponse à la question « Informations utiles pour demander


de l’aide à un utilisateur » est fournie Figure C.4.
Réponses libre pour la question « Informations utiles pour demander de l’aide
à un utilisateur » :
— « le niveau d’avancement du tp »
— « Un affichage des vrai nom.Prénom plutôt que les identifiants »
— « je demanderai de l’aide plus facilement à quelqu’un qui m’est familier »

158 Rémi Venant


D Exemple d’un trace xAPI
d’une commande

1 {
2 "id":"7b0e52a6-653a-4880-afb8-6125cf2083",
3 "actor": {
4 "account": {
5 "name": "pierrick.marie",
6 "homePage": "http://www.iut-tlse3.fr"
7 },
8 "objectType": "Agent"
9 },
10 "verb": {
11 "id": "http://traffic.irit.fr/xapi/verbs/executedinstruction",
12 "display": {"en-US": "executed", "fr-FR":"executa"}
13 },
14 "object": {
15 "id": "http://traffic.irit.fr/xapi/objects/computerinstruction",
16 "definition": {
17 "extensions": {
18 "http://exemple.irit.fr/xapi/objectextensions/
computerinstruction": {
19 "command":"rm",
20 "arguments":"-v myfile"
21 }
22 },
23 "name": {
24 "en-US": "computer instruction",
25 "fr-FR": "instruction informatique"
26 },
27 "description": {
28 "en-US": "an Shell instruction for a computer",
29 "fr-FR": "une instruction Shell informatique"
30 },
31 },
32 "objectType": "Activity"

159
Annexe D. Exemple d’un trace xAPI d’une commande

33 },
34 "result": {
35 "response": "rm : myfile : No such file or directory",
36 "success":false
37 },
38 "context": {
39 "extensions": {
40 "http://exemple.irit.fr/xapi/activityextensions/
computerinstruction": {
41 "expId": "c076c9880b814a9aad3c965c12cb74d0",
42 "labId": "de5a3c93bfb448ecae6099a96405a5c0",
43 "rscId": "5745d00c-a750-46a6-b9d3-3abf361b3c0c"
44 }
45 }
46 },
47 "timestamp": "2017-01-27T09:17:00.573Z",
48 "stored": "2017-01-27T09:17:01+00:00",
49 "version": "1.0.3",
50 "authority":{
51 "name":"lab4ceLRSAgent",
52 "mbox":"mailto:lab4ce@irit.fr",
53 "objectType":"Agent"
54 }
55 }

160 Rémi Venant


Bibliographie

Mahmoud A BDULWAHED et Zoltan K N AGY : Developing the trilab, a triple


access mode (hands-on, virtual, remote) laboratory, of a process control rig
using labview and joomla. Computer Applications in Engineering Education, 21
(4):614–626, 2013.

Maurice F A BURDENE, Edward J M ASTASCUSA et Randy M ASSENGALE : A


proposal for a remotely shared control systems laboratory. Frontiers in
Education . . ., pages 589–592, 1991. URL
https://doi.org/10.1109/FIE.1991.187556.

Ifeyinwa E A CHUMBA, Djamel A ZZI, Victor L D UNN et Gloria A


C HUKWUDEBE : Intelligent performance assessment of students’ laboratory
work in a virtual electronic laboratory environment. IEEE Transactions on
Learning Technologies, 6(2):103–116, 2013.

Burcin A KTAN, Carisa A B OHUS, Lawrence A C ROWL et Molly H S HOR :


Distance learning applied to control engineering laboratories. IEEE
Transactions on education, 39(3):320–326, 1996. URL
https://doi.org/10.1109/13.538754.

Vincent A LEVEN et Kenneth R K OEDINGER : Investigations into help seeking


and learning with a cognitive tutor. Dans Papers of the AIED-2001 workshop on
help provision and help seeking in interactive learning environments, pages 47–58,
2001.

Vincent A LEVEN, Ido R OLL, Bruce M M C L AREN et Kenneth R K OEDINGER :


Help helps, but only so much : Research on help seeking with intelligent
tutoring systems. International Journal of Artificial Intelligence in Education, 26
(1):205–223, 2016.

161
Bibliographie

Vincent A LEVEN, Elmar S TAHL, Silke S CHWORM, Frank F ISCHER et Raven


WALLACE : Help seeking and help design in interactive learning
environments. Review of educational research, 73(3):277–320, 2003.

Felipe A RANGO, Chenghung C HANG, Sven K E SCHE et Constantin


C HASSAPIS : A scenario for collaborative learning in virtual engineering
laboratories. Dans Frontiers In Education Conference-Global Engineering :
Knowledge Without Borders, Opportunities Without Passports, 2007. FIE’07. 37th
Annual, pages F3G–7. IEEE, 2007.

Kimberly E A RNOLD et Matthew D P ISTILLI : Course signals at purdue : Using


learning analytics to increase student success. Dans Proceedings of the 2nd
international conference on learning analytics and knowledge, pages 267–270.
ACM, 2012.

Joanne M ATLEE, TC L ETHBRIDGE, A S OBEL, JB T HOMPSON et RJ L E B LANC :


Software engineering 2004 : Acm/ieee-cs guidelines for undergraduate
programs in software engineering. Dans Software Engineering, 2005. ICSE
2005. Proceedings. 27th International Conference on, pages 623–624. IEEE, 2005.

M A UBÉ et R D AVID : Le programme d’adoption du monde de darwin : une


exploitation concrète des tic selon une approche socioconstructiviste.
Pédagogie. net : l’essor des communautés virtuelles d’apprentissage, Sainte-Foy,
Presses de l’Université du Québec, pages 49–72, 2003.

Stephanie E A UGUST, Michele L H AMMERS, Don Brian M URPHY, Allison


N EYER, Penda G UEYE et Robert Q T HAMES : Virtual engineering sciences
learning lab : giving stem education a second life. IEEE Transactions on
Learning Technologies, 9(1):18–30, 2016.

Aaron B ANGOR, Philip K ORTUM et James M ILLER : Determining what


individual sus scores mean : Adding an adjective rating scale. Journal of
usability studies, 4(3):114–123, 2009.

Derek B ELL, P B ORROWS, P B UNYAN et D D ARIEL : Practical work in science :


a report and proposal for a strategic framework. London : Gatsby Technical
Education projects, 2008.

Thorsten B ELL, Detlef U RHAHNE, Sascha S CHANZE et Rolf P LOETZNER :


Collaborative inquiry learning : Models, tools, and challenges. International
journal of science education, 32(3):349–377, 2010.

162 Rémi Venant


Bibliographie

Yakov B EN -H AIM : Information gap decision theory : decisions under severe


uncertainty. Academic Press, 2006.

Hcene B ENMOHAMED : ICTT@ Lab : un environnement informatique pour la


génération et l’exécution de scénarios de téléTP. Thèse de doctorat, INSA de
Lyon, 2007.

Brett Alan B IXLER : The effects of scaffolding student’s problem-solving process via
question prompts on problem solving and intrinsic motivation in an online learning
environment. The Pennsylvania State University, 2007.

Paulo B LIKSTEIN : Using learning analytics to assess students’ behavior in


open-ended programming tasks. Dans Proceedings of the 1st international
conference on learning analytics and knowledge, pages 110–116. ACM, 2011.

Mario A B OCHICCHIO et Antonella L ONGO : Hands-on remote labs :


Collaborative web laboratories as a case study for it engineering classes.
IEEE Transactions on learning technologies, 2(4):320–330, 2009.

Charles C B ONWELL et James A E ISON : Active Learning : Creating Excitement in


the Classroom. 1991 ASHE-ERIC Higher Education Reports. ERIC, 1991. ISBN
ISBN-1-878380-08-7.

Prashant B ORDIA : Face-to-face versus computer-mediated communication : A


synthesis of the experimental literature. The Journal of Business
Communication (1973), 34(1):99–118, 1997.

Amin B OUABID, Philippe V IDAL et Julien B ROISIN : A web application


dedicated to online practical activities : The case of system and network
experiments. Dans 2011 IEEE 11th International Conference on Advanced
Learning Technologies, pages 93–97, July 2011.

Mohamed El Amine B OUABID : De la conception à l’exploitation des travaux


pratiques en ligne : application d’une approche générique à l’enseignement de
l’informatique. Thèse de doctorat, Université de Toulouse, Université
Toulouse III-Paul Sabatier, 2012.

David B OUD, Jeffrey D UNN et Elizabeth H EGARTY-H AZEL : Teaching in


laboratories. Society for Research into Higher Education & NFER-Nelson,
1986.

David B OUD, Rosemary K EOGH et David WALKER : Reflection : Turning


experience into learning. Routledge, 2013.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 163


Bibliographie

Julien B ROISIN, Rémi V ENANT et Philippe V IDAL : A remote laboratory to


leverage motivation of learners to practice : an exploratory study about
system administration. Dans 12th International Conference on Remote
Engineering and Virtual Instrumentation (REV 2015), pages 140–142, Bangkok,
Thailand, Feb 2015a. URL
https://hal.archives-ouvertes.fr/hal-01363341.
Julien B ROISIN, Rémi V ENANT et Philippe V IDAL : Lab4CE : a Remote
Laboratory for Computer Education. International Journal of Artificial
Intelligence in Education, 25(4):154–180, 2015b. URL
https://hal.archives-ouvertes.fr/hal-01530319.
Julien B ROISIN, Rémi V ENANT et Philippe V IDAL : Awareness and reflection in
virtual and remote laboratories : the case of computer education.
International Journal of Technology Enhanced Learning, 9(2-3):254–276, 2017.
John B ROOKE et al. : Sus-a quick and dirty usability scale. Usability evaluation in
industry, 189(194):4–7, 1996.
Cédric B RUDERMANN et Chrysta P ÉLISSIER : Accompagnement à l’autonomie
d’apprentissage dans les cours en ligne offerts aux masses : Contribution à la
définition de la notion “d’agir participant”. Distances et médiations des savoirs.
Distance and Mediation of Knowledge, 19, 2017. URL
http://dms.revues.org/1918.
Peter B RUSILOVSKY et Eva M ILLÁN : User models for adaptive hypermedia
and adaptive educational systems. Dans The adaptive web, pages 3–53.
Springer, 2007.
Sravani Teja B ULUSU, Romain L ABORDE, Ahmad Samer WAZAN, Francois
B ARRÈRE et Abdelmalek B ENZEKRI : Which security requirements
engineering methodology should i choose ? : Towards a requirements
engineering-based evaluation approach. Dans Proceedings of the 12th
International Conference on Availability, Reliability and Security, page 29. ACM,
2017.
Eileen D B UNDERSON et Mary Elizabeth C HRISTENSEN : An analysis of
retention problems for female students in university computer science
programs. Journal of Research on Computing in Education, 28(1):1–18, 1995.
Michael J C ALLAGHAN, Jim H ARKIN, T Martin M C G INNITY et Liam P
M AGUIRE : Paradigms in remote experimentation. International Journal of
Online Engineering, 3(4), 2007.

164 Rémi Venant


Bibliographie

MJ C ALLAGHAN, J H ARKIN, TM M C G INNITY et LP M AGUIRE : An


internet-based methodology for remotely accessed embedded systems. Dans
Systems, Man and Cybernetics, 2002 IEEE International Conference on, volume 6,
pages 6–pp. IEEE, 2002.

Paul C HANDLER et John S WELLER : Cognitive load while learning to use a


computer program. Applied cognitive psychology, 10(2):151–170, 1996.

Kristina C HODOROW : MongoDB : The Definitive Guide : Powerful and Scalable


Data Storage. " O’Reilly Media, Inc.", 2013.

Gobinda G C HOWDHURY : Natural language processing. Annual review of


information science and technology, 37(1):51–89, 2003.

SeJin C HUNG, Moon-Jung C HUNG et Charles S EVERANCE : Design of support


tools and knowledge building in a virtual university course : Effect of
reflection and self-explanation prompts. Rapport technique, U.S.
Department of Education, 1999.

Aaron V C ICOUREL : Cognitive sociology : Language and meaning in social


interaction. Free Press, 1974.

Félix J García C LEMENTE, Luis de la T ORRE, Sebastián D ORMIDO, Christophe


S ALZMANN et Denis G ILLET : Collecting experience data from remotely
hosted learning applications. Dans Online Engineering & Internet of Things,
pages 170–181. Springer, 2018 in press.

Michael P C LOUGH : Using the laboratory to enhance student learning.


Learning science and the science of learning, pages 85–94, 2002.

Allan C OLLINS et John Seely B ROWN : The computer as a tool for learning
through reflection. Learning issues for intelligent tutoring systems, 1:18, 1988.
URL https://doi.org/10.1007/978-1-4684-6350-7_1.

Albert T C ORBETT, Kenneth R K OEDINGER et John R A NDERSON : Intelligent


tutoring systems. Handbook of human-computer interaction, 5:849–874, 1997.

James E C ORTER, Sven K E SCHE, Constantin C HASSAPIS, Jing M A et Jeffrey V


N ICKERSON : Process and learning outcomes from remotely-operated,
simulated, and hands-on student laboratories. Computers & Education, 57
(3):2054–2067, 2011.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 165


Bibliographie

Kent J C RIPPEN et Boyd L E ARL : The impact of web-based worked examples


and self-explanation on performance, problem solving, and self-efficacy.
Computers & Education, 49(3):809–821, 2007.

Denny D AVIS, Michael T REVISAN, Paul L EIFFER, Jay M C C ORMACK, Steven


B EYERLEIN, M Javed K HAN et Patricia B RACKIN : Reflection and
metacognition in engineering practice. Using Reflection and Metacognition to
Improve Student Learning, eds. M. Kaplan, N. Silver, D. Lavaque-Manty, D.
Meizlish, Sterling, VA : Stylus Publishing, pages 78–103, 2013.

Beatrice de G ELDER et Nouchine H ADJIKHANI : Non-conscious recognition of


emotional body language. Neuroreport, 17(6):583–586, 2006.

Ton D E J ONG, Marcia C L INN et Zacharias C Z ACHARIA : Physical and virtual


laboratories in science and engineering education. Science, 340
(6130):305–308, 2013.

Ton de J ONG, Sofoklis S OTIRIOU et Denis G ILLET : Innovations in stem


education : the go-lab federation of online labs. Smart Learning Environments,
1(1):3, 2014.

Luis de la T ORRE, Ruben H ERADIO, Carlos A J ARA, Jose S ANCHEZ, Sebastian


D ORMIDO, Fernando T ORRES et Francisco A C ANDELAS : Providing
collaborative support to virtual and remote laboratories. IEEE Transactions on
Learning Technologies, 6(4):312–323, 2013.

JA D EL A LAMO, V C HANG, L B ROOKS, C M C L EAN, J H ARDISON, G M ISHURIS


et L H UI : Mit microelectronics weblab. chapter in T. Fjeldly and M. Shur, Eds.,
Lab on the Web-Running Real Electronics Experiments via the Internet,
Wiley-IEEE, pages 49–87, 2003.

C D EPOVER, B D E L IÈVRE, JJ Q UINTIN, S D ECAMPS, F P ORCO et C F LOQUET :


Les modèles d’enseignement et d’apprentissage. Syllabus du cours publié aux,
2007.

David G D EWHURST, Hamish A M ACLEOD et Tracey AM N ORRIS :


Independent student learning aided by computers : an acceptable alternative
to lectures ? Computers & Education, 35(3):223–241, 2000.

David D I B IASE : Is distance teaching more work or less work ? American


Journal of Distance Education, 14(3):6–20, 2000.

166 Rémi Venant


Bibliographie

Pierre D ILLENBOURG, Michael J B AKER, Agnes B LAYE et Claire O’M ALLEY :


The evolution of research on collaborative learning. Dans Learning in Humans
and Machine : Towards an interdisciplinary learning science, pages 189–211.
Elsevier, Oxford, 1995.

Pierre D ILLENBOURG, Sanna J ÄRVELÄ et Frank F ISCHER : The evolution of


research on computer-supported collaborative learning. Technology-enhanced
learning, pages 3–19, 2009.

Pierre D ILLENBOURG et Patrick J ERMANN : Designing integrative scripts. Dans


F. F ISCHER, H. M ANDL, J. H AAKE et I. K OLLAR, éditeurs : Scripting
Computer-Supported Collaborative Learning – Cognitive, Computational, and
Educational Perspectives, Computer-Supported Collaborative Learning Series,
pages 275–301. Springer, 2007. URL
https://telearn.archives-ouvertes.fr/hal-00190827.

Pierre D ILLENBOURG et Pierre T CHOUNIKINE : Flexibility in macro-scripts for


computer-supported collaborative learning. Journal of computer assisted
learning, 23(1):1–13, 2007.

Willem D OISE, Gabriel M UGNY et Anne-Nelly P ERRET-C LERMONT : Social


interaction and the development of cognitive operations. European journal of
social psychology, 5(3):367–383, 1975.

Martin D OUGIAMAS et Peter TAYLOR : Moodle : Using learning communities


to create an open source course management system. Dans World Conference
on Educational Multimedia, Hypermedia and Telecommunications (EDMEDIA)
2003, 2003. URL http://research.moodle.net/33/1/Moodle%
20Using%20Learning%20Communities%20to%20Create.pdf.

Paul D OURISH et Victoria B ELLOTTI : Awareness and coordination in shared


workspaces. Dans Proceedings of the 1992 ACM conference on
Computer-supported cooperative work, pages 107–114. ACM, 1992.

Erik D UVAL : Attention please ! : learning analytics for visualization and


recommendation. Dans Proceedings of the 1st international conference on
learning analytics and knowledge, pages 9–17. ACM, 2011.

Mathieu D ’A QUIN, Alessandro A DAMOU, Stefan D IETZE, Besnik F ETAHU,


Ujwal G ADIRAJU, Ilire H ASANI -M AVRIQI, Peter H OLTZ, Joachim
K IMMERLE, Dominik K OWALD, Elisabeth L EX et al. : Afel : Towards
measuring online activities contributions to self-directed learning. Dans

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 167


Bibliographie

Proceedings of the EC-TEL 2017 workshop ARTEL : Awareness and reflection


technology enhanced learning, 2017.

Stephen H E DWARDS : Using software testing to move students from


trial-and-error to reflection-in-action. ACM SIGCSE Bulletin, 36(1):26–30,
2004.

Nesimi E RTUGRUL : New era in engineering experiments : an integrated and


interactive teaching/learning approach, and real-time visualisations.
International Journal of Engineering Education, 14(5):344–355, 1998.

Richard FAERBER : Groupements, processus pédagogiques et quelques


contraintes liés à un environnement virtuel d’apprentissage. Dans
Environnements Informatiques pour l’Apprentissage Humain 2003, pages
199–210. ATIEF ; INRP, 2003.

Jacques FAYOLLE, Christophe G RAVIER et Benjamin J AILLY : Collaborative


remote laboratory in virtual wolrd. Dans 10th WSEAS International Conference
on APPLIED INFORMATICS AND COMMUNICATIONS (AIC’10), pages 1–8,
2010.

Rebecca F ERGUSON et Simon Buckingham S HUM : Social learning analytics :


five approaches. Dans Proceedings of the 2nd international conference on learning
analytics and knowledge, pages 23–33. ACM, 2012.

Jennifer A F REDRICKS, Phyllis C B LUMENFELD et Alison H PARIS : School


engagement : Potential of the concept, state of the evidence. Review of
educational research, 74(1):59–109, 2004.

Javier G ARCÍA -Z UBIA, Jaime I RURZUN, I A NGULO, P O RDUÑA, J Ruiz-de


G ARIBAY, U H ERNÁNDEZ et M C ASTRO : Developing a second-life-based
remote lab over the weblab-deusto architecture. Dans Proceedings of the
Remote Engineering and Virtual Instrumentation Conference (REV2010),
Stockholm, Sweden, pages 171–176, 2010.

Javier G ARCÍA -Z UBÍA, Diego López-de I PIÑA, Pablo O RDUÑA et Unai


H ERNÁNDEZ -J AYO : Experience with weblab-deusto. Dans Industrial
Electronics, 2006 IEEE International Symposium on, volume 4, pages 3190–3195.
IEEE, 2006.

D Randy G ARRISON : E-learning in the 21st century : A framework for research and
practice. Taylor & Francis, 2011.

168 Rémi Venant


Bibliographie

Graham G IBBS : Improving the quality of student learning : Based on the Improving
Student Learning Project funded by the Council for National Academic Awards.
Technical and Education Services, 1992.

Denis G ILLET, Ton D E J ONG, Sofoklis S OTIROU et Christophe S ALZMANN :


Personalised learning spaces and federated online labs for stem education at
school. Dans Global Engineering Education Conference (EDUCON), 2013 IEEE,
pages 769–773. IEEE, 2013.

Denis G ILLET, Anh Vu Nguyen N GOC et Yassin R EKIK : Collaborative


web-based experimentation in flexible engineering education. IEEE
Transactions on Education, 48(4):696–704, 2005.

Denis G ILLET, Sofoklis S OTIRIOU et Ton de J ONG : Innovations in stem


education : the go-lab federation of online labs. Smart Learning Environment,
octobre 2014.

Shelley V G OLDMAN : Computer resources for supporting student


conversations about science concepts. ACM Sigcue Outlook, 21(3):4–7, 1992.

Luís G OMES et Seta B OGOSYAN : Current trends in remote laboratories. IEEE


Transactions on industrial electronics, 56(12):4744–4756, 2009.

Denis G OODRUM, Leonie Jean R ENNIE et Mark William H ACKLING : The status
and quality of teaching and learning of science in Australian schools : A research
report. Department of Education, Training and Youth Affairs Canberra, 2001.

Sten G OVAERTS, Yiwei C AO, Andrii V OZNIUK, Adrian H OLZER, Danilo Garbi
Z UTIN, Elio San Crist ?bal R UIZ, Lars B OLLEN, Sven M ANSKE, Nils FALTIN,
Christophe S ALZMANN et al. : Towards an online lab portal for
inquiry-based stem learning at school. Dans International Conference on
Web-Based Learning, pages 244–253. Springer, 2013.

Sten G OVAERTS, Katrien V ERBERT, Erik D UVAL et Abelardo PARDO : The


student activity meter for awareness and self-reflection. Dans CHI’12
Extended Abstracts on Human Factors in Computing Systems, pages 869–884.
ACM, 2012.

Sten G OVAERTS, Katrien V ERBERT, Joris K LERKX et Erik D UVAL : Visualizing


activities for self-reflection and awareness. Dans ICWL, pages 91–100.
Springer, 2010.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 169


Bibliographie

Christophe G RAVIER, Jacques FAYOLLE, Bernard B AYARD, Mikael ATES et


Jeremy L ARDON : State of the art about remote laboratories
paradigms-foundations of ongoing mutations. International Journal of Online
Engineering, 4(1):http–www, 2008.

Tom G ROSS et Wolfgang P RINZ : Awareness in context : A lightweight


approach. Dans ECSCW, volume 3, pages 295–314, 2003.

Sergio G UTIERREZ -S ANTOS, Manolis M AVRIKIS et George M AGOULAS :


Layered development and evaluation for intelligent support in exploratory
environments : the case of microworlds. Dans Intelligent tutoring systems,
pages 105–114. Springer, 2010.

Carl G UTWIN, Gwen S TARK et Saul G REENBERG : Support for workspace


awareness in educational groupware. Dans The first international conference on
Computer support for collaborative learning, pages 147–156. L. Erlbaum
Associates Inc., 1995.

Stian H ÅKLEV, Louis FAUCON, Thanasis H ADZILACOS et Pierre


D ILLENBOURG : Frog : rapid prototyping of collaborative learning scenarios.
URL https://infoscience.epfl.ch/record/230014. Presented at
EC-TEL 2017 Conference, Tallinn, 2017.

Ben H ANSON, Peter C ULMER, Justin G ALLAGHER, Kate PAGE, Elizabeth


R EAD, Andrew W EIGHTMAN et Martin L EVESLEY : A remote-access
laboratory for collaborative learning. Small, 2(6), 2008.

J H ARDISON, D Z YCH, JA D EL A LAMO, VJ H ARWARD, SR L ERMAN,


SM WANG, K Y EHIA et C VARADHARAJAN : The microelectronics weblab
6.0–an implementation using web services and the ilab shared architecture.
Dans International conference on engineering education and research, pages 1–5,
2005.

James L H ARDISON, Kimberly D E L ONG, Philip H B AILEY et V Judson


H ARWARD : Deploying interactive remote labs using the ilab shared
architecture. Dans Frontiers in Education Conference, 2008. FIE 2008. 38th
Annual, pages S2A–1. IEEE, 2008.

H Rex H ARTSON, José C C ASTILLO, John K ELSO et Wayne C N EALE : Remote


evaluation : the network as an extension of the usability laboratory. Dans
Proceedings of the SIGCHI conference on human factors in computing systems,
pages 228–235. ACM, 1996.

170 Rémi Venant


Bibliographie

V Judson H ARWARD, Jesus A D EL A LAMO, Steven R L ERMAN, Philip H


B AILEY, Joel C ARPENTER, Kimberley D E L ONG, Chris F ELKNOR, James
H ARDISON, Bryant H ARRISON, Imad J ABBOUR et al. : The ilab shared
architecture : A web services infrastructure to build communities of internet
accessible laboratories. Proceedings of the IEEE, 96(6):931–950, 2008.

Brian H AYES : Cloud computing. Communications of the ACM, 51(7):9–11, 2008.

Tobias H ECKING, Sven M ANSKE, Lars B OLLEN, Sten G OVAERTS, Andrii


V OZNIUK et H Ulrich H OPPE : A flexible and extendable learning analytics
infrastructure. Dans International Conference on Web-Based Learning, pages
123–132. Springer, 2014.

Roger H IEMSTRA : Uses and benefits of journal writing. New directions for adult
and continuing education, 2001(90):19–26, 2001.

Avi H OFSTEIN et Vincent N L UNETTA : The role of the laboratory in science


teaching : Neglected aspects of research. Review of educational research, 52
(2):201–217, 1982.

Avi H OFSTEIN et Vincent N L UNETTA : The laboratory in science education :


Foundations for the twenty-first century. Science education, 88(1):28–54, 2004.

Fiona M H OLLANDS et Devayani T IRTHALI : Moocs : Expectations and reality.


full report. Online Submission, 2014.

Colm H OWLIN et Danny LYNCH : Learning and academic analytics in the


realizeit system. Dans E-Learn : World Conference on E-Learning in Corporate,
Government, Healthcare, and Higher Education, pages 862–872. Association for
the Advancement of Computing in Education (AACE), 2014.

Noor Hasimah I BRAHIM T EO et Mike J OY : Validation of course ontology


elements for automatic question generation. Dans Giovanni V INCENTI,
Alberto B UCCIERO, Markus H ELFERT et Matthias G LOWATZ, éditeurs :
E-Learning, E-Education, and Online Training : Third International Conference,
eLEOT 2016, Dublin, Ireland, August 31 – September 2, 2016, Revised Selected
Papers, pages 135–142. Springer International Publishing, Cham, 2017. ISBN
978-3-319-49625-2. URL
https://doi.org/10.1007/978-3-319-49625-2_17.

Petri I HANTOLA, Arto V IHAVAINEN, Alireza A HADI, Matthew B UTLER, Jürgen


B ÖRSTLER, Stephen H E DWARDS, Essi I SOHANNI, Ari K ORHONEN, Andrew

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 171


Bibliographie

P ETERSEN, Kelly R IVERS et al. : Educational data mining and learning


analytics in programming : Literature review and case studies. Dans
Proceedings of the 2015 ITiCSE on Working Group Reports, pages 41–63. ACM,
2015.

I NSTITUT DE S TATISTIQUE DE L’UNESCO : Recueil de données mondiales sur


l’éducation 2009. Rapport technique, UNESCO, 2009. URL
http://unesdoc.unesco.org/images/0021/002191/219107f.pdf.

Katherine I SBISTER et Clifford N ASS : Consistency of personality in interactive


characters : verbal cues, non-verbal cues, and user characteristics.
International journal of human-computer studies, 53(2):251–267, 2000.

Carlos A J ARA, Francisco A C ANDELAS, Fernando T ORRES, Sebastian


D ORMIDO, Francisco E SQUEMBRE et Oscar R EINOSO : Real-time
collaboration of virtual laboratories through the internet. Computers &
Education, 52(1):126–140, 2009.

Carlos A J ARA, Francisco A C ANDELAS, Fernando T ORRES, Sebastién


D ORMIDO et Francisco E SQUEMBRE : Synchronous collaboration of virtual
and remote laboratories. Computer Applications in Engineering Education, 20
(1):124–136, mars 2012.

Kevin J OHNSON, Cathal M C H UGO et Timothy H ALL : Analysing the efficacy


of blended learning using technology enhanced learning (tel) and
m-learning delivery technologies. Dans 23rd ASCILITE Conference, Sydney,
pages 3–6, 2006.

Adam N J OINSON : Self-esteem, interpersonal risk, and preference for e-mail to


face-to-face communication. CyberPsychology & Behavior, 7(4):472–478, 2004.

DH J ONASSEN : Instructional-design theories and models : A new paradigm of


instructional theory. Designing constructivist learning environments. In CM
Reigeluth, 1(s 215), 1999.

Zhong K EDING et Li N AN : A correlative research on the relationship between


awareness in collaborative learning and its impact on academic performance.
Dans Emerging Issues in Smart Learning, pages 9–22. Springer, 2015.

Suzanne K EILSON, Elliot K ING et Megan S APNAR : Learning science by doing


science on the web. Dans Frontiers in Education Conference, 1999. FIE’99. 29th
Annual, volume 3, pages 13D4–7. IEEE, 1999.

172 Rémi Venant


Bibliographie

David K IRSH : A few thoughts on cognitive overload. Intellectica, 1(30):19–51,


2000.

Clinton D K NIGHT et Stephen P D E W EERTH : A shared remote testing


environment for engineering education. Dans Frontiers in Education
Conference, 1996. FIE’96. 26th Annual Conference., Proceedings of, volume 3,
pages 1003–1006. IEEE, 1996. URL
https://doi.org/10.1109/FIE.1996.567661.

Lars K OBBE, Armin W EINBERGER, Pierre D ILLENBOURG, Andreas H ARRER,


Raija H ÄMÄLÄINEN, Päivi H ÄKKINEN et Frank F ISCHER : Specifying
computer-supported collaboration scripts. International Journal of
Computer-Supported Collaborative Learning, 2(2):211–224, 2007.

Bas K OLLÖFFEL et Ton de J ONG : Can performance feedback during instruction


boost knowledge acquisition ? contrasting criterion-based and social
comparison feedback. Interactive learning environments, 24(7):1428–1438, 2016.

T K OSTULSKI, S M URRAY, ME A UER et PA C OTFAS : Student feedback from


the first national sharing trial of remote labs in australia. Dans Proceedings of
The 8th International Conference on Remote Engineering and Virtual
Instrumentation (REV), pages 203–211, 2011.

Deanna K UHN : Mechanisms of change in the development of cognitive


structures. Child development, 43(3):833–844, 1972.

Solomon K ULLBACK et Richard A L EIBLER : On information and sufficiency.


The annals of mathematical statistics, 22(1):79–86, 1951.

Élise L AVOUÉ, Gaëlle M OLINARI, Yannick P RIÉ et Safè K HEZAMI :


Reflection-in-action markers for reflection-on-action in computer-supported
collaborative learning settings. Computers & Education, 88(Supplement
C):129–142, 2015. ISSN 0360-1315. URL http://www.sciencedirect.
com/science/article/pii/S0360131515001207.

Arnaud L ELEVÉ, Hcene B ENMOHAMED, Patrick P REVOT et Cécile M EYER :


Remote laboratory-towards an integrated training system. Dans 4th
International Conference on Information Technology Based Higher Education and
Training (ITHET 2003), page 6, 2003.

Chen L IN, Shitian S HEN et Min C HI : Incorporating student response time and
tutor instructional interventions into student modeling. Dans Proceedings of

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 173


Bibliographie

the 2016 Conference on User Modeling Adaptation and Personalization, pages


157–161. ACM, 2016.
Steven L ONN et Stephanie D T EASLEY : Saving time or innovating practice :
Investigating perceptions and uses of learning management systems.
Computers & Education, 53(3):686–694, 2009.
Katherine A L OVELAND, BELGIN T UNALI -K OTOSKI, Y Richard C HEN, Juliana
O RTEGON, Deborah A P EARSON, Kristin A B RELSFORD et M Cullen G IBBS :
Emotion recognition in autism : Verbal and nonverbal information.
Development and psychopathology, 9(3):579–593, 1997.
David L OWE, Chris B ERRY, Steve M URRAY et Euan L INDSAY : Adapting a
remote laboratory architecture to support collaboration and supervision.
Dans Proceedings of the Sixth International Conference on Remote Engineering and
Virtual Instrumentation, pages 103–108. Publisher : International Association
of Online Engineering, 2009.
David L OWE, Gnana B HARATHY, Ben S TUMPERS et Herbert Y EUNG :
Laboratory lesson plans : Opportunities created by remote laboratories. IEEE, 2012.
David L OWE, Peter N EWCOMBE et Ben S TUMPERS : Evaluation of the use of
remote laboratories for secondary school science education. Research in
Science Education, 43(3):1197–1219, 2013.
Patrick R L OWENTHAL et Joanna C D UNLAP : Problems measuring social
presence in a community of inquiry. E-Learning and Digital Media, 11
(1):19–30, 2014.
Sofie MM L OYENS, Joshua M AGDA et Remy MJP R IKERS : Self-directed
learning in problem-based learning and its relationships with self-regulated
learning. Educational Psychology Review, 20(4):411–427, 2008.
Jing M A et Jeffrey V N ICKERSON : Hands-on, simulated, and remote
laboratories : A comparative literature review. ACM Computing Surveys
(CSUR), 38(3):7, septembre 2006.
J M ACHOTKA et Z N EDIC : From the collaborative environment of remote
laboratories to the global collaboration. Dans Proc. 5th Annual Conference on
Remote Engineering and Virtual Instrumentation (REV 2008), 2008.
Jean-Marie M AES : Chamilo 2.0 : A second generation open source e-learning
and collaboration platform. International Journal of Advanced Corporate
Learning, 3(3), 2010.

174 Rémi Venant


Bibliographie

Linda H M ASON : Explicit self-regulated strategy development versus


reciprocal questioning : Effects on expository reading comprehension among
struggling readers. Journal of Educational Psychology, 96(2):283, 2004.
Cynthia T M ATTHEW et Robert J S TERNBERG : Developing experience-based
(tacit) knowledge through reflection. Learning and Individual Differences, 19
(4):530–540, 2009.
Gerard M C K EE et Richard B ARSON : Netrolab : a networked laboratory for
robotics education. Dans IEE Colloquium on Robotics and Education. IET, 1995.
URL http://dx.doi.org/10.1049/ic:19950474.
Jim M C K INLEY : Critical argument and writer identity : Social constructivism
as a theoretical framework for efl academic writing. Critical Inquiry in
Language Studies, 12(3):184–207, 2015.
Barbara M EANS, Yukie T OYAMA, Robert M URPHY, Marianne B AKIA et Karla
J ONES : Evaluation of evidence-based practices in online learning : A
meta-analysis and review of online learning studies. US Department of
Education, 2009.
Marthie AM M EESTER et Paul A K IRSCHNER : Practical work at the open
university of the netherlands. Journal of Science Education and Technology, 4
(2):127–140, 1995.
Nicolas M ICHINOV et Corine P RIMOIS : Improving productivity and creativity
in online groups through social comparison process : New evidence for
asynchronous electronic brainstorming. Computers in human behavior, 21
(1):11–28, 2005.
Michael S M IKOWSKI et Josh C P OWELL : Single page web applications. B and
W, 2013.
Alexander M IKROYANNIDIS, Aitor G OMEZ -G OIRI, John D OMINGUE, Daan
PAREIT, Vanhie-Van G ERWEN, Johann M M ARQUEZ -B ARJA et al. : Deploying
learning analytics for awareness and reflection in online scientific
experimentation. Dans 5th Workshop on Awareness and Reflection in Technology
Enhanced Learning (ARTEL) colocated with 10th European Conference on
Technology Enhanced Learning : Design for Teaching and Learning in a Networked
World (EC-TEL 2015), pages 105–111, 2015.
Robin M ILLAR : The role of practical work in the teaching and learning of
science. High school science laboratories : Role and vision, 2004.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 175


Bibliographie

Tess M ILLER : Formative computer-based assessment in higher education : The


effectiveness of feedback in supporting student learning. Assessment &
Evaluation in Higher Education, 34(2):181–192, 2009.

M INISTÈRE DE DE L’ ÉDUCATION NATIONALE : Bulletin officiel de l’éducation


nationale, 08 2015. URL http://cache.media.education.gouv.fr/
file/31/94/3/ensel7386_annexe_455943.pdf.

M INISTÈRE DE DE L’ ÉDUCATION NATIONALE : Bulletin officiel de l’éducation


nationale, 07 2016. URL http://www.education.gouv.fr/pid285/
bulletin_officiel.html?cid_bo=104657.

M INISTÈRE DU SUPÉRIEUR ET DE LA RECHERCHE : Diplôme universitaire de


technologie informatique. programme pédagogique national, 2013. URL
http://cache.media.enseignementsup-recherche.gouv.fr/
file/25/09/7/PPN_INFORMATIQUE_256097.pdf.

Gaëlle M OLINARI, Bruno P OELLHUBER, Jean H EUTTE, Elise L AVOUÉ,


Denise Sutter W IDMER et Pierre-André C ARON : L’engagement et la
persistance dans les dispositifs de formation en ligne : regards croisés.
Distances et médiations des savoirs. Distance and Mediation of Knowledge, 13,
2016. URL https://hal.archives-ouvertes.fr/hal-01294803.

Jennifer A M OON : Reflection in learning and professional development : Theory and


practice. Routledge, 2013.

Alana M M ORAIS, Ivana M ARENZI et Deirdre K ANTZ : The learnweb


formative assessment extension : Supporting awareness and reflection in
blended courses. Dans ARTEL@ EC-TEL, pages 97–103, 2015.

Alex M UCCHIELLI : Rôles et communications dans les organisations : connaissance


du problème, applications pratiques, volume 49. ESF éditeur, 1991.

Kristy M URRAY, Peter B ERKING, Jason H AAG et Nikolaus H RUSKA : Mobile


learning and adl’s experience api. Connections : The Quarterly Journal, 12
(1):45, 2012.

N ATIONAL R ESEARCH C OUNCIL AND OTHERS : America’s lab report :


Investigations in high school science. National Academies Press, 2006.

Sharon N ELSON -L E G ALL : Help-seeking : An understudied problem-solving


skill in children. Developmental review, 1(3):224–246, 1981.

176 Rémi Venant


Bibliographie

Sharon N ELSON -L E G ALL et L R ESNICK : Help seeking, achievement


motivation and the social practice of intelligence in school. Dans Stuart A.
K ARABENICK, éditeur : Strategic Help Seeking : Implications for Learning, pages
48–69. Lawrence Erlbaum Associates Publishers, 1998.
Nancy J N ERSESSIAN : Conceptual change in science and in science education.
Synthese, 80(1):163–183, 1989.
Richard S N EWMAN : Adaptive help seeking : A strategy of self-regulated
learning. Dans Self-regulation of Learning and Performance : Issues and
Educational Applications, pages 283–301. Lawrence Erlbaum Associates, Inc,
1994.
Richard S N EWMAN : Adaptive help seeking : A role of social interaction in
self-regulated learning. Dans Stuart A. K ARABENICK, éditeur : Strategic help
seeking : Implications for learning and teaching, pages 23–37. Lawrence Erlbaum
Associates Publishers, 1998.
Richard S N EWMAN, Brian M URRAY et Catherine L USSIER : Confrontation
with aggressive peers at school : Students’ reluctance to seek help from the
teacher. Journal of Educational Psychology, 93(2):398, 2001.
Jeffrey V N ICKERSON, James E C ORTER, Sven K E SCHE et Constantin
C HASSAPIS : A model for evaluating the effectiveness of remote engineering
laboratories and simulations in education. Computers & Education, 49
(3):708–725, 2007.
Michael N IEDERSTAETTER, Thomas K LINGER et Danilo Garbi Z UTIN : An
image processing online laboratory within the ilab shared architecture.
International Journal of Online Engineering, 6(2), 2010.
Joseph D N OVAK : Understanding the learning process and effectiveness of
teaching methods in the classroom, laboratory, and field. Science Education,
60(4):493–512, 1976.
Xavier O CHOA, Marcelo W ORSLEY, Nadir W EIBEL et Sharon O VIATT :
Multimodal learning analytics data challenges. Dans Proceedings of the Sixth
International Conference on Learning Analytics & Knowledge, pages 498–499.
ACM, 2016.
Madara O GOT, Gregory E LLIOTT et Nick G LUMAC : An assessment of
in-person and remotely operated laboratories. Journal of Engineering
education, 92(1):57–64, 2003.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 177


Bibliographie

Pablo O RDUNA, Aitor A LMEIDA, Diego López-de I PINA et Javier


G ARCIA -Z UBIA : Learning analytics on federated remote laboratories : tips
and techniques. Dans Global Engineering Education Conference (EDUCON),
2014 IEEE, pages 299–305. IEEE, 2014.

A Sullivan PALINCSAR : Social constructivist perspectives on teaching and


learning. Annual review of psychology, 49(1):345–375, 1998.

Seymour PAPERT et Idit H AREL : Situating constructionism. Constructionism,


36(2):1–11, 1991. URL http://namodemello.com.br/pdf/
tendencias/situatingconstrutivism.pdf.

Abelardo PARDO et George S IEMENS : Ethical and privacy principles for


learning analytics. British Journal of Educational Technology, 45(3):438–450,
2014.

Radek P ELÁNEK : Bayesian knowledge tracing, logistic models, and beyond :


an overview of learner modeling techniques. User Modeling and User-Adapted
Interaction, pages 1–38, 2017.

Jean P IAGET : On the development of memory and identity. Heinz Werner


Lectures, 19, 1967.

Herbert P OLLARD, Maria M INOR et Andree S WANSON : Instructor social


presence within the community of inquiry framework and its impact on
classroom community and the learning environment. Online Journal of
Distance Learning Administration, 17(2), 2014.

Marc P RENSKY : Khan academy. Educational Technology, 51(5):64, 2011.

Michael P RESSLEY : A transactional strategies instruction christmas carol. Dans


& A. Marini A. M C K EOUGH, J. Lupart, éditeur : Teaching for transfer :
Fostering generalization in learning, pages 177–213. Lawrence Erlbaum
Associates, Inc, 1995.

Luis P P RIETO et Marıa Jesús R ODRIGUEZ -T RIANA : Towards novel researcher


tooling based on multimodal analytics. Dans Cross Multimodal Learning
Analytics Workshop, 2017.

Luis P P RIETO, Kshitij S HARMA, Pierre D ILLENBOURG et María J ESÚS :


Teaching analytics : towards automatic extraction of orchestration graphs
using wearable sensors. Dans Proceedings of the Sixth International Conference
on Learning Analytics & Knowledge, pages 148–157. ACM, 2016.

178 Rémi Venant


Bibliographie

Minna P UUSTINEN : Help-seeking behavior in a problem-solving situation :


Development of self-regulation. European Journal of Psychology of education, 13
(2):271–282, 1998.

Michael J Q UINN : Parallel programming. TMH CSE, 526, 2003.

Thomas R ABELO, Manuel L AMA, Ricardo R A MORIM et Juan C V IDAL :


Smartlak : A big data architecture for supporting learning analytics services.
Dans Frontiers in Education Conference (FIE), 2015 IEEE, pages 1–5. IEEE, 2015.

Deanna R AINERI : Virtual laboratories enhance traditional undergraduate


biology laboratories. Biochemistry and Molecular Biology Education, 29
(4):160–162, 2001.

Paul R AMSDEN : Improving learning : New perspectives. Nichols Pub Co, 1988.
ISBN 978-0893973094.

Alexander R ENKL : Worked-out examples : Instructional explanations support


learning by self-explanations. Learning and instruction, 12(5):529–556, 2002.

Leonie Jean R ENNIE : Evaluation of the science by doing stage one professional
learning approach 2010. Australian Academy of Science Canberra, 2010.

Thomas R ICHTER, David B OEHRINGER et Sabina J ESCHKE : Lila : A european


project on networked experiments. Automation, Communication and
Cybernetics in Science and Engineering 2009/2010, pages 307–317, 2011.

Thomas R ICHTER, Michael J ESCHKE, Sabina J ESCHKE, Olivier P FEIFFER et


Rudolf R EINHARD : Intelligent training courses in virtual laboratories. Dans
EdMedia : World Conference on Educational Media and Technology, pages
2415–2422. Association for the Advancement of Computing in Education
(AACE), 2006.

Chris R ICKETTS et SJ W ILKS : Improving student performance through


computer-based assessment : Insights from recent research. Assessment &
evaluation in higher education, 27(5):475–479, 2002.

Albert D R ITZHAUPT, Raymond PASTORE et Robert D AVIS : Effects of captions


and time-compressed video on learner performance and satisfaction.
Computers in Human Behavior, 45:222–227, 2015.

Kelly R IVERS, Erik H ARPSTEAD et Ken K OEDINGER : Learning curve analysis


for programming : Which concepts do students struggle with ? Dans

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 179


Bibliographie

Proceedings of the 2016 ACM Conference on International Computing Education


Research, ICER ’16, pages 143–151, New York, NY, USA, 2016. ACM. ISBN
978-1-4503-4449-4. URL
http://doi.acm.org/10.1145/2960310.2960333.

M R OCARD, P C SERMELY, D J ORDE, D L ENZEN, H WALBERG -H ENRIKSSON et


V H EMMO : L’enseignement scientifique aujourd’hui : une pédagogie
renouvelée pour l’avenir de l’europe. Commission
européenne/Bruxelles.[Rapport en ligne] Disponible sur http ://ec. europa. eu, 2007.

Jeremy R OSCHELLE, Stephanie D T EASLEY et al. : The construction of shared


knowledge in collaborative problem solving. Dans Computer-supported
collaborative learning, volume 128, pages 69–197, 1995.

Nathan R OUNTREE, Janet R OUNTREE, Anthony R OBINS et Robert H ANNAH :


Interacting factors that predict success and failure in a cs1 course. Dans
Working Group Reports from ITiCSE on Innovation and Technology in Computer
Science Education, ITiCSE-WGR ’04, pages 101–104, New York, NY, USA,
2004. ACM. URL http://doi.acm.org/10.1145/1044550.1041669.

Allison M RYAN, Paul R P INTRICH et Carol M IDGLEY : Avoiding seeking help


in the classroom : Who and why ? Educational Psychology Review, 13
(2):93–114, 2001.

Christophe S ALZMANN, Sten G OVAERTS, Wissam H ALIMI et Denis G ILLET :


The smart device specification for remote labs. Dans Remote engineering and
virtual instrumentation (rev), 2015 12th international conference on, pages
199–208. IEEE, 2015.

Elio S ANCRISTOBAL, Manuel C ASTRO, Judson H ARWARD, Philip B ALEY,


Kimberly D E L ONG et James H ARDISON : Integration view of web labs and
learning management systems. Dans Education Engineering (EDUCON), 2010
IEEE, pages 1409–1417. IEEE, 2010.

Eileen S CANLON, Chetz C OLWELL, Martyn C OOPER et Terry D I PAOLO :


Remote experiments, re-versioning and re-thinking science learning.
Computers & Education, 43(1):153–163, 2004.

Bettina S CHEUCHER, P B AYLEY, Christian G ÜTL et J H ARWARD : Collaborative


virtual 3d environment for internet-accessible physics experiments.
International Journal of Online Engineering, 5(REV 2009):65–71, 2009.

180 Rémi Venant


Bibliographie

Daniel S CHNEIDER, Barbara C LASS, Kalliopi B ENETOS et Marielle L ANGE :


Requirements for learning scenario and learning process analytics. Dans
T. Amiel & B. W ILSON, éditeur : Proceedings of World Conference on Educational
Multimedia, Hypermedia and Telecommunications, pages 1632–1641, 2012.
Donald A S CHON : The reflective practitioner : How professionals think in action,
volume 5126. Basic books, 1984.
Kent W S EIBERT : Reflection-in-action : Tools for cultivating on-the-job
learning conditions. Organizational Dynamics, 27(3):54–65, 1999.
Charles S EVERANCE, Ted H ANSS et Joseph H ARDIN : Ims learning tools
interoperability : Enabling a mash-up approach to teaching and learning
tools. Technology, Instruction, Cognition & Learning, 7, 2010.
DW S HWALB et S S UKEMUNE : Help-seeking in the japanese college
classroom : Cultural, developmental, and social-psychological influences.
Dans Stuart A. K ARABENICK, éditeur : Strategic help-seeking : Implications for
learning and teaching, pages 141–170. Lawrence Erlbaum Associates
Publishers, 1998.
Douglas C S ICKER, Tom L OOKABAUGH, Jose S ANTOS et Frank B ARNES :
Assessing the effectiveness of remote networking laboratories. Dans Frontiers
in Education, 2005. FIE’05. Proceedings 35th Annual Conference, pages S3F–S3F.
IEEE, 2005.
George S IEMENS et Ryan SJ d B AKER : Learning analytics and educational data
mining : towards communication and collaboration. Dans Proceedings of the
2nd international conference on learning analytics and knowledge, pages 252–254.
ACM, 2012.
Franck S ILVESTRE, Philippe V IDAL et Julien B ROISIN : Reflexive learning,
socio-cognitive conflict and peer-assessment to improve the quality of
feedbacks in online tests. Dans Design for Teaching and Learning in a Networked
World, pages 339–351. Springer, 2015.
Sharon S LADE et Paul P RINSLOO : Learning analytics : Ethical issues and
dilemmas. American Behavioral Scientist, 57(10):1510–1529, 2013.
Diane H S ONNENWALD, Kelly L M AGLAUGHLIN et Mary C W HITTON :
Designing to support situation awareness across distances : an example from
a scientific collaboratory. Information Processing & Management, 40
(6):989–1011, 2004.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 181


Bibliographie

Diane H S ONNENWALD, Mary C W HITTON et Kelly L M AGLAUGHLIN :


Evaluating a scientific collaboratory : Results of a controlled experiment.
ACM Transactions on Computer-Human Interaction (TOCHI), 10(2):150–176,
2003.
Nicole LP S TEDMAN et Anthony C A NDENORO : Identification of relationships
between emotional intelligence skill and critical thinking disposition in
undergraduate leadership students. Journal of Leadership Education, 6
(1):190–208, 2007.
Nunthaluxna S THAPORNNANON, Rungpetch S AKULBUMRUNGSIL, Anuchai
T HEERAROUNGCHAISRI et Suntaree WATCHARADAMRONGKUN : Social
constructivist learning environment in an online professional practice
course. American Journal of Pharmaceutical Education, 73(1):10, 2009.
Aaron S TRIEGEL : Distance education and its impact on computer engineering
laboratories. Dans Frontiers in Education Conference, 2001. 31st Annual,
volume 2, pages F2D–4. IEEE, 2001.
Karen S WAN et Li Fang S HIH : On the nature and development of social
presence in online course discussions. Journal of Asynchronous learning
networks, 9(3):115–136, 2005.
John S WELLER : Cognitive load theory, learning difficulty, and instructional
design. Learning and instruction, 4(4):295–312, 1994.
Peter TAYLOR et Dorit M AOR : Assessing the efficacy of online teaching with
the constructivist online learning environment survey. Dans A. H ERRMANN
et M.M. K ULSKI, éditeurs : Flexible Futures in Tertiary Teaching. 9th Annual
Teaching Learning Forum, 2000. URL
http://lsn.curtin.edu.au/tlf/tlf2000/taylor.html.
Pierre T CHOUNIKINE : Pour une ingénierie des environnements informatiques
pour l’apprentissage humain. Revue I3-Information Interaction Intelligence,
2:59–95, 2002.
Pierre T CHOUNIKINE : Précis de recherche en ingénierie des eiah. URL
https://hal.archives-ouvertes.fr/hal-00413694. 109 pages,
juin 2009.
Kimberly T EE, Saul G REENBERG et Carl G UTWIN : Artifact awareness through
screen sharing for distributed groups. International Journal of
Human-Computer Studies, 67(9):677–702, 2009.

182 Rémi Venant


Bibliographie

Rory T IERNEY et Marion PALMER : Participation, interaction and learner


satisfaction in a professional practice wiki for teachers. Cyberpsychology and
New Media : A Thematic Reader, 195, 2013.

Keith J T OPPING : Trends in peer learning. Educational psychology, 25


(6):631–645, 2005.

Antoine T OUEIR : Une démarche méthodologique orientée-but pour la conception


d’une surveillance auto-gérée dans les systèmes autonomes. Thèse de doctorat,
Toulouse 3, 2014.

Marc T RESTINI et Richard C ABASSUT : Spécificités et généricités des difficultés


et besoins d’aide exprimés par les inscrits à un mooc. Distances et médiations
des savoirs. Distance and Mediation of Knowledge, 19, 2017. URL
http://dms.revues.org/1966.

David T ROWBRIDGE : An investigation of groups working at the computer.


Applications of cognitive psychology : Problem solving, education, and computing,
pages 47–58, 1987.

Luis M VAQUERO, Luis R ODERO -M ERINO, Juan C ACERES et Maik L INDNER :


A break in the clouds : towards a cloud definition. ACM SIGCOMM
Computer Communication Review, 39(1):50–55, 2008.

Rémi V ENANT : Évaluation et visualisation de la performance de l’apprenant


lors d’une activité pratique. Dans Sébastien I KSAL et Christine M ICHEL,
éditeurs : Actes des 6ièmes Rencontres Jeunes Chercheurs en EIAH, pages 39–44.
ATIEF, 2016. URL https://rjceiah.sciencesconf.org/data/
pages/Actes_RJC_Final2.pdf.

Rémi V ENANT, Kshitij S HARMA, Philippe V IDAL, Pierre D ILLENBOURG et


Julien B ROISIN : Étude du comportement des apprenants en situation de
travaux pratiques et de son influence sur leur réussite académique. Dans
Nathalie G UIN, Bruno D E L IÈVRE, Marc T RESTINI et Bernard C OULIBALY,
éditeurs : 8ème Conférence sur les Environnements Informatiques pour
l’Apprentissage Humain (EIAH 2017), pages 17–28, Strasbourg, France, Jun
2017a. URL http://eiah2017.unistra.fr/wp-content/uploads/
2016/10/Actes.pdf. Conférence EIAH 2017.

Rémi V ENANT, Kshitij S HARMA, Philippe V IDAL, Pierre D ILLENBOURG et


Julien B ROISIN : Using sequential pattern mining to explore learners’
behaviors and evaluate their correlation with performance in inquiry-based

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 183


Bibliographie

learning. Dans Élise L AVOUÉ, Hendrik D RACHSLER, Katrien V ERBERT,


Julien B ROISIN et Mar P ÉREZ -S ANAGUSTÍN, éditeurs : Data Driven
Approaches in Digital Education : 12th European Conference on Technology
Enhanced Learning, EC-TEL 2017, Tallinn, Estonia, September 12–15, 2017,
Proceedings, pages 286–299, Cham, 2017b. Springer International Publishing.
ISBN 978-3-319-66610-5. URL
https://doi.org/10.1007/978-3-319-66610-5_21.

Rémi V ENANT, Philipe V IDAL et Julien B ROISIN : A help management system


to support peer instruction in remote laboratories. Dans Advanced Learning
Technologies (ICALT), 2017 IEEE 17th International Conference on, pages
430–432. IEEE, 2017c. URL
https://doi.org/10.1109/ICALT.2017.123.

Rémi V ENANT, Philippe V IDAL et Julien B ROISIN : Learning Analytics for


Learner Awareness in Remote Laboratories Dedicated to Computer
Education. Dans Workshop on Learning Analytics for Learners in 6th
International Conference on Learning Analytics and Knowledge (LAK 2016), pages
31–37, Edinburgh, United Kingdom, Apr 2016. URL
https://hal.archives-ouvertes.fr/hal-01436165.

Éric V ERDIER : L’éducation et la formation tout au long de la vie : une


orientation européenne, des régimes d’action publique et des modèles
nationaux en évolution. Sociologie et sociétés, 40(1):195–225, 2008.

Arto V IHAVAINEN : Predicting students’ performance in an introductory


programming course using data from students’ own programming process.
Dans Advanced Learning Technologies (ICALT), 2013 IEEE 13th International
Conference on, pages 498–499. IEEE, 2013.

Andrii V OZNIUK, Sten G OVAERTS, Lars B OLLEN, Sven M ANSKE, Tobias


H ECKING et Denis G ILLET : Angela : Putting the teacher in control of
student privacy in the online classroom. Dans Information Technology Based
Higher Education and Training (ITHET), 2014, pages 1–4. IEEE, 2014.

Andrii V OZNIUK, María Jesús R ODRÍGUEZ -T RIANA, Adrian H OLZER et Denis


G ILLET : Combining Content Analytics and Activity Tracking to Identify User
Interests and Enable Knowledge Discovery. Thèse de doctorat, Go-Lab Project,
2016.

Lev V YGOTSKY : Interaction between learning and development. Mind and

184 Rémi Venant


Bibliographie

Society, pages 79–91, 1978. URL


https://fr.scribd.com/document/99780614/Vygotsky-1978.

Kua Hua WANG, TH WANG, Wei-Lung WANG et SC H UANG : Learning styles


and formative assessment strategy : enhancing student achievement in
web-based learning. Journal of Computer Assisted Learning, 22(3):207–217,
2006.

Christopher WATSON, Frederick WB L I et Jamie L G ODWIN : Predicting


performance in an introductory programming course by logging and
analyzing student programming behavior. Dans Advanced learning
Technologies (ICALT), 2013 IEEE 13th international conference on, pages
319–323. IEEE, 2013.

Ahmad Samer WAZAN, Romain L ABORDE, David W C HADWICK, François


B ARRERE et Abdelmalek B ENZEKRI : How can i trust an x. 509 certificate ? an
analysis of the existing trust approaches. Dans Local Computer Networks
(LCN), 2016 IEEE 41st Conference on, pages 531–534. IEEE, 2016.

Brenda Cantwell W ILSON et Sharon S HROCK : Contributing to success in an


introductory computer science course : a study of twelve factors. Dans
Proceedings of the Thirty-second SIGCSE Technical Symposium on Computer
Science Education, volume 33 de SIGCSE ’01, pages 184–188, New York, NY,
USA, 2001. ACM, ACM. ISBN 1-58113-329-4. URL
http://doi.acm.org/10.1145/364447.364581.

Jeni W ILSON : Smart thinking : Developing reflection and metacognition.


Curriculum Press, 2008.

Jeni W ILSON et Lesley Wing J AN : Thinking for Themselves : Developing Strategies


for Reflective Learning. ERIC, 1993.

H W OOD et D W OOD : Help seeking, learning and contingent tutoring.


Computers & Education, 33(2):153–169, 1999.

Michael W ORKMAN : Performance and perceived effectiveness in


computer-based and computer-aided education : do cognitive styles make a
difference ? Computers in Human Behavior, 20(4):517–534, 2004.

Ying X IE, Fengfeng K E et Priya S HARMA : The effect of peer feedback for
blogging on college students’ reflective learning processes. The Internet and
Higher Education, 11(1):18–25, 2008.

Learning analytics pour l’engagement et la réflexion en situation d’apprentissage pratique 185


Bibliographie

Yuping X ING et Yongzhao Z HAN : Virtualization and cloud computing. Future


Wireless Networks and Information Systems, pages 305–312, 2012.

H. y. Y UN, J. l. X U, M. j. W EI et J. X IONG : Development of domain ontology


for e-learning course. Dans 2009 IEEE International Symposium on IT in
Medicine Education, volume 1, pages 501–506. IEEE, Aug 2009. URL
https://doi.org/10.1109/ITIME.2009.5236370.

Chenyang YAN : Bulid a laboratory cloud for computer network education.


Dans Computer Science & Education (ICCSE), 2011 6th International Conference
on, pages 1013–1018. IEEE, 2011.

Danilo Garbi Z UTIN, Michael E A UER et Ingvar G USTAVSSON : A visir lab


server for the ilab shared architecture. Dans Global Engineering Education
Conference (EDUCON), 2011 IEEE, pages 30–33. IEEE, 2011.

Danilo Garbi Z UTIN, Michael E A UER, Christian M AIER et Michael


N IEDERSTÄTTER : Lab2go—a repository to locate educational online
laboratories. Dans Education Engineering (EDUCON), 2010 IEEE, pages
1741–1746. IEEE, 2010.

186 Rémi Venant

Vous aimerez peut-être aussi