Sce MERZOUGUI GHALIA
Sce MERZOUGUI GHALIA
Sce MERZOUGUI GHALIA
Thèse
Présenté à la Faculté des Sciences
Département d'Informatique
En vue de l'obtention du diplôme de
Doctorat en Sciences
Option : Informatique
Par
Merzougui Ghalia
Thème
Système auteur pour la création et
la gestion de contenu
pédagogique multimédia
Si la rédaction de cette thèse fut un acte personnel, il est avant tout le résultat d'un
Que tous ceux qui, de près ou de loin, ont contribué, par leurs conseils, leurs
ma profonde reconnaissance.
Mes vifs remerciements accompagnés de toute ma gratitude vont tout d’abord à mon
promoteur Dr Djoudi, pour m’avoir proposé ce sujet et dirigé mon travail ainsi que pour
l‘Université de Batna, pour avoir bien voulu juger ce travail et faire partie de mon jury
de thèse.
l‘Université de Guelma, d‘avoir lui aussi accepté de faire partie de mon jury de thèse.
Mes vifs remerciements vont particulièrement aux Dr. Moumni M. et Dr. Bahloul A.
pour leurs judicieux conseils et leurs remarques utiles qu’ils n’ont cessé de me prodiguer,
pour l’aide efficace qu’ils m’ont rendu, leurs disponibilités et leurs avis éclairés qu’ils ont
Hidar, qui ont contribué à l’implémentation de quelques solutions proposées dans cette
thèse.
Enfin mes remerciements vont également à tous ceux qui ont contribué de près ou de
Donc, notre première contribution est de proposer aux enseignants d’anglais un système
auteur nommé SACoPh, pour la production de cours multimédia de phonétique
supportant une approche de double codage du contenu pédagogique. Ce cours est basé
sur un modèle de document qui s’adapte à l’enseignement des aspects de la phonétique.
Sa spécification exploite les fonctionnalités de la version 3.0 du standard SMIL
(Synchronized Multimedia Integration Language) afin d’être publié sur le web.
The multimedia educational content has recently attracted much interest to draw attention
to the learner and to increase its understanding by the latter. Therefore, the need for
creating documents that support this type of content increases significantly. It may be
considered as an example the teaching of phonetics of a language by teachers who do not
have good computer skills. Fast access to the semantic content is not trivial although the e-
learning relies heavily on multimedia documents and in particular on the videos. The
latter are increasingly accessible, for their wealth and semantic expressiveness.
So our first goal is to provide teachers of English an authoring system, named SACoPh, for
the production of multimedia course of phonetics supporting an approach called dual
coding. This course is based on a document template that fits the educational aspects of
phonetics. Its specification leverages the functionality of version 3.0 of the standard SMIL
(Synchronized Multimedia Integration Language), in order to be published on the web.
Our second objective is to achieve a semantic search system for video teaching segments.
We develop a modeling of pedagogical knowledge of a video course using web ontologies.
This model is integrated in the process of indexing and retrieval by semantics. Our
experimental results show that the proposed approach is promising.
Keywords:
Multimedia educational content, authoring system, mediatized course, teaching phonics,
SMIL3.0, semantic indexing, video course, ontology, OWL.
.
SACoPh
SMIL 0.3
.OWL SMIL3.0
Je dédie ce modeste travail à mes très chères père et mère.
3
Table des matières
INTRODUCTION ................................................................................................................................................. 11
MOTIVATIONS ................................................................................................................................................... 13
CONTRIBUTIONS ............................................................................................................................................... 17
1.3 LE MULTIMEDIA.......................................................................................................................................... 22
5
3.3.5 Interface de SACoPh ............................................................................................................................ 86
COMMUNICATIONS DANS DES CONGRES NATIONAUX (AVEC COMITE DE LECTURE) .................................... 121
ANNEXES 122
ANNEXE 3 : CODE SMIL D’UNE LEÇON GENERE PAR SACOPH ................................................................. 124
6
Liste des figures
FIGURE 17. EXEMPLE DE DESCRIPTION D’UN SEGMENT VIDEO (ISAAC, 2004) ................. 70
7
FIGURE 18. PROCESSUS DE SEGMENTATION DES PRESENTATIONS VIDEO (DONG, 2010)
71
FIGURE 42. GRAPHE DE L’ONTOLOGIE TOTALE AVEC LE PLUGIN JAMBALYA. .............. 106
8
FIGURE 43. EDITION DES REGLES SWRL. ....................................................................................... 107
FIGURE 45. RESULTATS INFFERES PAR LE MOTEUR D’INFERENCE JESS ............................ 108
9
Liste des tables
TABLE 4. LISTE DES CONCEPTS AVEC LES SEGMENTS ASSOCIES. .................................. 104
10
Introduction générale
Introduction
Depuis quelques années les capacités multimédias des ordinateurs ont permis de faire
d’énormes progrès tant au niveau matériel (carte son, vidéo, etc.) qu’au niveau logiciel
(différents algorithmes de codage, de compression, etc.). De plus, les ordinateurs
peuvent être facilement interconnectés grâce à l’évolution du réseau mondial Internet.
Cela donne lieu de produire des logiciels éducatifs plus démonstratifs, plus vivants et
pouvant être utilisés à distance.
11
sont combinés dans un canal d'apprentissage, ont le potentiel de fournir un
apprentissage efficace lorsque les médias s’étayent clairement entre eux et sont
présentés aux apprenants ayant de faibles connaissances préalables dans le domaine en
apprentissage (Najjar, 1996).
Prenons l’exemple d’un document pédagogique dont le contenu est une suite de
diapositives. Ces dernières portent généralement sur des concepts ou des idées très
courtes en termes d’expression (pas de détails). Dans ce cas, l’apprenant a besoin de
plus d’explications pour mieux comprendre. La synchronisation de la voix de
l’enseignant, enregistrée sous format numérique audio, avec chaque diapositive rend
plus claire la compréhension de ce contenu pédagogique.
Un autre exemple (Atif, 2003) d’un matériel pédagogique sous forme d’un document
multimédia temporisé qui intègre en synchronisant simultanément un script de la vidéo
(montrant le visage parlant de l'enseignant ou de tout autre matériel vidéo lié à l'objet
du cours) avec une transcription textuelle. Ceci est fait pour aider les apprenants, qui
ont une déficience auditive ou des difficultés à comprendre l’accent de l’enseignant, à
lire le discours de ce dernier.
Les documents multimédia dont on parle dans ce cas, sont abordés non seulement sous
l’angle de leur structure logique, spatiale et navigationnelle mais aussi temporelle. La
structure temporelle décrit l’enchaînement des éléments médias dans le temps. Prenons
le premier exemple ; cette structure permet de présenter chaque diapositive
simultanément avec son explication auditive et les diapositives (de type image) se
succèdent dans le temps séquentiellement. Ce type de support construisent un contenu
pédagogique multimédia sous forme une séquences vidéos.
Le traitement de la dimension temporelle dans les documents, ainsi que leurs éléments
de base qui ont eux-mêmes une telle dimension (audio, vidéo) constitue l’objet de cette
thèse. L’introduction de cette nouvelle dimension génère nécessairement des besoins en
termes de langage d’expression. Des standards ont été développés répondant à ce
besoin, parmi eux, citons le format SMIL. Le consortium W3C a étudié ce nouveau
format qui est l’acronyme de « Synchronized Multimedia Integration Language » tout
en permettant un échange et une évolution interopérable du Web. La plus grande partie
de documents ayant ce format sont destinés à l’e-learning.
12
Le développement d’un contenu pédagogique multimédia sous forme d’une séquence
vidéo est une étape importante du processus de conception de l'enseignement.
Construire un matériel ou une ressource pédagogique multimédia temporisée avec ces
nouvelles technologies et qui soient de qualité ne se résume pas en la mise en ligne d’un
polycopié en y ajoutant quelques animations. Cela nécessite un scénario très charpenté
et une présentation structurée. Une fois que l'information est accessible sur Internet, on
n'obtient pas nécessairement un système d'apprentissage si on n’a pas réfléchit à la
manière dont les gens vont prendre l'information et ce qu'ils vont en faire. Il est
important de représenter clairement les informations et les connaissances sur le plan
structurel et temporel et de se demander quelle stratégie ou quel moyen de diffusion
doit-on utiliser.
Motivations
Des études empiriques contrôlées confirment ce que les enseignants observent de façon
quotidienne. Ces études montrent que des canadiens anglophones reconnaissaient
moins bien des mots isolés prononcés par un canadien francophone que par un
canadien anglophone. Les auteurs attribuent cette différence à un défaut
d’accentuation. Mais dans (Stenton, 2005), l’auteur confirme que ce problème n’est pas
sensoriel, mais se situe plutôt au niveau de la mémoire de travail. Il s’agit d’une
négligence lors de l’encodage de l’information. Les étudiants français qui apprennent
l’anglais négligent de traiter l’accent tonique, car il a peu de valeur dans leur langue
maternelle, et par conséquent ils ne stockent pas cette information. Lors de leurs
exposés, ils placeront donc l’accent tonique de façon aléatoire sur l’une des syllabes du
mot anglais, indiquant ainsi non pas une surdité ou un problème de production mais
une négligence au niveau de l’encodage et une absence de stockage de la place de
l’accent tonique. Ce qui a un effet négatif sur la compréhension de leur discours par des
interlocuteurs anglophones.
Beck et .al ont constaté que certains étudiants après 10 ans d’anglais, en maitrise
langues étrangères appliquées, ne maitrisent pas encore la prononciation de mots qui
paraissent élémentaires (comme : who, women, chocolate, village, low, allow, sun, son).
Les séries telles que (there’re, aren’re, weren’t, were, where) ou les mots
graphiquement proches tel que (tough, trough, though, through, thought) posent
d’énormes problèmes de mémorisation à l’oral (Beck, 2005 ).
14
(Beck, 2005) a fait l’hypothèse que le processus attentionnel joue un rôle fondamental
dans ce cas. Les solutions visuelles informatiques semblent constituer une bonne
solution. Le repérage visuel aide à la discrimination des parties du discours où des
problèmes de perception et de compréhension se posent. Le son prend alors une forme
visuelle observable dans le temps à l’inverse de sa matérialité première constituée par
d’éphémère vibration de l’air. La prononciation sera plus facile si l’étudiant lit et entend
visuellement (lui associer un style, un font et une couleur qui soient différents du reste
du texte). Traiter un tel mot consiste en un encodage auditif de l’information
linguistique et un encodage visuel des deux informations linguistique et
paralinguistique, d’où la nécessité d’outil de création de documents supportant une tel
présentation.
1 MIT : http://ocw.mit.edu/courses/audio-video-courses/
2 Berkeley : http://webcast.berkeley.edu/
3 Strasbourg : http://audiovideocours.u-strasbg.fr/avc/home
4 MedNet : http://www.consorzionettuno.it/mednetu/e/skins/mednetu/home/index_1024_fr.asp
5 Lausanne : http://itunes.unil.ch/
15
scientifiques). Ces vidéos sont enregistrées sous différents formats : à savoir vidéo
streamé (ou podcast), ou documents multimédia structurés (où la vidéo et la voix du
présentateur sont synchronisées avec des diapositives) pour une diffusion en direct ou
en différé.
Alors que ces documents vidéo sont de plus en plus accessibles, vue leur richesse et leur
expressivité sémantique, et que leur nombre est de plus en plus croissant, leur
traitement pose toujours problème. En particulier, la recherche des séquences vidéo
pertinentes en suivant des critères liés au contenu sémantique n’est pas triviale. Ceci
peut nuire à l’apprenant pendant sa révision ou au chercheur (ou enseignant) qui veut
réutiliser une partie d’une vidéo pour son propre compte. Il est souvent plus pratique
pour un utilisateur (apprenant ou enseignant) d’utiliser une information sémantique
dans sa requête (concepts scientifiques) pour obtenir les réponses les plus pertinentes.
Par conséquent un processus d’indexation et de recherche par la sémantique de ce type
de vidéo doit être mis en place.
Avant d’atteindre ce stade, on doit noter qu’il est pratiquement impossible d’atteindre
le niveau sémantique en partant d’une analyse bas niveau du contenu vidéo. Les
interprétations du contenu d’un document vidéo, qui sont sémantiquement plus riche,
rend la tâche de l’indexeur plus compliquée que lorsqu’il s’agit d’une simple indexation
par mots clés. Ceci est dû au fait qu’il doit choisir les meilleurs index pour décrire un
contenu très riche en informations. On rencontre la même difficulté lors du processus
de recherche. Donc il faut d’abord mettre en place des modèles capables de décrire et de
modéliser le contenu sémantique de ces vidéos afin de faciliter l’accès, la réutilisation et
la navigation par la sémantique.
16
tout en évitant les ambiguïtés au niveau terminologique et en autorisant des inférences
qui diminuent le bruit et augmentent la pertinence.
Contributions
Les objectifs de nos travaux sont de répondre aux différents éléments de problématique
dégagés plus haut. Nous proposons dans ce travail un modèle d’un contenu
pédagogique multimédia et deux systèmes qui gèrent la création des documents de ce
modèle et leurs indexations à base d’ontologie, tout en répondant aux besoins identifiés
des deux acteurs principaux, à savoir enseignant et apprenant. De façon plus détaillé,
on doit :
17
Organisation de la thèse
Afin d’aboutir aux objectifs fixés, la suite de ce document est organisée de la façon
suivante :
18
Auteur de Cours de Phonétique), qui génère des cours de phonétique publiables
via le web, selon le modèle conçu, tout en exploitant les nouvelles fonctionnalités
de la version 3.0 du standard SMIL. Ce système est destiné aux enseignants de
langue qui ont peu de connaissances des outils informatiques et c’est pour cela
que son interface est conçue de telle façon qu’elle soit la plus simple, la plus
ergonomique et la plus conviviale possible.
19
Chapitre 1 : Le Multimédia en e-Learning
1.1 Introduction
Les progrès techniques récents dans le multimédia ont rendu l’Internet de plus en plus
interactif et dynamique. Le secteur de l’enseignement et de la formation ne pourrait
ignorer cette mondialisation de l’information et il devra en profiter et assister
l’apprentissage structuré et traditionnel par des applications apportant une plus-value à
l’apprenant et une meilleure qualité à l’enseignement.
Par conséquent, nous avons dédié l’ensemble de ce chapitre à la discussion autour des
multimédias, afin de dégager leurs caractéristiques en tant que contenu pédagogique et
leurs apports bénéfiques en e-learning. Nous présentons par la suite le processus
d’élaboration du matériel didactique ayant le caractère multimédia en précisant la
position de la phase de médiatisation des cours dans ce processus. Nous étudions les
différentes dimensions d’un document multimédia tout en prenant en considération la
structure ou dimension temporelle. De même, nous exploitons les différents langages
permettant d’exprimer cette nouvelle structure. Enfin nous présentons les principes du
standard SMIL qui représente le langage pivot des documents multimédia à traiter dans
cette thèse. Dans la section qui suit, nous définissons le concept du e-learning pour
mieux déterminer sa relation avec le multimédia.
1.2 E-Learning
L’E-learning est le terme utilisé par les anglo-saxons pour désigner les formations à
distance accessibles via une connexion internet. Michel (Mielnikoff, 2005) a précisé que
le principe du e-learning était de pouvoir accéder à ses cours depuis un poste distant
(chez soi, depuis son entreprise). Ainsi les lieux habituels de suivi d’une formation
(établissements, classes, bibliothèques) n’existent plus physiquement et ils sont
substitués par le Système de Gestion des Cours ou LMS (Learning Management
20
System). C’est le LMS qui fait le lien entre les apprenants, les cursus, les tuteurs, les
ressources et les contenus présents dans le système. L’apprenant, via cette plate-forme,
se verra attribuer un certain nombre de modules de cours, d’exercices, d’évaluations
qu’il devra effectuer en tenant compte d’une planification établie. Le tuteur (ou
formateur) se charge de gérer les apprenants qu’il doit suivre. Ainsi il pourra leurs
affecter des ressources à consulter, des cours à étudier ou des évaluations afin de se
rendre compte de la bonne assimilation des contenus proposés.
La communication entre tous ces acteurs se fait via Internet. Il y a quelques années
encore, il était très difficile de concilier des contenus de qualité avec un confort
d’utilisation maximum. En effet, les contraintes liées au bas débit faisaient que les seuls
contenus réellement exploitables étaient constitués de pages au format HTML ou de
documents textes.
Le haut débit, accessible aujourd’hui à une très large population et à un prix faible, fait
que le principe du e-learning est amené plus que jamais à se développer de manière
exponentielle. Ainsi un point négatif majeur que l’on pouvait noter, lié aux débits, n’est
donc plus d’actualité. Aujourd’hui, tous les formats de contenu peuvent être utilisés,
même les plus lourds, tels que les formats audio et vidéo.
21
Le cycle du e-learning peut être décrit à travers cinq phases capitales (figure 2) : phase
de création, phase d’orientation, phase de formation, phase de suivi et d’évaluation et
phase de gestion.
Dans la littérature, des études comparatives établies sur plusieurs plates-formes (LMS),
en prenant pour guide le cycle du processus du e-learning (figure 2), mènent à constater
qu’aucune plate-forme ne couvre complètement ce cycle. Chacune d’elles apporte les
fonctionnalités correspondantes aux besoins pour lesquels elle a été conçue. Les deux
phases les mieux couvertes sont la phase d’apprentissage et la phase d’administration.
La phase création n’est couverte que par les systèmes qui offrent des outils auteurs. Ceci
nous amène à nous intéresser d’avantage à cette phase, dont nous allons examiner les
outils offerts dans le chapitre suivant. Puisque en premier lieu, nous nous intéressons
beaucoup plus à l’élaboration et à la création du contenu multimédia, nous devons
mettre en lumière le concept multimédia.
1.3 Le Multimédia
Le terme Multimédia peut être décrit comme une combinaison de textes, d'images, de
sons, de commentaires, d'animations et de séquences vidéo à l'intérieur d'une
application sur ordinateur.
22
web ou les applets. Ce sont, avec les interactions utilisateurs, les briques de base qui
vont servir à élaborer un véritable document interactif : un document multimédia.
Une définition plus rigoureuse donné par Layaïda (Layaïda, 1997) précise qu’un
système ou une application est qualifiée de multimédia s'il (ou elle) supporte le
traitement intégré de plusieurs médias dont au moins un est de nature temporisée.
Une classification des différents types de médias selon leurs natures, appelés aussi
objets multimédias, a été fournie par Cécile (Cécile, 1999). Elle propose de classer ces
objets en deux catégories de par leur mode de présentation dans le temps :
Les objets discrets : leur contenu est délivré de façon instantanée, comme le texte
et les images statiques.
Les objets continus : leur contenu est délivré de façon progressive comme les
vidéos, les sons ou les animations.
Comme ils peuvent aussi être classifiés par leur mode de perception :
Les objets visibles, c'est-à-dire que l'on peut afficher : texte, image, vidéo ou
animation.
Les objets audibles comme les sons.
Pour chaque catégorie d'objets, différents formats de codage existent (Ascii pour les
textes, jpeg, GIF, mp3, Tiff, png, pour les images, au, wav, ra, rm pour les audio, avi,
mpeg, rv, rm, ... pour les vidéos, etc.).
Contenu : Le choix du mot contenu permet d’éviter des confonds possibles entre
les différents sens du mot « cours ». Il s’agit ici de développer un support
23
d’informations, des idées, de connaissances ou d’un savoir d’une manière
structuré selon un contexte déterminé et en rapport avec un domaine spécifique.
Pour proposer des cours avec un CPM à distance de qualité, on ne saurait se satisfaire
de “balancer” aux étudiants le cours brut de l’enseignant sous forme d’un fichier doc ou
24
.pdf. En effet, un tel cours, destiné à être transmis en présentiel, contient des contenus
qui sont censés être explicités aux étudiants en présence. Mais dans une formation à
distance, le cours brut manquera de clarté. Il faut donc recourir à une stratégie de
médiatisation des connaissances du cours en question. Celle-ci implique une démarche
rigoureuse et se fixe les objectifs suivants :
rapprochement spatial : les étudiants apprennent mieux lorsque des mots et les
images correspondantes sont présentés le plus près possible les uns des autres ;
cohérence : les étudiants apprennent mieux lorsque des mots, des images ou des
sons qui ne sont pas nécessaires à la présentation sont exclus ;
25
modalité : les étudiants apprennent mieux à partir d'animations et de narrations
auditives qu'à partir de texte à l'écran ;
Bien que dans la pratique, plusieurs de ces principes peuvent varier (et que bien
d'autres peuvent s'ajouter) selon les contextes d'application, il est important de noter
qu'il apparaît vraiment qu’il a mis une articulation entre les divers médias et les
manières dont ils sont présentés. Si l'on accepte que cette articulation se crée
conformément aux canaux de perception de l'individu, il est nécessaire d'approfondir la
question des passages d'un canal à l'autre dans la pensée de l'individu où ils
demeureront au niveau de la mémoire à long terme (connaissances).
Pour Mayer, lorsqu'un étudiant lit une image, le canal reste visuel tout au long d'un
processus qui va de la perception à l'apprentissage. Au contraire, lorsqu'il lit un texte, il
se produit dans le processus un passage du canal visuel au canal verbal.
Enfin, deux autres principes sont proposés par Mayer comme axes de recherche. Le
premier est en rapport avec l'interactivité. Il semble que les étudiants apprennent mieux
lorsqu'ils contrôlent la présentation et l'affichage. Le deuxième est en relation avec la
personnalisation : il apparaît que les étudiants apprennent mieux avec un guidage
personnalisé de la présentation.
On peut synthétiser que dans un tel contexte éducatif les médias peuvent jouer un rôle
très important dans l'apprentissage et l'enseignement. L’Apprentissage est affecté
négativement lorsque les médias ne sont pas intelligemment intégrés dans un contenu
pédagogique. A l'inverse, l'apprentissage est meilleur (et optimisé) lorsque les médias
ont été soigneusement sélectionnés et appliqués avec des stratégies pédagogiques pour
servir les besoins spécifiques d’un apprenant dans différents domaines d'apprentissage.
26
Cependant, ce support de formation est le résultat d’un processus de création et d’une
suite d’actions bien définies. Dans la section suivante, on essaye de mettre en lumière
les différentes étapes de ce processus.
D’après les conditions que doit satisfaire un contenu pédagogique multimédia, cité ci-
dessus, il est évident que sa préparation n’est pas une simple besogne mais toute une
procédure à suivre. Le processus d’élaboration est composé de cinq grandes parties:
analyse, conception, développement, test et diffusion. Comme toute démarche de
création, le travail le plus important réside au niveau de la conception. (Bousbia, 2005)
Bousbia a essayé de donner une définition aux différentes étapes comme suit :
1.4.1 Analyse
Comme pour tout produit, elle consiste à la préparation d’un cahier des charges par la
détermination des objectifs (contexte, domaine concerné, objectif pédagogique), des
populations (public ciblé), des contraintes (niveau requis) et des ressources (éléments
du contenu), et ce, en fonction des objectifs finaux de la formation et des besoins des
apprenants. Elle permet aussi de synchroniser les demandes des pédagogues avec les
possibilités informatiques.
1.4.2 Conception
Dans un enseignement classique, la réalisation pédagogique de contenu, conduit
l’enseignant à faire des choix, à prévenir des contenus, à prévoir le déroulement de ses
27
actions, à organiser des situations d’apprentissage et à déterminer les temps impartis
aux différentes tâches et actions. Dans une formation à distance, elle concerne la
structuration, la scénarisation et la médiatisation du contenu.
1.4.2.1 Structuration
Le contenu pédagogique d’un cours contient un sous-ensemble des connaissances du
domaine dont il fait partie. Sa structuration revient donc au découpage (hiérarchique)
de ces connaissances en unités élémentaires de granularité très fine. Ceci est fait dans le
but de : faciliter la recherche (l’indexation), filtrer (l’adaptation du contenu) et
construire ou assembler le contenu (la réutilisation).
1.4.2.2 Scénarisation
Bousbia a suggéré dans son article (Bousbia, 2006) que la scénarisation est bien de
donner un sens à la structure hiérarchique du contenu, par la détermination d’un
parcours pédagogique et d’un scénario didactique. Ceci est fait par la détermination de
l’ordonnancement des concepts que doit aborder l’apprenant dans son processus
d’apprentissage.
28
et leurs séquences. On peut dire que c'est une anticipation du montage avant que les
scènes ne soient filmées. Les divers médias pouvant être déployés sur le Web
révolutionnent la scénarisation dans la mesure où un travail de collaboration
interdisciplinaire est nécessaire afin de fournir à l'apprenant un matériel didactique
adapté en fonction de sa compréhension, de sa motivation et de sa mémorisation.
1.4.2.3 Médiatisation
Médiatiser veut dire: diffuser par les médias. Pour la réalisation de la médiatisation, il
est important que les séquences du cours soient conçues, les scénarios d’apprentissage
préalablement établis et les médias à intégrer bien définis. La médiatisation des cours
permet aux enseignants d’enrichir leurs pratiques pédagogiques en utilisant les
technologies multimédia tout en exerçant leur responsabilité pédagogique dans l’étape
de conception. Un certain nombre d'études empiriques mené par (Najjar, 1998)
suggèrent la manière de sélectionner et de combiner des médias (appelé aussi modalités
d’intégration des médias) pour présenter avec succès des types spécifiques de contenus
pédagogique. Ces modalités d’intégration des médias ont été résumées dans (Atif, 2003)
avec le tableau suivant:
Par exemple, dans l'apprentissage d'une langue étrangère particulière, il serait plus utile
pour un apprenant d’entendre les mots. Mais certains mots dépendants du contexte
peuvent être mieux compris si ces mots ont été montrés avec une vidéo. En outre, pour
aider l’apprenant d’un langage, une version textuelle des mots de phonétique
permettrait de consolider et renforcer le processus d'apprentissage si elle était mise avec
une information auditive.
29
1.4.3 Développement
Il s’agit ici de numériser le contenu pédagogique par le choix et la préparation des
médias et de l’outil, par le développement des modules (numériser les textes,
conception et mises en œuvre des interfaces, etc.) et par l’assemblage du contenu.
1.4.4 Test
La création classique d’un contenu consiste à parcourir plusieurs fois le même cycle. En
effet, après de nombreux aller-retour entre les deux étapes de conception et de
réalisation, on passe à la phase de test. Cette phase conduisant très souvent à un retour
qui permet d’affiner le scénario pédagogique. L’affinage successif est indispensable, car
un enseignant a du mal à se focaliser sur l’élaboration d’un scénario pédagogique, et
ceci vient du simple fait que cela ne fait pas partie de sa manière de penser.
1.4.5 Diffusion
C’est la dernière phase du processus d’élaboration. Elle consiste au choix du format et
du support de publication : Internet, CD-ROM, etc. Et aussi du mode de diffusion qui
peut-être synchrone ou asynchrone.
Bien que ce CPM a pour support un document dit document multimédia, il faut que
nous mettrons en lumière ce type de document du point vue de ses quatre dimensions
(nous détaillerons la dimension temporelle), ses langages (ou standards) de
spécifications. On va étudier par la suite le standard de spécification SMIL. Ce dernier
représente le langage de spécification à utiliser pour spécifier les cours de phonétique
envisagé.
30
1.5.1 Dimension logique
La dimension logique concerne le regroupement des objets du document en entités
sémantiquement liées. Par exemple, dans un document utilisé pour une représentation
orale (suite de transparents), chaque diapositive est généralement composé d’un titre et
d’un corps, qui à son tour peut contenir d’autres objets comme des images, de l’audio
ou de la vidéo.
Jedidi (Jedidi, 2005) a défini les relations topologiques pouvant être établies entre les
objets média et qui sont illustré dans la figure 4 par : disjoint, touche, couvre,
chevauche, contient, égal.
Ainsi, les documents que nous qualifierons par la suite de cette thèse, sont non
seulement caractérisés par des contenus de natures diverses : statique comme les textes,
graphiques ou dynamique comme le son, les vidéo et les animations, mais aussi par
l’organisation temporelle de leurs composants. Dans cette thèse, nous avons convenu
que les unités d’information considérées comme atomiques sont appelées objets
31
multimédia et la description de leur enchaînement dans le temps est appelée scénario
temporel.
Les deux objets auteur et titre démarrent au début de la présentation et durent jusqu'à
la seconde 2. Entre les secondes 2 et 10 s’affiche l’image d’une diapositive en parallèle
avec son explication auditive. Cette dernière est en retard d’une seconde par rapport à
l’image. Cette description est exacte et quantitative, car elle définit exactement les
instants de début et de fin de la présentation de chaque objet multimédia du document.
32
Les spécifications ne sont pas forcément exprimées de manière exacte ou quantitative
car il peut être utile à l’auteur de laisser la machine interpréter la spécification, dès lors
qu’elle exprime suffisamment et clairement le désir de l’auteur. Cela permet aussi,
comme l’a remarqué (Euzenat, 2003) de ne pas se soucier de caractériser toutes les
positions mais de laisser l’interprète les déduire.
Il faut également citer la précision de (Euzenat, 2003), que ces différentes dimensions
qui composent un document sont parfois liées entre elles, et nécessitent par conséquent
un traitement conjoint. C’est le cas par exemple lorsque l’auteur souhaite spécifier le
déplacement d’un objet sur l’écran où il est nécessaire d’exprimer une information
spatiale pour la trajectoire, les positions initiale et finale correspondantes au
déplacement, ainsi qu’une information temporelle tel que la durée du déplacement et
son instant de début.
Cette nouvelle forme de navigation est conçue par l’auteur du document de façon à
aider les lecteurs dans leur parcours du document temporel. Elle est définie par des
objets activables (ou boutons d’interaction). Ces derniers sont des objets sur lesquels
une action prédéfinie dans le document (exemple : activation d’un lien temporel) est
déclenchée lorsqu’ils sont activés, et donc nous obtenons la structure hypermédia
temporelle du document (Cécile, 1999).
33
Ce type de lien est défini par un ancre de départ (objet localisé spatio-temporellement),
un ancre d’arrivée (autre objet) et le lien qui porte une certaine sémantique (renvoi,
référence, annotation, etc.). Au niveau de l’interface utilisateur, un lien nécessite d’être
activé explicitement par une interaction de l’utilisateur.
Cet aspect est illustré sur la figure 6, le rectangle blanc représente une région spatiale de
l’objet « Table des matières » et sa langueur représente l’intervalle de temps durant
lequel le lien associé à cette région est actif sur l’objet dans lequel il se trouve. Dans
l’exemple, on constate que ce lien (une entrée de la table) permet d’avancer la
présentation à l’instant du début de l’objet diapo 2. L’objet diapo 0 est un lien vers une
page web contenant un peu de détail. L’activation du lien est basée sur une interaction
explicite de l’utilisateur.
La seule nuance est que d’une part, l’activation de l’ancre de départ est restreinte au
laps de temps couvert par sa présentation et que d’autre part, l’ancre d’arrivée
correspond non seulement à un autre objet ou document mais aussi à un instant précis
de sa présentation (Euzenat, 2003).
Notre travail traite des documents multimédias ayant un caractère particulier : ils sont
structurés. Les documents structurés peuvent être représentés (dans un langage de
balisage) sous forme d’arbre hiérarchique. Ceci permet de faire référence à leurs
éléments constitutifs. Une autre caractéristique souvent associée est la notion de lien
hypertexte. Ces liens référencent des éléments (images ou autres documents) comme
s’ils faisaient partie du document initial. Ainsi, nous pouvons réutiliser certaines parties
de documents dans plusieurs autres. Cette décomposition de l’information supportée
34
par ces documents a pour premier objectif de faciliter leurs portabilités ainsi qu’un
traitement automatisé, de grandes masses de documents, par des applications variées.
Nous exploitons ainsi une autre caractéristique de ces documents, à savoir leur
description dans un langage de spécification permettant d’exprimer la position des
objets médias suivant les différentes dimensions. Ces langages peuvent être
standardisés (HTML, SMIL, XML) ou pas (Madeus, LATEX, ou autres).
La dernière version du SMIL, la version 3.0, publié en 2008 a apporté des modifications
sur les anciennes versions et a intégré de nouveaux modules permettant aux auteurs
une caractérisation basée sur le profil de plus en plus flexible. La structure d’un
document SMIL et la syntaxe de ce langage sont données d’une manière détaillé dans
l’annexe C.
1.7 Conclusion
Cette partie nous a permis de cadrer notre travail et de présenter les possibilités offertes
par le standard SMIL avec lequel on peut créer un contenu pédagogique multimédia
temporisé et interactif qui répond assez bien aux problématiques soulevées dans
l’introduction.
Notre challenge principal est d’intégrer les pédagogues, les psychologues ainsi que les
standards et techniques de représentation des connaissances (plus précisément les
ontologies) au sein du processus de modélisation afin de favoriser la création,
36
l’interopérabilité et l’indexation sémantique des contenus multimédia pédagogiques.
Cela implique d’une part, des outils de création plus abordables pour les enseignants,
qui ont peu de connaissances des outils informatique, et d’autre part des outils
d’indexation et de recherche par la sémantique du contenu pour les apprenants.
Pour apporter une solution à ces problèmes, nous verrons en détail dans le chapitre
suivant les différents systèmes auteurs qui permettent la création de contenu
pédagogique ayant le format SMIL. La deuxième partie sera consacrée à étudier les
différentes approches d’indexation, par la sémantique, des documents multimédia dans
le contexte du e-learning et en particulier des cours vidéo. Nous nous attachons à
travers cette étude synthétique à répondre aux questions suivantes: quel sont les
modèles de CPM ayant le format SMIL (appliqué en e-learning) existants ? Est-ce
qu’elles concrétisent l’approche double codage de l’information ? Quels sont les
systèmes auteurs qui offrent la possibilité de créer un cours de phonétique? Quels sont
les approches utilisées pour l’indexation sémantique des cours vidéo ? Quels sont leurs
avantages ? Leurs inconvénients ? Et quels problèmes restent à résoudre?
37
Chapitre 2 : Approches de construction et d'indexation
de documents multimédias
2.1 Introduction
Le présent chapitre traite deux axes différents à savoir : les approches de création de
documents multimédia pédagogiques et les approches de leurs indexations par la
sémantique. Dans sa première partie, le chapitre présente les critères, les fonctionnalités
et les contraintes qui dépendent des outils de création appelés aussi systèmes auteurs.
Dans le cadre du e-learning, plusieurs systèmes ont été conçus afin de faciliter l’édition
et création de contenus en ligne. Donc cette partie présente une étude synthétique et
critique des systèmes auteurs existants qui aident à la création des présentations
multimédia ayant le format SMIL dédiées à l’enseignement de la phonétique.
38
utiliser un langage de programmation. Nous Excluons le cas où l’auteur veut aboutir à
une interaction un peu plus complexe (Bousbia, 2005).
Une autre classification présentée dans (LCM 2003) classifie ces systèmes en deux
catégories à savoir : les outils spécifiques au e-learning, tels qu’Authorware ou Director,
et les outils plus généralistes comme les éditeurs HTML, tels que FrontPage ou
Dreamweaver, ou les éditeurs de simulation tels que Flash. Face à une évolution
technologique que l’on sait de plus en plus rapide, le développement des systèmes
auteurs dans une optique éducative est devenu un domaine de recherche à part entière.
En effet, au cours des dernières années il y a eu des progrès significatifs dans le
développement de tels systèmes de façon à concevoir des outils permettant aux
utilisateurs de créer des contenus pédagogiques multimédias utilisables sur CD-ROM
39
et/ou en ligne. Parmi ces systèmes citons Toolbook et Serpolet Auteur. Dans ce qui suit,
nous présentons les critères et les fonctionnalités qu’un système auteur doit avoir et
offrir.
2.2.1.1 Critères
Quel que soit le type et le niveau de l’utilisateur du système auteur, plusieurs attributs
doivent être étudiés soigneusement et aussi considérés par le concepteur d’un système
auteur. Nous allons présenter ci-dessous les critères considérés comme principaux,
d’après (Blandine, 2000) :
40
- La fiabilité : le système doit être le moins bloquant possible quelle que soit
l’action menée par l’utilisateur sur le logiciel. Ce dernier doit pouvoir revenir
en arrière, modifier ou supprimer sans difficulté tout composant de son
logiciel. De même, il doit pouvoir assembler les pièces qui constituent son
application dans un ordre qui ne soit pas trop contraignant, indépendamment
des uns et des autres et ce à n'importe quel moment du développement.
2.2.1.2 Fonctionnalités
Il existe plusieurs fonctionnalités des systèmes auteurs; on présentera celles qui sont
communes (Murray, 1999):
41
2.2.2 Difficultés et contraintes dans l’édition de documents temporisés
Le processus de définition du scénario temporel d’un document multimédia est
complexe car l’objet à construire est un objet dynamique dont le comportement varie
d’une présentation à une autre, du fait des réactions aux interactions du lecteur.
L’environnement utilisé par l’auteur doit l’aider à maîtriser cette complexité et lui
faciliter autant que possible la tâche.
La nature dynamique des objets manipulés, tels que la vidéo et l’audio, ainsi que la
définition de leur ordonnancement temporel (le scénario) rendent plus complexe la
réalisation d’outils auteur. Le principe statique du WYSIWIG, dans lequel l’information
présentée à tout instant du processus d’édition correspond à l’information finale, ne
peut s’appliquer à l’édition du scénario temporel des documents multimédias. Il n’est
en effet pas possible de spécifier un comportement dynamique, par exemple un
enchaînement entre deux vidéos, et d’en percevoir de façon immédiate et instantanée le
résultat. C’est pourquoi, Cécile et al [Cécile, 1999] ont distingués deux étapes dans le
processus de conception des documents multimédias temporisés. Ces deux étapes se
présentent dans les deux fonctions suivantes qui doivent être supportées par un
système auteur:
Il est à noter que ces deux phases ne sont pas nécessairement dissociées. Car le cycle
d’édition d’un document est formé par une première phase pendant laquelle on
42
introduit une ou plusieurs contraintes, puis d’une seconde phase de présentation
pendant laquelle on vérifie que le comportement du document correspond bien à l’effet
recherché. C’est l’approche incrémentale de l’édition des documents temporisés.
Passer aisément du mode édition vers le mode présentation (et vice-versa), pour
d'une part aller voir le résultat de ces modifications (du mode édition vers le
mode présentation), et d'autre part retrouver facilement les informations qu'il
souhaite modifier (du mode présentation vers le mode édition). Ceci est pour
objectif de concrétisé l’approche incrémentale.
43
Le projet OPERA1 [Opéra2331] de l’INRIA26est entièrement dédié au thème des
documents électroniques structurés, hypertexte et multimédia en général. Il s’intéresse à
la spécification des différentes dimensions du document et particulièrement à la
dimension temporelle.
44
Au sujet de la conception et de la mise en œuvre de nouveaux systèmes auteurs, deux
tendances se dessinent selon Reyes (Reyes, 2006):
les systèmes pourraient raffiner les interfaces graphiques des auteurs afin de rendre
le processus d'élaboration plus facile,
Parmi les objectifs de notre travail, il y a celui qui consiste en la réalisation d’un système
auteur destiné aux enseignants des langues afin de créer un cours de phonétique. De ce
fait une étude synthétique de quelques systèmes auteur dans ce domaine est obligatoire
afin de profiter de leurs avantages et compléter ce qui manque. Mais avant d’étudier ces
systèmes, nous devons mettre en lumière les concepts les plus essentiels utilisés dans
l’enseignement de la phonétique.
45
les prononciations, on entoure la représentation par des crochets. Ainsi, pour écrire le
mot chaton mettrait [ a]. Voir le manuel de (Pullum, 1986) pour le tableau complet des
sons du API. C’est la transcription phonétique.
Soit l’exemple suivant : Voyez et lisez ces quatre mots : flood, foot, soon, door. Ils se
prononcent différemment et pourtant ils contiennent exactement les mêmes voyelles. Si
vous cherchez le sens des quatre mots cités plus haut, vous trouverez tout d’abord leur
transcription phonétique.
Un phonème est la plus petite unité discrète ou distinctive que l'on puisse isoler par
segmentation dans la chaîne parlée. C’est une entité abstraite, qui peut correspondre à
plusieurs sons. Il est en effet susceptible d'être prononcé de façon différente selon les
locuteurs ou selon sa position et son environnement au sein du mot.
Une diphtongue est une voyelle dont le point d'articulation varie entre deux sons de
base pendant sa réalisation. Ce mot vient du latin d'origine grecque « diphthongus » (de
« diphthoggos », double son). Dans certaines langues, dont l'anglais, on peut trouver
également des triphtongues dont la qualité varie deux fois.
Une syllabe : est une unité ininterrompue du langage oral (Tracy, 2006). Son noyau,
autour duquel elle se construit, est généralement une voyelle. Une syllabe peut
également avoir des extrémités précédant ou suivant la voyelle, qui, lorsqu'elles
existent, sont toujours constituées de consonnes. Notons que la syllabe constitue l’objet
d’étude de la phonétique
L'accent tonique met en relief l'émission d'une syllabe dans un mot en augmentant
l'intensité de la voix ainsi qu'en élevant, généralement, le ton. La syllabe frappée de
l'accent est dite tonique, et les autres atones. On distingue fréquemment les langues à
accent tonique des langues à tons et à accent de hauteur.
46
Dans ce qui suit, nous présentons l’étude de quelques systèmes existant tout en
déterminant s’ils offrent la possibilité à l’enseignant de langue de préparer un cours de
phonétique en concrétisant l’approche double codage.
Figure 7. Affichage de la courbe mélodique avec surlignage en rouge des segments correspondant aux
syllabes accentuées de l'exemple « I wonder if you could help me ».
Tandis que WinPitch (Martin, 2005) ou Speech analyser, qui utilisent des courbes de
fréquences fondamentales, ils ont une utilisation trop restreinte en raison de leur
complexité ou de leurs erreurs d’ergonomie.
Le système auteur Sound Right se base sur les courbes fondamentales pour dessiner des
courbes intonatives simplifiées au moyen de flèches extensibles qui s’affichent en dessous le
texte. Péchou (Péchou, 2002) a mentionné que la difficulté d’interprétation des courbes
complexes expliquent leur utilisation limitée en cours de langue dans les établissements
scolaire et à l’université.
47
Figure 8. Le système auteur Sounds Right. Les flèches extensibles sont traînées en place à partir de
la colonne à gauche et ensuite modifiées pour obtenir une taille appropriée.
Prosodic Font est un système développé au Media Lab MIT (Rosenberger, 1999) dans le
but de générer automatiquement des polices de caractères dynamique (à partir d’un
discours oral en entrée) qui varient avec le temps et la variation de sonorité d’un
discours parlé. Le but est de générer des textes animés en fonction de l’intonation et de
la prosodie du discours. Une telle solution n’est pas admise comme meilleur solution
didactique pour l’enseignement de la prononciation.
SWANS (Beck, 2005) est un système auteur qui permet à tout enseignant de générer
semi automatiquement des documents multimédia où l’accent tonique est marqué
visuellement (par des marqueurs typographique tel que la couleur, le style,…) et
auditivement. Le document généré est une page web où l’apprenant a la possibilité de
lire et/ou écouter un discours de manière synchronisé avec le texte annoté. Le scénario
d’édition par ce système, nécessite au départ l’importation des média (texte, audio,
vidéo) dans l’environnement de travail. Ensuite, la synchronisation du texte (qui est
segmenté en unités de souffle) avec sa prononciation audio ou vidéo. Enfin,
l’enseignant peut annoter le texte par des marqueurs typographiques.
48
Figure 9. Interface générée par SWANS
Le système LimSee3 (Roisin, 2006) (Roisin, 2008) est un éditeur multimédia de nouvelle
génération, qui utilise des modèles de documents pour simplifier l’édition et alléger les
tâches répétitives. Il permet en plus de générer les documents selon différents formats
de sortie (SMIL, XHTML+javascript et time-sheets). Actuellement, il existe trois
modèles de document qui sont articulés autour de la construction d’un cours
multimédia.
49
Figure 10. Vue globale de LimSee3 avec la première annotation
L’éditeur ECoMaS (Merzougui, 2004) est lui aussi est un éditeur de cours médiatisé qui
est basé sur un modèle de document. La présentation finale des cours générés est la
même que celle du deuxième modèle de LimSee0, mais le scénario d’édition est
différent. L’édition par ECoMaS nécessite au départ l’importation des transparents qui
sont des images, puis, l’enseignant peut enregistrer ses explications orales concernant
chacune d’elles (voir Figure 11 à gauche). Ensuite, le système génère une présentation
publiable sur le web (SMIL2.0), où les transparents sont synchronisés avec leur
explication auditive et la table d’index qui offre la navigation temporelle durant la
présentation du cours (Figure 11 à droite).
50
2.2.6 Discussion
Les trois derniers éditeurs utilisent des modèles de document (ou gabarits), organisés
de manière hiérarchique. Chaque modèle est vu comme un document à trous, où
l’utilisateur ne fait que remplir les trous par des médias (texte, image, audio ou vidéo).
On voit bien que ces médias sont importés de l’extérieur et donc l’enseignant doit les
préparer à l’avance et chacun avec l’outil qui lui correspond. Ceci est fastidieux pour
l’enseignant et surtout s’il veut éditer un texte formaté (avec des couleurs et des
styles…) et ensuite lui associer sa prononciation car il devra alors utiliser deux outils
différents (un pour le traitement de texte et l’autre pour le son), les importer au système
et ensuite les synchroniser.
Une limitation gênante de ces outils est l’absence d’un service graphique qui permet
d’éditer du texte formaté. Les versions de SMIL 1.3 et 2.3 utilisés par ces outils ne
supporte pas de balises pour le formatage de texte (couleur, style, font,…), ce qui est
très important pour concrétiser l’approche de double codage cité dans notre
problématique. Le système SWANS utilise le standard XHTML+SMIL. L’éditeur
ECoMaS utilise le langage RealText juste pour présenter le titre d’une diapositive et le
contenu de la table d’index. La dernière version de SMIL est SMIL0.3 (SMIL 3.0) et elle
supporte des fonctionnalités de formatage de texte intra-document (.smil), mais jusqu’à
présent, il n’y a pas d’éditeur graphique pour cette version. La première partie de notre
travail est une contribution pour à ce manquement et donc au développement d’un
éditeur de SMIL0.3. La phonétique essaie de représenter les sons d’une façon plus
précise en utilisant l'alphabet phonétique international (API). L’enseignant ne peut pas
utiliser ce type de caractères avec les éditeurs existants.
51
2.3.1 Indexation classique
La Recherche d’Information (RI) est un domaine de recherche en informatique qui
s’attache à définir des modèles et des systèmes dont le but est de faciliter l’accès à un
ensemble de documents sous forme électronique (corpus), afin de permettre à un
utilisateur de retrouver ceux qui sont pertinents pour lui, c’est-à-dire ceux dont le
contenu correspond le mieux à son besoin d’information à un moment donné. La Figure
12 décrit l’architecture générale d’un SRI; elle présente les éléments principaux mis en
jeu dans ce système.
Martin (Martin, 2004) a défini les différents composants d’un SRI comme suit :
2. L’interrogation est l’interaction d’un utilisateur final avec le SRI, une fois le
contenu des documents représenté de manière interne sous forme d’index.
L’utilisateur exprime son besoin d’information sous la forme d’une requête, qui
est interprétée selon le modèle de requête, et le système évalue la pertinence des
documents par rapport à cette requête par l’intermédiaire de la fonction de
correspondance (et éventuellement d’une base de connaissances). La réponse à ce
besoin est la liste des documents qui obtiennent une valeur de correspondance
élevée. Cette liste est généralement triée par ordre de valeur de correspondance
décroissante – c’est-à-dire du plus pertinent au moins pertinent – et ensuite
présentée à l’utilisateur.
53
inclure un thésaurus composé des termes apparaissant dans l’ensemble des
documents, reliés entre eux par des liens de généricité/spécificité ou de
synonymie. Comme, elle peut inclure une ou plusieurs ontologies qu’on va les
voir en détail dans les partie suivantes.
Parmi les différents modèles de recherche d’informations dits classiques, figurent les
modèles booléen, vectoriel, logique et probabiliste. Nous présentons ci-dessous le
modèle vectoriel, qui est à la base de nos travaux, en le décrivant selon les modèles de
documents, de requêtes et de correspondance.
Figure 13. Représentation vectorielle de deux documents (D1 et D2) et d’une requête (Q) dans un
espace composé de trois termes (t1, t2 et t3).
54
Où cos ( j, ) est le cosinus de l’angle formé par les vecteurs j et :
cos ( j, ) = =
Plus deux vecteurs sont similaires, plus l’angle formé est petit, et plus le cosinus de cet
angle est grand.
Le poids des termes Wi,j : Le poids d’un terme dénote son intérêt dans l’index, qui
dépend du fait que le terme est important dans le document, et du fait que le terme
permet de distinguer un document des autres dans la base documentaire. Les méthodes
de pondération les plus largement utilisées pour le texte sont basées sur des variantes
de la formule tf.idf (ou term frequency. inverted document frequency).
La valeur tf mesure l’importance d’un terme dans un document. La valeur idf est une
mesure de la discrimination du terme. Plus précisément, la notion de discriminant
renvoie à la qualité d’un terme qui distingue bien un document des autres. Un terme
qui apparaît seulement dans un petit nombre de documents permet bien de discriminer
les documents. Au contraire, un terme qui apparaît dans un grand nombre, voire dans
tous les documents d’une collection n’est pas discriminant en raison de sa distribution
uniforme.
Notons que le contenu que nous devons indexer sémantiquement est multimédia et
ainsi il se différencie d’un simple texte. La section suivante présentera les techniques
utilisées pour indexer un tel type de contenu.
55
entrée de cette chaîne, les médias (image, son, vidéo …) sont analysés pour pouvoir
extraire automatiquement et/ou manuellement des informations pertinentes (ou
caractéristiques), puis ces informations sont représentées sous un format prédéfini pour
pouvoir être largement et efficacement utilisées dans des applications et des traitements
de média. Dans le cas d’une application de type SRI Multimédia, on peut constater que
la phase d’analyse précède l’étape d’indexation proprement dite. Les méthodes
d’analyse sont classifiées en 0 catégories selon le niveau :
Un niveau bas qui décrit les caractéristiques simples des éléments d’un
document comme les couleurs, la texture d’une image ou l’enveloppe d’un son;
Les techniques et approches d’analyse de bas niveau dépassent le sujet de cette thèse.
Donc, on s’intéresse à l’analyse sémantique du contenu multimédia. Rappelons que les
documents traités dans cette thèse, sont des documents multimédia supportant la
dimension temporelle. Donc, on peut les classifiés comme des séquences vidéo
multimédia. De ce fait, on va spécifier ci-après les études sur l’analyse et l’indexation
par la sémantique de ce type de documents.
56
avec des informations exploitables par des agents logiciels. Nous allons donc définir
dans la section suivante ce que recouvre la notion d’annotation.
Comme les métadonnées sont des informations à propos des données qui composent le
document, il est important de pouvoir les rattacher au document ou de créer un lien
entre eux. Jedidi (Jedidi, 2005) a spécifié quatre façons d’effectuer un rattachement entre
un document et les métadonnées qui y sont associées (voir figure 14):
1. par insertion direct dans le document : les métadonnées sont contenues dans le
document,
3. par lien Href au document : les métadonnées sont externes et pouvant être
véhiculées séparément du document, et ils sont référencées avec un URL
spécifique,
57
Figure 14. Les quatre modes de rattachement des métadonnées au document
L’annotation vidéo est le processus par lequel des informations textuelles ou autres sont
associées ou jointes à des segments déterminés dans le document vidéo pour enrichir le
contenu. Ces informations ne modifient pas le document mais elles sont simplement
mises en correspondance avec celui-ci.
Dans le cas où l’annotation se fait sur des documents audiovisuel, Troncy le considère
comme un processus qui se compose de quatre étapes (Troncy, 2004):
Dublin Core (DCMI, 2010) pour l’audiovisuel : le Dublin Core permet une description
du document à un niveau bibliographique. Il ne spécifie pas de syntaxe particulière,
mais il fournit un ensemble d’éléments terminologiques pour la description. Il peut être
exprimé en XML ou en RDF. Quinze descripteurs de haut niveau sont utilisables pour
décrire des informations qui sont de nature bibliographique (Nom, identifiant, version,
langage, contributeurs, type, définition, commentaires…). Les quinze éléments et
qualificateurs de Dublin Core peuvent être utilisés pour décrire à la fois la structure et
le détail des vidéos. Ceci vient du fait qu’il peut être utilisé conjointement à un autre
58
formalisme de description, comme MPEG-7 (voir juste après), afin de fournir un
ensemble efficace de métadonnées. Cette combinaison a l’avantage de permettre
l’association de descripteurs standards aux différents niveaux de décomposition du flux
audiovisuel, qu’ils portent sur l’ensemble du document, sur une séquence, une scène,
un plan, une image ou une partie d’une image. Dans cette approche, le document
audiovisuel est décomposé de façon statique selon un arbre annoté par des
métadonnées.
RDF et Métadata dans les documents SMIL : le domaine ou module Méta Information de
la version 2.9 de SMIL contient les éléments et les attributs qui permettent la description
(globale et détaillée) de documents SMIL. Ce module gère pleinement l’utilisation de
l’élément <meta> de SMIL 1.0, mais il introduit aussi de nouvelles fonctionnalités pour
décrire des objets média en utilisant la syntaxe et le modèle du cadre de description de
ressources (Ressource Description Framework RDF). Ce dernier est un langage puissant
de méta-information pour fournir des informations sur des ressources, voir (RDF, 1999).
59
<smil xmlns="http://www.w3.org/2001/SMIL20/Language">
……
<metadata id="meta-rdf">
<rdf:RDF
xmlns:rdf = "http://www.w3.org/1999/02/22-rdf-syntax-ns#"
xmlns:rdfs = "http://www.w3.org/TR/1999/PR-rdf-schema-19990303#"
xmlns:dc = "http://purl.org/metadata/dublin_core#"
xmlns:smilmetadata = "http://www.example.org/AudioVideo/.../smil-
ns#" >
<!—description de la présentation SMIL en entier -->
<rdf:Description about="http://localhost/cours-system.smil"
dc:Title=" Cours du système d’exploitation"
dc:Description="contient les chapitres suivant : l’exclusion
mutuelle, l’inter blocage, systèmes réparties"
dc:Date="2000-10-12"
dc:Format="text/smil" >
dc:Creator= “Creer par Dr. Ben Abbass"
<smilmetadata:ListOfAudioUsed>
<rdf:Seq ID="les mécanismes de l’exclusion mutuel">
<rdf:li Resource=" http://localhost/voix1.rm "/>
<rdf:li Resource=" http://localhost/voix2.rm "/>
</rdf:Seq>
</smilmetadata:ListOfVideoUsed>
</rdf:Description>
<!—Description de l’objet audio voix1.rm -->
<rdf:Description about=" http://localhost/voix1.rm"
dc:Description=" les verrous, test and set, les sémaphores, les
estampilles " dc:Format="audio/rm" smilmetadata:Duration="50 mn">
<smilmetadata:ContainsSequences>
<rdf:Seq ID="différents mécanismes">
<rdf:li Resource=" http://localhost/ voix1.rm#sémaphore/>
<rdf:li Resource=" http://localhost/ voix1.rm#verrous/>
</rdf:Seq>
</smilmetadata:ContainsSequences>
</rdf:Description>
<!—Description d’un segment temporel de l’objet audio voix1.rm-->
<rdf:Description about="#sémaphore" dc:Title="sémaphores"
dc:Description="définitions des fonctions ininterruptibles
P(s) et V(s)+ algorithmes" smilmetadata:Duration="10 mn"
</rdf:Description>
</rdf:RDF>
</metadata>
Le code illustré ci-dessus montre l’utilisation de l’élément métadata ainsi que la norme
RDF et les attributs de Dublin Core dans la description du document smil en entier. Ce
code décrit aussi un objet audio contenu dans ce document. Ensuite il décrit un segment
temporel dans ce dernier objet média en déterminant leur durée.
Plusieurs outils existent permettant l'annotation des vidéos. Ces outils permettent le
découpage semi-automatique de la vidéo en plans et l’affectation manuelle des mots
clés aux plans ainsi délimités. Il s'agit d’interpréter des caractéristiques textuelles (mots
clés) des documents audiovisuels et de les organiser dans des bases de données dans
lesquelles la recherche va s'effectuer. Charhad a présenté quelques outils d’annotation
vidéo, Nous citons quelque un dans ce qui suit :
- Smart VideoText est un système d’annotation vidéo basé sur le formalisme des
graphes. Dans ce système, les portions vidéo représentent les nœuds du graphe. Ces
portions sont identifiées par des références liées à la structure physique du document
(identifiant du plan, numéro de l’image dans le plan, etc.) et aussi par les annotations
libres.
- COALA – Log Creator –EPFL : l’outil COALA (content Oriented Audiovisuel Library)
conduit par l’EPFL en Suisse a débouché sur la réalisation d’une plate-forme prototype
d’indexation et d’annotations des journaux télévisés de la TSR (Télévision Suisse
Romande). Contrairement aux autres outils, il se présente comme une application du
Web spécialisé dans l’annotation d’un genre particulier de document vidéo.
61
des ontologies codé en OWL, on doit d’abord mettre en lumière cette technique ainsi
que les notions qui l’entoure.
Nous présentons la définition des éléments principaux que l’on trouve dans une
ontologie OWL :
63
(Importation d’ontologie) Une ontologie peut importer une autre ontologie pour
avoir une visibilité sur ses éléments. L’ontologie qui importe a un accès en
lecture seule à tous les éléments contenus dans l’ontologie importée. Elle peut
ensuite ajouter de nouveaux éléments, qui ne seront visibles que dans l’ontologie
qui importe. L’importation est transitive : une ontologie qui importe une
deuxième importe indirectement toutes les ontologies importées dans cette
deuxième ontologie. En général, l’importation se fait en indiquant, dans
l’ontologie qui importe, l’URL où se trouve l’ontologie importée. Ce mécanisme
permet une grande flexibilité, car on peut réutiliser des ontologies existantes
juste en les référençant dans un nouveau fichier OWL et en ajoutant de nouvelles
classes, propriétés, individus, règles, etc. Souvent, on trouve des ontologies qui
suivent ce schéma : une première ontologie de haut niveau qui contient des
éléments génériques est importée par une deuxième ontologie de domaine qui
les spécialise pour un domaine concret. Dans ce cas, on dit que la deuxième
ontologie étend la première.
Raisonnement : Une ontologie qui possède une base théorique formelle (la logique de
description) permet l’implantation de logiciels appelés moteurs d’inférence ou
raisonneurs, qui sont capables de traiter une ontologie pour déduire des faits qui ne
sont pas explicitement déclarés C’est-à-dire, ils peuvent trouver des informations qui
sont implicitement contenues dans l’ontologie pour les rendre explicites. Ce processus
s’appelle inférence ou raisonnement.
Un raisonnement peut utiliser des règles. Il existe des conditions que les ontologies
OWL ne peuvent pas exprimer, comme les Règles de Horn (Horn, 1951), d’où le W0C a
proposé un langage appelé SWRL (SWRL, 2004) qui combine OWL-DL avec le Rule
64
Markup Langage (RuleML). SWRL étend OWL-DL en ajoutant des clauses de Horn.
Une règle SWRL présente la forme suivante : b1∧ ··· ∧ bn→ a1∧ ··· ∧ an.
Les éléments x, y et z, qui sont précédés d’un point d’interrogation, sont des variables
qui représentent des individus. Cette règle veut dire que, si l’on a trois individus
appartenant à la classe Personne appelés x, y et z, que x est le père de y et que x a un
frère z, alors z est l’oncle de y.
Une ontologie peut être construite d’une façon manuelle, automatique ou mixte. Le
développement général d’une ontologie se déroule en trois principales étapes qui sont :
la conceptualisation, la formalisation et l’implémentation ou opérationnalisation
exploitable par des agents logiciels (spécifier les concepts et relation dans un langage
formelle). Ces étapes sont généralement précédées par une étape d’évaluation des
besoins et de délimitation du domaine de connaissances à modéliser.
Il existe plusieurs langages de spécification d’ontologie Web tel que RDFS, DAML-
ONT, OIL, DAML+OIL, OWL +RDFS, OWL 2, etc. Comme il existe des outils qui aident
à la construction des ontologies (on peut citer l’exemple de TERMINAE). En revanche
d’autres outils d’aide à la construction d’ontologies sont de type éditeurs comme DOE
(Differential Ontology Editor), ODE (Ontology Design Environment 2002), OntoEdit
(Ontology Editor) et l’éditeur Protégé 2000. Pour ce qui concerne le traitement des
règles SWRL, la plupart des moteurs d’inférence sont capables de traiter les règles
65
SWRL ajoutées à une ontologie. Par exemple, Pellet implante de façon native un
algorithme spécifique pour des règles DL-sûres dans OWL. Afin de traiter les règles, il
est également possible d’utiliser des moteurs spécifiquement dédiés aux règles, tel que
le moteur Jess7. Ce moteur de règles possède un langage propre pour l’expression des
connaissances sous forme de règles. Il peut être utilisé depuis Protégé grâce à l’existence
d’un pont qui permet de traduire un modèle d’ontologie dans le langage de Jess,
d’exécuter les règles dans Jess et finalement de récupérer le résultat dans Protégé.
66
- réduire le nombre de réponses bruitées, en traitant le problème d’homonymie.
Par exemple le projet IMAT (Desmoulins, 2000) est tourné vers l’utilisation d’ontologie
pour l’indexation. La manipulation de documents nécessite l’emploi d’une ontologie
dite ‘document’ qui vient s’ajouter aux ontologies classiques de domaine et de
pédagogie. L’ontologie de cours se décompose en trois sous-parties décrivant le
contenu, le contexte et la structure. Le contenu représente l’ontologie de domaine et les
deux autres parties sont liées à l’aspect pédagogique (structuration au chapitres, nature
des parties, etc.).
Le projet MEMORAe (Benayache, 2005) a pour objectif de rendre les ressources d’une
formation plus accessibles aux apprenants via des ontologies. Ce projet propose une
approche fondée sur une mémoire organisationnelle de l’ensemble des notions à
appréhender d’une formation et des ressources de celle-ci. Son principe est d’indexer
ces ressources sur les concepts d’ontologie. Deux ontologies ont été construites et
intégrés. La première est une ontologie de domaine qui décrit les concepts de la
formation : personne (étudiant, enseignant,..), documents (livre, page web, …), activité
67
pédagogique (cours, TP,...). La deuxième est une ontologie d’application qui spécifie
l’ensemble des concepts utiles à une formation particulière tels que l’algorithmique ou
la statistique (voir figure 15).
Le projet Trial Solution (Buffa, 2005) consiste à prendre chaque ressource pédagogique
et à la décomposer en objets pédagogique ‘OP’. Chaque OP est représentée par son
contenu sémantique et sa relation avec les autres OP ainsi que des métadonnées qui le
concernent. Un outil d’annotation a été développé par ce projet qui permet d’indexer
chaque nœud par des métadonnées et par des termes d’un thesaurus. On peut citer
d’autres travaux similaires dans le domaine du e-learning (Bouzeghoub, 2005),
(Hammache, 2008) et (Behaz, 2009).
68
- L’autre ontologie est du domaine qui modélise les concepts d’un sport particulier
qui est le cyclisme (tour de France, magazine sportif, etc.).
Troncy et al ont également proposés de raccorder tous ces nouveaux types aux
descripteurs MPEG-7. Pour cela, ils ont utilisés l’outil SegmentTool qui permet de
découper temporellement des émissions et produit un squelette de description MPEG-7.
Par la suite, ils ont modifiés ce squelette afin de typer chacun des segments en fonction
de son genre, utilisant l’ontologie de l’Audio-Visuel et de l’annoter avec les concepts de
la deuxième ontologie du domaine (exemple sport de cyclisme). La figure 16 montre la
nouvelle hiérarchie des types de segments (en MPEG-7 étendu) contenant les différents
genres et séquences de l’ontologie de l’audiovisuel (Troncy, 2004).
Figure 16. Ontologie de l’audiovisuel : nouvelle hiérarchie des types de segments en MPEG-7.
69
liés à la chirurgie cardiaque correspondant au thème du corpus, GALEN contient les
concepts liées à tous les domaines médicaux).
Isaac et Troncy ont eux aussi utilisé dans leurs travaux, l’outil ‘SegmentTool’ pour
produire une structure documentaire. Ensuite, ils décrivent les éléments AV en leur
assignant certaines assertions de relations avec des concepts du domaine, relations de
nature strictement représentationnelle ou plus interprétative. L’exemple de la figure 17
donne une idée des descriptions qu’Isaac et .al ont cherchés à obtenir. Ils ont mis en
valeur la distinction entre les deux types de connaissances qui les intéressent.
Ils ont utilisé le moteur d’inférence Sesame pour stocker et interroger les ontologies et
les assertions. Donc leur système est implémenté dans un module d’inférence sur
mesure, où les axiomes et les règles de RDFS sont complétés par ceux de l’OWL-DLP et
des règles de raisonnement spécifiques aux ontologies exploitées.
70
exploités pour générer une description relationnelle où les relations conceptuelles sont
inférées selon le type média. Par exemple, les relations ‘parle’ et ‘parle de’ sont extraites
de la transcription et de la segmentation en locuteurs du contenu audio.
Nous allons citer également certaines études récentes et d’importance manifeste (Dong,
2010) et (Carbonaro, 2008), sur le traitement du contenu sémantique des présentations
vidéo dans le domaine de e-learning. Dong et al. (Dong, 2010), offrent un modèle de
multi-ontologie d'annotation de documents multimédias. Ils se concentrent dans leur
document sur les présentations vidéo des conférences, séminaires et la formation en
entreprise. Ces derniers se composent, en général, de nombreux thèmes ou sujets, et
chaque sujet couvre plusieurs diapositives. Cette structure hiérarchique essentielle
permet la segmentation, l'indexation et l'accès à ce type de vidéo.
La segmentation vidéo est la première étape dans leur processus d’annotation. Cette
tâche a été automatisé en prenant en considération les deux sources de données
suivante: Slide video stream (c.-à-d. le flux vidéo d’une explication des diapositives
capturés lors de la présentation) et Slide PowerPoint (c.-à-d. le fichier PowerPoint). La
figure 18 explique les étapes de ce processus.
Une segmentation vidéo à deux niveaux est étudiée: niveau sujet et niveau slide. La
segmentation au niveau Slide opère sur les flux vidéo de diapositives capturées par une
caméra fixe, tandis que la segmentation au niveau sujet se base sur l’extraction du texte
d'une diapositive via le module TWI. Ce dernier génère une séquence de blocks de
71
diapositives, dont chacun examine un sujet. Pour associer chaque block avec son
segment vidéo qui lui correspond, une relation temporelle entre une diapositive d’un
flux vidéo et l’ensemble de diapositives doit être établie. Ceci est accompli en faisant
correspondre des images de diapositives (qui ont été converties à partir de fichier
PowerPoint) avec des images clés extraites après la segmentation de flux vidéo. En
basant sur des informations temporelles de chaque diapositive, les blocks peuvent être
mappés aux segments vidéo ayant un sujet.
Une fois la segmentation achevée, chaque segment est annoté par une ontologie
multimédia (OM) et plusieurs ontologies de domaine. L’ontologie «OM» est basé sur la
norme MPEG7, mais se concentre sur l'aspect du contenu description. Il contient trois
types de classes ou des concepts (voir figure 19): concepts multimédias (image, vidéo,
audio, vidéo du segment, et etc...), concepts non-multimédia (agent, lieu, temps,
concepts, etc...) et descripteur d'ontologies de domaine (par exemple comme ontologie
des gènes ‘Gene Ontology’ 'GO'). Nous notons que l’aspect pédagogie est absent dans
l'annotation dans ce travail.
72
Figure 20. Intégration des ontologies de domaine dans celle du multimédia, (Dong, 2010).
2.3.5 Discussion
Nous constatons que l’indexation par le contenu sémantique des documents
multimédia temporisés (cas des vidéos) nécessite obligatoirement une phase
d’annotation. L’utilisation des ontologies pour annoter ce type de document permettre
d’améliorer la performance d’un système d’indexation et de recherche en termes de
rappel et de précision par la possibilité de faire des raisonnement au-dessus de ces
annotations. Nous remarquons qu’il y a une combinaison de deux ou plusieurs
ontologies afin d’être utilisés dans la phase d’annotation :
- une ontologie (dépend du type de corpus) est utilisé pour structurer logiquement
le document vidéo en associant un type ou un genre pour ses différents segments
(ontologie de l’audiovisuel : « émission, reportage,… ». ontologie multimédia :
« image, audio,… » etc.) ;
- une ontologie thématique ou de domaine est utilisée pour décrire la sémantique
de chaque segment (ontologie de sport cyclisme, ontologie médicale, …)
D’après les travaux étudiés ci-dessus, nous essayons d’extraire les limites et les
insuffisances des systèmes étudiés et ainsi dons elles ne répondent pas à nos besoins.
En première lieu, on doit indiquer que dans le e-learning, le support de cours est diffusé
sur le web selon deux catégories de documents : documents multimédias statiques (tels
que : page web, PDF, .doc, etc.) et documents dynamiques ou temporels (tels que
format audiovisuel, ou SMIL (SMIL, 2004)). Le nombre des documents de la deuxième
catégorie ne cesse de croitre alors que les travaux d’indexation dans le domaine de l’e-
learning précités ne se basent que sur les documents de la première. Notons Bien que le
travail de Dong se concentre sur l’indexation par le contenu sémantique de document
de type présentations vidéo des conférences et séminaires (et non pas des cours
pédagogique), nous remarquons que l’aspect pédagogique est absent dans la
description sémantique du contenu de ces vidéos.
73
En deuxième lieu, la nature temporelle de ce type de documents engendre un certain
nombre de contraintes sur leur gestion documentaire. En effet, la spécificité de ces
documents est d’être des objets temporels. Par essence, cette temporalité ne se présente
pas et ne se stocke pas ; ceci a plusieurs conséquences. L’une d’elles est l’imposition du
rythme de lecture du document; Si la vidéo est d’une heure, il faut une heure pour la
visualiser, et si l’information recherchée commence à la 12ème minute et dure 13
minutes, alors il faut attendre tout ce temps ou faire défiler les 11 premières minutes
pour la retrouver.
En troisième lieu, les cours vidéo diffusés sur le web sont annotés selon des
métadonnées d’ordre général (format, date de création, auteur, titre, mots clés et parfois
résumé). On remarque bien que l’emploi du texte libre (mots clés, résumé) pour décrire
le contenu empêche le contrôle de la sémantique des descriptions et ceci limite
sérieusement les possibilités de raisonnement.
Les moteurs de recherches offerts actuellement ne permettent pas une recherche par le
contenu sémantique d’une séquence (ou segment) dans un cours vidéo car ce dernier
n’est pas structuré pédagogiquement, et leur sémantique pédagogique n’est pas spécifié
formellement. Il n’y a pas d’outils qui offrent cette possibilité jusqu'à présent.
74
2.4 Conclusion
Dans cette section nous avons étudié les approches concernant la création d’un contenu
pédagogique multimédia d’un côté et les approches de son indexation par la
sémantique d’un autre côté. Nous avons essayé de présenter une analyse de quelques
travaux de recherche dans ces deux axes et nous avons terminé avec une discussion.
Dans cette dernière, nous avons démontré l’insuffisance des systèmes existants pour
répondre aux besoins et objectifs que nous avons déterminés dans l’introduction
générale.
Nous appuyant sur l’analyse précédente et ses manques, notre intention était de
justifier les contributions de la thèse, de construire les bases de la proposition présentée
dans les chapitre suivant 3 et 4. Surtout, on donne des éléments de réponse concernant,
d’une part, la concrétisation de l’approche double codage de l’information phonétique
dans un cours pédagogique multimédia (présenté dans le chapitre 0). D’autre part, on
présentera dans le chapitre 4 notre approche d’indexation et de recherche par le
contenu sémantique (basé sur les ontologies) des segments vidéo pédagogique.
75
Chapitre 3 : SACoPh, un système auteur pour
l'enseignement médiatique de la phonétique
3.1 Objectifs
76
Figure 21. Dimension structurelle de la leçon
77
Les objets média sont représentés par des rectangles où la longueur reflète la durée
d’affichage ou de présentation de l’objet correspondant.
Figure 24. Schéma montre le déroulement du scénario avant et après l’activation d’un lien temporel.
La solution admise dans notre cas est la solution interactive car elle permet à l’auteur
(enseignant) de choisir sa propre présentation d’une part et de décider où il souhaite
mettre l’accent d’autre part.
Afin de cadrer les fonctionnalités attendues du système SACoPh, nous allons utiliser le
langage UML (Uml, 2005) dans la modélisation de notre système. UML propose 13
78
types de diagrammes. UML n’étant pas une méthode puisqu’elle n’offre pas une
démarche à suivre, son utilisation est laissée à l’appréciation de chacun. Dans notre cas
nous avons choisi de modéliser notre système à travers 3 types de diagrammes à
savoir : diagramme de cas d’utilisation, Diagramme de classes et diagramme de
séquence.
79
Figure 26. Architecture générale de SACoPh
80
sur un phénomène de phonétique. Ce module génère, pour chaque élément
pédagogique règle ou exemple, un code XHTML qui correspond à une telle
spécification pour une exploitation ultérieur, soit pour sa mise à jour soit pour faciliter
la génération du code SMIL par la suite. Nous prenons l’exemple d’une règle qui a le
texte suivant :
81
d’affichage d’une règle ou d’un exemple est déduite à partir de la durée de l’objet audio
associé. Prenons une partie du code générer en l’expliquant par la suite.
……
<-- spécifier le segment temporelle contenant la règle 3 et les exemples associés -->
<par xml:id="3" dur="46s">
<-- spécifier la prononciation de la règle1 et ses exemples -->
<audio begin="1s" src="Tips 3.wav"/>
<audio begin="20s" src="example 5.wav"/>
<audio begin="26s" src="example 6.wav"/>
<audio begin="31s" src="example 7.wav"/>
<audio begin="37s" src="example 8.wav"/>
<-- spécifier le texte de la règle -->
<smilText region="Regle"> <p>
<span textFontWeight="bold" textColor="#aa00ff" textFontSize="20px">s is pronounced
</span>
<span textFontWeight="bold" textColor="#aa0000" textFontSize="20px"> /iz/</span>
<span textFontWeight="bold" textColor="#aa00ff" textFontSize="20px"> after the
sounds:</span></p>
<p>
<span textFontWeight="bold" textColor="#ff0000" textFontSize="20px"> /s/, /z/,
/∫/, /ʧ/, /ʒ/, /ʤ/.</span>
</p>
</smilText>
<-- spécifier l’exemple 1 qui commence à la 20ème seconde après la règle 1 -->
<smilText begin="20s" region="Exemple"><p>
<span textFontWeight="bold" textColor="#000000" textFontSize="20px">misse</span>
<span textFontWeight="bold" textColor="#ff0000" textFontSize="20px">s</span></p>
<-- spécifier l’exemple 2 : qui commence au 6ème seconde après l’exemple 1 -->
<tev begin="6s"/> <p>
<span textFontWeight="bold" textColor="#000000" textFontSize="20px">washe</span>
<span textFontWeight="bold" textColor="#ff0000" textFontSize="20px">s</span></p>……
</smilText>
</par> ……
Nous montrons ci-dessus une partie du code SMIL3.0 généré par SACoPh qui permet
de synchroniser le texte d’une règle en parallèle avec sa prononciation. On remarque
bien qu’après 11s, le texte du premier exemple se présente avec sa prononciation. On
remarque les différents types de balises et attributs : celles qui servent à la
synchronisation <par>, <tev>, begin et celles qui servent à la présentation de marqueur
typographique <smilText>, <textFontFamily>, <textColor>,…etc.
Une table d’index est calculée automatiquement. Nous avons proposé une
segmentation temporelle automatique du document. Ceci consiste à identifier le début
et la durée de chaque segment, ensuite à placer des ancres pour chacun d’eux pour être
référencé par la suite. Nous proposons qu’un segment temporel corresponde au temps
de présentation d’une règle avec tous ses exemples : c’est une entité indivisible. On a
82
fait ce choix parce que la règle ne peut pas être parfaitement comprise qu’à travers ses
exemples explicatifs, et ces derniers ne peuvent être dissociés de la règle. A chaque
entrée de la table d’index, on associe un lien vers le segment temporel qui lui
correspond via son marqueur. Le code suivant montre comment les segments sont
marqué, et comment sont référencié par les entrés de la table d’index.
<-- spécifier en séquence les segments temporels et marquer chacun d’eux par
l’attribut xml : id-->
<seq>
<-- segment 1 -->
<par xml:id="1" dur="28s">
<smilText region="Tips 1"> ……… </smilText>
<smilText region="exemple 1"> …… </smilText> ………
</par>
<-- segment 2 -->
<par xml:id="2" dur="15s"> ………… </par> ………
</seq>
<-- remplir la table d’index;’Rule 1’ est un ancre vers le segment identifié par 1-->
<a href="#1"> <smilText region="Index1"> Rule 1</smilText> </a>
<a href="#2"> <smilText region="Index2"> Rule 2</smilText> </a>
………
Figure 27. Présentation du cours généré en SMIL 3.0 avec le lecteur ambulant
83
3.3.3 Aspect statique du système : diagramme de classes
Le diagramme de classes est considéré comme le diagramme le plus important de la
modélisation orientée objet. Comme le diagramme de cas d’utilisation montre le
système du point de vue de l’enseignant, le diagramme de classes montre la structure
interne du système, qui est composée principalement de huit classes. Chaque classe est
décrite par des attributs et des méthodes. L’enseignant interagit qu’avec la classe
MainWindow, et c’est à travers cette classe qu’il peut manipuler les autres classes du
diagramme, du fait qu’elle est reliée par des relations de composition aux classes Leçon,
Configuration et AudioInputOutput.
Les diagrammes de séquence montrent les interactions entre les acteurs et les grandes
fonctions du système. La Figure 29 montre l’interaction entre l’acteur enseignant et la
fonction MainWindow::OuvrirLecon() qui affiche la fenêtre pour sélectionner une leçon.
Une leçon est composée de plusieurs règles, et une règle est composée à son tour de
84
plusieurs exemples. Donc pour ouvrir une leçon, on a besoin de deux boucles (loop)
imbriquées.
86
9.13 & 13.34) qui est un système d’exploitation multitâches et multi-utilisateurs très
puissant basé sur la distribution Debian GNU/Linux. Ce système est connu pour sa
rapidité et sa facilité d’utilisation et son environnement de développement très riche.
Notre système est développé en langage de programmation orienté objet C++. Elle est
basée sur le Framework Qt, qui est un Framework d’applications multiplateforme
(écrire une fois et compiler n'importe où) et d’interface homme machine (IHM) orienté
objet. Qt offre toutes les fonctionnalités nécessaires pour le développement
d’applications à interface graphique avancée pour plates-formes de bureaux et
embarquées. Qt utilise les interfaces de programmation graphiques natives de chaque
plate-forme prise en charge, afin de tirer pleinement parti des ressources du système et
pour que les applications possèdent une apparence et un ressenti natif.
Tandis que la partie vue correspond à l’interface avec laquelle l’utilisateur interagit. Sa
première tâche est de présenter les résultats renvoyés par le modèle. Sa seconde tâche
est de recevoir toutes les actions de l’utilisateur (clic de souris, sélection d’une entrée,
boutons, etc.). L’interaction avec l’utilisateur est assurée par un ensemble de modules et
de dialogues qui apparaissent au fur à mesure de l’exécution de l’application.
3.3.6.3 Implémentation
Ci-dessous une figure qui illustre une vue générale de l’interface de SACoPh.
L’enseignant peut sélectionner une fonction (ajouter, modifier, réutiliser et/ou
87
supprimer) un élément pédagogique (règle ou exemple) via un menu contextuel voir
figure31.
L’outil utilisé pour toute manipulation audio est illustré par la partie graphique qui est
composée d’un slider, d’un timer, et de boutons de contrôles comme le montre la figure
02. Si l’utilisateur clique sur un de ces boutons, un signal est envoyé par ce dernier et
réceptionné par une des fonctions de la classe AudioInputOutput comme par exemple
la fonction Play.
88
Figure 33. Paramètres de configuration : périphérique audio, lecteur de smil et font de texte globale.
L’approche incrémentale (voir paragraphe 2.2.2) est réalisée dans notre système par la
fonction aperçu dans la barre d’outils. Cette dernière provoque la création d’une
instance du lecteur Ambulant et ouvre la présentation SMIL générée dans ce même
lecteur. Notons bien que ce lecteur est le seul (jusqu’à présent) qui peut jouer une
présentation en SMIL3.0.
3.4 Conclusion
Le deuxième Axe de recherche qui nous intéresse est l’indexation et la recherche dans
un contenu pédagogique multimédia. Nous utilisons dans ce cas les ontologies afin de
traiter la sémantique du contenu. Le quatrième chapitre présente notre contribution
dans cet axe.
89
Chapitre 4 : Intégration des ontologies dans la
construction et l'indexation de contenu pédagogique
Multimédia
4.1 Introduction
90
4.2 Construction des Ontologies
91
Figure 34. Ontologie de domaine d’enseignement.
On peut mentionner l’existence des instances de la classe concepts qui sont identiques.
On cite comme exemple : boucle et instruction de répétition, adresse et pointeur,
enregistrement et structure, tableau à deux dimensions et matrice, paramètre et attribut, etc.
Cette sémantique est spécifiée en langage OWL (OWL, 2004) par la propriété ‘SameAs’
entre individus.
Une instance de cette ontologie engendre une ontologie du domaine à enseigner D (un
module bien précis). Elle peut être manuelle ou semi-automatique. Dans le deuxième
cas, ce processus fait appel à des outils d’ingénierie linguistique (comme LEXTER) pour
l’extraction des termes candidats à partir d’un ou de plusieurs supports de cours
textuels d’un domaine particulier D. Ces termes représentent l’extension de la classe
concept. Ces termes doivent ensuite être sélectionnés, triés par un expert dans le
domaine et organisés hiérarchiquement selon la relation ‘composé_de’. Puis, la
sémantique du domaine est affinée par la précision des instances identiques de la classe
concept et des instances des deux relations ‘est_pré_requis_de’ et ‘depend_de’ qui
peuvent exister entre les différents concepts.
Dans notre cas, nous avons créé une instance de cette ontologie pour le module SDD :
‘Structure De Données’ avec l’éditeur Protégé 2000. Ci-dessous un extrait du code OWL
généré par cet éditeur.
<?xml version="1.0"?>
<rdf:RDF
xmlns=http://www.owl-ontologies.com/Ontology1277939276.owl#
………
<domaine_d_enseignement rdf:ID="structure_de_données">
<aborde>
<concept rdf:ID="instruction">
<composer_de rdf:resource="#affectation"/>
<composer_de rdf:resource="#instruction_de_controle"/>
<composer_de df:ID="#instruction_de_repetition"/>
92
</concept>
<concept rdf:ID="boucle"/>
<owl:sameAs rdf:resource= "#instruction_de_repetition"/>
</concept>
<concept rdf:ID="passage_parametre_par_valeur">
<depend_de rdf:resource="#fonction"/>
</concept>
<concept rdf:ID="pointeur">
<est_pre_requi_de rdf:resource="#liste"/>
</concept>
…
</aborde>
Pendant la consultation de quelques leçons vidéo du corpus que nous avons choisi,
nous avons constaté qu’une diapositive contient une définition d’un concept suivi par
un petit exemple. Comme on a remarqué qu’un exemple peut être présenté dans deux
ou trois diapositives ayant le même titre, on a opté pour cette manière de structuration
des segments.
Une question qui se pose : pourquoi un objet pédagogique concerne plusieurs concepts
et non pas un. Si on prend l’exemple de la leçon vidéo ayant le titre ‘les fonctions’, où il
y a une diapositive avec un exercice concernant l’utilisation d’un tableau comme
93
paramètre d’une fonction, on constate que l’OP de type ‘exercice’ concerne les trois
concepts (soulignés) de l’ontologie de domaine d’enseignement SDD (il n’existe pas à
notre connaissance de moteur de recherches qui répond à une requête de ce type).
La figure 35 montre deux relations qui peuvent exister entre deux instances de la classe
diapositive à savoir ‘est_similaire’ et ‘est_solution’. Ce type d’instances ne peut exister
que si une condition est vérifiée. Par exemple deux instances de type diapositive ne
peuvent être similaire que s’ils contiennent des objets pédagogique qui abordent deux
concepts similaires. Dans le cas de la deuxième relation, s’il existe une instance de la
relation est_solution entre deux OP et que ces deux objets sont contenus dans deux
instances diapositives différents, alors il y a une instance de la relation solution_diapo
entre ces deux derniers.
Troncy et Isaac ont utilisés l’outil segment Tool, tandis que Charhad a utilisé
VidéoAnnex pour segmenter le corpus des documents AV traité. Dans notre cas, nous
avons développé un outil de segmentation et d’annotation des cours vidéo, appelé
OntoCoV, sur la base des ontologies que nous avons créés.
La figure 34 montre l’interface de l’outil OntoCoV qui est divisée en deux régions :
a) Région pour visualiser la vidéo avec des boutons pour lire la vidéo, la stopper,
créer un nouveau segment, etc.
95
Figure 36. Interface principale de l’outil OntoCoV.
Une petite fenêtre indépendante s’affiche en cliquant sur un segment de la zone (b). Elle
contient une liste des objets pédagogiques constituant le segment sélectionné. On peut
décrire chaque objet pédagogique en lui associant une liste des concepts de l’ontologie
de domaine d’enseignement intégré dans l’outil au tout début.
<cours_video rdf:ID="structure_de_données">
<est_presente_dans>
<lesson_video rdf:ID="fonction">
<URL rdf:datatype="http://www.w3...#string"> http://.../fonction.wmv </URL>
<est_segmente rdf:resource="#diapositif_2"/>
<est_segmente rdf:resource="#diapositif_3"/>
<est_segmente rdf:resource="#diapositif_7"/>
</lesson_video>
</est_presente_dans>……
</cours_video>
<diapositive rdf:ID="diapositive_2">
<Duree rdf:datatype="&xsd#time">00:03:22 </Duree>
<Debut rdf:datatype="&xsd#time">00:06:01 </Debut>
<Titre_diapositive rdf:datatype="&xsd#string"> introduction aux fonctions
</Titre_diapositive>
<contient>
<OP rdf:ID="Definition_1"> <concerne rdf:resource="&p1#fonction"/> </OP>
</contient>
<contient>
<OP rdf:ID="definition_2">
<concerne rdf:resource="&p1#adresse"/>
<concerne rdf:resource="&p1#fonction"/>
</OP>
</contient>
<contient>
<OP rdf:ID="exemple_1">
96
<concerne rdf:resource="&p1#valeur_retournee"/>
<rdfs:comment rdf:datatype="&xsd#string"> différents type de valeurs retournées
</rdfs:comment>
</OP>
</contient>
</diapositif>
…
Une fois que les concepts des deux ontologies ont été identifiés dans les segments
temporels, on passe à la phase de pondération des concepts pour chaque segment
diapositive.
Dans cette partie de notre travail, nous présentons une structure d'index qui permet de
poser des requêtes sur des segments temporels de document vidéo. Pour cela nous
utilisons le modèle vectoriel de Salton (Salton, 1983) tout en adaptant le calcul du poids
TF_IDF (Terme Frequency_Inverse document Frequency) à nos besoins, en nous
inspirant des travaux de (Martinet, 2004) et de (Zargayouna, 2005). On propose que le
segment d’un document correspondant à une leçon vidéo soit représenté par un vecteur
de concepts.
. …
Table 3. Structure de la table d’index
97
- N° LV : numéro de la leçon vidéo.
- FCi : la fréquence du concept Ci dans la leçon vidéo1.
- N°Diap: numéro de la diapositive qui contienne le concept Ci. C’est le segment
qui correspond à la balise <diapositive> dans le fichier OWL. Ce dernier
correspond à l’annotation sémantique de la leçon vidéo effective.
- T1 et T2 : début et durée de la diapositive ;
- Poids est calculé par la formule CF-ISDF (voir ci-dessous).
- ObjP : Objet pédagogique (i) qui contient dans sa description le concept Ci.
- SegF (c, s) : Nombre de segments dans le document d et dans lequel le concept c apparaît.
Cette formule nous permet de pondérer le concept non seulement par sa fréquence dans
le segment s relative à un document d, mais aussi par sa répartition dans le document
(ISF(c,s,d)). Cette dernière mesure représente la force discriminatoire d’un concept c
pour un segment relatif à un document d. La répartition du concept dans le corpus
(IDF(c)) est importante aussi. Si un concept apparait dans plusieurs documents, il est
moins représentatif pour un document donné qu’un concept qui apparait seulement
dans ce document. C’est la force discriminatoire d’un concept dans le corpus.
98
4.5 Recherche Conceptuelle
Modèle de requête : Un vecteur lui est associé comme pour les segments indexés. On
peut attribuer un poids aux concepts de la requête. Dans un premier temps, nous
attribuons des 1 et des 3 pour signifier l’existence ou non des concepts.
VS,D et VQ sont les vecteurs des poids de concepts dans le segment S du document D et
de la requête Q respectivement.
99
Les résultats de la recherche : est une liste des références vers les segments les plus
pertinents visualisés en ordre de pertinence dans une page codé en HTML+time, d’où
l’usager peut consulter et lire un segment vidéo sélectionné dans la même page.
4.6 Raisonnement
Figure 37. Des assertions explicites complétées par des connaissances inférées
Les arcs en pointillés dans la figure 37 représentent les assertions (instances de relation)
inférées. On peut citer un autre exemple : notre système doit retrouver des diapositives
qui présentent des explications sur des concepts prérequis de celui cité dans la requête.
100
Pour réaliser ce raisonnement et bénéficier des pleines possibilités des techniques du
web sémantique, nous devons étudier les manières d’encoder les connaissances de
raisonnement comme les règles de production, et de les articler avec la gestion des
ontologies utilisées.
Le langage OWL-DL permet de spécifier des propriétés algébriques pour les relations.
Ceci est grandement utile, mais il manque de possibilités pour encoder des
connaissances qui soient relatives à la composition de plusieurs relations en particulier.
Nous avons par exemple besoin de définir les règles suivantes:
Nous avons choisi SWRL car il nous permet de spécifier nos règles pour raisonner sur
les individus OWL et d'inférer de nouvelles connaissances sur ces individus. Il porte
une syntaxe XML basée sur celle d’OWL, ce qui nous permet d’inclure les règles SWRL
associées à notre ontologie dans le même fichier XML.
101
Figure 38. Architecture générale du système IRSeCoV.
102
4.7 Prototype et Expérimentation
4.7.1 Implémentation
Nous avons implémenté un prototype pour le système IRSeCoV avec le langage de
programmation orienté objet C++ qui se base sur le Framework Qt.
L’interface du système est divisée en deux grandes régions : la première qui est à
gauche, est réservée à la formulation de la requête. La deuxième est réservée à
l’affichage des résultats (voir figure 40). La première région visualise les concepts d’une
ontologie d’un DE particulier (sélectionné par l’usager) sous forme d’arborescence pour
guider l’usager (apprenant ou enseignant) à naviguer (explorer) dedans, tout en lui
donnant l’occasion de choisir les termes de sa requête. La raison qui nous a poussés à
opter pour un tel mode de formulation de requête est d’éviter l’ambiguïté dans les
termes saisis et de bien pouvoir exprimer les besoins.
L'utilisateur peut spécifier dans sa requête l'objet pédagogique avec les concepts qu'il
cherche. Le système retourne et affiche dans la région 2 une liste des segments triés par
ordre de pertinence. Pour chaque segment, il affiche le nom de la leçon, son début, sa
durée, son titre et, surtout, les objets pédagogiques inclus dans le segment avec un
commentaire. L'utilisateur peut ainsi sélectionner le segment qu’il veut.
Le système donne la possibilité aux enseignants d’ajouter de nouveaux cours vidéo avec
leurs annotations y compris l’ontologie DE. Ces cours peuvent correspondre à un
103
domaine d’enseignement déjà existant ou à un domaine nouveau. Donc le système
régénère la table d’index automatiquement.
Pour évaluer notre système, on a deux approches à savoir évaluer la structure de l’index
et évaluer sa pertinence. Dans la première approche, il s’agit de calculer le temps
d’indexation, l’espace de stockage de l’index par rapport à la taille du corpus, la
construction des ontologies et l’annotation du corpus. Le calcul du temps de
construction de l’index ne permet pas de juger de la valeur de l’index. C’est pour cette
raison que nous avons opté pour la deuxième approche d’évaluation, qui permet
d’évaluer la pertinence de l’index en testant son impact sur la recherche, ceci en
utilisant les mesures de pertinence classiques (rappel et précision). Mais comme le
corpus est trop petit (seulement 9 documents vidéo), nous avons essayé d’interpréter les
résultats de quelques requêtes. Dans un premier temps nous avons testé les poids de
quelques concepts extraits de la table d’index générée par le système.
L’expérimentation de notre système a été faite sur un corpus (annoté par OntoCoV) de 9
leçons vidéo parmi 25 du module ‘structure de donnée et techniques de programmation’. Le
tableau 4 montre quelques concepts avec la liste des segments où ils apparaissent. Le
segment est défini par le numéro du document (leçon vidéo) et le numéro du segment
(diapositive) dans ce document.
104
CF-ISDF(Parametre_f,S2,D4) = 1*log(14/2)*log(9/1)= 4,2756.
Raisonnement et inférence
Cette partie a été réalisée indépendamment du système IRSeCoV. Rappelant que nous
avons construits deux ontologies à savoir ‘domaine d’enseignement’ et ‘cours vidéo’. La
première a été construite en utilisant l’outil protégé 2000, et son code OWL généré a été
importé dans la deuxième ontologie. L’ontologie résultante de cette combinaison a été
utilisé par l’outil OntoCov (voir 4.0) afin d’annoter un corpus de 9 leçons vidéo du
domaine d’enseignement ‘structure de données et algorithmique’. L’outil OntoCoV génère
un code OWL pour chaque leçon. Donc le corpus proprement traité est un ensemble de
fichiers (.owl) qui font références aux fichiers vidéo (.wmv) correspondant.
- Rassembler le code OWL (plus précisément les instances) de toutes les leçons
dans un seul fichier ‘ontologie_totale.owl’.
- Ouvrir ce dernier avec l’outil protégé 2333 version 0.4.8 et faire la vérification et
la validation de l’ontologie en question. Les problèmes de cohérence, de
satisfiabilité, de subsomption sont alors vérifiés grâce à la connexion au moteur
105
d’inférence Pellet 1.5.2. La figure 41 montre la vérification de l’inconsistance de la
première ontologie avant son intégration dans la deuxième.
La figure 42 illustre l’ontologie totale sous forme d’un graphe en utilisant le plugin
jambalaya.
106
- Spécifier les règles (que nous avons définies dans le point 4.6) dans l’ontologie
totale avec le langage SWRL. Nous avons utilisé le plugin SWRLTab pour
l’édition de ces règles.
- Une fois l’ontologie validée, elle est donc prête à être interrogée par les requêtes
des utilisateurs et inférés des résultats implicites et complémentaires. Nous
avons en premier temps interrogé l’ontologie par une question exprimée dans
langage SPARQL. La requête que nous avons choisi est comme suit : quelles sont
les segments temporelles (ou diapositive) qui montre l’utilisation d’un tableau comme
paramètre dans une fonction. Voir le résultat de cette requête dans la figure 44.
107
- Inférence proprement dite : Afin de traiter les règles, nous avons utilisé le moteur
spécifiquement dédiés aux règles, tel que le moteur Jess11. Ce moteur de règles
possède un langage propre pour l’expression des connaissances sous forme de
règles. Il peut être utilisé depuis Protégé grâce à l’existence d’un pont qui permet
de traduire un modèle d’ontologie dans le langage de Jess, d’exécuter les règles
dans Jess et finalement de récupérer le résultat dans Protégé. Nous avons utilisé
le plugin SWRLJessTab qui s’intègre dans l’onglet de SWRL Rules sous forme
d’icone J en haut à droite (voir figure 45). Pour lancer le moteur, nous activons
les 3 boutons en succession ‘OWL+SWRL-> Jess’, ‘Run Jess’ et ‘Jess -> OWL’.
Ensuite, nous pouvons voir les résultats inférés dans l’onglet ‘Inffered Axioms’.
108
4.8 Conclusion
Nous avons présenté dans ce chapitre une approche de recherche par le contenu
sémantique des segments vidéo pédagogiques utilisant des ontologies. Nous avons
construit deux ontologies, la première modélise les connaissances d'un domaine
d'enseignement et la deuxième structure un cours vidéo pédagogiquement.
Nous avons réalisé un nouvel outil appelé OntoCoV qui génère l'annotation de leçons
vidéo en OWL basé sur les ontologies construites.
Nous avons essayé aussi d’améliorer les résultats obtenus par des résultats
complémentaires et pertinents en exploitant les relations sémantiques qui existent entre
les concepts et entre les objets pédagogiques définis dans l’ontologie. Pour ce faire, nous
avons utilisé protégé 2000 avec les plugins : SWRLTab pour éditer les règles SWRL et
SWRLJessTab pour exécuter ces règles et inférer de nouvelles réponses.
109
Conclusion générale et perspectives
Avec l’approche du double codage, nous avons présenté un apport, que nous
considérons très important, dans l’amélioration de l’apprentissage. Pour cela, nous
avons conçu un modèle de document multimédia temporisé qui concrétise cette
approche. Nous avons développé un système auteur appelé SACoPh, qui génère des
cours de phonétique publiables via le web, selon ce modèle, en exploitant les nouvelles
fonctionnalités de la version 3.0 du standard SMIL. Ce système est conçu pour être les
enseignants de langues, qui ont peu de connaissances en ce qui concerne les outils
informatique. Il offre une interface qui soit la plus simple et la plus conviviale possible.
Nous avons présenté également dans cette thèse, une approche de recherche par le
contenu sémantique des segments vidéo pédagogiques utilisant les ontologies. Nous
avons construit deux ontologies, la première structure pédagogiquement un cours
vidéo et la deuxième modélise les connaissances d'un domaine d'enseignement.
Nous avons réalisé un nouvel outil appelé OntoCoV qui génère l'annotation de leçon
vidéo en OWL basé sur les ontologies construites.
Nous avons essayé aussi d’améliorer les résultats obtenus avec des résultats
complémentaires et pertinents en exploitant les relations sémantiques qui existent entre
les concepts et entre les objets pédagogiques définis dans l’ontologie. Pour ce faire, nous
avons utilisé protégé 2000 avec les plugins : SWRLTab pour éditer les règles SWRL et
SWRLJessTab pour exécuter ces règles et pour inférer de nouvelles réponses.
Perspectives
Il est néanmoins important de noter que notre approche est loin d’être finie et qu’elle
doit évoluer (nous l’espérons dans un futur proche).
111
oublier de semi-automatiser la synchronisation des objets média dans le cas où
les médias sont importés.
En ce qui concerne les ontologies, nous proposons de réaliser des outils qui
automatisent l’instanciation de l’ontologie de ‘domaine d’enseignement’ à partir
d’un support de cours ayant le format texte. Cet outil doit utiliser les techniques
TAL (traitements automatiques de langue). Nous suggérons aussi d’étendre le
modèle ontologique en intégrant des connaissances sur le profil des apprenants
afin d’orienter notre système vers l’adaptation des segments vidéos selon ses
profils.
112
Bibliographie
Allen J. F., « Maintaining Knowledge about Temporal Intervals » Communications of the ACM
(Association for Computing Machinery), Volume 26 Issue 11, Nov. 1983, pages: 832-843,
ISSN:0001-0782.
Atif Y., titre « A constructive multimedia approach to e-learning » Emirates Journal for
Engineering Research, 8 (1), 25-33 (2003).
Blandine M., Wu Y. et Kuang R., « la robustesse des systèmes auteurs multimédias », thèse de
doctorat, Université de Paris VIII spécialité : informatique.
Bouzeghoub A., Defude B., Duitama J. F. et Lecocq C. «Un modèle de description sémantique
de ressources pédagogiques basé sur une ontologie de domaine» revue sticef ‘Sciences et
113
Technologies de l´Information et de la Communication pour l´Éducation et la Formation’
Article de recherche Volume 12, 2005.
Buffa M., Dehors S., Faron-Zucker C. and Sander P., « Towards a Corporate Semantic Web
Approach in Designing Learning Systems”. Review of the TRIAL Solution Project”,
workshop conference AIED 2005.
Charhad M., « Modèles de Documents Vidéo basés sur le Formalisme des Graphes Conceptuels
pour l’Indexation et la Recherche par le Contenu Sémantique » thèse de doctorat de
l’université Joseph Fourier- Grenoble I soutenue le 28 novembre 2005.
Chehata N., « Indexation vidéo orientée objet : Combinaison des techniques de segmentation
d’images en régions avec l’extraction des descripteurs de couleur » mémoire de stage de
DEA, PHOTONIQUE, IMAGE ET CYBERNETIQUE. Université Louis Pasteur
Strasbourg. THOMSON MULTIMEDIA R&D France.
Deltour R., Guerraz A. and Roisin C., « Multimedia Authoring for CoPs ». 1st International
Workshop on Building Technology Enhanced Learning solutions for Communities of
Practice, Crete, Greece, 2 October 2006, pp. 60-69
114
Desmoulins C. et Grandbastien M., « Des ontologies pour indexer des documents techniques
pour la formation professionnelle » conférence : IC'2000
Ingénierie des connaissances. Toulouse (Centre pour l'UNESCO), 10-12 Mai 2000.
Dong A., Li H. and Wang B., “Ontology-driven annotation and Access of Educational Video
Data in E-learning”, in E-learning Experiences and Future, Edited by: Safeeullah
Soomro, Publisher: InTech, (pp. 305-326, April 2010, ISBN 978-953-307-092-6).
Euzenat J., Layaïda N. et Dias V., “A semantic framework for multimedia document
adaptation” In Proceedings of the 18th International Joint Conference on Artificial
Intelligence, pages 31–36, 2003.
Haav H.M. and Lubi T.L., “A Survey of Concept-based Information Retrieval Tools on the
Web”, In Proceedings of the 5th East-European Conference ADBIS, Vol 2, pp 29-41, 2001.
Horn A., “On sentences which are true of direct unions of algebras”. Journal of Symbolic Logic,
16(1):14–21, 1951.
115
Jedidi A., « Modélisation générique de document multimédia par des méta-données :
mécanisme d’annotation et d’interrogation » thèse de doctorat soutenu à l’université
Toulouse III – Paul Sabatier U.F.R Mathématique Informatique Gestion, le 06 juillet 2005.
Jourdan M., Layaïda N. et Roisin C., « Le temps dans les documents », vol. H 7 228, Techniques
de l'ingénieur, 249, rue de Crimée, Paris, 1999.
Lee J., Munther H. Abualkibash and Padmini K. Ramalingam, « Ontology- based Shot Indexing
for Video Surveillance System» Proc. of CISSE 2007, Dec. 3 - 12, 2007.
Lin C-Y, Tseng B. L., and Smith J. R., “VideoAnnEx: IBM MPEG-7 Annotation Tool for
Multimedia Indexing and Concept Learning," IEEE Intl. Conf. on Multimedia & Expo
(ICME), Baltimore, July 2003.
Martin J., « Un modèle vectoriel relationnel de recherche d’information adapté aux images »
thèse de doctorat de L’UNIVERSITÉ JOSEPH FOURIER – GRENOBLE I, soutenue le 22
décembre 2004.
Martin P., « WinPitch LTL, un logiciel multimédia d'enseignement de la prosodie », Alsic, Vol.
8, n° 2 | 2005, [En ligne], mis en ligne le 15 décembre 2005. URL :
http://alsic.revues.org/index332.html. Consulté le 22 mars 2012.
Martinet J., « Un modèle vectoriel relationnel de recherche d’information adapté aux images»
thèse de doctorat DE L’UNIVERSITÉ JOSEPH FOURIER – GRENOBLE I, Présentée et
soutenue publiquement le 22 décembre 2004.
Mayer, R., Multimedia learning. Cambridge, MA, United States: Cambridge University Press
(2001).
116
ME, Livre « Multimedia and e-Learning: A New Direction for Productivity Promotion and
Enhancement » ©APO 2003, ISBN: 92-833-2344-0, Report of the APO Seminar on
Multimedia for Productivity Promotion and Enhancement (With Special Focus on e-
Learning) Republic of China, 25–29 March 2002.
Merzougui G., Djoudi M. et Zidani A., "Editeur de cours médiatisés en SMIL", Conférence
Internationale: Sciences Electroniques, Technologies de l'Information et des
Télécommunications, IEEE SETIT 2004, ISBN 9973-41-902-2, Sousse, Tunisie, 15-20 Mars
2004.
MPEG-7, Marinez J. M., Koenen R. and Pereira F., « MPEG-7, The Generic Multimedia Content
Description Standard, Part 1 », Editor: Peiya Liu Siemens Corporate Research, 1070-
986X/02/$17.00 © 2002 IEEE.
Murray T., Blessing S. and Ainsworth S., “Authoring Tools for Advanced Technology Learning
Environments” Dordrecht, Hardbound, Kluwer Academic Publishers: 571 p, 2003.
Najjar, L. J., “Dual Coding as A possible Explanation for the Effects of Multimedia on
Learning”. GIT-GVU-95-29. Atlanta: Georgia Institute of Technology, Graphics,
Visualization and Usability Center, 1996.
OWL, Smith M. K., Welty C. and McGuinness D. L., “ OWL: Web Ontology Language Guide.”
W3C Recommendation, February 2004. Url : http://www.w3.org/TR/owl-guide/,
consulter le 13/10/2012.
117
Pullum, Geoffrey K. Phonetic symbol guide. Chicago: University of Chicago Press. (1986)
RDF, Lassila O. et Swick R. R., «RDF: Resource Description Frame Work ». Recommandation 22
Février 1999 de W3C, Disponible à : http://www.w3.org/TR/REC-rdf-syntax/.
Reyes E. G., « L'objet technique hypermédia : repenser la création de contenu éducatif sur le
Web » thèse de doctorat DE L'UNIVERSITÉ PARIS VIII, Discipline : Sciences de
l'information et de la communication le 14 février 2007.
Roisin C., « Documents structurés multimédia » mémoire d’habilitation à diriger les recherches
présentée le 22 septembre 1999 à l’institut national polytechnique de Grenoble.
Roisin C., Mikač J. and Le Duc B., “The LimSee0 Multimedia Authoring Model”. ACM
Symposium on Document Engineering, 10-13 October 2006, Amsterdam, the
Netherlands, pp. 173-175
Roisin C. and Mikác J., « Comment bâtir un cours multimédia avec LimSee3 ? » EpiNet : Revue
Electronique de l'EPI (2008)
Rosenberger T. and MacNeil R. L., «Prosodic Font: Translating speech into graphics»
Proceedings of CHI’99 Extended Abstracts.
http://www.media.mit.edu/~tara/CHI1999.pdf
Salton G. and McGill M., « Introduction to Modern Information Retrieval», McGraw-Hill, 1983.
Sénac P., Diaz M., Léger A. and De Saqui-Sannes P., «Modeling Logical and Temporal
Synchronization in Hypermedia Systems», IEEE Journal of Selected Areas on
Communications, vol. 14, num. 1, pp. 84-103, 1996.
Stenton A., Péchou A., Caillant-Sirdey C. et Tricot A., «Effet du double cordage synchrone de
l’accentuation en L2 selon des modalités de restitution de l’apprenant » 1er colloque
international de didactique cognitive, Toulouse, 26-28 janvier 2005.
118
SWRL, I. Horrocks, P. F. Patel-Schneider, H. Boley, S. Tabet,B. Grosof et M. Dean “SWRL : A
Semantic Web Rule Language Combining OWL and RuleML”. W0C Member
Submission 21 May 2004. Url : http://www.w3.org/Submission/SWRL/, accédé le
13/10/2012.
Tracy Allan Hall, « Syllable : Phonology », dans Keith Brown (dir.), Encyclopedia of Language and
Linguistics, vol. 12, Oxford, Elsevier, 2006, 2e éd. (ISBN 0-08-044299-4), p. 329
Troncy R., « Nouveaux outils et documents audiovisuels : les innovations du web sémantique »
392 Documentaliste – science de l’information 2335, Vol. 42, n°6.
UML, Charroux B., Osmani A. et Thierry-Mieg Y., “UML 2.”, pearson education, 2335
Van Rossum G., Jansen J., Mullender K. and Bulterman D., «CMIFed : a presentation
Environment for Portable Hypermedia Documents», Proc. of the ACM Multimedia
Conf., California, 1993.
XHTML+SMIL "XHTML+SMIL Profile" Newman D., Schmitz P. and Patterson A., “W3C
Working Draft”, work in progress. Available at
http://www.w3.org/TR/XHTMLplusSMIL/, visited on Ferbruary,15 2010.
119
Liste des publications personnelles
Ghalia Merzougui, Mahieddine Djoudi and Behaz Amel “Conception and Use of Ontologies for
Indexing and Searching by Semantic Contents of Video Courses” revue 'IJCSI-2011-8-6-702'
Volume 8, Issue 6, November 2011.
Ghalia Merzougui and Mahieddine Djoudi “An Authoring System for Editing Lessons in
Phonetic English in SMIL3.0” revue 'IJCSI-2011-8-6-645' Volume 8, Issue 6, November 2011.
Ghalia Merzougui, Amel Behaz, Mahieddine Djoudi and Aouadj Messaoud “An Authoring
System for Editing Lessons in Phonetic English in SMIL 3.0” 14th East-European on Advances
in Database and Information Systems ADBIS 2010 .
Ghalia Merzougui, Amel Behaz and Mahieddine Djoudi, "Annotation de cours vidéo à base
d’ontologie pour une indexation sémantique", Conférence internationale des technologies de
l’information et de la communication, CITIC’09, Sétif, 04-05 mai 2009.
120
Amel Behaz, Ghalia Merzougui et Mahieddine Djoudi, "Approche de production de documents
pédagogiques multimédias multi-formats", Congrès International en Informatique Appliquée,
CIIA'05, Bordj Bou Arréridj, Algérie., November 19-21 2005.
Ghalia Merzougui, Mahieddine Djoudi and Abdelmadjid Zidani, "Editor of Courses Mediatized
on SMIL", 2004 International Arab Conference on Information Technology (ACIT 2004)
Constantine, Algeria, ISSN: 1812-0857, December 12-15 2004.
121
Annexes
122
Attribute.prepend("Index");
Clone.toElement().setAttribute("xml:id",Attribute);
Clone.toElement().setAttribute("top",Top);
Node.appendChild(Clone);
Top+=30;
}
}
if(Node.hasChildNodes())
{InsertIndexRegions(Node.firstChild(),Nbr);}
if(!Node.nextSibling().isNull())
{InsertIndexRegions(Node.nextSibling(),Nbr);}
}
QString errorStr;
int errorLine;
int errorColumn;
QDomDocument doc;
if (!doc.setContent(&file, false, &errorStr, &errorLine,
&errorColumn)) {
return ;
}
file.close();
i=i.nextSibling ();
}
++itl;
++nomblv;
}
//parcourir la table d’index pour calculer les poids des concepts dans
//chaque segment
CalcPoid(nomblv);
QMessageBox::information(this, "Concept Selection", "Le chargement
de MAP est terminer");
Définition
124
diversifiés (images, sons, textes, vidéo, animations, flux de texte) en les synchronisant
afin de permettre la création des présentations multimédias. SMIL est un langage de la
famille XML. La structure XML d’un document SMIL décrit le déroulement temporel et
spatial des différents composants intégrés. En d’autres termes, SMIL permet d’indiquer
le moment où un contenu sera affiché, pendant combien de temps et dans quelle partie
de la fenêtre d’affichage.
Versions de SMIL
• SMIL 1.3 : c’est la première version qui a été développé en juin 1998 par un groupe de
travail appelé SYMM qui a été formé au sein de W3C. Cette version a pour objectif de
permettre l’échange et l’évolution interopérable du web. SMIL 1.3 est devenu une
recommandation du W3C en Juin 1998.
• SMIL 2.3 : une nouvelle version a été conçue par le même groupe en 2001 et qui avait
comme objectif : de définir un langage basé sur XML et de permettre de réutiliser la
syntaxe et la sémantique de SMIL dans d’autres langages basés sur XML et en
particulier ceux qui nécessitent de représenter une temporisation et une
synchronisation. Par exemple les composants de SMIL 2.0 sont utilisés pour intégrer la
temporisation dans XHTM et SVG.
Dans SMIL, les éléments et les attributs sont groupés dans des paquets indépendants
appelés modules. Par exemple, la disposition et les éléments de région sont dans le
module de disposition, et les éléments d'animateColor et d'animateMotion sont dans le
module d'animation. Des modules de SMIL peuvent être groupés dans une langue,
appelée un profil. Il y a deux profils de SMIL, "profil du langage de SMIL 2.0" et une
version simplifiée, "profil de base de SMIL 2.0", conçu pour de petits dispositifs.
Développés à partir de SMIL 1.0, les modules SMIL 2.0 apportent de nouvelles
fonctionnalités qui se partagent entre 10 domaines fonctionnels comme le montre la
figure ci-dessus :
125
Figure 46. Domaines fonctionnels de SMIL 2.0
• SMIL 2.1 : a été reconçu sous la forme d’une série de modules composables fondés sur
l’infrastructure fournie par la recommandation modularisation de XHTML de la W3C.
Un profil de SMIL 2.1 représente un ensemble de module. La recommandation de SMIL
2.1 définit 3 nouveaux profils qui sont utiles à une large gamme d’applications :
• SMIL 0.3 : les nouvelles fonctionnalités de SMIL 0.3 sont une réponse directe à la
demande de l’industrie et des utilisateurs. Par exemple le standard permet d’insérer
directement dans la présentation des animations, des légendes et des libellés
synchronisés. Ainsi SMIL devient alors un langage descriptif très utile pour le
développement des ressources du web sémantique qui évolue au fil du temps. On peut
citer quelques balises supplémentaires de cette version :
<smilText> </smilText> : est une nouvelle balise qui fournis un élément conteneur de
texte.
<span> </span> : est une balise conteneur d’attributs de format au sein de la balise
<smilText>.
<tev> </tev> : est une balise qui définit un point temporel, elle s’appuie sur la valeur
des attributs begin et next.
126
SMIL 3.0 est devenu une recommandation du W3C en Décembre 2008.
Fonctionnalités de SMIL
Un document SMIL a pour racine l’élément <smil>, et se compose d’un en-tête et d’un
corps. La partie <head> contient toutes les informations descriptives et relatives à la
mise en page, alors que la partie <body> contient le corps du document, les informations
sur les médias inclus et sur leurs comportements et la partie dynamique de la
présentation.
<smil>
<head>
<meta/>
<layout>
<root-layout/>
<region/>
</layout>
</head>
<body>
<switch> … </switch>
<par> … </par>
<seq> … </seq>
</body>
</smil>
A l’intérieur de la section <head>, nous avons une partie <meta> qui contient des
informations descriptives, comme l’auteur ou la date de conception de la présentation,
et une partie <layout> qui définit le positionnement et la mise en page de la fenêtre
dans laquelle va se jouer la présentation. Cette section contient elle-même deux types de
balises. En premier lieu, la balise <root-layout> qui permet de définir les propriétés de
la fenêtre de présentation, comme sa dimension et sa couleur de fond. Enfin, la balise
<region> permet de définir des zones dans la fenêtre de présentation dans lesquelles les
différents médias seront affichés. Chaque région doit avoir un identificateur, un
127
emplacement, et peut avoir une couleur. Dans l’exemple suivant, deux régions sont
définies, une pour le texte, et une autre pour l’image :
<layout>
<root-layout id="exemple" title="exemple" width="800" height="600"/>
<region id="image" title="image" top="15" left="290"/>
<region id="text" title="texte" top="270" left="290"/>
</layout>
La balise <body> et ses descendants permettent de placer les composants dans les
régions définies dans l’élément <layout> décrit ci-dessus. Deux balises de base de cette
section permettent de contrôler la ligne temporelle : <par> et <seq>. Les différents
médias référencés dans un tag <par> sont joués simultanément. En revanche, les
médias se trouvant à l’intérieur d’une balise <seq> sont joués en séquence, c’est-à-dire
les uns après les autres. Il est possible d’imbriquer ces deux types de tag les uns dans les
autres pour créer des sous-présentations. Dans l’exemple suivant, les images sont
affichées en séquence (les unes à la suite des autres) mais en même temps qu’un texte
descriptif :
<body>
<seq>
<par>
<text region="text" src="./media/text1.txt" dur="10s"/>
<img region="image" src="./media/img1.gif" dur="10s"/>
</par>
<par>
<text region="text" src="./media/text2.txt" dur="10s"/>
<img region="image" src="./media/img2.gif" dur="10s"/>
</par>
</seq>
</body>
Nous examinons maintenant plus précisément comment sont introduits les différents
médias dans la présentation. On peut remarquer que chaque média possède sa propre
balise. Ainsi sept éléments XML correspondant chacun à un type de média vont
permettre de placer les composants dans une présentation. On distingue deux
catégories de médias : les médias continus qui ont une durée intrinsèque (son, vidéo) et
les médias discrets qui n’ont pas de durée prédéfinie (images, texte) mais qui pourront
en avoir une dans le cadre de la présentation. Les différentes balises associées sont les
suivantes :
128
<animation> pour les animations, en Flash par exemple.
<ref> pour tout média continu qui n’est pas compris dans un des types cités ci-
dessus.
<img> pour des images.
<text> pour des composants textuels.
Pour tous ces différents tags, l’attribut src permet de spécifier l’emplacement du média,
qu’il se trouve dans le répertoire courant ou sur un serveur web distant. L’attribut
région permet de définir l’emplacement dans lequel le média va se jouer (cet
emplacement doit avoir été créé préalablement, voir partie <head>). Il est important de
noter qu’à l’intérieur des balises <par> ou <seq>, le temps se déroule de manière
automatique ; en effet, un média référencé dans un tag <seq> va se jouer directement à
la suite de celui qui le précède. Cependant, si l’auteur de la présentation veut contrôler
lui-même la ligne temporelle, il est possible de définir le début, la fin ou la durée d’un
média. Tous les intervalles de temps sont mesurés par rapport à la ligne temporelle de
SMIL, qui est propre à l’application de présentation. C’est l’utilisateur qui la contrôle : il
a le choix de jouer la présentation, de la faire revenir en arrière, de l’avancer ou encore
de la stopper.
//en tête
129
<region textFontWeight="bold" xml:id="Index2" textAlign="center" right="590"
left="40" height="25" backgroundColor="#a5a5b1" textColor="black" top="155"
textFontSize="18px"/>
<region textFontWeight="bold" xml:id="Index3" textAlign="center" right="590"
left="40" height="25" backgroundColor="#a5a5b1" textColor="black" top="185"
textFontSize="18px"/>
</layout>
</head>
//le corps du document: contient l’agencement temporel de différents objets média
<body>
<par repeatCount="indefinite">
<img fill="freeze" region="RootLayout" src="BackgroundImage.jpg"/>
<smilText region="Lecon">the combination th</smilText>
<smilText region="Prof">Mrs. Ameur</smilText>
<smilText region="Univ">unhversity de Batna</smilText>
<seq>
// Spécifier le premier segment (règle 1 avec ses exemples)
<par xml:id="1" dur="30s">
<audio begin="1s" src="tips 1.wav"/>
<audio begin="13s" src="example 1.wav"/>
<audio begin="18s" src="example 2.wav"/>
<audio begin="24s" src="example 3.wav"/>
// règle 1
<smilText region="Regle" abstract="the combination 'th' is pronounced / /
voiceless in some words.">
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#aa00ff" textFontSize="20px">the combination th is pronounced </span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff5500" textFontSize="20px">/θ/ voiceless</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#aa00ff" textFontSize="20px"> in some words.</span>
</p>
</smilText>
// exemple 1
<smilText begin="13s" region="Exemple">
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff007f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">ink</span>
</p>
// exemple 2
<tev begin="5s"/>
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">ief</span>
</p>
// exemple 3
<tev begin="11s"/>
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">mon</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
</p>
</smilText>
</par>
// Spécifier le deuxième segment (règle 2 avec ses exemples)
<par xml:id="2" dur="28s">
<audio begin="1s" src="tips 2.wav"/>
<audio begin="12s" src="example 4.wav"/>
<audio begin="18s" src="example 5.wav"/>
<audio begin="23s" src="example 6.wav"/>
<smilText region="Regle" abstract=" 'th' is pronounciation /ð/ voiced in
some words .">
<p>
130
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#aa00ff" textFontSize="22px">th is pronounciation /ð/ voiced in
some words .</span>
</p>
</smilText>
<smilText begin="12s" region="Exemple">
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">ose</span>
</p>
<tev begin="6s"/>
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">e</span>
</p>
<tev begin="11s"/>
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">mon</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">er</span>
</p>
</smilText>
</par>
// Spécifier le troisième segment (règle 3 avec ses exemples)
<par xml:id="3" dur="21s">
<audio begin="1s" src="tips 3.wav"/>
<audio begin="9s" src="example 7.wav"/>
<audio begin="15s" src="example 8.wav"/>
<smilText region="Regle" abstract=" 'th' is pronounced /t/in some words.">
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">th is pronounced </span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">/t/</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">in some words.</span>
</p>
</smilText>
<smilText begin="9s" region="Exemple">
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">ames</span>
</p>
<tev begin="6s"/>
<p>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#ff557f" textFontSize="20px">th</span>
<span textFontWeight="bold" textFontFamily="Lucida Calligraphy"
textColor="#000000" textFontSize="20px">yme</span>
</p>
</smilText>
</par>
</seq>
// Spécifier la table d’index
<a href="#1">
<smilText region="Index1">tips 1</smilText>
</a>
<a href="#2">
<smilText region="Index2">tips 2</smilText>
</a>
131
<a href="#3">
<smilText region="Index3">tips 3</smilText>
</a>
</par>
</body>
</smil>
// En tête
<?xml version="1.0"?>
<rdf:RDF
xmlns="http://www.owl-ontologies.com/Ontology1277939276.owl#"
xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
xmlns:xsd="http://www.w3.org/2001/XMLSchema#"
xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#"
xmlns:owl="http://www.w3.org/2002/07/owl#"
xml:base="http://www.owl-ontologies.com/Ontology1277939276.owl">
<owl:Ontology rdf:about=""/>
<owl:Class rdf:ID="domaine_d_enseignement">
<rdfs:subClassOf rdf:resource="http://www.w3.org/2002/07/owl#Thing"/>
<rdfs:subClassOf>
<owl:Restriction>
<owl:minCardinality rdf:datatype="http://www.w3.org/2001/XMLSchema#int">
1</owl:minCardinality>
<owl:onProperty>
<owl:ObjectProperty rdf:ID="aborde"/>
</owl:onProperty>
</owl:Restriction>
</rdfs:subClassOf>
<rdfs:comment rdf:datatype="http://www.w3.org/2001/XMLSchema#string">
represente un cours ou un module ou bien matiere a enseigner pour une formation
donnee</rdfs:comment>
</owl:Class>
<owl:Class rdf:ID="concept">
<rdfs:subClassOf rdf:resource="http://www.w3.org/2002/07/owl#Thing"/>
<rdfs:subClassOf>
<owl:Restriction>
<owl:minCardinality rdf:datatype="http://www.w3.org/2001/XMLSchema#int">
1</owl:minCardinality>
<owl:onProperty>
<owl:ObjectProperty rdf:ID="composer_de"/>
</owl:onProperty>
</owl:Restriction>
</rdfs:subClassOf>
</owl:Class>
132
<owl:ObjectProperty rdf:about="#aborde">
<rdfs:range rdf:resource="#concept"/>
<rdfs:domain rdf:resource="#domaine_d_enseignement"/>
<rdfs:comment rdf:datatype="http://www.w3.org/2001/XMLSchema#string">
enseigne </rdfs:comment>
</owl:ObjectProperty>
<owl:ObjectProperty rdf:about="#composer_de">
<rdfs:range rdf:resource="#concept"/>
<rdfs:domain rdf:resource="#concept"/>
</owl:ObjectProperty>
<owl:TransitiveProperty rdf:ID="pre_requis">
<rdf:type rdf:resource="http://www.w3.org/2002/07/owl#ObjectProperty"/>
<rdfs:range rdf:resource="#concept"/>
<rdfs:domain rdf:resource="#concept"/>
</owl:TransitiveProperty>
<owl:SymmetricProperty rdf:ID="depend">
<rdfs:range rdf:resource="#concept"/>
<rdfs:domain rdf:resource="#concept"/>
<owl:inverseOf rdf:resource="#depend"/>
<rdf:type rdf:resource="http://www.w3.org/2002/07/owl#ObjectProperty"/>
</owl:SymmetricProperty>
// Les instances
<domaine_d_enseignement rdf:ID="structure_de_donnee">
<aborde>
<concept rdf:ID="donnee">
<composer_de rdf:resource="#type_variable"/>
<composer_de rdf:resource="#variable"/>
</concept>
</aborde>
<aborde>
<concept rdf:ID="instruction">
<composer_de rdf:resource="#affectation"/>
<composer_de rdf:resource="#instruction_de_controle"/>
<composer_de rdf:resource="#instruction_conditionelle_imbrique"/>
<composer_de>
<concept rdf:ID="instruction_de_repetition_imbrique"/>
</composer_de>
<composer_de>
<concept rdf:ID="instruction_de_repetition"/>
</composer_de>
<composer_de>
<concept rdf:ID="instruction_conditionelle"/>
</composer_de>
<composer_de rdf:resource="#instruction_conditionelle_par_cas"/>
</concept>
</aborde>
<aborde rdf:resource="#expression"/>
<aborde rdf:resource="#sous_algorithme"/>
</domaine_d_enseignement>
<concept rdf:ID="instruction_de_controle"/>
<concept rdf:ID="parametre_formelle"/>
<concept rdf:ID="operateur_arithmetique"/>
<concept rdf:ID="instruction_conditionelle_par_cas"/>
<concept rdf:ID="procedure"/>
<concept rdf:ID="sous_algorithme">
<composer_de rdf:resource="#procedure"/>
<composer_de rdf:resource="#fonction"/>
<rdfs:comment rdf:datatype="http://www.w3.org/2001/XMLSchema#string"
>sous programme</rdfs:comment>
</concept>
<concept rdf:ID="instruction_conditionelle_imbrique"/>
<concept rdf:ID="type_compose">
<composer_de>
133
<concept rdf:ID="tableau_a_deux_dimenssions"/>
</composer_de>
<composer_de>
<concept rdf:ID="tableau_a_une_dimenssion"/>
</composer_de>
<composer_de>
<concept rdf:ID="chaine_de_caractere">
<composer_de>
<concept rdf:ID="caractere"/>
</composer_de>
</concept>
</composer_de>
</concept>
<concept rdf:ID="tableau">
<composer_de rdf:resource="#tableau_a_deux_dimenssions"/>
<composer_de rdf:resource="#tableau_a_une_dimenssion"/>
</concept>
<concept rdf:ID="variable_globale"/>
<concept rdf:ID="affectation"/>
<concept rdf:ID="boucle"/>
<owl:sameAs rdf:resource="#instruction_de_repetition"/>
</concept>
<concept rdf:ID="variable">
<composer_de>
<concept rdf:ID="allocation_statique_d_une_variable"/>
</composer_de>
<composer_de>
<concept rdf:ID="allocatino_dynamique_d_une_variable">
<depend>
<concept rdf:ID="pointeur">
<depend>
<concept rdf:ID="adresse">
<depend rdf:resource="#pointeur"/>
</concept>
</depend>
<depend rdf:resource="#allocation_dynamique_d_une_variable"/>
</concept>
</depend>
</concept>
</composer_de>
</concept>
<concept rdf:ID="expression">
<composer_de>
<concept rdf:ID="operateur_logique"/>
</composer_de>
<composer_de>
<concept rdf:ID="operateur_binaire"/>
</composer_de>
<composer_de>
<concept rdf:ID="operateur_ternaire"/>
</composer_de>
<composer_de rdf:resource="#operateur_arithmetique"/>
</concept>
<concept rdf:ID="passage_parametre_par_variable">
<depend>
<concept rdf:ID="fonction">
<pre_requis>
<concept rdf:ID="bloc_d_instructions"/>
</pre_requis>
<depend>
<concept rdf:ID="fonction_recurssive">
<depend rdf:resource="#fonction"/>
</concept>
</depend>
<depend>
<concept rdf:ID="passage_parametre_par_valeur">
<depend rdf:resource="#fonction"/>
134
</concept>
</depend>
<composer_de>
<concept rdf:ID="parametre">
<composer_de>
<concept rdf:ID="parametre_effectif"/>
</composer_de>
<composer_de rdf:resource="#parametre_formelle"/>
</concept>
</composer_de>
<composer_de>
<concept rdf:ID="variable_locale"/>
</composer_de>
<composer_de rdf:resource="#variable_globale"/>
<depend rdf:resource="#passage_parametre_par_variable"/>
<composer_de>
<concept rdf:ID="valeur_retournee"/>
</composer_de>
<composer_de rdf:resource="#passage_parametre_par_valeur"/>
<composer_de rdf:resource="#bloc_d_instructions"/>
</concept>
</depend>
</concept>
<concept rdf:ID="arbre"/>
<concept rdf:ID="passage_par_adresse">
<owl:sameAs rdf:resource="#passage_parametre_par_variable"/>
</concept>
<concept rdf:ID="logique"/>
<concept rdf:ID="type_variable">
<composer_de rdf:resource="#type_compose"/>
<composer_de>
<concept rdf:ID="type_complexe">
<composer_de>
<concept rdf:ID="graphe"/>
</composer_de>
<composer_de>
<concept rdf:ID="liste_chainee">
<depend>
<concept rdf:ID="enregistrement">
<depend rdf:resource="#liste_chainee"/>
<composer_de>
<concept rdf:ID="champ_d_un_enregistrement"/>
</composer_de>
</concept>
</depend>
</concept>
</composer_de>
<composer_de>
<concept rdf:ID="file">
<pre_requis rdf:resource="#pointeur"/>
</concept>
</composer_de>
<composer_de>
<concept rdf:ID="pile"/>
</composer_de>
<composer_de>
<concept rdf:ID="fichier"/>
</composer_de>
<composer_de rdf:resource="#arbre"/>
<composer_de rdf:resource="#enregistrement"/>
</concept>
</composer_de>
<composer_de>
<concept rdf:ID="type_scalaire">
<composer_de rdf:resource="#pointeur"/>
<composer_de rdf:resource="#caractere"/>
<composer_de>
<concept rdf:ID="reel"/>
</composer_de>
135
<composer_de rdf:resource="#logique"/>
<composer_de>
<concept rdf:ID="entier"/>
</composer_de>
</concept>
</composer_de>
</concept>
<concept rdf:ID="argument">
<owl:sameAs rdf:resource="#parametre"/>
</concept>
<concept rdf:ID="instruction_de_repetition_en_cascade">
<owl:sameAs rdf:resource="#instruction_de_repetition_imbrique"/>
</concept>
<concept rdf:ID="ouvrir_fichier">
<depend rdf:resource="#fichier"/>
</concept>
<concept rdf:ID="matrice">
<owl:sameAs rdf:resource="#tableau_a_deux_dimenssions"/>
</concept>
<concept rdf:ID="vecteur"/>
<concept rdf:ID="type_fichier">
<depend rdf:resource="#fichier"/>
</concept>
<concept rdf:ID="mode_d_ouverture">
<depend rdf:resource="#fichier"/>
</concept>
<concept rdf:ID="fermer_fichier">
<depend rdf:resource="#fichier"/>
</concept>
<concept rdf:ID="creer_fichier">
<depend rdf:resource="#fichier"/>
</concept>
….
</rdf:RDF>
<!-- Created with Protege (with OWL Plugin 3.3.1, Build 430)
http://protege.stanford.edu -->
<?xml version="1.0"?>
<!DOCTYPE rdf:RDF [
<!ENTITY owl "http://www.w3.org/2002/07/owl#" >
<!ENTITY xsd "http://www.w3.org/2001/XMLSchema#" >
<!ENTITY rdfs "http://www.w3.org/2000/01/rdf-schema#" >
<!ENTITY rdf "http://www.w3.org/1999/02/22-rdf-syntax-ns#" >
<!ENTITY protege "http://protege.stanford.edu/plugins/owl/protege#" >
<!ENTITY p1 "http://www.owl-ontologies.com/Ontology1277939276.owl#" >
]>
<rdf:RDF xmlns="http://www.owl-ontologies.com/Ontology1277284608.owl#"
xml:base="http://www.owl-ontologies.com/Ontology1277284608.owl"
xmlns:p1="http://www.owl-ontologies.com/Ontology1277939276.owl#"
xmlns:xsd="http://www.w3.org/2001/XMLSchema#"
xmlns:protege="http://protege.stanford.edu/plugins/owl/protege#"
xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#"
xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
xmlns:owl="http://www.w3.org/2002/07/owl#">
<owl:Ontology rdf:about="">
<owl:imports rdf:resource="http://www.owl-ontologies.com/Ontology1277939276.owl"/>
</owl:Ontology>
136
// Déclaration des classes
<owl:Class rdf:ID="cours_video">
<rdfs:subClassOf>
<owl:Restriction>
<owl:onProperty>
<owl:ObjectProperty rdf:ID="est_presente_dans"/>
</owl:onProperty>
<owl:minCardinality rdf:datatype="http://www.w3.org/2001/XMLSchema#int"
>1</owl:minCardinality>
</owl:Restriction>
</rdfs:subClassOf>
<rdfs:subClassOf rdf:resource="http://www.w3.org/2002/07/owl#Thing"/>
</owl:Class>
<owl:Class rdf:ID="lesson_video">
<rdfs:subClassOf>
<owl:Restriction>
<owl:onProperty>
<owl:ObjectProperty rdf:ID="est_divisee"/>
</owl:onProperty>
<owl:minCardinality rdf:datatype=
"http://www.w3.org/2001/XMLSchema#int">1</owl:minCardinality>
</owl:Restriction>
</rdfs:subClassOf>
<rdfs:subClassOf rdf:resource="http://www.w3.org/2002/07/owl#Thing"/>
</owl:Class>
// diapositif = slide
<owl:Class rdf:ID="diapositif">
<rdfs:subClassOf>
<owl:Restriction>
<owl:minCardinality rdf:datatype="http://www.w3.org/2001/XMLSchema#int"
>1</owl:minCardinality>
<owl:onProperty>
<owl:ObjectProperty rdf:ID="contient"/>
</owl:onProperty>
</owl:Restriction>
</rdfs:subClassOf>
<rdfs:subClassOf rdf:resource="http://www.w3.org/2002/07/owl#Thing"/>
</owl:Class>
// OP : Objet Pédagogique
<owl:Class rdf:ID="OP">
<rdfs:subClassOf>
<owl:Restriction>
<owl:onProperty>
<owl:ObjectProperty rdf:ID="concerne"/>
</owl:onProperty>
<owl:minCardinality rdf:datatype="http://www.w3.org/2001/XMLSchema#int"
>1</owl:minCardinality>
</owl:Restriction>
</rdfs:subClassOf>
<rdfs:subClassOf rdf:resource="http://www.w3.org/2002/07/owl#Thing"/>
</owl:Class>
137
// Déclaration des relations
<owl:ObjectProperty rdf:ID="est_presente_dans">
<rdfs:domain rdf:resource="#cours_video"/>
<rdfs:range rdf:resource="#lesson_video"/>
</owl:ObjectProperty>
<owl:ObjectProperty rdf:ID="est_divisee">
<rdfs:domain rdf:resource="#lesson_video"/>
<rdfs:range rdf:resource="#diapositif"/>
</owl:ObjectProperty>
<owl:ObjectProperty rdf:ID="contient">
<rdfs:domain rdf:resource="#diapositif"/>
<rdfs:range rdf:resource="#OP"/>
</owl:ObjectProperty>
<owl:ObjectProperty rdf:ID="concerne">
<rdfs:domain rdf:resource="#OP"/>
<rdfs:range rdf:resource=" &p1;#concept"/>
</owl:ObjectProperty>
<owl:DatatypeProperty rdf:ID="Debut">
<rdfs:domain rdf:resource="#diapositif"/>
<rdfs:range rdf:resource="&xsd;time"/>
</owl:DatatypeProperty>
<owl:DatatypeProperty rdf:ID="Duree">
<rdfs:domain rdf:resource="#diapositif"/>
<rdfs:range rdf:resource="&xsd;time"/>
</owl:DatatypeProperty>
<owl:DatatypeProperty rdf:ID="langue">
<rdfs:domain rdf:resource="#cours_video"/>
<rdfs:range rdf:resource="&xsd;string"/>
</owl:DatatypeProperty>
<owl:DatatypeProperty rdf:ID="Titre_diapositif">
<rdfs:domain rdf:resource="#diapositif"/>
<rdfs:range rdf:resource="&xsd;string"/>
</owl:DatatypeProperty>
<owl:DatatypeProperty rdf:ID="URL">
<rdfs:range rdf:resource="http://www.w3.org/2001/XMLSchema#string"/>
<rdfs:domain rdf:resource="#lesson_video"/>
</owl:DatatypeProperty>
<owl:DatatypeProperty rdf:ID="professeur_video">
<rdfs:domain rdf:resource="#cours_video"/>
<rdfs:range rdf:resource="http://www.w3.org/2001/XMLSchema#string"/>
</owl:DatatypeProperty>
//les instances
<cours_video rdf:ID="structure_de_donnee">
<est_presente_dans>
<lesson_video rdf:ID="fonction">
<est_divisee rdf:resource="#diapositif_2"/>
<est_divisee rdf:resource="#diapositif_3"/>
<est_divisee rdf:resource="#diapositif_7"/>
</lesson_video>
</est_presente_dans>
<est_presente_dans rdf:resource="#tableau"/>
<langue rdf:datatype="http://www.w3.org/2001/XMLSchema#string">francais
</langue>
<professeur_video rdf:datatype="http://www.w3.org/2001/XMLSchema#string">
138
Abdellatif El Faker</professeur_video>
</cours_video>
<diapositif rdf:ID="diapositif_2">
<diapositif rdf:ID="diapositif_3">
<Debut rdf:datatype="http://www.w3.org/2001/XMLSchema#time">00:05:27</Debut>
<Duree rdf:datatype="http://www.w3.org/2001/XMLSchema#time">00:03:43</Duree>
<Titre_diapositif rdf:datatype="http://www.w3.org/2001/XMLSchema#string">
defintion d'un prototype </Titre_diapositif>
<contient>
<OP rdf:ID="exemple_2">
<rdfs:comment rdf:datatype="http://www.w3.org/2001/XMLSchema#string" >
pourquoi un prototype</rdfs:comment>
<concerne rdf:resource="&p1#parametre_formelle"/>
<concerne rdf:resource="&p1#parametre_effectif"/>
</OP>
</contient>
<contient>
<OP rdf:ID="definition_3">
<concerne rdf:resource="&p1#parametre_effectif"/>
<concerne rdf:resource="&p1#parametre_formelle"/>
<rdfs:comment rdf:datatype="http://www.w3.org/2001/XMLSchema#string">
definition d'un prototype d'une fonction</rdfs:comment>
</OP>
</contient>
</diapositif>
<diapositif rdf:ID="diapositif_7">
<Debut rdf:datatype="http://www.w3.org/2001/XMLSchema#time" >00:21:14</Debut>
<Duree rdf:datatype="http://www.w3.org/2001/XMLSchema#time" >00:02:04</Duree>
<Titre_diapositif rdf:datatype="http://www.w3.org/2001/XMLSchema#string">
passage de paramete par valeur </Titre_diapositif>
<contient>
<OP rdf:ID="exemple_3">
<concerne rdf:resource="&p1#passage_parametre_par_valeur"/>
</OP>
</contient>
</diapositif>
139
<lesson_video rdf:ID="tableau"/>
</rdf:RDF>
<swrl:Imp rdf:ID="Rule-1">
<swrl:body>
<swrl:AtomList>
<rdf:rest>
<swrl:AtomList>
<rdf:rest>
<swrl:AtomList>
<rdf:rest>
<swrl:AtomList>
<rdf:first>
<swrl:IndividualPropertyAtom>
<swrl:propertyPredicate rdf:resource="#contient"/>
<swrl:argument2>
<swrl:Variable rdf:ID="op2"/>
</swrl:argument2>
<swrl:argument1>
<swrl:Variable rdf:ID="d2"/>
</swrl:argument1>
</swrl:IndividualPropertyAtom>
</rdf:first>
<rdf:rest>
<swrl:AtomList>
<rdf:first>
<swrl:IndividualPropertyAtom>
<swrl:argument2>
<swrl:Variable rdf:ID="c2"/>
</swrl:argument2>
<swrl:propertyPredicate rdf:resource="#concerne"/>
<swrl:argument1 rdf:resource="#op2"/>
</swrl:IndividualPropertyAtom>
</rdf:first>
<rdf:rest rdf:resource="http://www.w3.org/1999/02/22-rdf-syntax-ns#nil"/>
</swrl:AtomList>
</rdf:rest>
</swrl:AtomList>
</rdf:rest>
<rdf:first>
<swrl:IndividualPropertyAtom>
<swrl:argument1>
<swrl:Variable rdf:ID="c1"/>
</swrl:argument1>
<swrl:propertyPredicate
rdf:resource="http://www.owlontologies.com/Ontology1277939276.owl#SameAs"/>
<swrl:argument2 rdf:resource="#c2"/>
</swrl:IndividualPropertyAtom>
</rdf:first>
</swrl:AtomList>
</rdf:rest>
<rdf:first>
<swrl:IndividualPropertyAtom>
<swrl:propertyPredicate rdf:resource="#concerne"/>
<swrl:argument2 rdf:resource="#c1"/>
<swrl:argument1>
<swrl:Variable rdf:ID="op1"/>
</swrl:argument1>
</swrl:IndividualPropertyAtom>
</rdf:first>
</swrl:AtomList>
</rdf:rest>
<rdf:first>
140
<swrl:IndividualPropertyAtom>
<swrl:argument2 rdf:resource="#op1"/>
<swrl:propertyPredicate rdf:resource="#contient"/>
<swrl:argument1>
<swrl:Variable rdf:ID="d1"/>
</swrl:argument1>
</swrl:IndividualPropertyAtom>
</rdf:first>
</swrl:AtomList>
</swrl:body>
<swrl:head>
<swrl:AtomList>
<rdf:rest rdf:resource="http://www.w3.org/1999/02/22-rdf-syntax-ns#nil"/>
<rdf:first>
<swrl:IndividualPropertyAtom>
<swrl:argument1 rdf:resource="#d1"/>
<swrl:propertyPredicate rdf:resource="#Similaire"/>
<swrl:argument2 rdf:resource="#d2"/>
</swrl:IndividualPropertyAtom>
</rdf:first>
</swrl:AtomList>
</swrl:head>
</swrl:Imp>
<!-- Created with Protege (with OWL Plugin 3.4.8, Build 629)
http://protege.stanford.edu -->
141