You Ns I Mohamed
You Ns I Mohamed
You Ns I Mohamed
Présenté par
Mohamed YOUNSI
Younes MEDJTOUH
Thème
Nous tenons tout d’abord à remercié DIEU, tout puissant, de nous avoir donné la force de
réaliser ce projet tout au long de cette année. Nous adressons nos plus vifs remerciements à
notre promotrice C.FERHAOUI-CHERIFI pour la confiance qu’elle nous a accordée en nous
proposant ce sujet, pour ses précieux conseils, pour ses remarques pertinentes, ainsi que
son encouragement sans lequel ce travail n’aurait jamais vu le jour.
Nous remercions tous ceux, qui de près ou de loin, nous ont apporté leur contribution pour
la réalisation de ce travail.
i
Dédicaces
Je dédie ce travail à :
A mon père qui m’a toujours soutenu dans tout ce que j’ai
entrepris, qui m’a accompagné et encouragé tout au long du
parcours de mes études.
Younes.
ii
Dédicaces
Je dédie ce travail à :
A mon père qui m’a toujours soutenu dans tout ce que j’ai
entrepris, qui m’a accompagné et encouragé tout au long du
parcours de mes études.
Mohamed.
iii
Résumé :
Afin de répondre aux besoins en sécurité qui deviennent de plus en plus importantes avec
les avancements économiques, le développement des systèmes de contrôle d’accès
physiques ou biométriques ne cessent de croitre.
Dans le cadre de notre travail, nous nous somme intéressées à l’étude de la modalité visage
en développant un système de reconnaissance facial basé sur l’approche DWT, afin
d’analyser et profiter des avantages de la technique implémentée dans un même système.
Le développement a été fait en passant par trois étapes à savoir : l’acquisition des images,
l’extraction des paramètres et enfin leurs modélisations.
D’une part, l’extraction des paramètres est réalisée par la transformation DWT (transformée
en ondelette discrète) qui a prouvé sa robustesse.
D’autre part, après l’extraction des paramètres, la modélisation de ces derniers est réalisée
par l’approche PCA (Analyse en composantes principales) (Eigen face).
En effet, la notion d’orthogonalité fait des DWT une approche plus robuste du point de vu
complexité, et d’optimalité (temps de réponse).
L’évaluation de l’approche DWT a été faite à travers plusieurs tests comparatifs par
rapport aux systèmes : DWT-cos, DWT-euc, DWT-mahco, DWT-ctb sur la base de données
notamment ORL. L’ensemble des résultats a mis en évidence l’intérêt que cette approche
apporte en termes d’efficacité et de robustesse face aux variations d’éclairage et les
expressions du visage.
iv
Abstract:
Security needs are becoming increasingly important with the economic advancements. That
is why the development of biometric systems based on different modalities continue to
grow.
In our work, we are interested in the study of the face modality by developing a face
recognition system based on DWT approach to analyze the benefits of both techniques
implemented on the same system.
The development can be divided into three main parts namely: image acquisition features
extraction and finally features modeling.
On the one hand, extraction of parameters is performed by the DWT (Discrete Wavelet
Transform) that has proven its robustness.
Moreover, after the extraction of parameters, modeling of these is performed by the PCA
approach (Principal Component Analysis) (Eigen face).
Indeed, the notion of orthogonal DWT made a more robust approach from the point of view
complexity and optimality (response time).
The evaluation of the DWT approach was made through several comparative tests over
systems: DWT-cos, DWT-euc, DWT-mahco, DWT-ctb on the database ORL. The overall results
showed the interest that this approach brings in terms of efficiency and robustness against
lighting changes and facial expressions.
v
Sommaire :
Chapitre I :
Chapitre II
Figure II.1 : Le processus de reconnaissance de visage......................................................................................... 20
Figure II.2 : Classification des méthodes principales utilisées dans la reconnaissance de visage......................... 22
Figure II.3 : Image moyenne et les 15ères eigenfaces. ......................................................................................... 24
Figure II.4 : Exemple de six classes utilisant LDA................................................................................................... 25
Figure II.5 : Exemple de variation d’éclairage. ...................................................................................................... 27
Figure II.6 : exemple de variation de pose. ........................................................................................................... 27
Figure II.7 : Exemples de variation d’expressions faciale. ..................................................................................... 28
Figure II.8 : Seuil de décision et taux d'erreurs. .................................................................................................... 30
Figure II.9 : Relation entre FAR et FRR. ................................................................................................................. 30
Chapitre III:
Figure III.1 : Exemples d’ondelette φ(t). (D’après Charles, 2003). ........................................................................ 33
Figure III.2 : Quelques exemples d'ondelettes 1D................................................................................................. 34
Figure III.3 : Exemple d'une ondelette dilatée et translatée................................................................................. 35
Figure III.4 : Exemple d'une ondelette 2D. ............................................................................................................ 39
Figure III.5 : Filtre h0 de Haar. ............................................................................................................................... 41
Figure III.6 : La fonction d’échelle et la fonction d’ondelette de haar. ................................................................. 42
Figure III.7 : Les ondelettes de Daubechies. .......................................................................................................... 43
Figure III.8 : Ondelettes de Daubechies (db4). ...................................................................................................... 44
Figure III.9 : Ondelettes de Daubechies (db8). ...................................................................................................... 44
Figure III.10 : Les ondelettes de symlets. .............................................................................................................. 45
Figure III.11 : Ondelettes de Symlets (sym4)......................................................................................................... 46
Figure III.12 : Ondelettes de Symlets (sym8)......................................................................................................... 47
Figure III.13 : Les ondelettes de coiflets. .............................................................................................................. 48
Figure III.14 : Ondelettes de Coiflet (coif3). .......................................................................................................... 48
Figure III.15 : Ondelettes de Coiflet (coif5). .......................................................................................................... 49
Chapitre IV :
Figure IV.1 : Exemple d'Eigenfaces (MIT 2012). .................................................................................................... 53
Figure IV.2 : Transformation de la matrice image ∗ en vecteur 2 ∗ 1. ....................................................... 54
Figure IV.3 : Les deux vecteurs m et n dans l’espace de Mahalanobis. ................................................................ 58
Chapitre V :
Figure V.1 : Diagramme de contexte du système. ................................................................................................ 60
Figure V.2 : Description du cas d’apprentissage pour un nouveau client. ............................................................ 61
Figure V.3 : Description du cas d’apprentissage d’un client. ................................................................................ 61
Figure V.4 : Description du cas d’authentification d’un client. ............................................................................. 62
Figure V.5 : Description du cas d’authentification d’un client. ............................................................................. 62
Figure V.6 : Diagramme d’activité du système...................................................................................................... 63
Figure V.7 : Diagramme de séquence Apprentissage............................................................................................ 64
Figure V.8 : Représentation modulaire de la phase d’apprentissage. .................................................................. 64
Figure V.9 : Processus d’acquisition. ..................................................................................................................... 65
Figure V.10 : Représentation de l’étape prétraitement. ....................................................................................... 65
Figure V.11 : Algorithme DWT............................................................................................................................... 66
Figure V.12 : Algorithme PCA. ............................................................................................................................... 66
Figure V.13 : Diagramme de séquence du cas Identification. ............................................................................... 67
Figure V.14 : Description du procédé d’identification. ......................................................................................... 68
Figure V.15 : Description du procédé d’authentification. ..................................................................................... 69
Figure V.16 : Description du procédé d’authentification. ..................................................................................... 70
Figure V.17 : Calcul du TID. ................................................................................................................................... 70
Figure V.18 : calcul du Seuil................................................................................................................................... 71
Figure V.19 : calcul du score client. ....................................................................................................................... 71
Figure V.20 : calcul du score imposteur. ............................................................................................................... 71
Figure V.21 : calcul du FAR. ................................................................................................................................... 72
Figure V.22 : calcul du FRR. ................................................................................................................................... 72
Figure V.23 : Diagramme de séquence du cas test de performances. .................................................................. 73
Figure V.24 : Schéma conceptuel de la base de données. .................................................................................... 73
Figure V.25 : variables et fonction de la partie acquisition. .................................................................................. 75
Figure V.26 : variables et fonction de la partie apprentissage. ............................................................................. 75
Figure V.27 : variables et fonction de la partie identification. .............................................................................. 76
Figure V.28 : variables et fonction de la partie authentification. ......................................................................... 76
Figure V.29 : interface apprentissage. .................................................................................................................. 77
Figure V.30 : interface tests de performance. ...................................................................................................... 77
Figure V.31 : interface identification..................................................................................................................... 78
Figure V.32 : interface authentification ................................................................................................................ 78
Chapitre VI :
Figure VI.1 : Exemple de visages de la base ORL. .................................................................................................. 81
Figure VI.2 : Variation du taux d'identification TID (%) en fonction de type d'ondelette et la distance............... 83
Figure VI.3 : Variation du taux de fausse acceptation FAR (%) en fonction de type d'ondelette et la distance ... 84
Figure VI.4 : Variation du taux de faux rejet FAR (%) en fonction de type d'ondelette et la distance .................. 85
Figure VI.5 : Variation du taux d’identification TID (%) en fonction de type d'ondelette et la distance .............. 86
Figure VI.6 : Variation du taux de fausse acceptation FAR (%) en fonction de type d'ondelette et la distance ... 87
Figure VI.7 : Variation du taux de faux rejet FRR (%) en fonction de type d'ondelette et la distance .................. 88
Figure VI.8 : vecteur image détaillé Vs vecteur concaténé TID (%) ....................................................................... 89
Figure VI.9 : comparaison des quatre distances de classification en TID (%)........................................................ 90
Liste de tableaux:
Chapitre I :
Tableaux I.1 : Avantages et inconvénients de la Reconnaissance de Visage. ....................................................... 16
Chapitre II
Tableau II.1 : Avantages et Inconvénients de la Reconnaissance de visage. ........................................................ 20
Chapitre III:
Tableau III.1 : Familles d’ondelettes. .................................................................................................................... 40
Tableau III.2 : Les propriétés principales des ondelettes. .................................................................................... 40
Chapitre VI :
Tableau VI.1 : Variation du taux d’identification TID (%) en fonction de type d'ondelette et la distance ............ 82
Tableau VI.2 : Variation du taux fausse acceptation FAR (%) en fonction de type d'ondelette et la distance ..... 83
Tableau VI.3 :Variation du taux de faux rejet FRR (%) en fonction de type d'ondelette et la distance ................ 84
Tableau VI.4 : Variation du taux d'identification TID (%) en fonction de type d'ondelette et la distance ............ 85
Tableau VI.5 : Variation du taux de fausse acceptation FAR (%) en fonction de type d'ondelette et la distance 86
Tableau VI.6 : Variation du taux de faux rejet FRR (%) en fonction de type d'ondelette et la distance ............... 87
Tableau VI.7 : vecteur image détaillé Vs vecteur concaténé TID (%) .................................................................... 88
Tableau VI.8 : comparaison des quatre distances de classification en TID (%). .................................................... 89
Tableau VI.9 : temps d'exécutions en mode identification et authentification en (seconds)............................... 90
Introduction générale.
1
Introduction générale.
2
PARTIE I :
[TITRE DU DOCUMENT]
[TITRE DU DOCUMENT]
I.1 Introduction :
La biométrie``est une technique globale visant à établir l'identité d'une personne en
mesurant une de ses caractéristiques physiques(humaine) préalablement enregistrer :
physiologique, comportementale, biologique``[1]. Il peut y avoir plusieurs types de
caractéristiques physiques, les unes plus fiables que d'autres, mais toutes doivent être
infalsifiables et uniques pour pouvoir être représentatives d'un et un seul individu. D'autre
part, comme nous allons le voir, les caractéristiques physiques sont loin d'être si parfaites et
si précises, et l'on atteint très vite des limites pour ces techniques.
Les techniques basées sur la biométrie jouissent à l'heure actuelle d'un engouement général
favorisé par un phénomène de mode, principalement véhiculé par les films au cinéma et à la
télévision. Ainsi, il n'est pas rare de voir des scanners rétiniens avec de superbes lasers
rouges, des lecteurs d'empreintes digitales avec de très jolis voyants -clignotants-, etc.… tout
cela représentant le summum de la technologie du contrôle d'accès. Or, les techniques de
biométrie sont belles et bien en train de se répandre dans notre vie quotidienne, et ce tout
en gardant une image quelque peu trompeuse.
Ce mémoire ne se veut pas exhaustif sur un sujet aussi vaste que la biométrie, mais il a tout
de même pour vocation de donner quelques bases indispensables pour les lecteurs.
Il existe plusieurs caractéristiques physiques qui se révèlent être uniques pour un individu, et
il existe également pour chacune d'entre elles plusieurs façons de les mesurer :
3
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
Les techniques utilisées pour la mesure sont diverses : capteurs optiques (caméras
CCD/CMOS), capteurs ultrasoniques, capteurs de champ électrique, de capacité, de
température...
Ces capteurs sont souvent doublés d'une mesure visant à établir la validité de l'échantillon
soumis (autrement dit, qu'il s'agit bien d'un doigt) : mesure de la constante diélectrique
relative du l'échantillon, sa conductivité, les battements de cœur, la pression sanguine, voire
une mesure de l'empreinte sous l'épiderme...
4
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
En ce qui concerne l'iris, l'individu se place en face du capteur (caméra CCD/CMOS) qui
scanne son iris. Celui-ci représente quelque chose de très intéressant pour la biométrie car il
est à la fois toujours différent (même entre jumeaux, entre l'œil gauche et le droit, etc.…),
indépendant du code génétique de l'individu, et très difficilement falsifiable. En effet, l'iris
présente une quasi-infinité de points caractéristiques (que certains comparent en nombre à
ceux de l'ADN), qui ne varient pratiquement pas pendant la vie d'une personne
contrairement à la couleur de l'iris qui, elle, peut changer. Mais cela n'a aucune influence car
les images d'iris obtenues par les capteurs sont en noir et blanc. Le seul problème de cette
technique est lié à la mesure en elle-même, qui peut être source d'erreurs ou de problèmes.
Ainsi, on peut quasiment dire que le nombre de problèmes rencontrés lors de cette mesure
augmente proportionnellement avec la distance entre l'œil et la caméra.
D'autres problèmes se posent à cause des reflets (nécessité d'avoir un éclairage restreint et
maitrisé), et lors de la détection de faux yeux (photos) et autres fraudes. Pour ces dernières,
on peut faire appel à certaines caractéristiques dynamiques de l'œil qui prouveront son
authenticité : réactivité de la pupille (dilatation/rétraction) par rapport à la quantité de
lumière, étude de l'iris dans l'infrarouge et l'ultraviolet, etc...
5
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
6
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
I.2.2 Modalitéscomportementales :
Outre les caractéristiques physiques, un individu possède également plusieurs éléments liés
àson comportement qui lui sont propres :
7
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
temps d’appui sur chaque touche et le temps entre chaque touche [34], la dizaine de saisie
est moyenné pour construire un profil de frappe de l’utilisateur qui servira de référence aux
accès. En suivant la même approche, la saisie du mot de passe donné sera couplée à un
profil de frappe qui sera comparé au profil de référence. Le droit d’accès est alors accordé en
fonction du niveau de ressemblance de ce profil avec la référence. Suivant le degré de
filtrage qu’un administrateur aura défini, cet accès sera plus ou moins difficile.
En l’état actuel des techniques, cette modalité biométrique peut difficilement être regardée
comme une technique de haute sécurité, mais plus comme une technique de substitution à
un code pour ouvrir un appareil électronique.
I.2.3.1 Odeur :
L’odeur corporelle provient d’un mélange complexe de substances chimiques. Le parfum
naturel du corps se compose du sébum (notre propre huile essentielle), de la sueur, de
l’activité des bactéries sur notre peau et des hormones que contiennent le sébum et la
sueur.
En 1999, CNR-Australia(Computer-News-Reseller) évoquait dans un article de presse [20] les
travaux entrepris par la société anglaise Mastiff-Electronics situé à Hampshire, sous le nom
de code SCENTINEL, pour le développement d’un système biométrique d’identification
d’individu s’appuyant sur l’odeur corporelle de la personne. A ce jour, même si aucun
résultat ou information n’a été publié sur la technologie étudiée au cours de ce projet, le
potentiel et la faisabilité d’un tel système ne peuvent être remis en cause quand on connaît
la capacité des chiens pisteurs à identifier un individu parmi 6 milliards à partir de leur odeur
corporelle.
8
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
L’analyse des empreintes génétiques est une méthode extrêmement précise d’identification,
issue directement de l’évolution de la biologie moléculaire. L’information génétique d’un
individu est unique car aucun membre de l’espèce ne possède la même combinaison de
gènes codés dans l’Acide Désoxyribonucléique (ADN), constituant essentiel des
chromosomes du noyau cellulaire. Le profil génétique, aujourd’hui couramment utilisé pour
des identifications judiciaires, fut introduit officiellement pour la première fois dans une
affaire criminelle en 1986 par l’universitaire anglais Alec Jefreys [21], [22].
Selon les techniques d’analyse de l’ADN, l’identification est plus ou moins performante et/ou
intrusive. L’identification d’un individu par analyse de son ADN s’avère complexe, coûteuse
et lente à réaliser compte tenu des nombreuses manipulations biologiques (amplification +
électrophorèse). Ceci explique qu’il n’existe toujours pas de solution technologique au
grand-public qui permette de réaliser automatiquement cette analyse, d’autant plus qu’elle
nécessite un prélèvement d’échantillon (sang, salive, sperme, cheveux, urine, peau, dents,
etc.) qui rend cette technique très intrusive.
9
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
• L’acceptabilité : Mesure dans laquelle les gens sont disposés à accepter l’utilisation
d’une technologie de reconnaissance biométrique à des fins d’identification.
10
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
Cependant, les capteurs de qualité sont en général coûteux et leur utilisation est donc
limitée à des applications de haute sécurité pour un public restreint. Le modèle peut être
stocké dans une base de données comme représenté sur la figure 1 ou sur une carte de type
carte à puce.
11
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
12
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
Figure I.8. – Distributions des taux de vraisemblance des utilisateurs légitimes et des
imposteurs d’un système biométrique.
13
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
rejection). Il peut aussi accepter un imposteur et on parle dans ce second cas de fausse
acceptation (false acceptance). La performance d’un système se mesure donc à son taux de
faux rejet (False Rejection Rate ou FRR) et à son taux de fausse acceptation (False
Acceptance Rate ou FAR). La vérification est un problème de décision similaire à la détection
d’un signal dans le bruit en théorie de l’information [40]. Il peut être formulé de la manière
suivante. Soient H0 l’hypothèse : « la capture C provient d’un imposteur » et H1 l’hypothèse
: « la capture C provient de l’utilisateur légitime ». Il faut donc choisir l’hypothèse la plus
probable. On considère que la capture C provient d’un utilisateur légitime si P(H1|C) >
P(H0|C). En appliquant la loi de Bayes on obtient :
P(C|H1) P(H1)/P(C) > P(C|H0)P(H0) /P(C) et donc : P(C|H1) /P(C|H0) > P(H0)/ P(H1)
Le taux de vraisemblance (likelihood ratio) P(C|H1) /P(C|H0) est comparé à un seuil θ appelé
seuil de décision. Les valeurs P(H0) et P(H1) qui représentent respectivement la probabilité
pour qu’un imposteur ou un utilisateur légitime essayent d’accéder au système sont des
valeurs difficiles à estimer. Nous avons représenté sur la figure 2 la distribution hypothétique
des taux de vraisemblance qu’obtiendraient les utilisateurs.
Légitimes et les imposteurs d’un système de vérification donné. Les FAR et FRR sont
représentés en hachuré. Idéalement, le système devrait avoir des FAR et FRR égaux à zéro.
Comme ce n’est jamais le cas en pratique, il faut choisir un compromis entre FAR et FRR. Plus
le seuil de décision θ est bas, plus le système acceptera d’utilisateurs légitimes mais plus il
acceptera aussi d’imposteurs. Inversement, plus le seuil de décision θ est élevé, plus le
système rejettera d’imposteurs mais plus il rejettera aussi d’utilisateurs légitimes. Il est donc
impossible en faisant varier le seuil de décision de faire diminuer les deux types d’erreurs en
même temps. C’est l’une des raisons qui a motivé l’introduction de la multi modalitépuisqu’il
14
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
est possible de diminuer les deux types d’erreur à la fois en combinant correctement
plusieurs modalités (c.f. section 5). La courbe dite ROC (Receiver Operating Characteristic),
représentée à la figure 5, permet de représenter graphiquement la performance d’un
système de vérification pour les différentes valeurs de θ [10]. Le taux d’erreur égal
(EqualError Rate ou EER) correspond au point F AR = F RR, c’est-à-dire graphiquement à
l’intersection de la courbe ROC avec la première bissectrice. Il est fréquemment utilisé pour
donner un aperçu de la performance d’un système. Cependant, il est important de souligner
que le EER ne résume en aucun cas toutes les caractéristiques d’un système biométrique. Le
seuil θ doit donc être ajusté en fonction de l’application ciblée : haute sécurité, basse
sécurité ou compromis entre les deux.
• Applications commerciales :
• Applications gouvernementales :
Telles que la carte d'identité nationale, le permis de conduire, la sécurité sociale, le contrôle
des frontières, le contrôle des passeports, etc.
• Applications légales :
15
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
16
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
ENJE
Figure I.10.Part
I.10 de marche de chaque technologie.
I.10 Conclusion :
Comme le fait remarquer Bill Spence de Recognition Systems Inc. [13] : « Chaque fois que
vous utilisez votre clef, vous vous identifiez auprès de votre
votre maison. Chaque fois que vous
utilisez votre carte de crédit, chaque fois que vous vous connectez à un système, vous vous
identifiez. » [14]. À terme, tous les mots de passe, codes confidentiels, badges, clefs, etc.
seront amenés à être remplacés par des systèmes biométriques. La recherche en biométrie
est donc un domaine à très fort potentiel. Cependant, nombreuses sont les personnes qui
craignent que l’essor de la biométrie ne s’accompagne d’une atteinte généralisée à la vie
privée des individus. Tout d’abord
d’abord le manque de fiabilité des systèmes biométriques
inquiète. Après les attentats du 11 Septembre 2001, beaucoup ont vu dans la biométrie, et
plus précisément dans la reconnaissance de visages, le meilleur moyen de surveiller les lieux
publics tels que les aéroports [15]. Mais supposons, par exemple, que le système FaceIt de
17
CHAPITRE I BIOMETRIE : CONCEPT, APPLICATIONS ET ENJEUX
Visionics [16], l’un des systèmes de reconnaissance du visage les plus populaires à l’heure
actuelle, soit déployé dans le Hartsfield Atlanta International Airport (ATL), premier aéroport
au monde en termes de passagers. Sachant que, d’une part, selon les chiffres fournis par
Visionics, le EER de FaceIt est de 0.68 % et que, d’autre part, le Airports Council International
[17] estime à 80 millions le nombre de passagers de ATL en 2000, un rapide calcul aboutit à
une moyenne de 1 500 personnes « rejetées » à tort quotidiennement et à plus d’un demi-
million de personnes par an ! Même si aujourd’hui les passagers sont prêts à faire des
concessions pour garantir leur sécurité, ils accepteront sans doute très mal ces erreurs à
répétition. Et bien que des progrès constants soient enregistrés séparément pour chaque
modalité, la performance des systèmes à un seul mode est encore loin d’être satisfaisante ce
qui plaide en faveur du développement de systèmes biométriques multimodaux. Un
problème très différent est le stockage de données personnelles dans des bases de données
biométriques et l’utilisation malveillante qui pourrait en être faite. La meilleure solution à ce
problème est d’abandonner l’idée d’une base de données centralisée au profit des cartes de
type carte à puce dont l’utilisateur resterait possesseur [18]. Conscient de l’enjeu que
représentent les libertés individuelles, c’est d’ailleurs l’un des arguments qu’utilise
Mastercard pour promouvoir sa carte à puce intelligente (« Wewill not have a database of
finger print sany where. » [19]). Quoi qu’il en soit, la biométrie peut apporter beaucoup dans
la vie quotidienne en termes de sécurité mais également de confort. Comme pour d’autres «
nouvelles technologies » (biotechnologie, réalité virtuelle, etc.) son essor devra
s’accompagner d’une réflexion approfondie sur le respect des libertés individuelles.
18
Chapitre II :
II.1. Introduction:
Par la fréquence à laquelle on le rencontre dans l’environnement et par son contenu riche
en information sociale de premier ordre [23]., le visage humain constitue un stimulus visuel
de classe à part. En effet, il suffit d’un clin d’œil porté sur le visage d’un individu pour en
distinguer le sexe, l’état émotionnel ou l’identité. Cette grande capacité à identifier les
visages à pousser les chercheurs à tenter de rapprocher le cerveau humain dans sa rapidité,
son exactitude et sa fiabilité par des systèmes de reconnaissance basés sur des approches
statistiques ou non statistiques.
19
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
Avantages Inconvénients
20
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
II.3.2. Prétraitement :
Les données brutes issues des capteurs sont les représentations initiales des données, à
partir desquelles des traitements permettent de construire celles qui seront utilisé pour la
reconnaissance. L'image brute peut être affectée par différents facteurs causant ainsi sa
détérioration, elle peut être bruitée c'est à dire contenir des informations parasites à cause
des dispositifs optiques ou électroniques. Pour pallier à ces problèmes, il existe plusieurs
méthodes de traitement et d'amélioration des images, telle que : la normalisation,
l'égalisation de l'histogramme...etc. [27].
II.3.3. Extraction des paramètres et Classification :
• Extraction des paramètres : On doit extraire les informations utiles qui reviennent à
établir un modèle du visage (vecteur de caractéristiques). Ces informations
nécessaires pour que le visage d'une personne ne ressemble pas à celui d'un autre,
en même temps qu'il ressemble à lui-même dans d'autres conditions d'acquisition
[27].
• Classification des paramètres : Ces informations seront ensuite classées, autrement
dit, affectés à la classe la plus proche, les individus ayant des similarités sont
regroupés dans la même classe. Ces classes varient selon le type de décision.
L’efficacité de cette étape à une influence directe sur la performance du système de
reconnaissance de visage [27].
II.3.4. L’apprentissage :
Cette étape consiste à mémoriser les modèles calculés dans la phase d'analyse pour les
individus connus. Un modèle est une représentation compacte des images qui permet de
faciliter la phase de reconnaissance mais aussi de diminuer la quantité de données à stocker
en quelque sorte l'apprentissage est la mémoire du système [27].
II.3.5. Décision :
Est la partie du système ou l’on tranche sur l'appartenance (ou pas) d'un individu à
l'ensemble des visages, si oui quelle est son identité. Donc la décision c'est l'aboutissement
du processus. On peut le valoriser par le taux de reconnaissance (fiabilité) qui est déterminé
par le taux de justesse de la décision [27].
21
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
Les méthodes de reconnaissance faciales peuvent être séparées en trois grandes familles, les
méthodes globales (ou holistiques), les méthodes locales, basées sur des modèles et les
méthodes hybrides. Le diagramme suivant fournit une classification des méthodes
principales de reconnaissance faciale :
23
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
L’algorithme LDA est né des travaux de Belhumeur et al. De la Yale University (USA), en
1997. Il est aussi connu sous le nom de Fisher faces.
Contrairement à l’algorithme PCA, le LDA effectue une véritable séparation de classes Pour
pouvoir l’utiliser, il faut donc au préalable organiser la base d’apprentissage d’images en
plusieurs classes : une classe par personne et plusieurs images par classe. Le LDA analyse les
vecteurs propres de la matrice de dispersion des données, avec pour objectif de maximiser
les variations interclasses tout en minimisant les variations intra classes [31].
Tout d’abord, l’algorithme LDA permet d’effectuer une véritable séparation de classes, selon
un critère mathématique qui minimise les variations entre les images d’un même individu
(variations intra classe) tout en maximisant les variations entre les images d’individus
différents (variations interclasses) (Figure. II.4). Cependant, pour des problèmes (sous-
échantillonnés) en reconnaissance du visage, c’est-`a-dire lorsque le nombre d’individus à
traiter est plus faible que la résolution de l’image, il est difficile d’appliquer le LDA qui peut
alors faire apparaitre des matrices de dispersions singulières (non inversibles) [31]. Afin de
contourner ce problème, certains algorithmes basés sur le LDA ont récemment été mis au
point (les algorithmes ULDA, OLDA, NLDA).
24
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
L’idée essentielle de cette approche consiste à projeter les données de l’espace d’entrée
(appartenant à des classes différentes) non linéairement séparables, dans un espace de plus
grande dimension appelé espace de caractéristiques, de façon à ce que les données
deviennent linéairement séparables [35].Dans cet espace, la technique de construction de
l'hyperplan optimal est utilisée pour calculer la fonction de classement séparant les classes
tels que :
25
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
Les vecteurs appartenant aux différentes classes se trouvent de différents côtés de l’hyper
plan.
La plus petite distance entre les vecteurs et l'hyperplan (la marge) soit maximale.
II.4.3. Méthodes hybrides :
Les méthodes hybrides (ou méthodes de fusion) sont des approches utilisant à la fois des
caractéristiques globales et des caractéristiques locales. Les facteurs clés qui influent les
performances des méthodes de fusion comprennent le choix des caractéristiques pour la
combinaison et la manière de les combiner de telle sorte que leurs avantages soient
préservés et que leurs inconvénients soient évités. Les caractéristiques locales et les
caractéristiques globales ont des propriétés très différentes et peuvent offrir des
informations complémentaires utiles à la tâche de classification. Notons aussi que d’un
certain point de vue, les méthodes locales peuvent être considérées comme des méthodes
hybrides car des informations globales sont généralement prises en compte. Dans la
méthode probabiliste locale [36] de nouveaux échantillons d’apprentissage sont d’abord
produits pour chaque personne par méthode globale, puis une méthode locale est utilisée
pour la reconnaissance. Parmi les algorithmes de reconnaissance de cette méthode nous
citons le EBGM.
26
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
humains. La variation intra sujet est plus vaste elle peut être influencé par plusieurs facteurs
qui sont :
• Changement d’illumination :
L’apparence d’un visage dans une image varie énormément en fonction de l’illumination de
la scène lors de la prise de vue (voir figure II.5). Les variations d’éclairage rendent la tâche de
reconnaissance de visage très difficile [28]. En effet, le changement d’apparence d’un visage
dû à l'illumination, se révèle parfois plus critique que la différence physique entre les
individus, et peut entraîner une mauvaise classification des images d'entrée. Ceci a été
expérimentalement observé dans Adini et al [37] où les auteurs ont utilisé une base de
données de 25 individus. L'identification de visage dans un environnement non contrôlé
reste donc un domaine de recherche ouvert. Les évaluations FRVT [38] ont révélé quelque
problèmes de variation d'illumination constitue un défi majeur pour la reconnaissance
faciale.
• Variation de pose:
La variation de pose est considérée, comme un problème majeur pour les systèmes de
reconnaissance faciale [28]. Quand le visage est de profil dans le plan image
(orientation<30°), il peut être normalisé en détectant au moins deux traits faciaux (passant
par les yeux). Cependant, lorsque la rotation est supérieure à 30°, la normalisation
géométrique n'est plus possible (voir figure II.6).
27
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
• Expressions faciales:
Un autre facteur qui affecte l’apparence du visage est l’expression faciale (voir figure II.7).La
déformation du visage qui est due aux expressions faciales est localisée principalement sur la
partie inférieure du visage [28]. L'information faciale se situant dans la partie supérieure du
visage reste quasi invariable. Elle est généralement suffisante pour effectuer une
identification. Toutefois, étant donné que l'expression faciale modifie l'aspect du visage, elle
entraîne forcément une diminution du taux de reconnaissance. L'identification de visage
avec expression faciale est un problème difficile qui est toujours d’actualité et qui reste non
résolu. L'information temporelle fournit une connaissance additionnelle significative qui
peut être utilisée pour résoudre ce problème [39].
• Occultations partielles:
Le visage peut être partiellement masqué par des objets dans la scène, ou par le port
d’accessoire tels que lunettes, écharpe... Dans le contexte de la biométrie, les systèmes
proposés doivent être non intrusifs c’est-à-dire qu’on ne doit pas compter sur une
coopération active du sujet. Par conséquent, il est important de savoir reconnaître des
visages partiellement occultés. Gross et al [39] ont étudié l’impact du port de lunettes de
soleil, et du cache-nez occultant la partie inférieure du visage sur la reconnaissance faciale
28
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
ainsi, Leurs résultats expérimentaux semblent indiquer que, dans ces conditions, les
performances des algorithmes de reconnaissance restent faibles.
29
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
Dans un système idéal FRR=FAR= 0, mais ce n'est pas le cas dans la pratique ; quand FR
augmente, FA diminue et vice versa. Par conséquent, il faut trouver un compromis entre les
deux taux qui est la jonction des courbes, c'est-à-dire le point X (voir Figure II.9) où le couple
(FAR, FRR) est minimal.
La reconnaissance faciale de personnes est un sujet dont l’intérêt n’est plus à démontrer que
ce soit dans la biométrie, vidéosurveillance, IHM avancées ou encore l'indexation
d’images/vidéos. Cependant, elle se heurte encore à de nombreux problèmes, dont les plus
connu le changement d’éclairage. Une possibilité pour pallier ce problème est l’utilisation
d’autres nouvelles technologies telles que l’infrarouge, et la technologie 3D.
30
CHAPITRE II SYSTEME DE RECONNAISSANCE DE VISAGES.
Néanmoins, le coût extrêmement élevé de cette technologie rend son utilisation prohibitive
pour les applications.
L'imagerie à trois dimensions (3D) est moins sensible aux variations d'éclairage, à la
modification d'apparence, volontaire ou involontaire, ou au fait que la personne ne fait pas
face à la caméra. En effet, si quelqu'un se présente de biais, un logiciel fait « tourner » le
modèle tridimensionnel pour le faire correspondre à l'image bidimensionnelle prise en
conditions réelles.
II.8. Conclusion :
A travers ce chapitre, nous avons présenté un résume sur l'état de l'art des systèmes de
reconnaissance faciale, le processus de reconnaissance faciale depuis l’acquisition de l'image
à l’identification. Ensuite, Nous avons mis en évidence les différentes difficultés inhérentes à
la reconnaissance automatique de visages. Enfin, nous avons aussi donné un aperçu sur les
techniques de mesure de performances d'un système de reconnaissance de visage et
quelques nouvelles technologies améliorant ce dernier. Le chapitre suivant sera consacré à
l’application des ondelettes pour l'extraction des paramètres.
31
PARTIE II :
[TITRE DU DOCUMENT]
[TITRE DU DOCUMENT]
III.1. Introduction:
L’analyse par ondelettes est apparue au début des années 80. En réalité, celle-ci ne repose
pas sur une nouvelle idée originale. Cette théorie est un travail pluridisciplinaire qui a réuni
des ingénieurs, des mathématiciens et des physiciens ayant développé des idées semblables
dans leur domaine respectif. La synthèse mathématique a débouché sur des résultats
nouveaux, qui ont apporté des perspectives plus larges dans chaque discipline originelle. A
l’époque actuelle, la plupart des chercheurs scientifiques ont déjà entendu parler des
ondelettes. Dans la majorité des congrès traitant de l’analyse du signal et de l’image, de la
statistique, de la mathématique, etc., des conférences au sujet des ondelettes sont données.
Les transformations mathématiques sont appliquées aux signaux bruts pour obtenir
davantage d'informations qui sont disponibles dans ces signaux.
En pratique, la plupart des signaux, sous leur format brut, sont représentés dans le domaine
temporel. La représentation du signal est une représentation temps - amplitude. Cette
représentation n'est pas toujours la meilleure pour toutes les applications en traitement du
signal. Dans beaucoup de cas, l'information la plus pertinente est cachée dans la
composante de fréquence du signal. Le SPECTRE de fréquence d'un signal est constitué par
les composantes de fréquence de ce signal.
Intuitivement, nous savons que la fréquence est liée au régime de changement d’une
variable physique ou mathématique. Cette variable peut
• changer rapidement : changement à haute fréquence,
• changer lentement : changement à basse fréquence, et
• ne pas changer du tout : fréquence zéro.
32
CHAPITRE III APPLICATION DES ONDELETTES
ONDE POUR L’EXTRACTION
TION DES PARAMETRES.
III.3. Qu’est-ce
ce qu’une ondelette :
Une ondelette [42] est une fonction oscillante (ce qui explique le mot "onde")
"o de moyenne
nulle, possédant un certain degré de régularité et dont le support est fini (ce qui explique le
mot "ondelette", qui veut dire petite onde).Décomposition
onde). composition similaire à la transformée de
Fourier à court terme, utilisée dans le traitement du signal. Cependant, elle comporte deux
différences majeures avec la transformée de Fourier à court terme : * elle peut mettre en
œuvre une base différente, non forcément
forcément sinusoïdale ; * il existe une relation entre la
largeur de l'enveloppe et la fréquence des oscillations : on effectue ainsi une homothétie de
l'ondelette, et non seulement de l'oscillation.
Toutefois, il ne s'agit pas d'un formalisme différent de la transformée de Fourier, mais
complémentaire ; la décomposition en ondelettes utilisant le formalisme de Fourier.
La technique des ondelettes est particulièrement utilisée en compression de données
informatiques. Plusieurs exemples sont montrés dans la
l figure III.1.
Une ondelette mère est une fonction de base que l'on peut translater et dilater pour
recouvrir le plan temps-fréquences
fréquences et analyser un signal. L'ondelette doit être une fonction
de moyenne nulle, en d'autres termes, doit être une onde ! Ce qui s'écrit
mathématiquement par [42] :
Une ondelette mère doit remplir certaines propriétés dont les plus importantes sont :
33
CHAPITRE III APPLICATION DES ONDELETTES
ONDE POUR L’EXTRACTION
TION DES PARAMETRES.
III.4.1. admissibilité :
L’admissibilité
Soit une fonction non nulle de L2 ( ) et TF ( ) sa transforme de Fourier. On dit que
est admissible si :
III.4.2. Localisation :
Une ondelette dont la fonction de L2 est locale, si elle est à décroissances
rapide sur les deux bords de son domaine de définition. La localisation signifie que l’énergie
l’
d’une ondelette est contenue dans un intervalle fini. Idéalement, l’ondelette est une
fonction nulle en dehors d’un intervalle fini : c’est-à-dire
dire une fonction a support compact.
III.4.3. L'oscillation :
2
C'est le moment d'ordre 0, où la moyenne
moyen de la fonction de L est nulle, et
par conséquent, doit avoir un caractère ondulatoire, qui change de signe au moins
une fois. Cette propriété figure dans l'expression (2.8).
Ondelette de Meyer
Ondelette de Haar
Ondelette de Morlet
Ondelette Bêta
34
CHAPITRE III APPLICATION DES ONDELETTES
ONDE POUR L’EXTRACTION
TION DES PARAMETRES.
La transformée en ondelettes [45] est similaire à la transformée de Fourier (et encore plus à
la transformée de Fourier locale) avec une fonction de mérite complètement différente. La
différence principale est la suivante : la transformée de Fourier décompose le signal en sinus
et en cosinus, c'est-à-dire
dire en fonctions localisées dans l'espace de Fourier ; contrairement à
la transformée en ondelettes qui utilise des fonctions localisées à la fois dans l'espace réel et
dans l'espace de Fourier. De manière générale, la transformée en ondelettes
ondelett peut être
exprimée avec l'équation suivante :
35
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Où le symbole * désigne le conjuguer complexe et ψ est une fonction donnée. Cette fonction
peut être choisie arbitrairement à condition qu'elle obéisse à certaines règles.
Comme on peut le voir, la transformée en ondelettes est en fait un ensemble infini de
diverses transformées, dépendant de la fonction de mérite utilisée pour la calculer. C'est la
raison pour laquelle nous pouvons entendre parler de la « transformée en ondelettes » dans
des contextes et applications très divers. Il existe aussi de nombreuses manières de classer
les types de transformées en ondelettes. Nous ne présentons ici que la division basée sur
l'orthogonalité des ondelettes. Nous pouvons utiliser les ondelettes orthogonales pour le
développement en ondelettes discret et les ondelettes non-orthogonales pour le
développement en ondelettes continu. Ces deux transformées possèdent les propriétés
suivantes :
36
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
III.6.2. Similarité :
Toutes les ondelettes qui appartiennent à la même famille doivent être similaires, c’est-à-
dire se déduire les unes des autres par combinaison linéaire de translations et de dilatations.
III.6.3. Symétrie:
On souhaite parfois que l'ondelette présente des propriétés de symétrie temporelle afin
d'éviter le déphasage dans la transformée en ondelettes.
37
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
III.6.4. Orthogonalité :
Cette propriété est à l'origine de la popularité des ondelettes qui offrent des bases
d'ondelettes orthogonales et non redondantes. Cela conduit à une décomposition unique.
III.6.5. Régularité :
Une ondelette doit être suffisamment régulière car c'est la principale contribution des
ondelettes dans le domaine du codage. Elle agit sur la qualité de la reconstruction du signal.
Une ondelette est dite régulière si elle est très lisse et on peut l'approximer localement par
un polynôme. L'ordre de régularité d'une ondelette est égal au nombre de ses moments
nuls.
Dans le cadre de la modélisation, il est fréquent d'avoir affaire à des processus multi
variables, il est donc utile d'introduire la notion d'ondelette multidimensionnelle.
38
CHAPITRE III APPLICATION DES ONDELETTES
ONDE POUR L’EXTRACTION
TION DES PARAMETRES.
Avant de détailler quelques familles d’ondelettes usuelles, nous dressons dans le tableau
suivant (Tableau III.1)) la liste de quelques-unes
quelques unes de ces familles, avec les abréviations
associées.
39
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Les familles d’ondelettes peuvent être caractérisées par quatre propriétés principales :
existence de filtres associés, orthogonalité ou bi orthogonalité, support compact ou non,
ondelettes réelles ou complexes. Le tableau (Tableau III. 2) résume ces diverses propriétés.
Les ondelettes à filtre sont associées à des analyses multi résolution orthogonales ou bi
orthogonales ; la transformée discrète et les calculs rapides en utilisant l’algorithme de
Mallat [47] sont alors possibles. Les ondelettes sans filtre, en revanche, sont utiles pour la
transformée en ondelettes continues.
En général, les ondelettes à support compact n’ont pas de forme analytique (c'est-à-dire : on
sait comment calculer la fonction, mais on ne peut pas l’exprimer avec une formule
mathématique).
40
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
La transformée de Haar a été introduite en 1910, et est de loin la plus ancienne transformée
en ondelettes. Elle est basée sur la démonstration de Haar que les fonctions
h(j,k;x)=2j/2H(2jx-k) telle que :
H(x)=1 pour x dans ]0,1/2[
H(x)=-1 pour x dans ]1/2,1[
H(x)=0 ailleurs,
Forment un ensemble orthogonal complet, i.e., une base pour l'espace L2(R).
L'ondelette de Haar est simple à étudier et à mettre en œuvre. Malheureusement les
résultats de la transformée de Haar sont peu satisfaisants.
Cette famille d’ondelettes (dbN) à un paramètre, due à I. Daubechies [48], est la première
permettant de manipuler des ondelettes orthogonales à support compact de régularité
arbitraire, on dira que N est l’ordre de l’ondelette dbN.
Cette famille contient l’ondelette de Haar (db1), qui est la plus simple et certainement la
plus ancienne des ondelettes. Elle est discontinue, ressemble à un échelon.
La fonction d’ondelette de Haar est définie par (Figure III.6) :
41
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Hormis db1, les ondelettes de cette famille n’ont pas une formule analytique. Ces ondelettes
pour les ordres de 2 à 10 (db2, db3,…, db10) sont présentées dans la figure (Figure III.7).
42
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Pour les deux types d’ondelettes db4 et db8, on trouve dans les figure (Figure. III.8 et Figure.
III.9) en plus de l’ondelette, la fonction d’échelle et les quatre filtres associés (deux pour la
décomposition, deux pour la reconstruction).
43
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
44
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Les symlets (symN) constituent une famille d’ondelettes presque symétrique, proposée par
I.Daubechies en modifiant la construction des dbN. A part la symétrie, les autres propriétés
des deux familles sont similaires. Les symlets d’ordre 2 à 8 (sym1 est simplement l’ondelette
de Haar) sont présentées dans la figure (Figure III.10) [48]. De plus, pour deux d’entre elles
(sym4et sym8), on trouve dans les figures (Figure. III.11 et Figure. III.12) en plus de
l’ondelette, la fonction d’échelle et les quatre filtres associés (deux pour la décomposition,
deux pour la reconstruction).
45
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
46
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Construite par I. Daubechies sur la demande de R. Coifman [48], les coiflets (coifN)
constituent une famille d’ondelettes possédant une propriété inhabituelle. Non seulement,
comme pour les deux familles précédentes, l’ondelette ψassociée à coif N à 2N moments
nuls. Les deux fonctions ψet ϕ ont un support de longueur 6N-1. Les coiflets d’ordre 1 à 5
sont représentés à la figure (Figure. III.13).
47
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Pour deux d’entre elles (coif3 et coif5), on trouve dans les figures (Figure. III.14 et Fig. III.15)
l’ondelette, la fonction d’échelle et les quatre filtres associés.
48
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
Le fait que la transformée utilise des fonctions bien localisées dans le plan temps-fréquence
lui donne beaucoup d'avantages [44] :
• La résolution en fréquence de la transformée dépend du facteur de dilatation par le
principe de Heisenberg, on peut donc choisir arbitrairement celle-ci suivant ce que
l'on désire analyser.
• Pour des signaux physiques présentant des variations très rapides et des
discontinuités, l'analyse en ondelettes est adaptée car l'ondelette va détecter ces
variations et les analyser. Cette particularité rend l'analyse en ondelettes
complémentaire à l'analyse de Fourier. En effet, avec l'analyse de Fourier, les
discontinuités d'un signal ne sont pas facilement analysables.
• La localisation en temps est précieuse pour beaucoup d'applications.
• La transformée en ondelette peut représenter complètement et efficacement un
signal quelconque avec peu de coefficients.
49
CHAPITRE III APPLICATION DES ONDELETTES POUR L’EXTRACTION DES PARAMETRES.
III.10. Conclusion :
50
Chapitre IV :
IV.1. Introduction:
Après extraction des paramètres pertinents du visage et obtention des vecteurs DWT qui
représentent le visage, on associe à chaque personne un modèle unique qui le caractérise à
l'aide d'une fonction mathématique.
Ces modèles de caractéristiques discriminantes feront l'objet de reconnaissance des
individus testés, et cela à l'aide d'un classificateur qui se base sur une méthode de
classification par mesure de similarité avec les quatre distances respectivement,
Euclidienne,Mahalanobis- Cosine, la norme Ctb et Cosine.
Nous présentons au cours de ce chapitre l'approche de modélisation par l'Analyse en
composantes principales (PCA) et les distance utiliser pour la classification.
51
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
52
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
53
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
54
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
7. Garder les $ vecteurs propres correspondants aux $ plus grandes valeurs propres
(avec$ ≤ ≪ ).
ɸ = Г − ᴪ = ∑)
( '( !( . On a '( = ! ɸ .
Ainsi, chaque image du visage ɸ , peut être représentée dans la base des Eigen faces !( par le vecteur:
'
* =' = 1,2,3, … , .
')
IV.2.4. Décision :
Dans le cas de l'identification, il s'agit d'examiner les modèles retenus par un agent humain
et donc décider. En ce qui concerne l'authentification, la stratégie de décision nous permet
de choisir entre les deux alternatives suivantes : l'identité de l'utilisateur correspond à
l'identité proclamée ou recherchée ou elle ne correspond pas. Elle est basée sur un seuil
prédéfini. L'estimation du seuil de la décision constitue la plus grande difficulté de ces
techniques, et elle peut engendrer deux types d'erreurs, souvent prises comme mesures de
performances pour ces techniques d'authentification: faux rejet (FRR) et fausse acceptation
(FAR). Bien sûr, un système d'authentification idéal est celui qui donne FAR=FRR=0.
Malheureusement, dans les conditions réelles, ceci est impossible. Par conséquent, un
compromis doit être fait dans le choix du seuil, et ce dernier est très dépendant de
l'application.
IV.2.5. Seuil :
Dans le problème de vérification d’identité, nous cherchons à définir, pour chaque personne,
ou de manière globale un seuil. Ce seuil va déterminer le minimum de ressemblance entre
deux images pour admettre qu’il s’agit de la même personne.
Ce minimum de ressemblance va s’exprimercomme une distance maximale entre les
caractéristiques des deux images. Pour fixer ce seuil l’ensemble d’évaluation est utilisé. Deux
distances sont calculées :
La distance intra classe (distance_intra) : La distance entre deux images de visage de même
individu.
La distance extra classe (distance_extra) : La distance entre deux images de visage de deux
individus différents.
Théoriquement on le calcule Seuil =(max (distance_intra)+min (distance_ extra))/2.
55
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
Nous allons présenter quelques mesures de distance dans l’espace original des imagespuis
dans l’espace de Mahalanobis.
Les objets peuvent alors apparaître de façons très différentes selon la mesure de distance
choisie.
La similarité cosinus (ou mesure cosinus) permet de calculer la similarité entre deux
vecteurs à n dimensions en déterminant le cosinus de l'angle entre eux.
Soit deux vecteurs A et B , l'angle s'obtient : par le produit scalaire et la norme des
vecteurs comme suit :
56
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
Comme la valeur est comprise dans l'intervalle [1,-1] la valeur -1 indiquera résolument
opposés,0 vecteurs indépendants (orthogonaux) et un des vecteurs similaires (de coefficient
positif) les valeurs intermédiaires permettent d'évaluer le degré de similarité.
Avant de pouvoir effectuer des mesures de distance dans l’espace de Mahalanobis, il est
essentiel de bien comprendre comment l’on passe de l’espace des images Im à l’espace de
Mahalanobis Ԑ ℎ. En sortie de l’algorithme PCA, nous obtenons des vecteurs propres
associés à des valeurs propres (représentant la variance selon chaque dimension). Ces
vecteurs propres définissent une rotation vers un espace dont la covariance entre les
différentes dimensions est nulle. L’espace de Mahalanobis est un espace où la variance selon
chaque dimension est égale à 1. On l’obtient à partir de l’espace des images Im en divisant
chaque vecteur propre par son écart-type correspondant.
Soit u et v deux vecteurs propres de 45, issus de l’algorithme PCA, et m et n deux vecteurs
de Ԑ ℎ. Soit 6 les valeurs propres associées aux vecteurs u et v, et 7 l’écart-type, alors on
définit 6 = 7 . Les vecteurs u et v sont reliés aux vecteurs m et n à partir des relations
suivantes :
2. Mahalanobis L1 (MahL1):
Cette distance est exactement la même que la distance City-Block sauf que les vecteurs sont
projetés dans l’espace de Mahalanobis. Ainsi, pour des vecteurs propres u et v de
projections respectives m et n sur l’espace de Mahalanobis, la distance Mahalanobis 1
estdéfinit par :
3. Mahalanobis L2 (MahL2) :
Cette distance est identique à la distance euclidienne à part qu’elle est calculée dans
l’espace de Mahalanobis. Ainsi, pour des vecteurs propres u et v de projections respectives
m et n sur l’espace de Mahalanobis, la distance Mahalanobis 2 est dénie par :
57
CHAPITRE IV MODELISATION DES PARAMETRES ET DECISION.
Il s’agit tout simplement du cosinus de l’angle entre les vecteurs u et v, une fois qu’ils ont été
projetés sur et normalisées par des estimateurs de la variance.
Où8 ℎ 9: (;, ) est la mesure de distance équivalente. On peut enfin noter qu’il s’agit
principalement de la covariance entre les vecteurs dans l’espace de Mahalanobis.
IV.4. Conclusion :
Nous avons vu dans ce chapitre l’intérêt, le mode de fonctionnement de la méthode PCA
pour la réduction de dimensions ou la modélisation, En deuxième lieu, nous nous somme
intéressées aux distances de classification. Nous verrons l’intérêt de ces dernières dans le
chapitre Tests et Résultats. Pour le prochain chapitre on verra les différentes étapes pour la
conception et réalisation de notre système.
58
Chapitre V :
CONCEPTION ET REALISATION
CHAPITRE V CONCEPTION ET REALISATION.
V.1. Introduction :
V.2. Conception :
Dans cette première partie du chapitre, nous présentons la composition d’un système de
reconnaissance de visage en général, et celle de notre système en particulier, et cela en
présentant les différentes approches adoptées, l’architecture des différents modules et
classes constituant notre système et en montrant l’interaction entre ces derniersà travers
plusieurs diagrammes.
1. L’individu Test :
Est la personne qui soit demande une autorisation d'accès (authentification), ou qui va être
identifiée.
Les cas d'utilisation vont nous permettre de préciser le contexte fonctionnel de notre système.
Ci-dessous, nous montrerons les différentes façons d'utilisation du système proposé :
59
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
60
CHAPITRE V CONCEPTION ET REALISATION.
61
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
62
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
63
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
2. Découpage modulaire :
Le processus d'apprentissage
rentissage est illustré ci-dessous
ci (Figure IV.8)) et les différents modules qui le
composent sont détaillés par la suite :
64
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
3. Module d’acquisition :
L'acquisition de l'image de l'échantillon biométrique est la première étape du
fonctionnement de tout système de reconnaissance biométrique. Elle consiste à extraire des
informations du monde réel en utilisant des dispositifs appropriés à la modalité étudiée.
Dans le cas de notre projet (reconnaissance
(reconnaissance du visage) cette phase suit le schéma suivant :
Localisation du visage
Elle se fait par la technique de détection des couleurs suivant trois étapes :
• Détection de l’ensemble
ensemble des points ayant comme couleur celle
celle de la peau.
• Calcul du centre de gravité de ces points.
Traçage d’un
un cadre qui englobe le visage ayant comme centre le point calculé auparavant.
La prise de l’image
image du visage se fait par une Webcam qui extrait la partie encadrée
encadr pour
l’enregistrer et l’étudier plu tard.
4. Module de prétraitement :
Après prétraitements des images en niveaux de gris, qui qui représentent nos données, ce
module permet d’extraire
extraire les caractéristiques
caract pertinentes
entes de chacune en appliquant
l’approche DWT puis la projection de la matrice caractéristiquesur un espace de vecteur
propre générer par la méthode PCA.
65
CHAPITRE V CONCEPTION ET REALISATION.
Algorithme DWT :
Algorithme DWT
1) Découpage de l’image en quatreblocs de pixels à chaque
itération (selon le Level « dans notre cas level 1 ») : les 3
derniers blocs concernent les détails de l’image (vertical,
horizontal, diagonal), le premier bloc correspond à l’image
détaille.
2) Appliquer deux filtre (passe bas, passe haut) issue du choix
d’ondelette à chaque bloc de pixel.
3) Construction de la matrice DWT à partir des coefficients
(vecteur caractéristique) obtenu.
Remarque : la matrice DWT est forme par la concaténation de
l’ensemble des vecteurs caractéristiques.
6. Module de modélisation :
A partir des matrice DWT obtenue à l’aide du module d’extraction de paramètres, ce module
qui est le plus important s’occupe de générer les modèles des personnesc_a_d vecteur
propre (Eigen face) en utilisant la méthode PCA.
Algorithme PCA
Entrées : chargement de la base d’apprentissage.
1) Calculer le vecteur moyen des images d’apprentissage du
visage représenté par la matrice A.
2) Soustraire le vecteur moyen des vecteurs représentant
l’image.
3) Calculer la matrice de covariance ∗ .
4) Calculer les vecteurs propres V de la matrice ∗ .
5) Les vecteurs propres calculés précédemment représentent les
vecteurs de base de l’espace des Eigen faces ou on projette
les images du visage.
66
CHAPITRE V CONCEPTION ET REALISATION.
7. Module de sauvegarde :
Chaque client doit être enregistrée dans une base de donnes en sauvegardant ces
informations personnelles et son modèle, pour être par la suite récupérer et utiliser en
phase de reconnaissances.
Après l’étape d’apprentissage qui se termine par l’enregistrement des clients dans la base de
données, le système est mis en fonction selon les deux modes : Identification ou
authentification (vérification).
1. Identification :
67
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
Figure V.14:
V.14 Description du procédé d’identification.
.
2. Authentification :
68
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
Figure V.15:Description
V.15 du procédé d’authentification.
69
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
1. Mode identification :
Mesurer les performances du système pour ce mode mode de reconnaissance consiste à calculer
le taux d’identification
identification (TID), qui représente
repr sente la proportion du nombre de personnes
identifiées sans erreurs. Le principe est le suivant : Pour toutes les personnes qui ont un
modèle dans la base de données (client),
(client l’administrateur
administrateur effectue un test d’identification
d
et compte le nombre de personnes bien identifiées. Puis, il divise ce dernier sur le nombre
de personne testées et multiplies par 100.
70
CHAPITRE V CONCEPTION ET REALISATION.
Seuil :
Seuil← {}
Seuil ←(max (distance_intra)+min (distance_extra))/2.
Score_client← {}
Pour i=1 nb_presonne dans le système
Min ← distance (proclamer (i,i))
Si Min<=Seuil
Score_client ← Score_client +1
Fin pour.
Score_imposteur← {}
Pour i=1 nb_presonne dans le système
Pour j=1, pas, nb_presonne dans le système (i<>j)
Min ← distance (proclamer (i,j))
Si Min>Seuil
Score_imposteur ←Score_imposteur +1
Fin pour.
Fin pour.
71
CHAPITRE V CONCEPTION ET REALISATION.
Le taux des fausses acceptations (FAR) est calculé à partir nombre de fausse acceptation sur
le nombre de test extra classe multiplier par 100 qui représente le nombre de personnes qui
ont proclamé des identités autre que les siennes, mais qu’ils ont été acceptés par le système
(personne faussement acceptée). Le FAR est donné par l’algorithme suivant :
Fausse_acceptation← {}
Pour i=1 à nbr_Test_extra
si (dist_min_extra(i)<=Seuil)
Fausse_acceptation← Fausse_acceptation+1
Fin pour
FAR←(Fausse_acceptation/nbr_Test_extra)*100.
Le taux des fauxrejets (FRR) est calculé à partir nombre de faux rejets sur le nombre de test
intra classe multiplier par 100 qui représente le nombre de personnes qui ont été
faussement rejeter, mais qu’ils doivent être accepter par le système (personne faussement
rejeter). Le FRR est donné par l’algorithme suivant :
Faux_rejet← {}
Pour i=1 à nbr_Test_intra
si (dist_min_intra(i)>Seuil)
Faux_rejet ←Faux_rejet+1
Fin pour
FAR←(Faux_rejet/nbr_Test_intra)*100.
72
CHAPITRE V CONCEPTION ET REALISATION.
REALIS
3. Test de performances :
Figure V.24:Schéma
V.24 conceptuel de la base de données.
73
CHAPITRE V CONCEPTION ET REALISATION.
V.3. Réalisation :
V.3.1. Introduction :
Après avoir présenté dans la partie précédente les différentes étapes de la conception de
notre système, nous allons justifier nos choix techniques (outils utilisé et langages de
programmation). Enfin nous allons présenter les différentes interfaces de notre application.
1. Matlab :
MATLAB est une abréviation de Matrix LABoratory. Écrit à l’origine, en Fortran, par Cleve
Moler a la fin des années 1970, optimisé pour le traitement des matrices, d’où son nom.
MATLAB est un environnement puissant, complet en plus de sa disponibilité est assurée sur
plusieurs plateformes : Sun, Bull, HP, IBM, compatibles PC (DOS, Unix ou Windows),
Macintoch, iMac et Plusieurs machines parallèles.
Matlab est un environnement de calcul scientifique et de visualisation de données qui existe
depuis plus de dix ans. Sa facilité d'apprentissage et d'utilisation (due à une syntaxe très
claire) en ont fait un standard adapté pour les divers problèmes l'ingénierie. Parmi les
raisons qui nous ont poussé à l’utiliser, on trouve :
• Ses très nombreuses fonctions prédéfinies et prêtes à l’emploi.
• Sa simplicité à l’implémentation et rapidité de calculs.
• Sa fiabilité et sa robustesse.
74
CHAPITRE V CONCEPTION ET REALISATION.
1. Acquisition :
Afin de capter des images d’individu à partir d’une webcam certaine méthodes sont
nécessaire, Ci-dessous :
Les variables:
Fonctions:
3. Identification :
Les variables:
Fonctions:
Identification : permet d’identifier une personne et elle retourne son Id, l’image
de la personne identifier et le temps d’exécution.
Les variables:
Fonctions:
Dans cette partie, on présentera notre application, ainsi que ses différentes fonctionnalitéset
leur correspondance avec les modules illustrés dans les sectionsprécédentes.
Comme tout logiciel de reconnaissance de visages, le nôtre est composé des principaux
modules suivants :
76
CHAPITRE V CONCEPTION ET REALISATION.
1. Interface apprentissage :
2. Tests de performance :
77
CHAPITRE V CONCEPTION ET REALISATION.
3. Interface identification :
4. Interface authentification :
1. Choix du classifieur.
2. Chargement de l’image de la personne à authentifier.
3. Image de la personne à authentifier.
4. Résultat d’authentification (client ou imposteur).
5. Temps d’exécution de la phase identification.
78
CHAPITRE V CONCEPTION ET REALISATION.
V.3.5. Conclusion :
Dans ce chapitre, nous avons illustré le schéma général de notre système de reconnaissance
de visages et les détails des modules qui le composent, ainsi que les différentslangages et
outils utilisés pour assurer son bon fonctionnement.
79
Chapitre VI :
VI.1. Introduction:
Les données utilisées pour réaliser les tests sur notre système proviennent de labase ORL.
Cette base de données est une référence pour les différents systèmes de reconnaissance
automatique de visage dans le monde. Cela est dû au nombre important de contraintes
qu'elle impose, et les différentes variations du visage qu'elle prend en compte, comme par
exemple : la coiffure, la barbe, les lunettes, les changements d'expressions faciales, …etc.
La base ORL (Olivetti Research Laboratory) a été conçue par AT&T laboratoires de
l'université de Cambridge en Angleterre. Elle est constituée de 400 images(en niveau de gris
de taille 92*112 pixels chacune) de l'ensemble de 40 individus, tel que chacun possède 10
poses 5 pour l'apprentissage et 5 pour le test.
• Images Tests: Les cinq dernières images de chaque individu nous ontservies pour la
réalisation des différents tests, ce qui nous fait un sousensemble de 200 images
dédiées à la phase test dans ses deux modes.
Les tests ont été réalisés sur un ordinateur personnel PC DELL i5-4200U CPU @ 1.6 GHz 2.3
GHz et une RAM de 6,00 G.
80
CHAPITRE VI TEST ET EVALUATION
ATION DES RESULTATS.
Le système a été soumis à une série de tests en ses deux modes (identification et
vérification) avec différents paramètres de configuration suivant les deux approches
respectivement d'extraction de paramètres DWT et de modélisation par méthode ACP et
ceci avec les quatre distances classification à savoir
oir : (par distance euclidienne,
euclidienne mahalcos,
cosine et la norme ctb)) dans le but de faire une étude étude comparative des différentes
configurations
onfigurations et les performances qui en résultent. Ces tests ont été réalisés suivant
suiv le
protocole suivant:
• Réduction d'espace des modèles DWT par la méthode méthod ACP: on prend tous les
Modèles DWT on les projette dans l'espace ACP pour réduire leurs tailles et ainsi,
extraire les vecteurs visages
visage (Eigen faces) pour chaque personne, qui serons ensuite
des modèles à enregistrer dans la base de données pour la reconnaissance.
reconnaissance
• Configuration
ation des paramètres du système:
1. Paramètres fixes:
Nombre
ombre d'image d'apprentissage : 5 images pour chaque personne
81
CHAPITRE VI TEST ET EVALUATION DES RESULTATS.
2. Paramètres variables :
Ondelette à utiliser pour la DWT: "Haar", " sym", "db", "dmey", "coief".
Suivant différentes combinaisons des configurations de paramètres décrits plus haut, les
résultats de ces tests sont détaillées comme suit:
Dans ce qui suit, on exposera les différents tests effectués sur la base de données ORL.
82
CHAPITRE VI TEST ET EVALUATION
ATION DES RESULTATS.
Figure VI.2 :Variation du taux d'identification TID (%) en fonction de type d'ondelette et la
distance (Vecteur concaténé).
A travers ces courbes, on s'aperçoit que l'on atteint les meilleures performances en terme de
taux d'identification
ification (TID) avec la méthode de classification par mesure de similarité utilisant
la distance de la norme Ctb par pa rapport aux autres méthodes ,et et cela quel que soit
l'ondelette utilisée notamment l'ondelette orthogonale de "demystified" ou on à trouver le
TID le plus élevé (78.5% ).il
.il est aussi à noter que avec les deux méthodes Cosine et Mahalcos
ont à trouver les mêmes performances ce qui est expliquer par la superposition de la courbe
courb
Cosine sur celle de Mahalcos.
Mahalcos En termes d'ondelette on à constater er que l'ondelette
de"Haar", "Daubchies" et "Symlets" donnent les mêmes résultats (peu satisfaisant), une
légère baisse des performances pour "Coiflets" et un excellent résultat pour l'ondelette de
"Demystified" ceci peut être due à sa grande capacité d'élimination
imination de bruit dans l'étape
l
extraction de paramètres.
VI.4.2. Mode
ode authentification (vérification):
• FAR 8
Effet du choix d'ondelette et la méthode de classification sur le FAR:
83
CHAPITRE VI TEST ET EVALUATION
ATION DES RESULTATS.
Figure VI.3 : Variation du taux de fausse acceptation FAR (%) en fonction de type d'ondelette
et la distance (Vecteur concaténé).
A travers les résultats dess tests voir (tableau VI.2) et la figure ci-dessus
dessus on remarque qu'on
atteint le Taux de fausse acceptation (FAR) le plus bas avec la méthode de classification par
la distance de la norme Ctb avec
av l'ondelette de "Demystified",d'où elle confirme aussi ses
performances en mode authentification,
authentification il est important à savoir que,, dans un système
biométrique de reconnaissance plus le FAR est proche de zéro plus les performances sont
bonnes et vice versa.
• FRR 8
Effet du choix d'ondelette et la méthode de classification sur le FRR:
84
CHAPITRE VI TEST ET EVALUATION DES RESULTATS.
FigureVI.4 : Variation du taux de faux rejet FAR (%) en fonction de type d'ondelette et la
distance (Vecteur concaténé).
A travers les résultats des tests voir (tableau VI.3) et la figure ci-dessus on remarque qu'on
atteint le Taux de faux rejet (FRR) le plus bas avec la méthode de classification par la
distance de la norme Ctb mais , cette fois ci avec les trois ondelettes respectivement "Haar"
,"Daubechies" et "Symelts" , et mêmes si "Demystified" donne de moins bonnes
performances en terme de FRR par rapport aux ondelettes "Haar", "Daubechies" et
"Symelts" il vaut mieux la choisir parce que avec cette ondelette on a obtenu de meilleure
performances en FAR, cependant dans un système biométrique de reconnaissance , on
préfère souvent un FAR plus bas qu'un FRR , en d'autre terme il vaut mieux rejeter un client
qu'accepter un imposteur .
Il est important à savoir que dans un système biométrique de reconnaissance plus le FRR est
proche de zéro plus les performances sont bonnes et vice versa.
85
CHAPITRE VI TEST ET EVALUATION
ATION DES RESULTATS.
Figure VI.5 : Variation du taux d’identification TID (%) en fonction de type d'ondelette et la
distance (Vecteur image détaillé).
86
CHAPITRE VI TEST ET EVALUATION
ATION DES RESULTATS.
Figure VI.6 : Variation du taux de fausse acceptation FAR (%) en fonction de type d'ondelette
et la distance (Vecteur image détaillé).
87
CHAPITRE VI TEST ET EVALUATION
ATION DES RESULTATS.
Figure VI.7 : Variation du taux de faux rejet FRR (%) en fonction de type d'ondelette et la
distance (Vecteur image détaillé).
Ill est à savoir que dans un système biométrique de reconnaissance plus le FRR est proche de
zéro plus les performances sont bonnes et vice versa.
88
CHAPITRE VI TEST ET EVALUATION DES RESULTATS.
Ces courbes nous montrent que les performances avec l'utilisation de vecteur concaténé
sont meilleures que celles d’utilisation de vecteur concaténé et l'écart de performances
augmente en faveur des distances "Cosine" et" mahalcos".
Dans le but de comparer les quatre distances de classification nous avons dressé un tableau
récapitulatif des meilleurs taux d'identification dans les deux cas c.-à-d. (vecteur image
détaillé ou vecteur concaténé) et cela pour chaque distance, ceci est donné par le tableau
suivant:
89
CHAPITRE VI TEST ET EVALUATION DES RESULTATS.
A travers ces courbes on remarque bien, que la distance de la norme Ctb donne de
meilleures performances en mode identification avec un TID très satisfaisant de 87.5 %, en
deuxième rand les trois autres distances Euclidienne, Cosine et Mahalcos avec un TID de
81.5%.
L'approche de classification par mesure de similarité utilisant la distance de la norme Ctb est
particulièrement robuste et on a vu à travers les différents tests effectués qu'elle donne
d'excellents résultats que ce soit en mode identification ou vérification. Cependant il reste
confirmé en terme du temps d’exécution et le comparant ainsi aux temps obtenus avec les
trois autres distances à savoir, Cosine, Mahalcos et Euclide.
Entre autres ce temps-là augmente en augmentant le nombre de personnes dans la base.
Voici donc à titre indicatif quelques mesures de temps d'exécutions pour les quatre
distances de classification en mode identification et authentification avec l'utilisation de
l'ondelette de "Coifelets " et le vecteur détaillé qui ont donné des bons résultats.
Les temps d'exécution des quatre distances ne dépassent pas sept seconds en identification
plus authentification.
90
CHAPITRE VI TEST ET EVALUATION DES RESULTATS.
VI.8. CONCLUSION :
A travers ces tests effectués dans les deux modes (Identification et vérification), on peut
résumer l'effet du choix d'ondelettes à appliquer, la distance de classification et le type de
vecteur caractéristique, comme suit:
En utilisant le vecteur concaténé le système n'a pas atteint des très bonnes performances
dans les deux modes identification et authentification, ceci due peut-être à l'utilisation de
composantes caractéristique en plus (détaille vertical, détail horizontal et détail diagonal),
c'est-à-dire de l’information inutile qui joue le rôle de parasite ou bien de bruit dans la
classification.
En terme, d'ondelette " Demystified" est la mieux adapté dans le cas du vecteur image
détaillé, elle nous donne de bonnes performances en identification et authentification,
l'ondelette de " Coiflets" est la mieux adapté dans le cas de la concaténation, avec une
faveur pour cette dernière car, avec l'application de celle-ci on a atteint les meilleures
performances des tests réaliser, quant aux trois autres ondelettes, " Haar", " Daubechies" et
"symlets", les performances sont peu satisfaisantes, et elles sont égaux durant tous les tests
réalisés.
Enfin, pour les distances de classification la distance de la norme Ctb est meilleure pour la
classification, avec elle on a attient les meilleures performances en identification et en
authentification, voire un TID de 87.5% qui est un résultat très satisfaisant en prenant en
compte les limites de la classification par mesure de similarité.
91
Conclusion et Perspectives.
Conclusion et Perspectives :
En effet, nous avons conçu et réalisé un système de reconnaissance de visages dans ses deux
modes (identification et vérification) basé sur l'approche DWT-PCA pour l'extraction et la
modélisation de paramètres, la méthode de classification dite par mesure de similarité
associé à quatre distance (Euclidienne," Mahalcos","Cosine" et la "norme Ctb"), dont nous
avons constaté la puissance, la robustesse et la simplicité.
Aussi, étant donné que notre système est totalement opérationnel, nous pouvant envisager
une association avec une autre modalité, en l’occurrence la voix afin d’avoir un système
bimodal plus complet et répondant aux exigences actuelles dans le domaine de la sécurité.
De plus, les activités de recherche dans le domaine sont en perpétuelle évolution. Ces
dernières portent sur la consolidation des approches existantes, l’amélioration des
90
Conclusion et Perspectives.
91
Références bibliographiques :
[2] A. Jain, L. Hong, S. Pankanti, « Biometrics: Promising Frontiers for Emerging Identification
Market », Communications of the ACM, Feb 2000, p. 91-98.
[3] C. Fredouille, J. Mariethoz, C. Jaboulet, J. Hennebert, J.-F. Bonastre, C. Mokbel, F. Bimbot,
« Behavior of a Bayesian Adaptation Method for Incremental Enrollment in Speaker
Verification », International Conference on Acoustics, Speech, and Signal Processing, p.
1197-1200, Istanbul, Turquie, 5-9 Juin 2000.
[4] L. Heck, N. Mirghafori, « On-Line Unsupervised Adaptation in Speaker Verification »,
International Conference on Spoken Language Processing, Vol. 2, p. 454-457, Pékin, Chine,
16-20 Octobre 2000.
[5] P. Phillips, A. Martin, C. Wilson, M. Przybocki, « An Introduction to Evaluating Biometric
Systems », Computer, Vol. 33, n°2, p. 56-63, Février 2000.
[6] P. Phillips, H. Hyeonjoon, S. Rizvi, P. Rauss, « The FERET Evaluation Methodology for Face-
Recognition Algorithms », IEEE Transactions on Pattern Analysis and Machine Intelligence,
Vol. 22, n°10, Octobre 2000.
[7] S. Liu, M. Silverman, « A Practical Guide to Biometric Security Technology », IEEE
Computer Society, IT Pro-Security, Janvier-Février 2001.
[8] P. Verlinde, « Une Contribution à la Vérification Multimodale de l’Identité en Utilisant la
Fusion de Décision », École Nationale Supérieure des Télécommunications, Paris, France,
Septembre 1999.
[9] L. Hong, A. Jain, S. Pankanti, « Can Multibiometrics Improve Performance ? »,
Proceedings AutoID’99, Summit, NJ, p.59-64, Oct 1999.
[10] J. Kittler, M. Hatef, R. Duin, J. Matas, « On Combining Classifiers », IEEE Transactions on
Pattern Analysis and Machine Intelligence, Vol. 20, n°3, p. 226-239, 1998.
[11] CNN World News. Schiphol Backs Eye Scan Security. Available at
http://www.cnn.com/2002/WORLD/europe/03/27/schiphol.security/, March
27, 2002.
[12] J. Daugman. Recognizing Persons by Their Iris Patterns. In A. K. Jain, R.
Bolle, and S. Pankanti, editors, Biometrics: Personal Identification in a
Networked Society, pp. 103-121, Kluwer Academic Publishers, 1999.
[14] « The Price of Biometrics », USA Today, 26 Janvier 1999
http://www.usatoday.com/life/cyber/tech/ctc448.htm.
[15] « A Review of Dynamic Handwritten Signature Verification », James Cook University,
Computer Science Department, Technical Article, 1997.
[17] Airports Council International, http://www.airports.org.
[18] « Identifiez-Vous au Doigt et à l’Oeil’’, Courrier Cadres, n°1412, 20 Septembre 2001.
[19] « Biometrics Comes To Life », Banking Journal, Janvier 1997
http://www.banking.com/aba/cover\_0197.htm.
[20] Z. Korotkaya. Biometric person authentication : Odor, 2003.
[21] M. Hashiyada. Development of biometric dna ink for authentication security. Tohoku
Journal of Experimental Medicine, pages 109–117, 2004.
[22] K. Phua, J. Chen, T. H. Dat, and L. Shue. Heart sound as a biometric. Pattern
Recognition, 41 :906–919, 2008.
[23] : Adrien LEMAITRE & Corentin BUET -ISTIA- E12 2011-2012.
[24] : https://www.priv.gc.ca/information/research-recherche/2013/fr_201303_f.asp.
[26] : https://fr.wikipedia.org/wiki/Système_de_reconnaissance_faciale.
[27] : Kalghoum ANWAR, Institut supérieur d'informatique et de gestion de Kairouan en
Tunisie, "Gestion des présences via la technologie de reconnaissance faciale ,2011.
[28] : SOUHILA GUERFI ABABSA , Université Evry Val d'Essonne, France, Thèse de doctorat
intitulé : Authentification d’individus par reconnaissance de caractéristiques biométriques
liées aux visages 2D/3D , 2008.
[30] : M. A. Turk and A. P. Pentland, Face Recognition using Eigenfaces, Proc. IEEE,
1991, 586-591.
[31] : Nicolas MORIZET, Thomas EA, Florence ROSSANT, Frédéric AMIEL et AMARA. "Revue
des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage pour la
biométrie" P1-11. Institut Supérieur d‟Electronique de Paris (ISEP), département
d’Electronique, 2006.
[32] : Michael David Kelly. Visual identification of people by computer. PhD thesis, Stanford,
CA, USA, 1971.
[35] : Toufik AMELLAL, Kamel BENAKLI, « Système de reconnaissance de visage basé sur les
GMM ». Institut National de formation en Informatique (I.N.I), Alger, 2007.
[37] : Y. Adini, Y. Moses, S. Ullman, Face recognition : The problem of compensating for
changes in illumination direction. IEEE Trans. Patt. Anal. Mach. Intell. 19, 721–732, 1997.
[38] : D. Blackburn, M. Bone, P. J Phillips. “Face recognition vendor test 2000”. Tech. rep.
http://www.frvt.org, 2001.
[39] : R. Gross, J. Shi, J. Cohn. Quo Vadis Face Recognition ?. Third Workshop on Empirical
Evaluation Methods in Computer Vision, December, 2001.
[40]: Pierre Buyssens, Marinette Revenu. Fusion des modalités Visible et Infrarouge pour la
Reconnaissance Faciale. RFIA, Jan 2010, Caen, France. 8 p., 2010.
[41]: Hassen Drira, Rim Slama, Boulbaba Ben Amor, Mohamed Daoudi, Anuj Srivastava. Une
nouvelle approche de reconnaissance de visages 3D partiellement occult´es. RFIA 2012
(Reconnaissance des Formes et Intelligence Artificielle), Jan 2012, Lyon, France. pp.978-2-
9539515-2-3, 2012.
[43] Y. Oussar. Réseaux d'ondelettes et réseaux de neurones pour la modélisation statique et
dynamique de processus. Thèse de doctorat de l'université Pierre et Marie Curie. Paris,
France. Juillet 1998.
[44] D. Jonathan, B. Michael et F. Sébastien. Les Ondelettes. Université Libre de Bruxelles.
Printemps des Sciences. Bruxelles. Belgique.
[45] A. Bultheel: Bull. Belg. Math. Soc. (1995) 2.
[46] Y. Meyer. Ondelettes et opérateurs I - Ondelettes. Hermann, Paris, 1990.
[47] Mallat, S. A wavelet tour of signal processing, Academic Press, second edition, 1998.
[48] DAUBECHIES, I. « The wavelet transforms time-frequency localization and signal
analysis». IEEE Trans. On information theory, Vol. 36, N° 5, pp. 961-1005, September 1990.
[49] Moulay Abdelatif Akhloufi `RECONNAISSANCE DES VISAGES PAR IMAGERIE
MULTISPECTRALE Du visible à l'infrarouge lointain` université Laval Québec.
[50] boudjellal.S `détection et identification de personne par méthode biométrique`
UMMTO.
Webographie :
[1] https://www.securiteinfo.com/conseils/biometrie.shtml
[13] Recognition Systems Inc., http://www.recogsys.com.
[16] Visionics, http://www.visionics.com.
[25]https://www.biometrie-online.net/technologies/voix/voix-abreviations/14.
Technologies.
[42] http://my-definitions.com/fr/definition/ondelette.
• https://www.mathworks.com/matlabcentral/fileexchange/?requestedDomain=www.
mathworks.com