Tps Data Mining (Matlab)
Tps Data Mining (Matlab)
Tps Data Mining (Matlab)
APPLIQUEES - TANGER
TP DATA MINING
UNIVERSITE ABDELMALEK
ESSADI
3. Apprentissage supervis
3-1. Dfinition :
En sciences cognitives, lapprentissage supervis est une technique dapprentissage
automatique plus connu sous le terme anglais de machine Learning qui permet une machine
dapprendre raliser des tches partir dune base dapprentissage contenant des exemples
dj traits. Chaque lment (item) de lensemble dapprentissage (training set) tant un
couple entre-sortie.
Mthode baysienne :
Thorme de Bayes
Le thorme de Bayes fournit un cadre thorique pour la problmatique de la classification
deux classes Si l'on considre un problme deux classes C1 et C2, le thorme de Bayes
permet de calculer les probabilits a posteriori connaissant les distributions des observations a
priori.
Dans le cas d'un problme de classification, cette formule dfinit une rgle de dcision : la
probabilit de mauvaise classification est minimise en slectionnant la classe qui a la plus
grande probabilit a posteriori MAP (classe qui a le maximum de vraisemblance).
La mthode de la classification baysienne est une mthode paramtrique qui essaye de
modliser les densits de probabilits pour calculer la probabilit a posteriori en supposant
que la densit de probabilit suit une loi (estimation des paramtres de la loi moyenne, cart
type) et en estimant la probabilit a priori par une approche frquentielle.
B. Partie pratique :
Objectif :
Dans cette partie on va crer des modles dcisionnels pour classifier des donnes de
dimension 2. Nous construisons dans un premier lieu un classifieur qui se base sur le
maximum de vraisemblance(ML), ensuite on va programmer un classifieur bas sur le
maximum postriori et on va comparer la prcision de ces deux classifieurs. Nous
programmons en dernier lieu un rseau de neurones bas sur lalgorithme de perception.
Programme1 : classiffieur ML
Ce programme calcul la probabilite derreur des classifieurs ML et MAP pour les cinq
populations
Alpha
ML
PE
Tr
MAP PE
Tr
2
0.6933
30.67%
0.0433
95.67%
4
0.8160
18.4%
0.0480
95.2%
6
0.8657
13.43%
0.0314
96.86%
PE : probabilit derreur
Tr : Taux de transmission
10
0.9136
8.64%
0.0264
97.36%
100
0.9824
1.76%
0.0052
99.48%
Les probabilits derreur calcules pour chaque population dmontrent que le classifieur
MAP est plus prcis parce que ce dernier prend en considration les probabilits a priori.
On peut mme remarquer que la frontire de dcision pour le classifieur MAP sapproche
et regroupe de plus les individus de la deuxime distribution.