Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Chapitre2 ML

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 63

Université Moulay Ismail Meknès

Faculté des Sciences Meknès


Département d’informatique

Support de cours
APPRENTISSAGE ARTIFICIEL
(« Machine-Learning »)
Année universitaire 2019/2020
Pr. Mohammed OUANAN

1
L’analyse de la régression et la
classification
 L’analyse de la régression est une méthode statistique qui
permet d’étudier le type de relation pouvant exister entre
une certaine variable (dépendante) dont on veut expliquer
les valeurs et une ou plusieurs autres variables qui servent à
cette explication (variables indépendantes)
◦ Régression linéaire simple: une variable indépendante

 En d’autres termes, l’analyse de la régression permet


d’étudier les variations de la variable dépendante en fonction
des variations connues des variables indépendantes.
Une analyse de régression est :

– dite simple si elle permet de prédire les valeurs d’une variable dite
dépendante (expliquée (Y)) à partir des valeurs prises par une autre
variable dite indépendante (explicative (X)).

– dite multiple si elle permet de prédire les valeurs d’une variable


dite dépendante (expliquée (Y)) à partir des valeurs prises par
plusieurs autres variables dites indépendantes (explicatives (Xi)).
Définition : Nuage de points ou
diagramme de dispersion

C’est la représentation graphique dans le plan cartésien


de l’ensemble des paires de données (xi,yi). Ces données
proviennent d’une série statistique de deux variables
obtenues à partir d’une étude menée sur un échantillon
ou sur une population.
Exemple : Nuage de points ou diagramme de dispersion

Supposons que le nombre d’heures d’études


nécessaires pour préparer l’examen final en
statistiques et le nombre de bonnes réponses obtenues
par chaque étudiant sont donnés dans le tableau
suivant :

Tracer le nuage de points ou le diagramme de dispersion


des données présentées ci-dessus.
Exemple : Nuage de points ou diagramme de dispersion …

Diagramme de dispersion

10
9
8
7
6
5
4
3
2
1
0
0 2 4 6 8 10

Heures d'études
Objectif d’une analyse de régression simple

Une fois la représentation graphique effectuée, il est facile de


soupçonner l’existence d’une certaine relation entre les deux
variables (caractères étudiés). Il faut maintenant chercher à
exprimer cette relation à l’aide d’une équation mathématique.

Y  f (X )
On essaie de trouver la forme mathématique de la fonction f
Objectif d’une analyse de régression simple

Diagramme de dispersion

10
9
8
7
6
5
4
3
2
1
0
0 2 4 6 8 10

Heures d'études
Définition: Nous appelons régression linéaire
l’ajustement d’une droite au nuage statistique d’une
série de couples de données.

Ainsi, une régression linéaire simple va permettre de


résumer, d’interpréter et de prévoir les variations d’un
caractère dit dépendant (Y) en fonction d’un autre dit
indépendant (X) et ce en utilisant une droite.
Exemple:
Si vous cherchez à prédire le cours de la bourse, le prix d’un
appartement, ou bien l’évolution de la température sur Terre,
alors vous cherchez en fait à résoudre un problème de
régression. Si vous disposez d’un Dataset (x,y) alors vous
pouvez utiliser l’apprentissage supervisé pour développer un
modèle de régression.
 Dans ce chapitre je vais vous montrer comment développer
votre premier modèle de Machine Learning
 Imaginez que plusieurs agences immobilières vous aient fourni
des données sur des appartements à vendre, notamment le prix
de l’appartement (y) et la surface habitable (x) .En machine
learning. On dit que vous disposez de m exemples
d’apprtements.
On désigne :
 x(i) :la surface habitable de l’exemple i
 y(i) :le prix de l’exemple i
 A partir de ces données, on développe un modèle linéaire f(x)=ax+b
Ou a et b sont les paramètres du modelé.
Un bon modèle donne de petites erreurs entre ses prédictions f(x) et les
exemples (y) du dataset.
Nous ne connaissons pas les valeurs des paramètres a et b ce sera le
rôle de la machine de les trouver, de sorte à tracer un modèle qui
s’insère bien dans notre nuage de point comme ci-dessous
 Pour la régression linéaire, on utilise la norme euclidienne pour
mesurer les erreurs entre f(x) et les exemples (y)

 Pour exprimer l’erreur i entre le prix y(i) et la prédiction faites en


utilisant la surface x(i)
erreur(i)= (f(x(i))- y(i))2

Chaque prédiction s’accompagne d’une erreur , on a donc m erreurs. On


définit la fonction cout J(a,b) comme étant la moyenne de toutes les
erreurs
 La prochaine étape est l’étape la plus excitante, il s’agit de laisser la
machine apprendre quels sont les paramètres qui minimisent la
Fonction Coût, c’est-à-dire les paramètres qui nous donnent le
meilleur modèle
 Pour trouver le minimum, on utilise un algorithme d’optimisation qui
s’appelle Gradient Descent (la descente de gradient).
 Imaginez-vous perdu en montagne. Votre but est de rejoindre le refuge
qui se trouve au point le plus bas de la vallée. Vous n’avez pas pris de
carte avec vous donc vous ne connaissez pas les coordonnées de ce
refuge, vous devez le trouver tout seul.
Pour vous en sortir, voici une stratégie à adopter :
1. Depuis votre position actuelle, vous partez en direction de là où la
pente descend le plus fort.
2. Vous avancez une certaine distance en suivant cette direction coûte
que coûte (même si ça implique de remonter une pente)
3. Une fois cette distance parcourue, vous répétez les 2 premières
opérations en boucle, jusqu’à atteindre le point le plus bas de la vallée

Les étapes 1, 2 et 3 forment ce qu’on appelle l’algorithme de Gradient Descent.


Cet algorithme vous permet de trouver le minimum de la Fonction
Coût (le point le plus bas de la montagne) en partant de coordonnées
de a et b aléatoires (votre position initiale dans la montagne) :

1. Calculer la pente de la Fonction Coût, c’est-à-dire la dérivée.

2. Evoluer d’une certaine distance dans la direction de la pente la


plus forte. Cela a pour résultat de modifier les paramètres a et b

3. recommencer les étapes 1 et 2 jusqu’à atteindre le minimum de


La fonction cout
 Pour illustrer l’algorithme, voyez le dessin ci-dessous
 Pour rappel, nous avons jusqu’à présent créé un Dataset,
développer un modèle aux paramètres inconnus, et exprimé la
fonction Coût J(a,b) associée à ce modèle.
 Notre objectif final : Trouver les paramètres a et b qui
minimisent J(a,b)
 Pour cela, nous allons choisir a et b au hasard (nous allons
nous perdre en montagne) puis allons utiliser en boucle la
descente de gradient pour mettre à jour nos paramètres dans la
direction de la Fonction Coût la plus faible.
 Répéter en boucle

On appelle α la vitesse d’apprentissage (Learning rate: hyper-paramètre)


Si la vitesse est trop lente, le modèle peut mettre longtemps à être entraîné, mais si la
vitesse est trop grande, alors la distance parcourue est trop longue et le modèle peut ne
jamais converger. Il est important de trouver un juste milieu. Le dessin ci-dessous
illustre mes propos.
 Dans la pratique, on exprime notre Dataset et nos paramètres sous
forme matricielle, ce qui simplifie beaucoup les calculs. On créer ainsi
un vecteur qui contient tous les paramètres pour notre
modèle, un vecteur et une matrice qui inclut toutes
les features n , Dans la régression linéaire n=1.
 Les étapes pour programmer une Régression Linéaire
Etape 1 : Importer les librairies:
1. Numpy pour manipuler notre Dataset en tant que matrice
2. Matplotlib.pyplot pour visualiser nos données
3. La fonction make_regression de Sklearn pour générer un nuage de
point (ici on va simuler des données)
4. SGDRegressor (qui signifie Stochastic Gradient Descent
5. Regressor) et qui contient le calcul de la Fonction Coût, des
gradients, de l’algorithme de minimisation, bref.
Etape 2 : Créer un Dataset
Pour ce premier code, nous n’allons pas importer de données
personnelles. Plutôt, nous allons générer un tableau de données (x,y)
aléatoires, Pour cela, la fonction make_regression est très utile. La
fonction prend comme arguments (c’est le mot pour désigner inputs) le
nombre d’échantillons à générer, le nombre de variables et le bruit puis
nous retourne deux vecteurs x et y
Pour maitriser l’aléatoire, on écrit la ligne np.random.seed(0).
Finalement, pour visualiser nos données on utilise la fonction
plt.scatter(x, y).
Etape 3 : Développer le modèle et l’entraîner
 Pour développer et entraîner un modèle, il a fallu beaucoup de maths:
Entre la Fonction Coût, les dérivées, l’algorithme de Gradient
Descent…
 Dans Sklearn, tout cela est déjà fait pour vous !
 Il vous suffit de définir une variable model depuis le générateur
SGDRegressor en entrant le nombre d’itérations que le Gradient
Descent doit effectuer ainsi que le Learning Rate.
 Une fois le modèle définit, il vous faut l’entraîner. Pour cela, il suffit
d’utiliser la fonction fit.
Nous pouvons maintenant observez la précision de notre modèle en
utilisant la fonction score qui calcule le coefficient de détermination
entre le modèle et les valeurs y de notre Dataset.

On peut aussi utiliser notre modèle pour faire de nouvelles prédictions


avec la fonction predict et tracer ces résultats avec la fonction
plt.plot :
 Notre modèle semble vraiment mauvais. C’est parce que nous ne
l’avons pas entraîné suffisamment longtemps et parce que le
Learning rate était trop faible. Aucun problème, il est possible de le
ré-entraîner avec de meilleurs hyper-paramètres.
 En Machine Learning, les valeurs qui fonctionnent bien
pour la plupart des entraînements sont :

Nombre d’itérations = 1000


Learning rate = 0.001
En Machine Learning, on appelle courbe d’apprentissage (Learning curves) les
courbes qui montrent l’évolution de la Fonction Coût au fil des itérations de Gradient
Descent. Si votre modèle apprend, alors sa Fonction Coût doit diminuer avec le temps,
 Si vous achetez un stylo à 1DH, combien vous coûteront 100 stylos ?
100 DH ? Faux !
 Nous vivons dans un monde régit par des lois souvent non-linéaires et
où une infinité de facteurs peuvent influencer nos résultats.Par
exemple, si vous achetez 100 stylos, vous aurez peut-être une
réduction à 90 €. Si en revanche il y a une pénurie de stylos, ce même
stylo qui coûtait 1 € pourrait valoir 1.50 €
 C’est là qu’Excel ne pourra plus rien pour vous et que le Machine
Learning trouve son utilité dans le monde réel.
 Pour le nuage de point ci-dessous, il semblerait judicieux de
développer un modèle polynômial de degré 2
 Sujet : régression 1D
Exemple: régression simple en 1D
Entrée: scalaire x
Sortie: scalaire y
 Données d’entrainement D contiennent:
X=(x1, x2,…XN)T y=(y1, y2,…yN)T

 Objectif: faire une prédiction y pour une nouvelle entrée x



 Il suffit de générer des variables polynômiales dans notre Dataset en
utilisant la fonction PolynomialFeatures présente dans Sklearn

Grâce au calcul matriciel (présent dans Numpy et Sklearn) la machine


peut intégrer ces nouvelles variables polynômiales sans changer son
calcul ! Dans l’exemple ci-dessous, j’ai choisi d’ajouter une variable
polynômiale de degré 2 pour forcer la machine à développer un modèle
qui épousera l’allure parabolique de y en fonction de x
 Avec la fonction PolynomialFeatures on peut ainsi développer des
modèles bien plus complexes capable de prédire des résultats sur des
milliers de dimensions (un exemple ci-dessous)
Le modèle de régression multiple est une généralisation du modèle
de régression simple lorsque les variables explicatives sont en
nombre fini.
 Pour estimer la relation entre une variable dépendante (Y ) et plusieurs
variables indépendantes (X1, X2, …)
 Exemples
◦ Expliquer les ventes d’un magasin par le marché total, le prix,
l’investissement, la publicité,…
◦ Expliquer la consommation des véhicules par le prix, la cylindrée,
la puissance et le poids.

Y   0  1 X 1   2 X 2  ... p X p  
 Les termes de l’équation

yi   0  1 x1i   2 x2i  ... p x pi   i

ième observation Terme constant Influence de


de Y la variable Xp
Influence de la
variable X1
Résidu de la ième
observation
 Ecriture matricielle du modèle

 0 
 y1  1 x1,1  x1, p      1 
          1     
       
 yn  1 x1,n  xn , p     n 
  p 
y  X  
 Jusqu’à présent, nous avons appris comment résoudre des problèmes
de régression. Au cours du chapitre 1, j’ai parlé des problèmes de
classification, qui consistent par exemple à classer un email en tant
que ‘spam’ ou ‘non spam’.
 Dans ce genre de problème, on aura un Dataset contenant une variable
 Target y pouvant prendre 2 valeurs seulement, par exemple 0 ou 1
 si y=0, alors l’email n’est pas un spam
 si y= 1, alors l’email est un spam

On dit également que l’on a 2 classes, c’est une classification binaire.


 Mesure de la relation entre une variable dépendante
(dichotomique) et une ou plusieurs variables indépendantes

 Utile dans la prédiction de la présence ou absence d’un


comportement (ex. succès ou échec, amélioration ou non)
 Exemple: Le nombre d’heures de travail par semaine par rapport à
l’obtention d’une promotion.

 On développe alors une nouvelle fonction pour les problèmes de
classification binaire, c’est la fonction logistique (aussi appelé
fonction sigmoïde ou tout simplement sigma) Cette fonction a la
particularité d’être toujours comprise en 0 et 1.

A partir de cette fonction, il est possible de définir une frontière de


décision. Typiquement, on définit un seul à 0.5 comme ceci
 Une fonction linéaire ne permettra pas d’ajuster de façon optimale
les données. Puisque la variable dépendante est dichotomique, un
régression nonlinéaire (logistique) est la meilleure option.

u  b0  b1 x1  b2 x2    bp x p

1
yˆ 
1  eu
 Pour la régression linéaire, la Fonction Coût donnait une courbe
convexe (qui présente un unique minima). C’est ce qui fait que
l’algorithme de Gradient Descent fonctionne.
 En revanche, utiliser cette fonction pour le modèle Logistique ne
donnera pas de courbe convexe (dû à la non-linéarité) et l’algorithme
de Gradien Descent se bloquera au premier minima rencontré, sans
trouver le minimum global.

Fonction Coût complète


L’algorithme de Gradient Descent s’applique exactement de la même
manière que pour la régression linéaire. En plus, la dérivée de la
Fonction Coût est la même aussi !
 #importer les modules
 # Génération de données aléatoires:

from sklearn.datasets import make_classification:


permet de créer des jeux de données artificiels utilisables pour tester des
méthodes d’apprentissage
 # Visualisation des données

 # Génération d'un modele en utilisant la fonction cout 'log'

from sklearn.linear_model import SGDClassifier:


permet de générer un modèle d’apprentissage
 Entrainement
 Décomposition de la somme des carrés totale
SCT : somme des carrés totale
SCR : somme des carrés du modèle de régression
SCE : somme des carrés résiduels

SCT = SSR + SCE

 y  Y    yˆ  Y    ( y  yˆ )
n n n
2 2 2
i i i i
i 1 i 1 i 1
 Les coefficients de détermination
◦ Le coefficient de détermination R2
R2 = SCR/SCT
Il exprime le pourcentage de la variance de Y expliquée par le
modèle. Il donne une idée globale de l'ajustement du modèle.
◦ Le R2 ajusté se calcule en fonction du R2 :

n 1
2
aR  1 (1  R 2 )
n  p 1
Il traduit à la fois la qualité de l’ajustement (liaison entre Y et les Xi)
et la complexité du modèle (nombre de variables explicatives).

Vous aimerez peut-être aussi