Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
Aller au contenu

Apprentissage supervisé

Un article de Wikipédia, l'encyclopédie libre.
Apprentissage supervisé
En apprentissage supervisé, le modèle est entraîné sur des données pour lesquelles les réponses sont connues, tandis qu'en apprentissage non supervisé, l'algorithme découvre des structures dans les données par lui-même[1].
Type
Algorithme, spécialité (d), discipline (d), méthode d'apprentissage automatique (d)Voir et modifier les données sur Wikidata

L'apprentissage supervisé (supervised learning en anglais) est une tâche d'apprentissage automatique consistant à apprendre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non supervisé. On distingue les problèmes de régression des problèmes de classement[2]. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.

Les exemples annotés constituent une base d'apprentissage, et la fonction de prédiction apprise peut aussi être appelée « hypothèse » ou « modèle ». On suppose cette base d'apprentissage représentative d'une population d'échantillons plus large et le but des méthodes d'apprentissage supervisé est de bien généraliser, c'est-à-dire d'apprendre une fonction qui fasse des prédictions correctes sur des données non présentes dans l'ensemble d'apprentissage[3].

Définition mathématique

[modifier | modifier le code]

Soit , un espace probabilisé.

Jeu de données supervisées

[modifier | modifier le code]

Soit deux espaces mesurables. On peut définir une base de données d'apprentissage (ou ensemble d'apprentissage) comme un ensemble de couples entrée-sortie où chaque et sont des réalisations respectives des variables aléatoires et . Les couples de la suite sont indépendants et identiquement distribués suivant la loi d'un couple à valeurs dans . On rappelle que cette loi est caractérisée par une mesure de probabilité définie pour tout évènement par

Par exemple suit une loi uniforme et est un bruit centré. Dans ce cas, la méthode d'apprentissage supervisé utilise cette base d'apprentissage pour déterminer une estimation de f notée g et appelée indistinctement fonction de prédiction, hypothèse ou modèle qui à une nouvelle entrée x associe une sortie g(x). Le but d'un algorithme d'apprentissage supervisé est donc de généraliser pour des entrées inconnues ce qu'il a pu « apprendre » grâce aux données déjà annotées par des experts, ceci de façon « raisonnable ». On dit que la fonction de prédiction apprise doit avoir de bonnes garanties en généralisation.

Théorie de la décision

[modifier | modifier le code]

Plus généralement[4], l'objectif de l'apprentissage supervisé est d'apprendre une fonction qui « minimise l'écart entre les variables aléatoires et  ». Pour définir cet écart, nous introduisons une fonction de perte qui quantifie la distance entre une prédiction du modèle et une sortie attendue . À partir de cette fonction, nous pouvons définir le risque statistique d'un modèle . Il est noté et est défini par :

En pratique, on n'a jamais accès directement à , en revanche il est possible de l'estimer à partir du jeu de données en utilisant la mesure empirique définie pour tout par .

Dès lors, un algorithme d'apprentissage supervisé mettra en œuvre des algorithmes d'optimisation afin de trouver une fonction qui minimise le risque empirique . Il faut noter que n'est rien d'autre que la moyenne des écart (au sens de ) entre les prédictions du modèle et les sorties attendues.

Classification et régression

[modifier | modifier le code]

On distingue trois types de problèmes solubles avec une méthode d'apprentissage automatique supervisée[5] :

  •  : lorsque la sortie que l'on cherche à estimer est une valeur dans un ensemble continu de réels, on parle d'un problème de régression. La fonction de prédiction est alors appelée un régresseur.
  •  : lorsque l'ensemble des valeurs de sortie est fini, on parle d'un problème de classification, qui revient à attribuer une étiquette à chaque entrée. La fonction de prédiction est alors appelée un classifieur.
  • Lorsque est un ensemble de données structurées, on parle d'un problème de prédiction structurée, qui revient à attribuer une sortie complexe à chaque entrée[6]. Par exemple, en bio-informatique le problème de prédiction de réseaux d’interactions entre gènes peut être considéré comme un problème de prédiction structurée dans laquelle l'ensemble possible des sorties structurées est l'ensemble de tous les graphes modélisant les interactions possibles.

Coût quadratique en régression

[modifier | modifier le code]

Une bonne estimation de vérifierait . On estimerait donc par son espérance conditionnelle par rapport à . Le théorème[7] suivant montre l'intérêt d'utiliser la fonction de perte quadratique dans le cas d'une régression.

Minimisation du coût quadratique — Supposons . On se munit de la fonction de perte quadratique définie pour tout par . On suppose également , avec la mesure de Lebesgue sur . Alors, la fonction qui minimise le risque statistique associé à vérifie .

Méthodes d'apprentissage supervisé

[modifier | modifier le code]

Applications

[modifier | modifier le code]

Notes et références

[modifier | modifier le code]
  1. Mark Esposito, Kariappa Bheemaiah et Terence Tse, « Vous avez dit « machine learning » ? Quand l'ordinateur apprend à apprendre », sur theconversation.com, (consulté le )
  2. « classement » est la traduction correcte du terme anglais classification; la « classification » française correspond plutôt au clustering en anglais. Voir par exemple la BDL québécoise
  3. Massih-Reza Amini, « Principes de base en apprentissage supervisé », dans Machine Learning, (lire en ligne)
  4. (en) Trevor Hastie, Robert Tibshirani et Jerome Friedman, The Elements of Statistical Learning, New York, NY, Springer, New York, NY, (ISBN 978-1-0716-2122-6)
  5. (en) Vladimir Nasteski, « An overview of the supervised machine learning methods », HORIZONS.B, vol. 4,‎ , p. 51–62 (DOI 10.20544/HORIZONS.B.04.1.17.P05, lire en ligne, consulté le )
  6. (en) Hal Daumé, John Langford et Daniel Marcu, « Search-based structured prediction », Machine Learning, vol. 75, no 3,‎ , p. 297–325 (ISSN 1573-0565, DOI 10.1007/s10994-009-5106-x, lire en ligne, consulté le )
  7. Sylvain Arlot, « Fondamentaux de l'apprentissage statistique », dans Apprentissage statistique et données massives, Editions Technip, (lire en ligne)

Bibliographie

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]