Apprentissage supervisé

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Apprentissage (homonymie).

Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

L'apprentissage supervisé (supervised learning en anglais) est une tâche d'apprentissage automatique consistant à apprendre une fonction de prédiction à partir d'exemples annotés, au contraire de l'apprentissage non supervisé. On distingue les problèmes de régression des problèmes de classement[1]. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.

Les exemples annotés constituent une base d'apprentissage, et la fonction de prédiction apprise peut aussi être appelée « hypothèse » ou « modèle ». On suppose cette base d'apprentissage représentative d'une population d'échantillons plus large et le but des méthodes d'apprentissage supervisé est de bien généraliser, c'est-à-dire d'apprendre une fonction qui fasse des prédictions correctes sur des données non présentes dans l'ensemble d'apprentissage[2].

Définition mathématique

Soit ( Ω , A , P ) {\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} , un espace probabilisé.

Jeu de données supervisées

Soit ( X , F X ) , ( Y , F Y ) {\displaystyle ({\mathcal {X}},{\mathcal {F}}_{X}),({\mathcal {Y}},{\mathcal {F}}_{Y})} deux espaces mesurables. On peut définir une base de données d'apprentissage (ou ensemble d'apprentissage) comme un ensemble de couples entrée-sortie ( x n , y n ) 1 n N {\displaystyle (x_{n},y_{n})_{1\leq n\leq N}} où chaque x n X {\displaystyle x_{n}\in {\mathcal {X}}} et y n Y {\displaystyle y_{n}\in {\mathcal {Y}}} sont des réalisations respectives des variables aléatoires X n {\displaystyle X_{n}} et Y n {\displaystyle Y_{n}} . Les couples de la suite ( ( X n , Y n ) ) n N {\displaystyle ((X_{n},Y_{n}))_{n\leq N}} sont indépendants et identiquement distribués suivant la loi d'un couple ( X , Y ) {\displaystyle (X,Y)} à valeurs dans ( X × Y , F X F Y ) {\displaystyle ({\mathcal {X}}\times {\mathcal {Y}},{\mathcal {F}}_{X}\otimes {\mathcal {F}}_{Y})} . On rappelle que cette loi est caractérisée par une mesure de probabilité P ( X , Y ) {\displaystyle \mathbb {P} _{(X,Y)}} définie pour tout évènement A F X F Y {\displaystyle A\in {\mathcal {F}}_{X}\otimes {\mathcal {F}}_{Y}} par P ( X , Y ) ( A ) = P [ ( X , Y ) 1 ( A ) ] {\displaystyle \mathbb {P} _{(X,Y)}(A)=\mathbb {P} [(X,Y)^{-1}(A)]}

Par exemple X n {\displaystyle X_{n}} suit une loi uniforme et Y n = f ( X n ) + ϵ n {\displaystyle Y_{n}=f(X_{n})+\epsilon _{n}} ϵ n {\displaystyle \epsilon _{n}} est un bruit centré. Dans ce cas, la méthode d'apprentissage supervisé utilise cette base d'apprentissage pour déterminer une estimation de f notée g et appelée indistinctement fonction de prédiction, hypothèse ou modèle qui à une nouvelle entrée x associe une sortie g(x). Le but d'un algorithme d'apprentissage supervisé est donc de généraliser pour des entrées inconnues ce qu'il a pu « apprendre » grâce aux données déjà annotées par des experts, ceci de façon « raisonnable ». On dit que la fonction de prédiction apprise doit avoir de bonnes garanties en généralisation.

Théorie de la décision

Plus généralement[3], l'objectif de l'apprentissage supervisé est d'apprendre une fonction f {\displaystyle f} qui « minimise l'écart entre les variables aléatoires f ( X ) {\displaystyle f(X)} et Y {\displaystyle Y}  ». Pour définir cet écart, nous introduisons une fonction de perte L : Y × Y R + {\displaystyle L:{\mathcal {Y}}\times {\mathcal {Y}}\rightarrow \mathbb {R} _{+}} qui quantifie la distance entre une prédiction du modèle f ( x ) {\displaystyle f(x)} et une sortie attendue y {\displaystyle y} . À partir de cette fonction, nous pouvons définir le risque statistique d'un modèle f {\displaystyle f} . Il est noté R {\displaystyle R} et est défini par :

R ( f ) = E ( L ( Y , f ( X ) ) ) = X × Y L ( y , f ( x ) ) d P ( X , Y ) ( x , y ) {\displaystyle R(f)=\mathbb {E} (L(Y,f(X)))=\int _{{\mathcal {X}}\times {\mathcal {Y}}}L(y,f(x))\mathrm {d} \mathbb {P} _{(X,Y)}(x,y)}

En pratique, on n'a jamais accès directement à P ( X , Y ) {\displaystyle \mathbb {P} _{(X,Y)}} , en revanche il est possible de l'estimer à partir du jeu de données en utilisant la mesure empirique P ( X , Y ) N {\displaystyle \mathbb {P} _{(X,Y)}^{N}} définie pour tout A F X F Y {\displaystyle A\in {\mathcal {F}}_{X}\otimes {\mathcal {F}}_{Y}} par P ( X , Y ) N ( A ) = 1 N n = 1 N δ ( X n , Y n ) ( A ) {\displaystyle \mathbb {P} _{(X,Y)}^{N}(A)={\dfrac {1}{N}}\sum _{n=1}^{N}\delta _{(X_{n},Y_{n})}(A)} .

Dès lors, un algorithme d'apprentissage supervisé mettra en œuvre des algorithmes d'optimisation afin de trouver une fonction f {\displaystyle f} qui minimise le risque empirique R N ( f ) = 1 N n = 1 N L ( Y n , f ( X n ) ) {\displaystyle R_{N}(f)={\dfrac {1}{N}}\sum _{n=1}^{N}L(Y_{n},f(X_{n}))} . Il faut noter que R N {\displaystyle R_{N}} n'est rien d'autre que la moyenne des écart (au sens de L {\displaystyle L} ) entre les prédictions du modèle et les sorties attendues.

Classification et régression

On distingue trois types de problèmes solubles avec une méthode d'apprentissage automatique supervisée[4] :

  • Y R {\displaystyle {\mathcal {Y}}\subset \mathbb {R} }  : lorsque la sortie que l'on cherche à estimer est une valeur dans un ensemble continu de réels, on parle d'un problème de régression. La fonction de prédiction est alors appelée un régresseur.
  • Y = { 1 , , I } {\displaystyle {\mathcal {Y}}=\{1,\ldots ,I\}}  : lorsque l'ensemble des valeurs de sortie est fini, on parle d'un problème de classification, qui revient à attribuer une étiquette à chaque entrée. La fonction de prédiction est alors appelée un classifieur.
  • Lorsque Y {\displaystyle {\mathcal {Y}}} est un ensemble de données structurées, on parle d'un problème de prédiction structurée, qui revient à attribuer une sortie complexe à chaque entrée[5]. Par exemple, en bio-informatique le problème de prédiction de réseaux d’interactions entre gènes peut être considéré comme un problème de prédiction structurée dans laquelle l'ensemble possible des sorties structurées est l'ensemble de tous les graphes modélisant les interactions possibles.

Coût quadratique en régression

Une bonne estimation de f {\displaystyle f} vérifierait f ( X ) = E ( Y | X ) {\displaystyle f(X)=\mathbb {E} (Y|X)} . On estimerait donc Y {\displaystyle Y} par son espérance conditionnelle par rapport à X {\displaystyle X} . Le théorème[6] suivant montre l'intérêt d'utiliser la fonction de perte quadratique dans le cas d'une régression.

Minimisation du coût quadratique — Supposons Y = R d {\displaystyle {\mathcal {Y}}=\mathbb {R} ^{d}} . On se munit de la fonction de perte quadratique définie pour tout y , y R d {\displaystyle y,y'\in \mathbb {R} ^{d}} par L ( y , y ) = y y 2 2 {\displaystyle L(y,y')=\|y-y'\|_{2}^{2}} . On suppose également Y E ( Y | X ) L 2 ( R p , B ( R p ) , λ p ) {\displaystyle Y-\mathbb {E} (Y|X)\in L^{2}(\mathbb {R} ^{p},{\mathcal {B}}(\mathbb {R} ^{p}),\lambda _{p})} , avec λ p {\displaystyle \lambda _{p}} la mesure de Lebesgue sur R p {\displaystyle \mathbb {R} ^{p}} . Alors, la fonction f {\displaystyle f} qui minimise le risque statistique associé à L {\displaystyle L} vérifie f ( X ) = E ( Y | X ) {\displaystyle f(X)=\mathbb {E} (Y|X)} .

Démonstration — Calculons le risque statistique associé à la fonction de perte quadratique :

R ( f ) = E ( L ( Y , f ( X ) ) ) = E ( Y f ( X ) 2 2 ) = E ( ( Y E ( Y | X ) ) ( f ( X ) E ( Y | X ) ) 2 2 ) = E ( Y E ( Y | X ) 2 2 ) 2 E ( Y E ( Y | X ) | f ( X ) E ( Y | X ) ) ) + E ( f ( X ) E ( Y | X ) ) 2 2 ) {\displaystyle {\begin{aligned}R(f)&=\mathbb {E} (L(Y,f(X)))\\&=\mathbb {E} (\|Y-f(X)\|_{2}^{2})\\&=\mathbb {E} (\|(Y-\mathbb {E} (Y|X))-(f(X)-\mathbb {E} (Y|X))\|_{2}^{2})\\&=\mathbb {E} (\|Y-\mathbb {E} (Y|X)\|_{2}^{2})-2\mathbb {E} (\langle Y-\mathbb {E} (Y|X)|f(X)-\mathbb {E} (Y|X))\rangle )+\mathbb {E} (\|f(X)-\mathbb {E} (Y|X))\|_{2}^{2})\\\end{aligned}}}

| {\displaystyle \langle \cdot |\cdot \rangle } désigne le produit scalaire euclidien dans R d {\displaystyle \mathbb {R} ^{d}} .

On cherche donc à trouver la fonction f {\displaystyle f} qui minimise R ( f ) {\displaystyle R(f)} . Le premier terme de la somme ne dépend pas de f {\displaystyle f} , et on peut réécrire le second terme à l'aide de la formule de l'espérance totale :

E ( Y E ( Y | X ) | f ( X ) E ( Y | X ) ) ) = E ( E ( Y E ( Y | X ) | f ( X ) E ( Y | X ) ) | X ) ) = E ( Y Y | f ( X ) Y ) = 0 {\displaystyle {\begin{aligned}\mathbb {E} (\langle Y-\mathbb {E} (Y|X)|f(X)-\mathbb {E} (Y|X))\rangle )&=\mathbb {E} (\mathbb {E} (\langle Y-\mathbb {E} (Y|X)|f(X)-\mathbb {E} (Y|X))\rangle |X))\\&=\mathbb {E} (\langle Y-Y|f(X)-Y\rangle )\\&=0\end{aligned}}}

Le second terme est donc nul. Enfin, le troisième terme est positif et s'annule pour f ( X ) = E ( Y | X ) {\displaystyle f(X)=\mathbb {E} (Y|X)} .

Méthodes d'apprentissage supervisé

Applications

Notes et références

  1. « classement » est la traduction correcte du terme anglais classification; la « classification » française correspond plutôt au clustering en anglais. Voir par exemple la BDL québécoise
  2. Massih-Reza Amini, « Principes de base en apprentissage supervisé », dans Machine Learning, (lire en ligne)
  3. (en) Trevor Hastie, Robert Tibshirani et Jerome Friedman, The Elements of Statistical Learning, New York, NY, Springer, New York, NY, (ISBN 978-1-0716-2122-6)
  4. (en) Vladimir Nasteski, « An overview of the supervised machine learning methods », HORIZONS.B, vol. 4,‎ , p. 51–62 (DOI 10.20544/HORIZONS.B.04.1.17.P05, lire en ligne, consulté le )
  5. (en) Hal Daumé, John Langford et Daniel Marcu, « Search-based structured prediction », Machine Learning, vol. 75, no 3,‎ , p. 297–325 (ISSN 1573-0565, DOI 10.1007/s10994-009-5106-x, lire en ligne, consulté le )
  6. Sylvain Arlot, « Fondamentaux de l'apprentissage statistique », dans Apprentissage statistique et données massives, Editions Technip, (lire en ligne)

Voir aussi

Bibliographie

  • Vincent Barra, Antoine Cornuéjols, Laurent Miclet, Apprentissage Artificiel : Concepts et algorithmes, Eyrolles, (ISBN 978-2-416-001-04-8) [détail des éditions]
  • (en) Tom M. Mitchell, Machine Learning, [détail des éditions]
  • (en) Christopher M. Bishop, Pattern Recognition And Machine Learning, Springer, (ISBN 0-387-31073-8) [détail des éditions]

Articles connexes

v · m
Concepts
Architecture
Outils
Programmation
Statistique
Articles liés
v · m
Problèmes
Apprentissage supervisé
Classement
Régression
Réseau de neurones artificiels (ANN)
Apprentissage non supervisé
Clustering
Réduction de dimensions
Réseau de neurones artificiels (ANN)
Optimisation
Théorie
Logiciels
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de l’informatique
  • icône décorative Portail des données