Exo SVM
Exo SVM
Exo SVM
TD 5 et 6
On considère ici un problème de classification binaire vers Y = {−1, +1} de données dans un espace de
description X ∈ Rd . On note {(xi , y i ) ∈ (X, Y )}, i ∈ {1, . . . , n} l’ensemble d’apprentissage considéré.
La fonction de décision du classifieur considéré est donnée par : fw,b (x) = sign(wT x + b).
On considère dans un premier temps un ensemble de données linéairement séparable. Cet ensemble de
données et la frontière de décision sont représentés (en 2D) sur la figure 1.
Q 1.1 Marge
Sur cette figure, l’échantillon xi et de label y i est représenté par le point A. On s’intéresse à sa distance
signée γ i à la frontière de decision (dont le point le plus proche est représenté en B sur la figure).
Q 1.1.1 Sachant que w/||w|| est un vecteur unitaire othogonal à la frontière de décision, donner
l’expression de γ i en fonction de xi , y i , w et b.
Q 1.1.2 Montrer que la distance et la solution ne change pas en multipliant la solution par un scalaire,
i.e. pour (αw, αb). Que cela implique-t-il si l’on souhaite éloigner au maximum (au sens géométrique)
les points de la frontière de décision ?
Q 1.2 Formulation du SVM
On considère alors le problème d’optimisation sous contraintes suivant :
1
min ||w||2
w,b 2
Q 1.2.4 En déduire une nouvelle formulation “duale” de notre problème d’optimisation sous contraintes
Exercice 2 – Noyaux
Q 2.1 Montrez que si K et K 0 sont deux noyaux (i.e. il existe φ et φ0 telles que K(x, y) =< φ(x), φ(y) >
, K 0 (x, y) =< φ0 (x), φ0 (y) >) :
Q 2.1.1 cK est un noyau pour c ∈ R+
Q 2.1.2 K + K 0 est un noyau ;
Q 2.1.3 KK 0 est un noyau ;
Q 2.1.4 (1+ < x, x0 >)d est un noyau.
Exercice 3 – RKHS
Soit x1 , · · · , xn ∈ X, une fonction k : X × X → R, la matrice de GramPde K est la matrice
K := ki,j = k(xi , xj ). Une matrice est dite définie semi-positive si ∀ci ∈ R, i,j ci cj ki,j ≥ 0. Dans
ce cas, la fonction est dite également définie positive.
P
Q 3.1 Exprimez i,j ci cj ki,j par un produit scalaire. Montrez qu’un noyau est défini positif.
Q 3.2 Le but de cette question est de montrer la contraposée, qu’une fonction symétrique semi définie
positive k : X ×X → R est un noyau. Pour cela, il nous faut trouver un espace hilbertien H, un produit
scalaire Q : H × H → R et une projection φ : X → H telle que k(x, y) = Q(φ(x), φ(y)) ∀x, y ∈ X. On
va considérer H l’espace vectoriel engendré par les fonctions de la forme y → k(y, x) pour tout x ∈ X.
Un élément de H est donc une fonction de X → R.
Soit Φ : X → H := k(., x) un mapping de X aux fonctions de H, Φ(x)(x0 ) = k(x0 , x). Soient αi ∈ R,
βi ∈ R, xi ∈ X, x0i ∈ X pour i ∈ {1..n}. On définit :
n
X n
X n X
X n
f (.) = αi Φ(xi )(.), g(.) = βi Φ(x0i )(.), Q(f, g) = αi βj k(xi , x0j )
i=1 i=1 i=1 j=1
• Q est bilinéaire
• Q(f, f ) ≥ 0 (on montrera dans la dernière question que Q(f, f ) = 0 ⇐⇒ f = 0).
Q 3.2.3 Que vaut Q(k(., x), f ) ? Q(k(., x), k(., x0 )) ? Justifiez le nom de k : reproducing kernel.
Q 3.2.4 En admettant que Q(f, g)2 ≤ Q(f, f )2 Q(g, g)2 , montrez que |f (x)|2 ≤ k(x, x).Q(f, f ).
Concluez.