Chapitre 3 Unconstrained Convex Optimization New
Chapitre 3 Unconstrained Convex Optimization New
Chapitre 3 Unconstrained Convex Optimization New
UNCONSTRAINED CONVEX
OPTIMIZATION
GRADIENT D’UNE FONCTION
Le gradient d’une fonction est un vecteur dont les
coordonnées sont les dérivées partielles par rapport à
chacune des variables de la fonction
Exemple: 𝑓 = 𝑥 2 + 𝑥𝑦 + 𝑦 2
𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦)
𝑔𝑟𝑎𝑑(𝑓) = 𝛻𝑓 = , = 𝑖+ 𝑗
𝑑𝑥 𝑑𝑦 𝑑𝑥 𝑑𝑦
On peut généraliser au cas de n variables
𝛻𝑓 = 2𝑥 + 𝑦 𝑖 + 2𝑦 + 𝑥 𝑗
À chaque point de coordonnées (x,y) on associe un vecteur particulier de
coordonnées 2𝑥 + 𝑦 2𝑦 + 𝑥 par exemple le gradient au point A(2,4) est
le vecteur (2 × 2+4)𝑖 + 2 × 4 + 2 𝑗 = 8𝑖 + 10𝑗
10𝑗 8𝑖 + 10𝑗
10𝑗
8𝑖
GRADIENT D’UNE FONCTION
Le gradient d’une fonction est un vecteur dont les
coordonnées sont les dérivées partielles par rapport à
chacune des variables de la fonction
Exemple: 𝑓 = 𝑥 2 + 𝑥𝑦 + 𝑦 2
𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦)
𝑔𝑟𝑎𝑑(𝑓) = 𝛻𝑓 = , = 𝑖+ 𝑗
𝑑𝑥 𝑑𝑦 𝑑𝑥 𝑑𝑦
On peut généraliser au cas de n variables
𝛻𝑓 = 2𝑥 + 𝑦 𝑖 + 2𝑦 + 𝑥 𝑗
À chaque point de coordonnées (x,y) on associe un vecteur particulier de
coordonnées 2𝑥 + 𝑦 2𝑦 + 𝑥 par exemple le gradient au point A(2,4) est
le vecteur (2 × 2+4)𝑖 + 2 × 4 + 2 𝑗 = 8𝑖 + 10𝑗
8𝑖 + 10𝑗
10𝑗
8𝑖
GRADIENT D’UNE FONCTION
Norme par rapport à y
Norme par rapport à x 𝑑𝑓(𝑥, 𝑦)
𝑑𝑓(𝑥, 𝑦) 𝑗
𝑖 𝑑𝑦
𝑑𝑥
𝑑𝑓(𝑥, 𝑦)
𝑗
𝑑𝑦
𝑑𝑓(𝑥, 𝑦)
𝑖
𝑑𝑥
Vue 2D Vue 3D
MÉTHODE DE LA DESCENTE DU GRADIENT
1 1
Exemple: Nous voulons minimiser la fonction 𝑓 𝑥, 𝑦 = 𝑥 2 + 𝑥 + 𝑦 2 − 2
2 4
𝑑𝑓(𝑥,𝑦) 𝑑𝑓(𝑥,𝑦) 1
= 𝑥 + 1, = 𝑦
𝑑𝑥 𝑑𝑦 2
𝑓 𝑥1 , 𝑥2 = 𝑥1 − 𝑥2 2
𝑓 𝑥1 , 𝑥2 = −2𝑥1 − ln 𝑥2 + 1
f(x,y) = x2+y2
1
f ( x, y ) x y
xy