Transp Optim 2018
Transp Optim 2018
Transp Optim 2018
thierry.chonavel@imt-atlantique.fr
IMT-Atlantique - Rennes I
Automne 2018
7 février 2019 1 / 37
Sommaire
1 Rappels
Rappels de topologie et de calcul différentiel
Convexité
2 Optimisation
Généralités
Optimalité
3 Algorithmes d’optimisation sans contraintes
4 Optimisation sous contraintes d’égalité
Généralités
Conditions d’optimalité
5 Optimisation sous contraintes d’inégalité
Généralités
Conditions d’optimalité
6 Algorithmes d’optimisation avec contraintes
7 février 2019 2 / 37
Introduction
7 février 2019 3 / 37
Objectifs du cours
7 février 2019 4 / 37
Sommaire
1 Rappels
Rappels de topologie et de calcul différentiel
Convexité
2 Optimisation
Généralités
Optimalité
3 Algorithmes d’optimisation sans contraintes
4 Optimisation sous contraintes d’égalité
Généralités
Conditions d’optimalité
5 Optimisation sous contraintes d’inégalité
Généralités
Conditions d’optimalité
6 Algorithmes d’optimisation avec contraintes
7 février 2019 5 / 37
Sommaire
1 Rappels
Rappels de topologie et de calcul différentiel
Convexité
2 Optimisation
7 février 2019 6 / 37
Rappels de topologie
Pn 1/p
Norme Lp : x ∈ Rn , k x kp = i=1 xpi
Ensemble ouvert, point intérieur, voisinage d’un point, adhérence d’un ensemble,
ensemble fermé
Ensemble compact
Corrolaire
Si f est continue sur Rn et limkxk→∞ f (x) = +∞, alors f (R) = [m, ∞[ et il existe xm de
Rn tel que m = minx∈R f (x) = f (xm ).
7 février 2019 7 / 37
Rappels de calcul différentiel
∂fj (x)
[∇f(x)]ij = (2)
∂xi
∂f (x) ∂f (x) T
Pour m = 1, ∇f (x) = [ ,..., ]
∂x1 ∂xn
7 février 2019 8 / 37
Matrice hessienne
∂ 2 f(x)
[∇2 f(x)]ij = . (4)
∂xi ∂xj
7 février 2019 9 / 37
Convexité
Ensemble convexe : A ⊂ Rn est convexe si
7 février 2019 10 / 37
Sommaire
1 Rappels
2 Optimisation
Généralités
Optimalité
7 février 2019 11 / 37
Optimisation : généralités
7 février 2019 12 / 37
Conditions d’optimalité
7 février 2019 13 / 37
Minimisation : cas convexe
7 février 2019 14 / 37
Sommaire
1 Rappels
2 Optimisation
7 février 2019 15 / 37
Critères quadratiques et elliptiques
fonctions quadratiques :
f (x) = xT Ax + xT b + c. Minimisation et convexité
Extension : fonctions elliptiques
I définition : ∃α > 0, (∇f (y) − ∇f (x))T (y − x) ≥ α k y − x k2
I propriétés : si f est elliptique, elle est strictement convexe et
α
f (y) − f (x) ≥ ∇f (x)T (y − x) + k y − x k2 .
2
I f ∈ C 2 est elliptique si et seulement si dT ∇2 f (x)d ≥ α k d k2 .
7 février 2019 16 / 37
Méthode de relaxation
7 février 2019 17 / 37
Algorithme du gradient (pas optimal)
xk+1 = xk − ρk ∇f (xk )
7 février 2019 18 / 37
Algorithme du gradient (pas constant et pas variable)
gradient à pas fixe et variable :
Cas quadratique
f (xk )
Méthodes du gradient à pas normalisé : xk+1 = xk − ρk ∇ ,
P k ∇f (xk ) k
avec limk→∞ ρk = 0 et k ρk = ∞.
7 février 2019 19 / 37
Méthodes de directions conjuguées
1
minx f (x) = xT Ax − bT x, A ∈ Rn×n , A > 0
2
Directions conjuguées d0 , . . . , dn−1 avec dT
i Adj = 0 pour i 6= j.
d0 , . . . , dn−1 forme une base de R n
Pn−1 dT k b
x∗ solution ⇒ x∗ = k=0 T
dk
dk Adk
Théorème
dT
k [Axk − b]
Pour x0 ∈ Rn et xk+1 = xk − dk , on a xn = x∗
dT
k Ad k
7 février 2019 20 / 37
Algorithme du gradient conjugué
Initialisation : x0 ∈ Rn , d0 = −g0 = b − Ax0 ,
Itérations :
xk+1 = xk + αk dk , où αk = arg minα f (xk + αdk ) :
gT dk
αk = − Tk et gk = Axk − b(= ∇f (xk ))
dk Adk
(13)
dk+1 = −gk+1 + βk dk
gT Adk T (g
gk+1 k+1 − gk )
T g
gk+1 k+1
βk = k+1 (= = )
dTk Ad k g Tg
k k g Tg
k k
7 février 2019 21 / 37
Extension non quadratique du gradient conjugué
On prend gk = ∇f (xk )
On calcule αk en minimisant directement f (xk + αdk )
On prend dk+1 = −gk+1 + βk dk
On peut choisir
T
gk+1 gk+1
I βk = T
(Fletcher-Reeves).
gk gk
(gk+1 − gk )T gk+1
I βk = (Polak-Ribière).
gkT gk
7 février 2019 21 / 37
Algorithmes de Newton
7 février 2019 22 / 37
Sommaire
1 Rappels
2 Optimisation
7 février 2019 23 / 37
Optimisation sous contraintes d’égalité
Problème :
minx f (x)
(14)
h(x) = 0
avec h = [h1 , . . . , hm ]T : Rn → Rm (m < n).
Définitions
On dit que V = {x ∈ Rn ; hi (x) = 0, i = 1, . . . , m} est une variété de
Rn .
Si les fonctions hi sont différentiables, on dit que V est une variété
différentiable.
x est un point régulier si ∇h(x) est de rang m.
7 février 2019 24 / 37
Espace tangent
Définition
L’espace tangent à V en un point x régulier, noté T (x), est l’espace
engendré par les vecteurs tangents à V en x.
Théorème
Si x est un point régulier,
7 février 2019 25 / 37
Espace tangent (preuve)
7 février 2019 26 / 37
Conditions d’optimalité (contraintes d’égalité)
Théorème (CN1)
Si x est un point régulier de V. Si f est minimum en x,
7 février 2019 27 / 37
Conditions d’optimalité (contraintes d’égalité)
Théorème (CN2)
Si x est un point régulier de V. Si f est minimum en x, alors il existe
λ ∈ Rm tel que
Théorème (CS2)
Si x est un point régulier de V. Si il existe λ ∈ Rm tel que (I ) soit vérifiée
et ∇2x L(x, λ) est définie positive sur T (x), alors f a un minimum local strict
en x.
7 février 2019 28 / 37
Sommaire
1 Rappels
2 Optimisation
7 février 2019 29 / 37
Optimisation sous contraintes d’inégalité
minx f (x)
(19)
h(x) ≤ 0
U = {x ∈ Rn ; hi (x) ≤ 0, i = 1, . . . , m}
On dit que la contrainte hi (x) ≤ 0 est active en x si hi (x) = 0.
Notation :
I I(x) = {i; hi (x) = 0, i = 1, . . . , m},
I V(x) = {y ∈ Rn ; hi (y) = 0, i ∈ I(x)}.
On notera T (x) l’espace tangent à V(x)
On dit que x est un point régulier si {∇hi (x); i ∈ I(x)} forme une
famille libre.
7 février 2019 30 / 37
Conditions d’optimalité (contraintes d’inégalité)
∇x f (x) + ∇h(x)µ = 0
(20)
µi hi (x) = 0, i = 1, . . . , m.
7 février 2019 31 / 37
Conditions d’optimalité (contraintes d’inégalité)
Théorème (CN2)
Si x est un point régulier de V. Si f est minimum en x, alors il existe
µ ∈ Rm+ tel que
Théorème (CS2)
Si x est un point régulier de V et si il existe µ ∈ Rm + tel que (I ) et (II )
2
soient vérifiées et ∇x L(x, λ) est définie positive sur T (x), alors f a un
minimum local strict en x.
7 février 2019 32 / 37
Sommaire
1 Rappels
2 Optimisation
7 février 2019 33 / 37
Dualité
minx f (x)
(21)
h(x) = 0
7 février 2019 34 / 37
Dualité
Lemme
∇λ φ(λ) = h(xλ ), ∇2λ φ(λ) = −[∇x h(xλ )]T ∇2x L(xλ , λ)∇x h(xλ )
Théorème
Si (x∗ , λ∗ ) est solution avec x∗ régulier et ∇2x L(x∗ , λ∗ ) > 0,
maxλ φ(λ) = φ(λ∗ ) = f (x∗ ) et xλ∗ = x∗ .
xk+1 = xk − ρk ∇x L(x, λk )
(22)
λk+1 = λk + ρk h(xk )
7 février 2019 35 / 37
Lagrangien augmenté : contraintes d’égalité
1
(
minx f (x) minx f (x) + c k h(x) k2
(I ) ⇔ (II ) 2 (23)
h(x) = 0 h(x) = 0
1 1
φII (λ) = minx LI (x, λ) + c k h(x) k2 = LI (xλ , λ) + c k h(xλ ) k2 .
2 2
∇λ φII (λ) = ch(xλ ) et si ∇2λ φII (λ) < 0 sur Vλ∗ on peut actualiser λ par
λ → λ + ch(xλ ). D’où l’algorithme
1
xk+1 = arg minx LI (x, λ) + k h(x) k2
2 (24)
λk+1 = λk + ch(xk )
7 février 2019 36 / 37
Lagrangien augmenté : contrainte d’inégalité
1
(
minx f (x) minx f (x) + c k h(x) + v k2
(I ) ⇔ (II ) 2 (25)
h(x) ≤ 0 h(x) + v = 0, v ≥ 0
1
φII (µ) = minx,v≥0 (f (x) + µT (h(x) + v) + c k h(x) + v k2 )
2
v = max[0, −h(x) − µ/c] et
1 Pm
φII (µ) = minx (f (x) + (max[0, µk + chk (x)])2 − µ2k
2c k=1
Algorithme :
1 Pm
xk+1 = arg minx (f (x) + (max[0, µk + chk (x)])2 − µ2k
2c k=1 (26)
µk+1 = µk + c(h(xk ) + max[0, −h(xk+1 ) − µk /c])
7 février 2019 37 / 37