Chapitre 31
Chapitre 31
Chapitre 31
PRÉHILBERTIENS
Exemples 31.2
Rn × Rn −→ R
n
Iφ : X est symétrique car
(x 1 , . . . , x n ), (y1 , . . . , yn ) 7−→ x i yi
i=1
n
X n
X
φ((x 1 , . . . , x n ), (y1 , . . . , yn )) = x i yi = yi x i = φ((y1 , . . . , yn ), (x 1 , . . . , x n ))
i=1 i=1
1
2 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS
définir la notion de forme n-linéaire symétrique sur E n , une telle forme étant invariante
par échange de deux vecteurs.
3 Car les transpositions en-
Il est alors facile de prouver3 qu’il s’agit alors d’une application invariante par toute permu-
tation des vecteurs de E n . gendrent le groupe Sn .
Exemples 31.3
E ×E −→ R
b
I Si E = C([a, b], R), alors φ : est une forme bili-
Z
(f , д) 7−→ f (t)д(t) dt
a
néaire symétrique car
Z b Z b Z b
3
∀(f , д, h) ∈ C([a, b], R) , ∀λ ∈ R,
λ f (t)+д(t) h(t) dt = λ f (t)h(t) dt+ д(t)h(t) dt
a a a
Espaces des V.A.R. ?
Z b Z b Cet ensemble est bien un
et ∀f , д ∈ C([a, b], R), f (t)д(t) dt = д(t)f (t) dt. espace vectoriel sur R en tant
a a qu’ensemble des fonctions de
I Si E est l’ensemble des variables aléatoires réelles sur un espace probabilisé fini Ω dans R.
(Ω, P), alors Cov : (X , Y ) 7→ Cov(X , Y ) est une forme bilinéaire symétrique. Savez-vous prouver qu’il
est de dimension finie et
La proposition suivante n’est rien d’autre qu’une généralisation des identités remarquables déterminer sa dimension ?
habituelles.
φ(x + y, x − y) = φ(x, x) + φ(x, −y) + φ(y, x) + φ(y, −y) = φ(x, x) − φ(y, y).
Remarque
L’implication
Définition 31.5 – Une application φ : E × E → R est un produit scalaire sur E x = 0E ⇒ φ(x, x ) = 0
si :
est toujours vérifiée pour
1. φ est une forme bilinéaire symétrique sur E une forme bilinéaire, donc il
s’agit surtout de vérifier que
2. ∀x ∈ E, φ(x, x) > 0 (on dit que φ est positive)
φ(x, x ) = 0 ⇒ x = 0E .
3. ∀x ∈ E, φ(x, x) = 0 ⇔ x = 0E (on dit que φ est définie).
Un produit scalaire est donc une forme bilinéaire symétrique définie positive.
Remarques. I Pour prouver que φ : E × E → R est un produit scalaire, il faut vérifier quatre
propriétés :
1) φ est linéaire par rapport à sa première variable.
2) φ est symétrique (et donc 1) et 2) impliquent la linéarité par rapport à la seconde
variable).
3) Pour tout x ∈ E, φ(x, x) > 0.
Exemples 31.6
Rn × Rn −→ R
n
Iφ : X
(x 1 , . . . , x n ), (y1 , . . . , yn ) 7−→ x i yi
i=1
On a déjà prouvé qu’il s’agissait d’une forme bilinéaire symétrique.
Soit (x 1 , . . . , x n ) ∈ Rn . Alors
n
x i2 > 0.
X
φ((x 1 , . . . , x n ), (x 1 , . . . , x n )) =
i=1
De plus, une somme de nombres positifs est nulle si et seulement si tous ces nombres
sont nuls, donc
n
x i2 = 0 ⇔ ∀i ∈ n1, no, x i2 = 0
X
φ((x 1 , . . . , x n ), (x 1 , . . . , x n )) = 0 ⇔
i=1
Cas particuliers
⇔ ∀i ∈ n1, no, x i = 0
Pour n = 2 ou n = 3, on
⇔ (x 1 , . . . , x n ) = (0, . . . , 0). retrouve les produits scalaires
du plan et de l’espace étudiés
Donc φ est un produit scalaire, appelé produit scalaire canonique sur Rn . au lycée.
I Plus généralement, si E est un espace de dimension finie, muni d’une base
B = (e 1 , . . . , en ), alors l’application φ B définie par
X n Xn n
X
φ B * x i ei , yi e i + = x i yi
, i=1 i=1 - i=1
Exercice
est un produit scalaire sur E. Le prouver.
Notons qu’on peut aussi définir φ B de la manière suivante :
L’inégalité de Cauchy-Schwarz est donc bien une égalité. Remarque : cette preuve
est la même que celle mon-
trant que
Corollaire 31.9 (Inégalité de Cauchy-Schwarz dans Rn ) – Pour tous n-uplets C’est normal, car on n’utilise
(x 1 , . . . , x n ), (y1 , . . . , yn ) de réels, on a pas ici
n
v
t n
v
t n hx, x i = 0 ⇔ x = 0E
X X X
x i yi 6 2
xi yi2 . et la covariance vérifie toutes
i=1 i=1 i=1 les autres propriétés d’un
produit scalaire.
Z b
Démonstration. C’est Cauchy-Schwarz pour le produit scalaire (f , д) 7→ f (t)д(t) dt sur
a
C([a, b], R).
Définition 31.11 – Si h·, ·i est un produit scalaire sur E, on appelle norme associée
à h·, ·i l’application
E −→ R p+
k·k:
x 7−→ hx, xi
En particulier, kxk2 = hx, xi.
On appelle alors norme du vecteur x ∈ E le réel positif kxk = hx, xi.
p
Exemple 31.12
Définition 31.14 – On appelle norme sur un espace vectoriel réel E toute applica-
tion N : E → R+ vérifiant :
1. ∀x ∈ E, N (x) = 0 ⇔ x = 0E
2. ∀x ∈ E, ∀λ ∈ R, N (λx) = |λ|N (x)
3. ∀(x, y) ∈ E 2 , N (x + y) 6 N (x) + N (y).
Exemple 31.15
Ne nous attardons pas trop sur le sujet, mais certaines normes peuvent avoir des propriétés
un peu déroutantes.
Par exemple dans R2 , la norme que vous connaissez bien, qui est donc la norme associée au
produit scalaire canonique correspond à la longueur d’un vecteur telle que vous l’imaginez.
Et donc B2 = {u ∈ R2 | kuk 6 1} = {(x, y) ∈ R2 | x 2 + y 2 6 1} est le disque centré en
p
l’origine et de rayon 1.
10 Je vous laisse vous en
Par contre, B∞ = {u ∈ R2 | N ∞ (u) 6 1} est un carré10 centré en l’origine.
L’an prochain vous nommerez boules ces deux ensembles, et donc la norme N ∞ est une convaincre.
norme pour laquelle les boules sont carrées !
B2
B∞
Si à tout produit scalaire est associé une norme, la réciproque n’est pas vraie, et il existe des
normes non associées à des produits scalaires, c’est par exemple le cas de N ∞ ci-dessus.
Démonstration. Soustraire les deux premières formules de polarisation (ou repartir des
identités remarquables).
x~ − y~
x~
x~ + y~
y~
FIGURE 31.3 – Dans un parallélogramme, la somme des carrés des diagonales est égale à la
somme des carrés des côtés.
Exemples 31.20
∀x ∈ F , ∀y ∈ G, hx, yi = 0.
De manière équivalente, ceci signifie que tout vecteur de F est orthogonal à tout G
vecteur de G.
FIGURE 31.4– Tout vecteur de F
est orthogonal à tout vecteur de G.
Exemple 31.22
Remarque. Nous avons donc deux notions d’orthogonalité : une pour les vecteurs et une
pour les sous-espaces vectoriels de E.
Ces notions ne sont pas sans rapport, et un bon exercice pour manipuler les définitions est
de prouver que deux vecteurs x et y sont orthogonaux si et seulement si les sous-espaces
Vect(x) et Vect(y) sont orthogonaux.
Définition 31.24 – Une famille de vecteurs de E est dite orthogonale si ses vecteurs
sont deux à deux orthogonaux.
Autrement dit, (x i )i ∈I est orthogonale si ∀(i, j) ∈ I 2 , i , j ⇒ hx i , x j i = 0. On
dit qu’une famille est orthonormée (ou orthonormale) si elle est orthogonale, et
formée de vecteurs unitaires.
Autrement dit, (x i )i ∈I est orthonormée si et seulement si
1 si i = j
∀(i, j) ∈ I 2 , hx i , x j i = δi, j =
0 si i , j
Intuition
En divisant un vecteur par sa
Remarque. À partir d’une famille orthogonale (x 1 , . . . , x n ) ne contenant pas le vecteur nul, norme, on modifie sa norme,
mais pas sa direction. Or le
!
x1 xn
il est facile d’obtenir une famille orthonormée : il suffit de considérer ,··· , . fait que deux vecteurs soient
kx 1 k kx n k
ou non orthogonaux ne dé-
pend que de leurs directions,
Exemples 31.25 et pas de leurs normes.
# 2π # 2π
1 1
" "
= sin ((k + `)t) + sin ((k − `)t)
2(k + `) 0 2(k − `) 0
= 0.
Proposition 31.26 : Une famille orthogonale ne contenant pas le vecteur nul est libre.
12 Et en particulier est une
En particulier, toute famille orthonormée est libre12 .
base dès qu’elle a «le bon»
cardinal.
Démonstration. Prouvons le résultat pour une famille finie, le cas infini en découlant di-
rectement. Soit (x 1 , . . . , x n ) une famille orthogonale dont tous les vecteurs sont non nuls.
n
X
Soient λ 1 , . . . , λn ∈ R tels que λi x i = 0E . Alors,
i=1
n
*X + Xn
∀j ∈ n1, no, 0 = λi x i , x j = λi hx i , x j i = λ j hx j , x j i = λ j kx j k2 .
i=1 i=1
Démonstration. On a
x~
kx + yk = hx + y, x + yi = hx, xi + 2hx, yi + hy, yi = kxk2 + kyk2 + 2hx, yi.
2
FIGURE 31.5– Théorème de
Et donc kx + yk2 = kxk2 + kyk2 si et seulement si hx, yi = 0. Pythagore : pas de surprise...
n 2 n
kx i k2 .
X X
xi =
i=1 i=1
e3 e3 e3
e2 x1 e2 x1
e1 x 2∗
e3 x 3∗ x3
x1 x2 x1 x2 x1 x2
Remarques. I Les notations ne sont pas immuables, et il n’y a pas de notation canonique
pour les vecteurs que j’ai noté ci-dessus x 1∗ , . . . , x n∗ . De toutes façons, ils ne sont qu’une
étape intermédiaire vers le résultat final.
I En particulier, lorsque la famille (e 1 , . . . , en ) est une base de E, alors la famille (x 1 , . . . , x n )
16 Car orthogonale et ne
est une base orthonormée de E, car elle est libre16 et génératrice grâce au second point de
la proposition. contenant pas le vecteur nul
! (puisque formée de vecteurs
e1 en
I Si (e 1 , . . . , en ) est déjà orthogonale, alors (x 1 , . . . , x n ) = ,..., . unitaires).
ke 1 k ken k
Autrement dit
Et si (e 1 , . . . , en ) est orthonormée, alors (x 1 , . . . , x n ) = (e 1 , . . . , en ).
Si on applique Gram-
Schmidt à une famille or-
thonormée, alors celle-ci
Exemple 31.30 n’est pas modifiée.
Z 1
Dans R2 [X ] muni du produit scalaire hP, Qi = P(t)Q(t) dt, appliquons le procédé
0
d’orthonormalisation de Gram-Schmidt à la base canonique (1, X , X 2 ).
Notons donc P 1 = 1, P2 = X et P3 = X 2 , et construisons une famille orthonormée
(Q 1 , Q 2 , Q 3 ) à partir de (P 1 , P 2 , P 3 ).
Z 1
On a kP1 k2 = 1 dt = 1 et donc kP1 k = 1. Soit donc Q 1 = P 1 = 1. Posons ensuite
0 Z 1
∗ 1
Q 2 = X − hX , 1i1 = X − t dt = X − .
2
Z 1 !02
1 1
Alors kQ 2∗ k2 = t− dt = .
0 2 12
1 √ 1
!
Posons donc Q 2 = Q = 12 X − . Soit ensuite Q 3∗ défini par
∗
kQ 2∗ k 2 2
Q 3∗ =X 2 − hX 2 , Q 1 iQ 1 − hX 2 , Q 2 iQ 2
Z 1 √ Z 1
1
! !
=X 2 − t 2 dt − 12 t2 t − dt Q 2
0 0 2
1 1 1
!
=X 2 − − X − = X2 − X +
3 2 6
On a alors
1 !2
1
Z
kQ 3∗ k2 = t2 − t + dt
0 6
1
1 t2 t
Z !
= t4 + t2 +
+ − − 2t 3 dt
0 36 3 3
1 1 1 1 1 1 1
= + + + − − = .
5 3 36 9 6 2 180
Q 3∗ √ √ 1
!
Posons alors Q 3 = ∗
= 180Q 3 = 180 X − X + 2 .
kQ 3∗ k 6
La famille (Q 1 , Q 2 , Q 3 ) est alors une famille orthonormée de R2 [X ], donc libre. Elle
est de cardinal 3 = dim R2 [X ] : il s’agit d’une base orthonormée de R2 [X ].
Astuce : notons qu’il est possible de gagner un peu de temps dans les calculs, en remarquant
i−1
X i−1
X
que x i∗ = ei − hei , x k ix k , s’écrit encore ei = x i∗ + hei , x k ix k où x i∗ et les x k sont deux à
k =1 k =1
deux orthogonaux. Donc d’après le théorème de Pythagore,
i−1 i−1
kei k2 = kx i∗ k2 + hei , x k i2 kx k k2 ⇔ kx i∗ k2 = kei k2 − hei , x k i2 .
X X
|{z}
k =1 =1 k =1
1 1 1 1
kQ 3∗ k2 = kX 2 k2 − hX 2 , Q 1 i2 − hX 2 , Q 2 i2 = − − = .
5 9 12 180
17 hX 2, Q i et hX 2, Q i ont
Et donc le calcul de la norme de Q 3∗ ne nous a pas demandé de nouveau17 calcul d’intégrale 1 2
(hormis celle définissant kP3 k2 , qui était somme toute assez simple à calculer). de toutes façons été calculés
pour obtenir l’expression de
Q 3∗ .
Corollaire 31.31 : Soit E un espace euclidien. Alors il existe une base orthonormée de E.
hx, e i
*. . 1 +/
Autrement dit, les coordonnées de x dans la base B sont données par MatB (x) = .. .. //.
,hx, en i-
Démonstration. Soit x ∈ E. Puisque B est une base, il existe des scalaires uniquement
n
X
déterminés x 1 , . . . , x n tels que x = x i ei .
i=1
Mais alors
n
*X + n
X
∀i ∈ n1, no, hx, ei i = x j e j , ei = x j he j , ei i = x i hei , ei i = x i .
j=1 j=1
| {z }
=0 si i,j
n
X
Et donc x = hx, ei iei .
i=1
Exemple 31.34
∀x = (x 1 , . . . , x n ) ∈ Rn , hx, ei i = x i
B Attention !
Proposition 31.35 (Calcul de la norme à l’aide d’une base orthonormée) : Ceci ne vaut que si l’on
travaille dans une base ortho-
n normée !
∀x ∈ E, kxk2 = hx, ei i2 .
X
x y
*. .1 +/ *. .1 +/ Xn Xn
Démonstration. Notons X = .. . // et Y = .. .. //, de sorte que x =
. x i ei et y = yi e i .
x y i=1 i=1
, n- , n-
Xn
Alors X >Y = x i yi .
i=1
Mais par ailleurs,
n
*X n
X + n X
X n n
X
hx, yi = x i ei , yj ej = x i y j hei , e j i = x i yi .
i=1 j=1 i=1 j=1 i=1
Cette proposition justifie l’intérêt de travailler en base orthonormée : tous les calculs de
produits scalaires (et donc ceux de normes également) se font comme dans Mn,1 (R) muni
de son produit scalaire canonique (et donc comme dans Rn muni de son produit scalaire
Xn n
X n
X
canonique) : hx, yi = x i yi où x = x i ei et y = yi e i .
i=1 i=1 i=1
En d’autres termes, l’application x 7→ MatB (x) est ce qu’on aurait envie d’appeler un
isomorphisme d’espaces euclidiens, c’est-à-dire un isomorphisme d’espaces vectoriels, qui
en plus préserve le produit scalaire, entre E et Mn,1 (R) muni de son produit scalaire
canonique.
A⊥ = {x ∈ E | ∀a ∈ A, hx, ai = 0}.
Exemples 31.38
Proposition 31.39 : Soient A et B deux parties d’un espace préhilbertien E. Alors Remarque
1. A⊥ est un sous-espace vectoriel de E. La plupart du temps, nous
2. Si A ⊂ B, alors B ⊥ ⊂ A⊥ . serons amenés à considérer
le cas où A est un sev de
3. A⊥ = (Vect A)⊥ E, mais notez que ce n’est
nullement une obligation.
Le troisième point nous dit
Démonstration. 1. Il est évident que 0E ∈ A⊥ car le vecteur nul est orthogonal à tous les toutefois qu’on peut toujours
éléments de A. s’y ramener.
Soient x, y ∈ A⊥ et soit λ ∈ R. Alors pour tout a ∈ A,
x ∈ (Vect A)⊥ .
Donc A⊥ ⊂ (Vect A)⊥ , et donc par double inclusion, ces deux ensembles sont égaux.
Remarque. Le dernier point nous dit notamment que lorsque F = Vect(e 1 , . . . , en ) est un
sous-espace vectoriel de dimension finie de E, un vecteur est dans F ⊥ si et seulement si il
est dans {e 1 , . . . , en }⊥ , c’est-à-dire si et seulement si il est orthogonal à tous les vecteurs
d’une base de F .
Exemples 31.40
la forme linéaire non nulle (x, y, z) 7→ x − y + z), et les deux vecteurs (1, 0, −1) et néaires.
(0, 1, 1) forment une famille libre19 de F , de cardinal 2 = dim F , donc c’est une base
Sans les mains !
de F . Avez-vous remarqué qu’on
Un vecteur (x, y, z) de R3 est dans F ⊥ si et seulement si a obtenu une base de F sans
jamais avoir eu à résoudre un
système, ni même à faire le
h(x, y, z), (1, 0, −1)i = 0 x − z = 0 x = z
⇔ ⇔
h(x, y, z), (0, 1, 1)i = 0 y + z = 0 y = −z moindre calcul ?
À l’écrit je ne suis pas sûr
qu’on y gagne beaucoup,
Donc F ⊥ = Vect((1, −1, 1)). mais à l’oral de tels raison-
n
X nements seront grandement
I Sur Rn [X ], posons hP, Qi = P (i) (0)Q (i) (0). Alors, il est facile de voir que h·, ·i appréciés.
i=0
est bilinéaire symétrique. De plus, si P ∈ Rn [X ], alors
n
P (i) (0)2 > 0.
X
hP, Pi =
i=0
BNous allons tout de suite voir qu’en dimension finie, cette inclusion est une égalité. 21 Voir le TD pour un
Ce n’est pas vrai en toute généralité en dimension infinie21 .
exemple.
31.3.2 Supplémentaire orthogonal d’un sous-espace de dimension finie
Nous avons vu dans la partie précédente que si E est de dimension finie, alors pour tout
sous-espace vectoriel F de E, F ⊥ est un supplémentaire de F .
Ce résultat reste en fait valable si seul F (et pas nécessairement E) est de dimension finie.
n
X
Ceci prouve que x − hx, fk ifk ∈ F ⊥ , et donc
k =1
n
X n
X
x= hx, fk ifk + x − hx, fk ifk ∈ F + F ⊥ .
k =1 k =1
| {z } | {z }
∈F ∈F ⊥
Proposition 31.44 : Si E est un espace euclidien, alors pour tout sous-espace vectoriel F
de E, dim F ⊥ = dim E − dim F .
Exemple 31.45
Dans le cas d’un hyperplan de Rn muni de son produit scalaire canonique, il est
très facile d’obtenir un vecteur normal à partir d’une équation de l’hyperplan.
En effet, supposons qu’une équation de H soit a 1x 1 + a 2x 2 + · · · + an x n = 0, où les
ai ne sont pas tous nuls.
H⊥
On peut alors encore écrire
a
H = {(x 1 , . . . , x n ) ∈ Rn | h(x 1 , . . . , x n ), (a 1 , . . . , an )i = 0} = {(a 1 , . . . , an )}⊥ H
F⊥
x xF ⊥
x F = p F (x)
Remarques. I Jusqu’à présent, lorsque nous parlions de projection, il fallait toujours préciser
B Attention !
sur quel espace on projetait (ici c’est F ), mais également par rapport à quel supplémentaire
Si on parle d’une projection
de F on projetait. qui n’est pas une projection
Pour une projection orthogonale, il n’y a pas besoin de préciser ce supplémentaire, orthogonale, il faut toujours
puisque si on parle justement de projection orthogonale, cela signifie que parmi tous les préciser parallèlement à quoi
supplémentaires de F on en choisit un en particulier qui est F ⊥ . on projette.
I En particulier, on a toujours x − p F (x) = (x F + x F ⊥ ) − x F = x F ⊥ ∈ F ⊥ .
De toutes façons, nous savons que idE −p F est la projection sur F ⊥ parallèlement à F = (F ⊥ )⊥ .
Et donc c’est la projection orthogonale sur F ⊥ .
I On a donc Im(p F ) = F et Ker p F = F ⊥ . Plus généralement, comme nous savons qu’un
projecteur p est toujours la projection sur Im p parallèlement à Ker p. Autrement dit, un
projecteur p est orthogonal si et seulement si (Im p)⊥ = Ker p.
Donnons deux méthodes pour calculer un projeté orthogonal.
La première consiste à remarquer que si (e 1 , . . . , en ) est une base de F , alors pour tout x ∈ E,
on a
1. p F (x) ∈ F = Vect(e 1 , . . . , en )
2. x − p F (x) ∈ F ⊥ ⇔ ∀i ∈ n1, no, hx − p F (x), ei i = 0.
Ces deux conditions, qui caractérisent alors uniquement p F (x), permettent alors d’écrire
un système linéaire de n équations à n inconnues (les coordonnées de p F (x) dans la base
Exemple 31.47
4
hx − p F (x), e 1 i = 2 − λ 1 − λ 2 + 2(2 − 2λ 1 ) = 0 5λ 1 + λ 2 = 6 λ 1 = 3
⇔ ⇔
hx − p F (x), e 2 i = 2 − λ 1 − λ 2 − (2 + λ 2 ) = 0 λ 1 + 2λ 2 = 0 λ 2 = −2
3
4 2 1
Donc p F (x) = e 1 − e 2 = (2, 8, 2).
3 3 3
I Soit e ∈ E un vecteur non nul, et soit F = Vect(e) la droite engendrée par e. Alors
e
une base orthonormée de F est kek , et la projection orthogonale sur F est alors
hx, ei
* +
e e
x→
7 x, = e.
kek kek kek2
x ∈ E, Détails
hx, ai a est une base de H ⊥ , c’est la
pH (x) = x − pH ⊥ (x) = x − a.
kak2 définition de vecteur normal.
Maintenant que nous disposons de cette formule, revenons un instant sur le procédé
d’orthonormalisation de Gram-Schmidt.
Soit (e 1 , . . . , en ) une famille libre, et soit (x 1 , . . . , x n ) la famille orthonormée obtenue par
Gram-Schmidt. Celle-ci était définie par récurrence par
k−1
x k∗ X
∀k ∈ n2, no, x k = où x k∗ = ek − hek , x i ix i .
kx k∗ k i=1
Dans le cas où A est un sous-espace vectoriel de dimension finie, alors la distance d’un
point à A est facile à exprimer à l’aide d’un projeté orthogonal.
x F⊥ x
• •
kx − p F (x)k •p F (x)
• u1
F
• F
v = p F (x)
•
u
Exemple 31.52
Z 2π
Cherchons ∆ = inf (x − a cos(x) − b sin(x))2 dx.
(a,b)∈R2 0
S’il est clair que cette borne inférieure existe (car les intégrales en jeu sont positives),
le lien avec ce qui précède n’est pas clair.
Plaçons nous dans l’espace préhilbertien C([0, 2π ], R), muni du produit scalaire
Z 2π
hf , дi = f (t)д(t) dt.
0
Alors soit f : x 7→ x, et soient u = cos|[0,2π ] , v = sin|[0,2π ] .
Lorsque (a, b) parcourt R2 , au + bv parcourt F = Vect(u, v).
Z 2π
Et alors (x − a cos(x) − b sin(x))2 dx = kf − (au + bv)k2 , de sorte que
0
∆ = inf kf − дk2 = d(f , F )2 .
д ∈F
Nous sommes bien en présence de la distance d’un vecteur fixé (ici f ) à un
sous-espace vectoriel de dimension finie (ici F ).
Par le théorème précédent, ∆ est atteint uniquement en д = p F (f ).
Il nous faut donc calculer ce projeté orthogonal par l’une ou l’autre des méthodes à
notre disposition.
De plus,
2π 2π # 2π
cos(2t) + 1 sin(2t) + 2t
Z Z "
kuk2 = hu, ui = cos2 (t) dt = dt = = π.
0 0 2 4 0
De même, kvk2
!= π .
u v
Donc √ , √ est une base orthonormée de F .
π π
u v
On a donc p F (f ) = hf , ui + hf , vi . Mais alors
π π
Z 2π Z 2π
it it 2π
te dt = −ite 0 + i e it dt = −2iπ .
hf , ui + ihf , vi =
0 0
8π 3
Ce n’est alors que du calcul, on obtient tous calculs faits ∆ = − 4π .
3