Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Chapitre 31

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 22

PRODUITS SCALAIRES ET ESPACES 31

PRÉHILBERTIENS

Dans tout ce chapitre, on ne considère que des espaces vectoriels sur R.


Le but principal est de généraliser la notion de produit scalaire que vous avez déjà rencontrée
dans R2 ou dans R3 .
1 Ce qui explique la termino-
Rappelons que le produit scalaire de deux vecteurs est un réel (=un scalaire1 ), et pas un
troisième vecteur. logie.
Une fois la notion de produit scalaire généralisée, nous en déduirons une notion de norme
et une notion d’orthogonalité.

31.1 PRODUITS SCALAIRES


31.1.1 Formes bilinéaires symétriques
Soit E un R-espace vectoriel.
Rappelons qu’une application φ : E × E → R est une forme bilinéaire si pour tout y ∈ E,
E −→ R E −→ R
les applications φ(·, y) : et φ(y, ·) : sont des formes
x 7−→ φ(x, y) x 7−→ φ(y, x)
linéaires sur E.

Définition 31.1 – Une forme bilinéaire φ : E × E → R est dite symétrique si

∀(x, y) ∈ E 2 , φ(x, y) = φ(y, x).

Exemples 31.2

Rn × Rn −→ R
n
Iφ : X est symétrique car
(x 1 , . . . , x n ), (y1 , . . . , yn ) 7−→ x i yi
i=1

n
X n
X
φ((x 1 , . . . , x n ), (y1 , . . . , yn )) = x i yi = yi x i = φ((y1 , . . . , yn ), (x 1 , . . . , x n ))
i=1 i=1

I Si B = (e 1 , e 2 ) est une base de R2 , alors l’application detB : R2 → R n’est pas


2 Ce qui légitime l’appella-
symétrique2 car detB (e 2 , e 1 ) = −1 , detB (e 1 , e 2 ) = 1.
tion antisymétrique...

Remarques. I Pour vérifier que φ : E × E → R est bilinéaire symétrique, il suffit de vérifier


que :
Méthode
• ∀(x, y, z) ∈ E 3 , ∀λ ∈ R, φ(λx + y, z) = λφ(x, z) + φ(y, z) : φ est linéaire par rapport à On procédera toujours ainsi
sa première variable pour prouver qu’une appli-
cation est bilinéaire symé-
• ∀(x, y) ∈ E 2 , φ(x, y) = φ(y, x) : φ est symétrique. trique : on commencera par
En effet, on a alors prouver la symétrie, puis
on prouvera la linéarité par
rapport à l’une des deux va-
∀(x, y, z) ∈ E 3 , φ(x, λy + z) = φ(λy + z, x) = λφ(y, x) + φ(z, x) = λφ(x, y) + φ(x, z). riables. On en déduira alors
automatiquement la bilinéa-
Donc φ est nécessairement linéaire par rapport à sa seconde variable. rité.
I Plus généralement, on pourrait, à l’image de ce qui a été fait pour les formes n-linéaires,

1
2 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

définir la notion de forme n-linéaire symétrique sur E n , une telle forme étant invariante
par échange de deux vecteurs.
3 Car les transpositions en-
Il est alors facile de prouver3 qu’il s’agit alors d’une application invariante par toute permu-
tation des vecteurs de E n . gendrent le groupe Sn .

Exemples 31.3

E ×E −→ R
b
I Si E = C([a, b], R), alors φ : est une forme bili-
Z
(f , д) 7−→ f (t)д(t) dt
a
néaire symétrique car
Z b Z b Z b
3
∀(f , д, h) ∈ C([a, b], R) , ∀λ ∈ R,

λ f (t)+д(t) h(t) dt = λ f (t)h(t) dt+ д(t)h(t) dt
a a a
Espaces des V.A.R. ?
Z b Z b Cet ensemble est bien un
et ∀f , д ∈ C([a, b], R), f (t)д(t) dt = д(t)f (t) dt. espace vectoriel sur R en tant
a a qu’ensemble des fonctions de
I Si E est l’ensemble des variables aléatoires réelles sur un espace probabilisé fini Ω dans R.
(Ω, P), alors Cov : (X , Y ) 7→ Cov(X , Y ) est une forme bilinéaire symétrique. Savez-vous prouver qu’il
est de dimension finie et
La proposition suivante n’est rien d’autre qu’une généralisation des identités remarquables déterminer sa dimension ?
habituelles.

Proposition 31.4 : Si φ : E × E → R est une forme bilinéaire symétrique, alors :


1. ∀(x, y) ∈ E 2 , φ(x + y, x + y) = φ(x, x) + 2φ(x, y) + φ(y, y).
2. ∀(x, y) ∈ E 2 , φ(x − y, x − y) = φ(x, x) − 2φ(x, y) + φ(y, y).
3. ∀(x, y) ∈ E 2 , φ(x + y, x − y) = φ(x, x) − φ(y, y).

Démonstration. Soient x, y ∈ E. Alors

φ(x + y, x + y) = φ(x, x + y) + φ(y, x + y) Linéarité à gauche.

= φ(x, x) + φ(x, y) + φ(y, x) + φ(y, x) Linéarité à droite.

= φ(x, x) + φ(x, y) + φ(x, y) + φ(y, y) Symétrie.

= φ(x, x) + 2φ(x, y) + φ(y, y).

Pour la seconde égalité, il suffit de remplacer y par −y.


Et pour la dernière, on a

φ(x + y, x − y) = φ(x, x) + φ(x, −y) + φ(y, x) + φ(y, −y) = φ(x, x) − φ(y, y).


Remarque
L’implication
Définition 31.5 – Une application φ : E × E → R est un produit scalaire sur E x = 0E ⇒ φ(x, x ) = 0
si :
est toujours vérifiée pour
1. φ est une forme bilinéaire symétrique sur E une forme bilinéaire, donc il
s’agit surtout de vérifier que
2. ∀x ∈ E, φ(x, x) > 0 (on dit que φ est positive)
φ(x, x ) = 0 ⇒ x = 0E .
3. ∀x ∈ E, φ(x, x) = 0 ⇔ x = 0E (on dit que φ est définie).
Un produit scalaire est donc une forme bilinéaire symétrique définie positive.

Remarques. I Pour prouver que φ : E × E → R est un produit scalaire, il faut vérifier quatre
propriétés :
1) φ est linéaire par rapport à sa première variable.
2) φ est symétrique (et donc 1) et 2) impliquent la linéarité par rapport à la seconde
variable).
3) Pour tout x ∈ E, φ(x, x) > 0.

MP2I 2021–2022 M. VIENNEY


COURS 3

4) Si φ(x, x) = 0, alors x = 0E (comme indiqué précédemment, l’implication réciproque


est toujours vraie et n’a donc pas besoin d’être vérifiée.) Rédaction 
Ce dernier point est souvent
I En général, on note hx, yi ou (x|y) au lieu de φ(x, y). celui qui est le plus difficile à
Dans ce cas, si on veut parler de la forme bilinéaire (x, y) 7→ hx, yi (et pas du réel hx, yi) on prouver, et qui demande une
la note h·, ·i (ou (·|·)). vraie justification. Attention à
ne pas le négliger.
I Le produit scalaire de deux vecteurs est, comme son nom l’indique, un scalaire. Rappelons
qu’il n’y a pas de notion naturelle de produit de deux vecteurs dans un espace vectoriel,
sauf dans quelques cas particuliers (produit de polynômes dans K[X ], produit de matrices
dans Mn (K), produit vectoriel dans R3 , etc).

Exemples 31.6

Rn × Rn −→ R
n
Iφ : X
(x 1 , . . . , x n ), (y1 , . . . , yn ) 7−→ x i yi
i=1
On a déjà prouvé qu’il s’agissait d’une forme bilinéaire symétrique.
Soit (x 1 , . . . , x n ) ∈ Rn . Alors
n
x i2 > 0.
X
φ((x 1 , . . . , x n ), (x 1 , . . . , x n )) =
i=1

De plus, une somme de nombres positifs est nulle si et seulement si tous ces nombres
sont nuls, donc
n
x i2 = 0 ⇔ ∀i ∈ n1, no, x i2 = 0
X
φ((x 1 , . . . , x n ), (x 1 , . . . , x n )) = 0 ⇔
i=1
Cas particuliers
⇔ ∀i ∈ n1, no, x i = 0
Pour n = 2 ou n = 3, on
⇔ (x 1 , . . . , x n ) = (0, . . . , 0). retrouve les produits scalaires
du plan et de l’espace étudiés
Donc φ est un produit scalaire, appelé produit scalaire canonique sur Rn . au lycée.
I Plus généralement, si E est un espace de dimension finie, muni d’une base
B = (e 1 , . . . , en ), alors l’application φ B définie par

X n Xn n
X
φ B * x i ei , yi e i + = x i yi
, i=1 i=1 - i=1
Exercice
est un produit scalaire sur E. Le prouver.
Notons qu’on peut aussi définir φ B de la manière suivante :

φ B (x, y) = (MatB (x))> MatB (y)


Z b
I hf , дi = f (t)д(t) dt est un produit scalaire sur C([a, b], R) car :
a
• nous avons déjà prouvé sa bilinéarité et sa symétrie
Z b
• ∀f ∈ C([a, b], R), f 2 (t) dt > 0 (positivité de l’intégrale).
a
Z b
• si f 2 (t) dt = 0, alors puisque f 2 est continue et positive sur [a, b], c’est
a
que ∀t ∈ [a, b], f 2 (t) = 0, et donc ∀t ∈ [a, b], f (t) = 0 : f est la fonction
nulle sur [a, b].
Notons que sur C(R, R), h·, ·i n’est plus un produit scalaire, et pourtant il s’agit
toujours d’une forme bilinéaire symétrique positive, c’est le dernier point qui fait
défaut, puisque la nullité de l’intégrale de f 2 sur [a, b] ne nous renseigne pas sur le
comportement de f en dehors de [a, b].
I Sur E = Mn (R), définissons une application φ : (A, B) 7→ tr(A> B).
La bilinéarité de φ ne pose pas de problème, sa symétrie découle de l’invariance de

MP2I 2021–2022 M. VIENNEY


4 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

la trace par transposition.


Pour A = (ai, j )16i, j 6n ∈ Mn (R), on a
n
X
φ(A, A) = tr(A>A) = [A>A]i,i
i=1
n X
n n X
n
2
X X
= [A> ]i,k [A]k,i = ak,i .
i=1 k =1 i=1 k =1

4 Toujours le même ar-


Donc non seulement φ(A, A) > 0, mais de plus4 , on a
gument : une somme de
φ(A, A) = 0 ⇔ ∀(i, k) ∈ n1, no2 , ak,i
2
= 0 ⇔ ∀(i, k) ∈ n1, no2 , ak,i = 0 ⇔ A = 0. nombres positifs est nulle si et
seulement si tous ses termes
le sont.
On dit alors que φ est le produit scalaire canonique de Mn (R) (et il faut savoir
redémontrer qu’il s’agit d’un produit scalaire).
Par un calcul similaire au précédent, on prouve que si A = (ai, j ) et B = (bi, j ), alors
Xn X n
φ(A, B) = ai, j bi, j , et donc que si B est la base canonique de Mn (R), alors
i=1 j=1
φ = φ B défini à l’exemple ci-dessus.
I L’application Cov sur l’espace des variables aléatoires sur (Ω, P) est bien bilinéaire,
symétrique et positive. Mais elle n’est pas définie car Cov(X , X ) = 0 ⇔ V(X ) = 0 est
vérifié pour tout variable suivant une loi certaine, et pas seulement pour la variable
nulle.
Donc il ne s’agit pas d’un produit scalaire.

Définition 31.7 – On appelle espace préhilbertien un espace vectoriel réel muni


d’un produit scalaire.
Un espace préhilbertien de dimension finie est alors appelé un espace euclidien. 5 Qui n’a jamais entendu
parler ni d’espace vectoriel ni
S’il est assez clair que le terme euclidien fait référence à EUCLIDE5 ,
le sens de préhilbertien de produit scalaire.
est peut-être moins clair.
6 1862–1943. Il a eu une
Il s’agit en fait d’un hommage à David HILBERT6 , qui le premier s’est intéressé aux espaces
qu’on appelle aujourd’hui espaces de Hilbert ou espaces hilbertiens7 , et qui sont des espaces grande influence sur les ma-
thématiques du XXème siècle,
munis d’un produit scalaire et vérifiant une hypothèse supplémentaire (appelée complé-
notamment à travers la liste
tude). Si on enlève cette dernière hypothèse, on obtient donc les espaces pré-hilbertiens. des 23 problèmes (aujour-
d’hui connus sous le nom de
Notons bien que se donner un espace préhilbertien c’est se donner à la fois un espace problèmes de Hilbert) qu’il
vectoriel et un produit scalaire sur cet espace vectoriel. présenta en 1900 au congrès
international des mathéma-
Il est important de préciser quel produit scalaire on utilise car en général il existe une ticiens, et dont une dizaine
infinité de produits scalaires sur un même espace. Et les notions de norme et d’orthogonalité ne sont toujours pas complè-
que nous allons définir par la suite dépendent du produit scalaire choisi. tement résolus 120 ans plus
Vous lirez parfois des énoncés du type «on munit Rn de sa structure euclidienne canonique», tard.
il faudra comprendre par là qu’on considère Rn muni de son produit scalaire canonique, 7 Qui sont le «bon cadre»
qui lui confère alors une structure d’espace euclidien. pour formuler la mécanique
quantique.
31.1.2 Inégalité de Cauchy-Schwarz

Théorème 31.8 (Inégalité de Cauchy-Schwarz) : Soit h·, ·i un produit scalaire sur


E. Alors,
∀(x, y) ∈ E 2 , hx, yi2 6 hx, xi × hy, yi
De manière équivalente, |hx, yi| 6 hx, xi hy, yi.
p p

De plus, on a l’inégalité ci-dessus est une égalité si et seulement si x et y sont colinéaires.

Démonstration. Pour x = 0E ou y = 0E , c’est évident, donc nous supposons x , 0E et y , 0E .


Définissons une fonction f sur R par f (t) = htx + y, tx + yi.
Alors ∀t ∈ R, f (t) > 0 par positivité de la forme bilinéaire h·, ·i.

MP2I 2021–2022 M. VIENNEY


COURS 5

De plus, pour t ∈ R, on a, par bilinéarité de h·, ·i,

f (t) = htx + y, tx + yi = htx, txi + 2htx, yi + hy, yi = t 2 hx, xi + 2thx, yi + hy, yi

et donc f est un polynôme du second degré en la variable t. Puisqu’elle est


toujours positive, c’est que son discriminant est négatif ou nul. Mais
∆<0
∆ = 4hx, yi2 − 4hx, xihy, yi. ∆=0
∆>0
On en déduit que
hx, yi2 6 hx, xihy, yi.

D’autre part, si on a égalité alors ∆ = 0, et donc f possède alors une racine a.


Mais alors hax + y, ax + yi = f (a) = 0, et donc ax + y = 0E : x et y sont
colinéaires.
Inversement, si x et y sont colinéaires, alors soit x = 0E (auquel cas l’inégalité
est bien une égalité : 0 = 0), soit il existe λ ∈ R tel que y = λx. Mais alors FIGURE 31.1– Un polynôme de degré 2 de
signe constant est de discriminant négatif.
hx, yi2 = hx, λxi2 = (λhx, xi)2 = λ2 hx, xi2 = hx, xi(λ2 hx, xi) = hx, xihy, yi.

L’inégalité de Cauchy-Schwarz est donc bien une égalité.  Remarque : cette preuve
est la même que celle mon-
trant que

k Cov(X, Y )| 6 V(X ) V(Y ).


p p

Corollaire 31.9 (Inégalité de Cauchy-Schwarz dans Rn ) – Pour tous n-uplets C’est normal, car on n’utilise
(x 1 , . . . , x n ), (y1 , . . . , yn ) de réels, on a pas ici

n
v
t n
v
t n hx, x i = 0 ⇔ x = 0E
X X X
x i yi 6 2
xi yi2 . et la covariance vérifie toutes
i=1 i=1 i=1 les autres propriétés d’un
produit scalaire.

Démonstration. Il s’agit simplement de l’inégalité de Cauchy-Schwarz pour le produit


scalaire canonique de Rn . 

Corollaire 31.10 (Inégalité de Cauchy-Schwarz pour les intégrales) – Si f et


д sont des fonctions continues sur [a, b], a < b, alors
s s
Z b Z b Z b
f (t)д(t) dt 6 f 2 (t) dt д2 (t) dt .
a a a

Z b
Démonstration. C’est Cauchy-Schwarz pour le produit scalaire (f , д) 7→ f (t)д(t) dt sur
a
C([a, b], R). 

31.1.3 Norme associée à un produit scalaire

Définition 31.11 – Si h·, ·i est un produit scalaire sur E, on appelle norme associée
à h·, ·i l’application
E −→ R p+
k·k:
x 7−→ hx, xi
En particulier, kxk2 = hx, xi.
On appelle alors norme du vecteur x ∈ E le réel positif kxk = hx, xi.
p

MP2I 2021–2022 M. VIENNEY


6 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

Exemple 31.12

La norme associée au produit scalaire canonique de Rn est


v 8 En gardant à l’esprit que
n
t
X cette notion de longueur
k(x 1 , . . . , x n )k = x i2 . dépend tout de même du
i=1 produit scalaire choisi, et
donc n’est pas une propriété
Pour n = 2 ou n = 3, on retrouve les normes d’un vecteur du plan ou de l’espace intrinsèque des vecteurs).
étudiées au lycée, où la norme d’un vecteur était définie comme étant sa «longueur».
De manière générale, il faudra interpréter la norme d’un vecteur comme une mesure
de sa longueur8 . Remarque
Dans le cas du produit sca-
laire canonique de R2 , étudié
Remarque. En particulier, l’inégalité de Cauchy-Schwarz se reformule en termes de normes
au lycée, cette propriété était
de la façon suivante : déjà connue car :
∀(x, y) ∈ E 2 , |hx, yi| 6 kxk · kyk.
x
~ ·y y k cos(~
x k · k~
~ = k~ x, y
~).

et puisque | cos(~ ~)| 6 1


x, y

Proposition 31.13 : Si φ est un produit scalaire sur E, et si k · k est la norme associée, x ·y


|~ x k · k~
~| 6 k~ y k.
alors
• ∀λ ∈ R, ∀x ∈ E, kλxk = |λ| · kxk
• ∀x ∈ E, kxk = 0 ⇔ x = 0E
9 En particulier, pour R = R1
• ∀(x, y) ∈ E 2 , kx + yk 6 kxk + kyk. Cette inégalité s’appelle l’inégalité triangulaire9 .
De plus, il y a égalité si et seulement si x et y sont colinéaires et de même sens, muni de son produit scalaire
canonique, on retrouve
c’est-à-dire si x = 0E ou s’il existe λ > 0 tel que y = λx.
l’inégalité triangulaire que
l’on connaît bien pour des
réels.
Démonstration. • kλxk = hλx, λxi = λ2 hx, xi = |λ| hx, xi = |λ| · kxk.
p p p

• Il est clair que k0E k = 0.


Inversement, si kxk = 0, alors hx, xi = kxk2 = 0, et donc x = 0E car h·, ·i est définie.
• Soient x, y ∈ E. Alors

kx + yk2 = hx + y, x + yi = hx, xi + 2hx, yi + hy, yi


= kxk2 + 2hx, yi + kyk2
6 kxk2 + 2kxk · kyk + kyk2 C’est l’inégalité de Cauchy-
Schwarz.
6 (kxk + kyk)2 .

En prenant la racine carrée, il vient kx + yk 6 kxk + kyk.


De plus, le calcul précédent prouve qu’il y a égalité si et seulement si hx, yi = kxk · kyk. y~
Cela nécessite notamment qu’il y ait égalité dans Cauchy-Schwarz, et donc que x et x~ + y~
y soient colinéaires.
Le cas x = 0E est trivial, et si x , 0E , alors pour y = λx, avec λ ∈ R, on a hx, yi =
hx, λxi = λhx, xi, alors que kyk = |λ| · kxk. x~
Et donc hx, yi = kxk · kyk si et seulement si λ > 0. FIGURE 31.2– L’inégalité
triangulaire : le plus court
 chemin entre deux points est
la ligne droite.
Plus généralement, les propriétés évoquées à la proposition précédente définissent ce qu’on
appelle une norme, objet que vous étudierez davantage l’an prochain.

Définition 31.14 – On appelle norme sur un espace vectoriel réel E toute applica-
tion N : E → R+ vérifiant :
1. ∀x ∈ E, N (x) = 0 ⇔ x = 0E
2. ∀x ∈ E, ∀λ ∈ R, N (λx) = |λ|N (x)
3. ∀(x, y) ∈ E 2 , N (x + y) 6 N (x) + N (y).

MP2I 2021–2022 M. VIENNEY


COURS 7

Exemple 31.15

Sur Rn , considérons l’application N ∞ : (x 1 , . . . , x n ) 7→ max |x i |.


16i 6n
Alors les deux premiers points de la définition de norme sont assez évidents.
Si x = (x 1 , x 2 , . . . , x n ) et y = (y1 , . . . , yn ) sont deux éléments de Rn , alors pour tout
i ∈ n1, no, on a
|x i + yi | 6 |x i | + |yi | 6 N ∞ (x) + N ∞ (y)
et donc par passage au maximum, N ∞ (x + y) 6 N ∞ (x) + N ∞ (y).
Donc N ∞ est une norme sur Rn .
Dans R2
Une norme permet de définir une notion de distance entre les éléments de E, en définissant La distance entre deux points
la distance entre x et y comme étant le réel positif d(x, y) = N (x − y). du plan est bien la longueur
du vecteur qui joint ces deux
On vérifie alors assez aisément que :
points.
1. d(x, y) = 0 ⇔ x = y
2. d(x, y) = d(y, x)
3. ∀(x, y, z) ∈ E 3 , d(x, y) 6 d(x, z) + d(z, y).
Ce dernier point est appelé une fois de plus inégalité triangulaire, et découle directement
de l’inégalité triangulaire pour N .
Cette notion de distance sera développée en seconde année, mais il est bon de savoir qu’elle
est vraiment fondamentale par exemple lorsqu’on veut parler de limite/continuité/dérivée(s)
de fonctions de plusieurs variables.

Ne nous attardons pas trop sur le sujet, mais certaines normes peuvent avoir des propriétés
un peu déroutantes.
Par exemple dans R2 , la norme que vous connaissez bien, qui est donc la norme associée au
produit scalaire canonique correspond à la longueur d’un vecteur telle que vous l’imaginez.
Et donc B2 = {u ∈ R2 | kuk 6 1} = {(x, y) ∈ R2 | x 2 + y 2 6 1} est le disque centré en
p

l’origine et de rayon 1.
10 Je vous laisse vous en
Par contre, B∞ = {u ∈ R2 | N ∞ (u) 6 1} est un carré10 centré en l’origine.
L’an prochain vous nommerez boules ces deux ensembles, et donc la norme N ∞ est une convaincre.
norme pour laquelle les boules sont carrées !

B2
B∞

Si à tout produit scalaire est associé une norme, la réciproque n’est pas vraie, et il existe des
normes non associées à des produits scalaires, c’est par exemple le cas de N ∞ ci-dessus.

En revanche, lorsqu’une norme est associée à un produit scalaire, connaître la norme


permet de retrouver le produit scalaire, c’est le but des identités (dites de polarisation)
ci-dessous.
Remarque
Inutile de connaître par cœur
Proposition 31.16 (Identités de polarisation) : Soit E un espace préhilbertien de
ces identités, savoir qu’elles
produit scalaire h·, ·i et k · k la norme associée. Alors pour tout (x, y) ∈ E 2 , on a existent et être capable de
1 les retrouver est largement
1. hx, yi = kx + yk2 − kxk2 − kyk2

suffisant.
2
1
2. hx, yi = kxk2 + kyk2 − kx − yk2

2
1
3. hx, yi = kx + yk2 − kx − yk2

4

Démonstration. Les trois découlent directement de la proposition 31.4. 

MP2I 2021–2022 M. VIENNEY


8 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

Corollaire 31.17 (Identité du parallélogramme) – Soient (x, y) deux vecteurs d’un


espace préhilbertien. Alors

kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .


 

Démonstration. Soustraire les deux premières formules de polarisation (ou repartir des
identités remarquables). 

x~ − y~
x~
x~ + y~

y~

FIGURE 31.3 – Dans un parallélogramme, la somme des carrés des diagonales est égale à la
somme des carrés des côtés.

Définition 31.18 – Un vecteur x est dit unitaire si kxk = 1.


x 1 Astuce
Si x est non nul, alors = x est unitaire. En effet,
kxk kxk Cette remarque permet fa-
cilement, pour tout vecteur
1 1 non nul x de produire un
x = kxk = 1.
kxk kxk vecteur de norme 1 coli-
|{z} néaire à x : il suffit de le
∈R+ multiplier par l’inverse de sa
norme.
31.2 ORTHOGONALITÉ D’UNE FAMILLE DE VECTEURS
31.2.1 Définition

Définition 31.19 – Deux vecteurs x et y de E sont dits orthogonaux si hx, yi = 0.

Exemples 31.20

I Le vecteur nul est orthogonal à tout vecteur de E.


I Dans R3 muni du produit scalaire canonique, (1, 0, 1) et (−1, −5, 1) sont
orthogonaux car 1 × (−1) + 0 × (−5) + 1 × 1 = 0.
En revanche, (1, 0, 0) et (2, 0, 1) ne sont pas orthogonaux.
I Le seul vecteur orthogonal à lui-même est le vecteur nul.
En effet, on a hx, xi = 0 ⇔ x = 0E .
11 C’est-à-dire si x et y sont
I Si (x, y) est une famille liée11 , alors x et y sont orthogonaux si et seulement
x = 0E ou y = 0E . colinéaires.

Définition 31.21 – Soient F et G deux sous-espaces vectoriels de E.


On dit que F et G sont orthogonaux si F

∀x ∈ F , ∀y ∈ G, hx, yi = 0.

De manière équivalente, ceci signifie que tout vecteur de F est orthogonal à tout G
vecteur de G.
FIGURE 31.4– Tout vecteur de F
est orthogonal à tout vecteur de G.

MP2I 2021–2022 M. VIENNEY


COURS 9

Exemple 31.22

Dans R3 , soit F = {(x, y, z) ∈ R3 : x + y = 0} et G = {(x, y, z) ∈ R3 : x = y et z = 0}.


Alors F et G sont orthogonaux. En effet, soit (x, y, z) ∈ F : (x, y, z) = (x, −x, z).
Soit (x 0, y 0, z 0) ∈ G, alors (x 0, y 0, z 0) = (x 0, x 0, 0).
Et alors h(x, y, z), (x 0, y 0, z 0)i = xx 0 + yy 0 + zz 0 = xx 0 − xx 0 = 0.

Remarque. Nous avons donc deux notions d’orthogonalité : une pour les vecteurs et une
pour les sous-espaces vectoriels de E.
Ces notions ne sont pas sans rapport, et un bon exercice pour manipuler les définitions est
de prouver que deux vecteurs x et y sont orthogonaux si et seulement si les sous-espaces
Vect(x) et Vect(y) sont orthogonaux.

Proposition 31.23 : Si F et G sont deux sous-espaces vectoriels orthogonaux, alors


F ∩ G = {0E }. Par conséquent, F et G sont en somme directe.

Démonstration. Soit x ∈ F ∩ G. Alors on a à la fois x ∈ F et x ∈ G, de sorte que


h|{z} x i = 0, et donc x = 0E .
x , |{z}
∈F ∈G
Ainsi, on a bien F ∩ G = {0E }. 

BPour autant, deux sous-espaces orthogonaux ne sont pas forcément supplémentaires


dans E. Par exemple, dans R3 , F = Vect(1, 0, 0) et G = Vect(0, 1, 0) sont orthogonaux, mais
dim F + dim G = 2 , dim R3 .

Définition 31.24 – Une famille de vecteurs de E est dite orthogonale si ses vecteurs
sont deux à deux orthogonaux.
Autrement dit, (x i )i ∈I est orthogonale si ∀(i, j) ∈ I 2 , i , j ⇒ hx i , x j i = 0. On
dit qu’une famille est orthonormée (ou orthonormale) si elle est orthogonale, et
formée de vecteurs unitaires.
Autrement dit, (x i )i ∈I est orthonormée si et seulement si

 1 si i = j
∀(i, j) ∈ I 2 , hx i , x j i = δi, j = 

 0 si i , j
 Intuition
En divisant un vecteur par sa
Remarque. À partir d’une famille orthogonale (x 1 , . . . , x n ) ne contenant pas le vecteur nul, norme, on modifie sa norme,
mais pas sa direction. Or le
!
x1 xn
il est facile d’obtenir une famille orthonormée : il suffit de considérer ,··· , . fait que deux vecteurs soient
kx 1 k kx n k
ou non orthogonaux ne dé-
pend que de leurs directions,
Exemples 31.25 et pas de leurs normes.

I La base canonique de Rn est orthonormée pour le produit scalaire canonique.


I Plus généralement, si B = (e 1 , . . . , en ) est une base de E, alors elle est orthonormée
pour le produit scalaire φ B défini à l’exemple 31.6.
[0, 2π ] −→ R
I Pour k ∈ N, notons fk : . Alors la famille (fk )k ∈N est
x 7−→ cos(kx)
Z 2π
orthogonale pour le produit scalaire hf , дi = f (t)д(t) dt.
0
En effet, pour k , ` deux entiers naturels distincts, on a
Z 2π Z 2π
hfk , f ` i = fk (t)f ` (t) dt = cos(kt) cos(`t) dt
0 0
2π 2π
1 1
Z Z
= cos ((k + `)t) dt + cos ((k − `)t) dt
2 0 2 0

MP2I 2021–2022 M. VIENNEY


10 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

# 2π # 2π
1 1
" "
= sin ((k + `)t) + sin ((k − `)t)
2(k + `) 0 2(k − `) 0
= 0.

En revanche, elle n’est pas orthonormée, par exemple car


Z 2π Z 2π
kf 0 k2 = hf 0 , f 0 i = f 0 (t)2 dt = 1 dt = 2π .
0 0

Proposition 31.26 : Une famille orthogonale ne contenant pas le vecteur nul est libre.
12 Et en particulier est une
En particulier, toute famille orthonormée est libre12 .
base dès qu’elle a «le bon»
cardinal.
Démonstration. Prouvons le résultat pour une famille finie, le cas infini en découlant di-
rectement. Soit (x 1 , . . . , x n ) une famille orthogonale dont tous les vecteurs sont non nuls.
n
X
Soient λ 1 , . . . , λn ∈ R tels que λi x i = 0E . Alors,
i=1
n
*X + Xn
∀j ∈ n1, no, 0 = λi x i , x j = λi hx i , x j i = λ j hx j , x j i = λ j kx j k2 .
i=1 i=1

Mais x j , 0E , et donc kx j k , 0. On en déduit que λ j = 0.


Ceci étant vrai pour tout j ∈ n1, no, la famille (x 1 , . . . , x n ) est libre. 

Proposition 31.27 (Théorème de Pythagore) : Soient x, y deux vecteurs de E. Alors


x et y sont orthogonaux si et seulement si kx + yk2 = kxk2 + kyk2 . y~
x~ + y~

Démonstration. On a
x~
kx + yk = hx + y, x + yi = hx, xi + 2hx, yi + hy, yi = kxk2 + kyk2 + 2hx, yi.
2
FIGURE 31.5– Théorème de
Et donc kx + yk2 = kxk2 + kyk2 si et seulement si hx, yi = 0.  Pythagore : pas de surprise...

Remarques. I Bien entendu, dans le cas de R2 muni du produit scalaire canonique, on


retrouve le théorème de Pythagore appris à la maternelle.
I Puisque l’énoncé est une équivalence, on a à la fois le théorème de Pythagore usuel, et sa
réciproque.

Corollaire 31.28 – Soit (x 1 , . . . , x n ) une famille orthogonale de vecteurs de E. Alors

n 2 n
kx i k2 .
X X
xi =
i=1 i=1

Démonstration. Utilisons la bilinéarité du produit scalaire :


n 2 *X n n + X n * n +
Linéarité à gauche.
X X X
xi = xi , xj = xi , xj
i=1 i=1 j=1 i=1 j=1
n X n
Linéarité à droite.
X
= hx i , x j i
i=1 j=1
n
Si i , j, alors hx i , x j i = 0.
X
= hx i , x i i
i=1
n
kx i k2 .
X
=
i=1


MP2I 2021–2022 M. VIENNEY


COURS 11

31.2.2 Procédé d’orthonormalisation de Gram-Schmidt


Nous décrivons ici un algorithme permettant de construire une famille orthonormée de
vecteurs à partir d’une famille libre.

Proposition 31.29 : Soit (e 1 , . . . , en ) une famille libre de vecteurs de E.


e1
Définissons par récurrence une famille (x 1 , . . . , x n ) en posant x 1 = et
ke 1 k
Explications
k−1 Nous réinterprèterons cette
1 ∗ X
∀k ∈ n2, no, x k = x où x k∗ = ek − hek , x i ix i . formule un peu plus loin, et
kx k∗ k k i=1
son origine sera alors plus
claire.
Alors :
• la famille (x 1 , . . . , x n ) est orthonormée
• ∀k ∈ n1, no, Vect(e 1 , . . . , ek ) = Vect(x 1 , . . . , x k ).

La formule définissant x k∗ est à connaître et il faut savoir l’utiliser.


Mais avant de prouver ce résultat, essayons de comprendre sur un exemple les différentes
étapes de cet algorithme :

e3 e3 e3
e2 x1 e2 x1
e1 x 2∗

Les vecteurs de départ On normalise e 1 en un vecteur x 1 . On «redresse» e 2 en un vecteur x 2∗


On a alors Vect(e 1 ) = Vect(x 1 ). orthogonal à e 1 , qui est encore
dans le plan engendré par e 1 et e 2 .

e3 x 3∗ x3

x1 x2 x1 x2 x1 x2

On normalise x 2∗ en un vecteur x 2 . On «redresse» e 3 en un vecteur x 3∗ On normalise x 3∗ en un vecteur x 3 .


On a alors Vect(x 1 , x 2 ) = Vect(e 1 , e 2 ). orthogonal à x 1 et à x 2 .

Figure 31.6– Un exemple d’orthonormalisation de Gram-Schmidt sur une famille de 3 vecteurs de R3 .

Démonstration. Montrons par récurrence sur k que la famille (x 1 , . . . , x k ) est orthonormée


et que Vect(e 1 , . . . , ek ) = Vect(x 1 , . . . , x k ). 13 Car la famille (e , . . . , e )
1 n
e 1 est libre et ne contient donc
Pour k = 1, e 1 est non nul13 et donc est de norme 1. pas le vecteur nul.
ke 1 k
Supposons que (x 1 , . . . , x k ) soit une famille orthonormée et que Vect(e 1 , . . . , ek ) = Vect(x 1 , . . . , x k ).
Alors, pour tout i ∈ n1, ko, on a
* k
X +
hx k∗ +1 , x i i = ek +1 − hek +1 , x j ix j , x i
j=1
k
X Détails
= hek+1 , x i i − hek+1 , x j ix j , x i
he k +1, x j i est un réel, donc
j=1
on peut le «sortir» du pro-
k
X duit scalaire par linéarité à
= hek+1 , x i i − hek +1 , x j i x j , x i gauche.
j=1
= hek+1 , x i i − hek+1 , x i i 1
 si i = j
hx i , x j i = 
0 sinon
= 0. 

MP2I 2021–2022 M. VIENNEY


12 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

Ainsi, x k∗ +1 est orthogonal à tous les x i , i 6 k, et donc il en est de même de x k +1 .


14 Et donc il est légitime de
Notons que x k∗ +1 est non nul14 , car si on avait x k∗ +1 = 0E , alors
le diviser par sa norme car
k
X celle-ci est non nulle.
ek+1 = hek +1 , x i ix i ∈ Vect(x 1 , . . . , x k ) = Vect(e 1 , . . . , ek ),
i=1
Conséquence
contredisant le fait que (e 1 , . . . , ek+1 ) est libre. Puisque x k∗ , 0E , alors x k est
Comme de plus les x i , i ∈ n1, k + 1o sont tous unitaires par construction, (x 1 , . . . , x k +1 ) est bien défini.
une famille orthonormée de E.

Il est clair que x k +1 ∈ Vect(x 1 , . . . , x k , ek +1 ) = Vect(e 1 , . . . , ek , ek +1 ) et donc,


Vect(x 1 , . . . , x k +1 ) ⊂ Vect(e 1 , . . . , ek+1 ).
15 Car orthonormée.
Mais Vect(e 1 , . . . , ek +1 ) est de dimension k + 1, et x 1 , . . . , x k +1 est libre15 et génératrice de
Vect(x 1 , . . . , x k +1 ) : c’est une base de Vect(x 1 , . . . , x k +1 ).
On en déduit que dim Vect(x 1 , . . . , x k +1 ) = dim Vect(e 1 , . . . , ek +1 ) et donc que ces deux
espaces sont égaux. 

Remarques. I Les notations ne sont pas immuables, et il n’y a pas de notation canonique
pour les vecteurs que j’ai noté ci-dessus x 1∗ , . . . , x n∗ . De toutes façons, ils ne sont qu’une
étape intermédiaire vers le résultat final.
I En particulier, lorsque la famille (e 1 , . . . , en ) est une base de E, alors la famille (x 1 , . . . , x n )
16 Car orthogonale et ne
est une base orthonormée de E, car elle est libre16 et génératrice grâce au second point de
la proposition. contenant pas le vecteur nul
! (puisque formée de vecteurs
e1 en
I Si (e 1 , . . . , en ) est déjà orthogonale, alors (x 1 , . . . , x n ) = ,..., . unitaires).
ke 1 k ken k
Autrement dit
Et si (e 1 , . . . , en ) est orthonormée, alors (x 1 , . . . , x n ) = (e 1 , . . . , en ).
Si on applique Gram-
Schmidt à une famille or-
thonormée, alors celle-ci
Exemple 31.30 n’est pas modifiée.

Z 1
Dans R2 [X ] muni du produit scalaire hP, Qi = P(t)Q(t) dt, appliquons le procédé
0
d’orthonormalisation de Gram-Schmidt à la base canonique (1, X , X 2 ).
Notons donc P 1 = 1, P2 = X et P3 = X 2 , et construisons une famille orthonormée
(Q 1 , Q 2 , Q 3 ) à partir de (P 1 , P 2 , P 3 ).
Z 1
On a kP1 k2 = 1 dt = 1 et donc kP1 k = 1. Soit donc Q 1 = P 1 = 1. Posons ensuite
0 Z 1
∗ 1
Q 2 = X − hX , 1i1 = X − t dt = X − .
2
Z 1 !02
1 1
Alors kQ 2∗ k2 = t− dt = .
0 2 12
1 √ 1
!
Posons donc Q 2 = Q = 12 X − . Soit ensuite Q 3∗ défini par

kQ 2∗ k 2 2

Q 3∗ =X 2 − hX 2 , Q 1 iQ 1 − hX 2 , Q 2 iQ 2
Z 1 √ Z 1
1
! !
=X 2 − t 2 dt − 12 t2 t − dt Q 2
0 0 2
1 1 1
!
=X 2 − − X − = X2 − X +
3 2 6

On a alors
1 !2
1
Z
kQ 3∗ k2 = t2 − t + dt
0 6
1
1 t2 t
Z !
= t4 + t2 +
+ − − 2t 3 dt
0 36 3 3
1 1 1 1 1 1 1
= + + + − − = .
5 3 36 9 6 2 180

MP2I 2021–2022 M. VIENNEY


COURS 13

Q 3∗ √ √ 1
!
Posons alors Q 3 = ∗
= 180Q 3 = 180 X − X + 2 .
kQ 3∗ k 6
La famille (Q 1 , Q 2 , Q 3 ) est alors une famille orthonormée de R2 [X ], donc libre. Elle
est de cardinal 3 = dim R2 [X ] : il s’agit d’une base orthonormée de R2 [X ].

Astuce : notons qu’il est possible de gagner un peu de temps dans les calculs, en remarquant
i−1
X i−1
X
que x i∗ = ei − hei , x k ix k , s’écrit encore ei = x i∗ + hei , x k ix k où x i∗ et les x k sont deux à
k =1 k =1
deux orthogonaux. Donc d’après le théorème de Pythagore,

i−1 i−1
kei k2 = kx i∗ k2 + hei , x k i2 kx k k2 ⇔ kx i∗ k2 = kei k2 − hei , x k i2 .
X X
|{z}
k =1 =1 k =1

Ainsi, dans l’exemple précédent, on avait

1 1 1 1
kQ 3∗ k2 = kX 2 k2 − hX 2 , Q 1 i2 − hX 2 , Q 2 i2 = − − = .
5 9 12 180
17 hX 2, Q i et hX 2, Q i ont
Et donc le calcul de la norme de Q 3∗ ne nous a pas demandé de nouveau17 calcul d’intégrale 1 2

(hormis celle définissant kP3 k2 , qui était somme toute assez simple à calculer). de toutes façons été calculés
pour obtenir l’expression de
Q 3∗ .
Corollaire 31.31 : Soit E un espace euclidien. Alors il existe une base orthonormée de E.

Démonstration. Voir la remarque ci-dessus. 

Corollaire 31.32 (Théorème de la base orthonormée incomplète) – Soit E un


espace euclidien, et soit (f 1 , . . . , fp ) une famille orthonormée de E. Alors elle peut-être
complétée en une base orthonormée de E.

Démonstration. Par le théorème de la base incomplète, (f 1 , . . . , fp ) peut-être complétée en


une base (f 1 , . . . , fp , fp+1 , . . . , fn ) de E.
Notons alors (e 1 , . . . , en ) la base orthonormée obtenue en appliquant le procédé de Gram-
Schmidt à la famille (f 1 , . . . , fn ).
Puisque (f 1 , . . . , fp ) est déjà orthonormée, e 1 = f 1 , e 2 = f 2 , . . . , ep = fp .
Et donc (e 1 , . . . , en ) = (f 1 , . . . , fp , ep+1 , . . . , en ) est une base orthonormée qui complète la
famille (f 1 , . . . , fp ). 

31.2.3 Calculs dans une base orthonormée


Dans cette partie, notons E un espace euclidien muni d’une base orthonormée B =
(e 1 , . . . , en ). 18 Ni d’utiliser une matrice
de passage, ce qui souvent
Dans une base orthonormée, il est aisé d’obtenir les coordonnées d’un vecteur, sans avoir nécessite d’inverser une
besoin de résoudre un système18 . autre matrice de passage,
ce qui demande autant de
calculs que la résolution d’un
système.
Proposition 31.33 (Coordonnées d’un vecteur dans une base orthonormée) :
Pour tout vecteur x ∈ E, on a
n
X
x= hx, ei iei .
i=1

hx, e i
*. . 1 +/
Autrement dit, les coordonnées de x dans la base B sont données par MatB (x) = .. .. //.
,hx, en i-

MP2I 2021–2022 M. VIENNEY


14 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

Démonstration. Soit x ∈ E. Puisque B est une base, il existe des scalaires uniquement
n
X
déterminés x 1 , . . . , x n tels que x = x i ei .
i=1
Mais alors
n
*X + n
X
∀i ∈ n1, no, hx, ei i = x j e j , ei = x j he j , ei i = x i hei , ei i = x i .
j=1 j=1
| {z }
=0 si i,j
n
X
Et donc x = hx, ei iei . 
i=1

Exemple 31.34

• Dans Rn muni de sa structure euclidienne usuelle, et si B = (e 1 , . . . , en ) est la base


canonique c’est évident car ei = (0, . . . , 0, 1, 0, . . . , 0) et donc

∀x = (x 1 , . . . , x n ) ∈ Rn , hx, ei i = x i

B Attention !
Proposition 31.35 (Calcul de la norme à l’aide d’une base orthonormée) : Ceci ne vaut que si l’on
travaille dans une base ortho-
n normée !
∀x ∈ E, kxk2 = hx, ei i2 .
X

i=1 Encore une fois, dans R2


ou R3 , muni du produit
n scalaire usuel, on retrouve
les classiques définitions du
X
Démonstration. Soit x ∈ E. Par la proposition précédente, x = x i ei , avec x i = hx, ei i.
lycée :
i=1
Mais alors
q
k(x, y)k = x 2 + y 2
n
*X n + n X
n n n
2
x i2 = hx, ei i2 . et
X X X X
kxk = x i ei , xj ej = x i x j hei , e j i = q
i=1 j=1 i=1 j=1 i=1 i=1 k(x, y, z)k = x 2 + y2 + z2 .

Notons que sur Mn,1 (R), l’application (X , Y ) 7→ X >Y est un produit scalaire. En effet, on a
x y
*. .1 +/ *. . 1 +/ Xn
alors, pour X = .. .. // et Y = .. .. //, X >Y = x i yi .
i=1
, xn - , yn -
On reconnaît alors le produit scalaire φ Bc an associé à la base canonique de Mn,1 (R), qu’on
appelle produit scalaire canonique de Mn,1 (R).
Notons que la base canonique est orthonormée pour ce produit scalaire.

Proposition 31.36 : Soient x, y ∈ E, et soit X = MatB (x) (resp. Y = MatB (y)) le


vecteur colonne des coordonnées de x (resp. y) dans la base B. Alors hx, yi = X >Y .

x y
*. .1 +/ *. .1 +/ Xn Xn
Démonstration. Notons X = .. . // et Y = .. .. //, de sorte que x =
. x i ei et y = yi e i .
x y i=1 i=1
, n- , n-
Xn
Alors X >Y = x i yi .
i=1
Mais par ailleurs,
n
*X n
X + n X
X n n
X
hx, yi = x i ei , yj ej = x i y j hei , e j i = x i yi .
i=1 j=1 i=1 j=1 i=1

Donc hx, yi = X >Y .




MP2I 2021–2022 M. VIENNEY


COURS 15

Cette proposition justifie l’intérêt de travailler en base orthonormée : tous les calculs de
produits scalaires (et donc ceux de normes également) se font comme dans Mn,1 (R) muni
de son produit scalaire canonique (et donc comme dans Rn muni de son produit scalaire
Xn n
X n
X
canonique) : hx, yi = x i yi où x = x i ei et y = yi e i .
i=1 i=1 i=1
En d’autres termes, l’application x 7→ MatB (x) est ce qu’on aurait envie d’appeler un
isomorphisme d’espaces euclidiens, c’est-à-dire un isomorphisme d’espaces vectoriels, qui
en plus préserve le produit scalaire, entre E et Mn,1 (R) muni de son produit scalaire
canonique.

31.3 ORTHOGONAL D’UNE PARTIE


31.3.1 Définition, première propriétés

Définition 31.37 – Soit E un espace préhilbertien, et soit A une partie de E. On


appelle alors orthogonal de A, et on note A⊥ la partie de E définie par

A⊥ = {x ∈ E | ∀a ∈ A, hx, ai = 0}.

Ainsi, A⊥ est l’ensemble des vecteurs orthogonaux à tous les vecteurs de A.

Exemples 31.38

I E ⊥ = {0E }. En effet, si 0E est orthogonal à tous les éléments de E, et si x , 0E ,


alors hx, xi = kxk2 , 0, de sorte que x < E ⊥ .
I Puisque tout vecteur de E est orthogonal au vecteur nul, {0E }⊥ = E.
I Si F et G sont deux sous-espaces orthogonaux de E, alors F ⊂ G ⊥ . En effet, si Encore mieux
f ∈ F , alors pour tout д ∈ G, hf , дi = 0, et donc f ∈ G ⊥ . Prouver que G ⊥ est le plus
Mieux : on a là une équivalence : F ⊂ G ⊥ si et seulement si tout vecteur de F est grand (au sens de l’inclusion)
orthogonal à tout vecteur de G, et donc si et seulement si F et G sont orthogonaux. sous-espace vectoriel de E
orthogonal à G.

Proposition 31.39 : Soient A et B deux parties d’un espace préhilbertien E. Alors Remarque
1. A⊥ est un sous-espace vectoriel de E. La plupart du temps, nous
2. Si A ⊂ B, alors B ⊥ ⊂ A⊥ . serons amenés à considérer
le cas où A est un sev de
3. A⊥ = (Vect A)⊥ E, mais notez que ce n’est
nullement une obligation.
Le troisième point nous dit
Démonstration. 1. Il est évident que 0E ∈ A⊥ car le vecteur nul est orthogonal à tous les toutefois qu’on peut toujours
éléments de A. s’y ramener.
Soient x, y ∈ A⊥ et soit λ ∈ R. Alors pour tout a ∈ A,

hλx + y, ai = λhx, ai + hy, ai = 0

de sorte que λx + y ∈ A⊥ . Et donc A⊥ est bien un sous-espace vectoriel de E.


2. Supposons donc A ⊂ B, et soit x ∈ B ⊥ .
Alors pour tout a ∈ A, on a a ∈ B, et donc hx, ai = 0.
Ceci étant vérifié pour tout a ∈ A, x ∈ A⊥ , d’où l’inclusion annoncée.
3. Puisque A ⊂ Vect(A), par le point précédent on a déjà (Vect A)⊥ ⊂ A⊥ .
Inversement, si x ∈ A⊥ , soit u ∈ Vect(A). Alors il existe n ∈ N∗ , (λ 1 , . . . , λn ) ∈ Rn et
n
X
(a 1 , . . . , an ) ∈ An tels que u = λi ai .
i=1
n
X
Et alors hx, ui = λi hx, ai i.
i=1
Mais x ∈ A⊥ , donc les hx, ai i sont nuls, et donc hx, ui = 0. On en déduit que

MP2I 2021–2022 M. VIENNEY


16 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

x ∈ (Vect A)⊥ .
Donc A⊥ ⊂ (Vect A)⊥ , et donc par double inclusion, ces deux ensembles sont égaux.


Remarque. Le dernier point nous dit notamment que lorsque F = Vect(e 1 , . . . , en ) est un
sous-espace vectoriel de dimension finie de E, un vecteur est dans F ⊥ si et seulement si il
est dans {e 1 , . . . , en }⊥ , c’est-à-dire si et seulement si il est orthogonal à tous les vecteurs
d’une base de F .

Exemples 31.40

I Dans R3 muni du produit scalaire canonique, soit


F = {(x, y, z) ∈ R3 : x − y + z = 0}. Alors F est un hyperplan de R3 (car noyau de 19 Car ils ne sont pas coli-

la forme linéaire non nulle (x, y, z) 7→ x − y + z), et les deux vecteurs (1, 0, −1) et néaires.
(0, 1, 1) forment une famille libre19 de F , de cardinal 2 = dim F , donc c’est une base
Sans les mains !
de F . Avez-vous remarqué qu’on
Un vecteur (x, y, z) de R3 est dans F ⊥ si et seulement si a obtenu une base de F sans
jamais avoir eu à résoudre un
système, ni même à faire le
 h(x, y, z), (1, 0, −1)i = 0 x − z = 0 x = z
  
⇔ ⇔

 h(x, y, z), (0, 1, 1)i = 0 y + z = 0 y = −z moindre calcul ?
   À l’écrit je ne suis pas sûr
qu’on y gagne beaucoup,
Donc F ⊥ = Vect((1, −1, 1)). mais à l’oral de tels raison-
n
X nements seront grandement
I Sur Rn [X ], posons hP, Qi = P (i) (0)Q (i) (0). Alors, il est facile de voir que h·, ·i appréciés.
i=0
est bilinéaire symétrique. De plus, si P ∈ Rn [X ], alors
n
P (i) (0)2 > 0.
X
hP, Pi =
i=0

Enfin, hP, Pi = 0 si et seulement si ∀i ∈ n0, no, P (i) (0) = 0.


20 P est de degré au plus
Ce qui signifie alors que 0 est racine de P de multiplicité au moins n + 1, et donc20
que P est le polynôme nul. n, donc s’il n’est pas nul il
possède au plus n racines
Donc h·, ·i est un produit scalaire sur Rn [X ].
comptées avec multiplicité.
n
X
Soit donc F = Vect(1 + X + · · · + X n ). Alors P = ai X i ∈ Rn [X ] est dans F ⊥ si et
i=0
seulement si
n
ai i!2 = 0 ⇔ a 0 = −a 1 − a 2 22 − · · · − an n!2 .
X
hP, 1 + X + · · · + X n i = 0 ⇔
i=0

Ainsi, une base de F ⊥ est X − 1, X 2 − 2!2 , . . . , X n − n!2 .




Proposition 31.41 : Soit F un sous-espace vectoriel d’un espace préhilbertien E. Alors


⊥
F ⊂ F⊥ .

Démonstration. Soit x ∈ F . Alors ∀y ∈ F ⊥ , hx, yi = 0. ⊥


Donc x est orthogonal à tout vecteur de F ⊥ , de sorte que x ∈ F ⊥ . 

BNous allons tout de suite voir qu’en dimension finie, cette inclusion est une égalité. 21 Voir le TD pour un
Ce n’est pas vrai en toute généralité en dimension infinie21 .
exemple.
31.3.2 Supplémentaire orthogonal d’un sous-espace de dimension finie
Nous avons vu dans la partie précédente que si E est de dimension finie, alors pour tout
sous-espace vectoriel F de E, F ⊥ est un supplémentaire de F .
Ce résultat reste en fait valable si seul F (et pas nécessairement E) est de dimension finie.

MP2I 2021–2022 M. VIENNEY


COURS 17

Proposition 31.42 : Soit F un sous-espace vectoriel de dimension finie d’un espace


préhilbertien E.
Alors F ⊥ est un supplémentaire de F dans E.
Mieux : si G est un supplémentaire de F orthogonal à F , alors G = F ⊥ .
⊥
De plus, on a toujours F ⊥ = F .

Démonstration. Nous savons déjà que F ∩ F ⊥ = {0E }.

Soit donc x ∈ E, prouvons que x ∈ F + F ⊥ .


Soit (f 1 , . . . , fn ) une base orthonormée de F . Alors pour tout i ∈ n1, no,
* n
X + n
X
x− hx, fk ifk , fi = hx, fi i − hx, fk ihfk , fi i = hx, fi i − hx, fi i = 0.
k =1 k =1

n
X
Ceci prouve que x − hx, fk ifk ∈ F ⊥ , et donc
k =1

n
X n
X
x= hx, fk ifk + x − hx, fk ifk ∈ F + F ⊥ .
k =1 k =1
| {z } | {z }
∈F ∈F ⊥

Donc E = F + F ⊥ , et puisque la somme est directe, E = F ⊕ F ⊥ .

À présent, soit G un supplémentaire de F dans E, orthogonal à F .


Alors nécessairement G ⊂ F ⊥ .
Inversement, soit x ∈ F ⊥ . Puisque E = F + G, il existe u ∈ F , v ∈ G tels que x = u + v.
Mais alors kuk2 = hu, ui = hu, x − vi = hu, xi − hu, vi = 0.
Donc u = 0E , et par conséquent, x = v ∈ G.
⊥
Enfin, nous savons déjà que F ⊂ F ⊥ .
⊥
Soit donc x ∈ F ⊥ , et notons x = u + v, avec x ∈ F et v ∈ F ⊥ .
Alors kvk2 = hv, vi = hv, x − ui = hv, xi − hv, ui = 0.
On en déduit que v = 0E , et donc x = u ∈ F .
⊥
Donc on a bien F ⊥ = F . 

Définition 31.43 – Si F est un sous-espace vectoriel de dimension finie de E, on


dit que F ⊥ est le supplémentaire orthogonal de F (dans E).

Proposition 31.44 : Si E est un espace euclidien, alors pour tout sous-espace vectoriel F
de E, dim F ⊥ = dim E − dim F .

Démonstration. Il s’agit simplement de noter que F ⊥ est un supplémentaire de F . 

Exemple 31.45

Si H est un hyperplan de E, alors H ⊥ est une droite.


Toute base de H ⊥ (autrement dit, tout vecteur non nul de H ⊥ ) est alors appelé
vecteur normal à H .
22 Et il y en a une infinité,
Un tel vecteur22 a ∈ H ⊥ suffit à caractériser H , qui est alors l’ensemble des vecteurs
orthogonaux à a puisque mais qui sont tous coli-
néaires.
⊥
{a}⊥ = Vect(a)⊥ = H ⊥ = H.

MP2I 2021–2022 M. VIENNEY


18 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

Dans le cas d’un hyperplan de Rn muni de son produit scalaire canonique, il est
très facile d’obtenir un vecteur normal à partir d’une équation de l’hyperplan.
En effet, supposons qu’une équation de H soit a 1x 1 + a 2x 2 + · · · + an x n = 0, où les
ai ne sont pas tous nuls.
H⊥
On peut alors encore écrire
a
H = {(x 1 , . . . , x n ) ∈ Rn | h(x 1 , . . . , x n ), (a 1 , . . . , an )i = 0} = {(a 1 , . . . , an )}⊥ H

de sorte que (a 1 , . . . , an ) est un vecteur normal à H .


Pour reprendre un exemple traité précédemment : un vecteur normal à
H = {(x, y, z) ∈ R3 | x − y + z = 0} est (1, −1, 1), et donc H ⊥ = Vect(1, −1, 1).
FIGURE 31.6– Un vecteur
normal à un hyperplan de R3 .
31.3.3 Projections orthogonales

Définition 31.46 – Soit E un espace préhilbertien, et soit F un sous-espace vectoriel


de dimension finie de E.
On appelle projection orthogonale sur F (ou projecteur orthogonal sur F ) la
projection p F sur F parallèlement à F ⊥ .
Autrement dit, si x ∈ E s’écrit de manière unique x = x F + x F ⊥ , avec x F ∈ F et
x F ⊥ ∈ F ⊥ , alors p F (x) = x F .
On dit alors que p F (x) est le projeté orthogonal de x sur F .

F⊥

x xF ⊥

x F = p F (x)

FIGURE 31.7 – Projection orthogonale sur un plan F .

Remarques. I Jusqu’à présent, lorsque nous parlions de projection, il fallait toujours préciser
B Attention !
sur quel espace on projetait (ici c’est F ), mais également par rapport à quel supplémentaire
Si on parle d’une projection
de F on projetait. qui n’est pas une projection
Pour une projection orthogonale, il n’y a pas besoin de préciser ce supplémentaire, orthogonale, il faut toujours
puisque si on parle justement de projection orthogonale, cela signifie que parmi tous les préciser parallèlement à quoi
supplémentaires de F on en choisit un en particulier qui est F ⊥ . on projette.
I En particulier, on a toujours x − p F (x) = (x F + x F ⊥ ) − x F = x F ⊥ ∈ F ⊥ .
De toutes façons, nous savons que idE −p F est la projection sur F ⊥ parallèlement à F = (F ⊥ )⊥ .
Et donc c’est la projection orthogonale sur F ⊥ .
I On a donc Im(p F ) = F et Ker p F = F ⊥ . Plus généralement, comme nous savons qu’un
projecteur p est toujours la projection sur Im p parallèlement à Ker p. Autrement dit, un
projecteur p est orthogonal si et seulement si (Im p)⊥ = Ker p.
Donnons deux méthodes pour calculer un projeté orthogonal.
La première consiste à remarquer que si (e 1 , . . . , en ) est une base de F , alors pour tout x ∈ E,
on a
1. p F (x) ∈ F = Vect(e 1 , . . . , en )
2. x − p F (x) ∈ F ⊥ ⇔ ∀i ∈ n1, no, hx − p F (x), ei i = 0.
Ces deux conditions, qui caractérisent alors uniquement p F (x), permettent alors d’écrire
un système linéaire de n équations à n inconnues (les coordonnées de p F (x) dans la base

MP2I 2021–2022 M. VIENNEY


COURS 19

(e 1 , . . . , en )), qui possède une unique solution.

Mais un exemple sera plus parlant qu’un long discours.

Exemple 31.47

Dans E = R3 , muni de son produit scalaire canonique, soit


 y 
F = (x, y, z) ∈ R3 : x − + z = 0 .
2
Alors F = Vect(e 1 , e 2 ), où e 1 = (1, 2, 0) et e 2 = (1, 0, −1).
Soit x = (2, 2, 2). Alors p F (x) ∈ F et donc il existe deux réels λ 1 et λ 2 tels que
p F (x) = λ 1e 1 + λ 2e 2 et x − p F (x) ∈ F ⊥ .
Or, x − p F (x) = (2, 2, 2) − λ 1 (1, 2, 0) − λ 2 (1, 0, −1) = (2 − λ 1 − λ 2 , 2 − 2λ 1 , 2 + λ 2 ).
Puisque x − p F (x) ∈ F ⊥ , on a

4
 hx − p F (x), e 1 i = 2 − λ 1 − λ 2 + 2(2 − 2λ 1 ) = 0  5λ 1 + λ 2 = 6 λ 1 = 3
  
⇔ ⇔

 hx − p F (x), e 2 i = 2 − λ 1 − λ 2 − (2 + λ 2 ) = 0 λ 1 + 2λ 2 = 0 λ 2 = −2
   3

4 2 1
Donc p F (x) = e 1 − e 2 = (2, 8, 2).
3 3 3

Notons que cette méthode ne nécessite que la connaissance d’une base de F .


La seconde méthode, qui suit, donne une formule plus directe et plus élégante pour le calcul
de p F (x), mais elle nécessite une base orthonormée de F . Ce qui peut toujours s’obtenir
par Gram-Schmidt, mais coûte un peu plus cher en calculs. Cette formule sera davantage
utile pour des exercices théoriques que pour calculer des projetés orthogonaux dans des
23 Sauf si l’obtention d’une
cas concrets23 .
base orthonormée de F ne
coûte pas cher.
Proposition 31.48 : Soit F un sous-espace de dimension finie de E, et soit (e 1 , . . . , ep )
une base orthonormée de F . Alors, pour tout x ∈ E,
p
X
p F (x) = hx, ei iei .
i=1

24 Voir la preuve de la propo-


Démonstration. Nous avons déjà prouvé24 que l’unique décomposition de x dans la somme
directe E = F + F ⊥ est sition 31.42.
Xp p
X
x= hx, ek iek + x − hx, ek iek .
k =1 k =1
| {z } | {z }
∈F ∈F ⊥
p
X
Donc pf (x) = hx, ek iek .
k =1


Exemples 31.49 Cas particuliers

I Soit e ∈ E un vecteur non nul, et soit F = Vect(e) la droite engendrée par e. Alors
e
une base orthonormée de F est kek , et la projection orthogonale sur F est alors

hx, ei
* +
e e
x→
7 x, = e.
kek kek kek2

En particulier, si e est un vecteur unitaire, le projeté orthogonal de x sur Vect(e)


est hx, eie.
I Si H est un hyperplan de E, et si a ∈ H ⊥ est un vecteur normal à H , alors pour

MP2I 2021–2022 M. VIENNEY


20 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

x ∈ E, Détails
hx, ai a est une base de H ⊥ , c’est la
pH (x) = x − pH ⊥ (x) = x − a.
kak2 définition de vecteur normal.

Maintenant que nous disposons de cette formule, revenons un instant sur le procédé
d’orthonormalisation de Gram-Schmidt.
Soit (e 1 , . . . , en ) une famille libre, et soit (x 1 , . . . , x n ) la famille orthonormée obtenue par
Gram-Schmidt. Celle-ci était définie par récurrence par

k−1
x k∗ X
∀k ∈ n2, no, x k = où x k∗ = ek − hek , x i ix i .
kx k∗ k i=1

Si on note Fk −1 = Vect(x 1 , . . . , x k −1 ), alors (x 1 , . . . , x k −1 ) est une base orthonormée de Fk −1


k −1
X
par construction, et donc p Fk −1 (ek ) = hek , x i ix i .
i=1
Autrement dit, on a x k∗ = ek − p Fk −1 (ek ) ∈ Fk⊥−1 .
Et en particulier, x k∗ est orthogonal à tous les vecteurs x 1 , . . . , x k −1 précédemment construits
(et c’est précisément ce que nous avions prouvé par récurrence dans la preuve de Gram-
Schmidt).

31.3.4 Distance à un sous-espace vectoriel

Définition 31.50 – Soit E un espace préhilbertien, soit x ∈ E et soit A une partie


non vide de E. Inf
On appelle alors distance de x à A et on note d(x, A) le réel positif défini par Cette borne inférieure existe
bien car {kx − ak, a ∈ A}
d(x, A) = inf d(x, a) = inf kx − ak. est une partie non vide de R,
a ∈A a ∈A
minorée par 0 (une norme
est positive).
Si A est quelconque, alors cette notion peut réserver quelques surprises, par exemple dans

E = R, muni du produit scalaire canonique, pour lequel d(x, a) = |x −a|, alors d( 2, Q) = 0.
En effet, cela découle directement
√ de la densité de Q dans R : il existe des rationnels
arbitrairement proches de 2.

Pour autant, vous savez que cela ne signifie pas que 2 ∈ Q.

Dans le cas où A est un sous-espace vectoriel de dimension finie, alors la distance d’un
point à A est facile à exprimer à l’aide d’un projeté orthogonal.

Théorème 31.51 : Soit F un sous-espace vectoriel de dimension finie d’un espace


25 De dimension finie ou
préhilbertien25 E, et soit p F le projecteur orthogonal sur F .
Alors pour tout x ∈ E, il existe un unique y ∈ F tel que d(x, F ) = kx − yk, et le y en non.
question est p F (x) le projeté orthogonal de x sur F .
26 Et donc l’inf ci-dessus est
Autrement dit, la distance de x à F est atteinte26 en un unique point de F , qui est p F (x).
en fait un min.
Pour le dire encore autrement :
1. d(x, F ) = kx − p F (x)k
2. ∀y ∈ F , d(x, F ) = kx − yk ⇔ y = p F (x).

Démonstration. Soit y ∈ F . Alors x − y = (x − p F (x)) + (p F (x) − y).


| {z } | {z }
∈F ⊥ ∈F
Donc par le théorème de Pythagore, il vient

kx − yk2 = kx − p F (x)k2 + kp F (x) − yk2 > kx − p F (x)k2 .

Et donc kx − yk > kx − p F (x)k, avec égalité si et seulement si kp F (x) − yk2 = 0 ⇔ y = p F (x).


Ceci prouve donc que kx − p F (x)k est le minimum de l’ensemble {kx − yk, y ∈ F }, et que
ce minimum n’est atteint qu’en y = p F (x). 

MP2I 2021–2022 M. VIENNEY


COURS 21

x F⊥ x
• •

kx − p F (x)k •p F (x)
• u1
F
• F
v = p F (x)

u

FIGURE 31.8 – En bleu : la distance d’un point x à une droite ou à un plan.

Exemple 31.52
Z 2π
Cherchons ∆ = inf (x − a cos(x) − b sin(x))2 dx.
(a,b)∈R2 0
S’il est clair que cette borne inférieure existe (car les intégrales en jeu sont positives),
le lien avec ce qui précède n’est pas clair.
Plaçons nous dans l’espace préhilbertien C([0, 2π ], R), muni du produit scalaire
Z 2π
hf , дi = f (t)д(t) dt.
0
Alors soit f : x 7→ x, et soient u = cos|[0,2π ] , v = sin|[0,2π ] .
Lorsque (a, b) parcourt R2 , au + bv parcourt F = Vect(u, v).
Z 2π
Et alors (x − a cos(x) − b sin(x))2 dx = kf − (au + bv)k2 , de sorte que
0
∆ = inf kf − дk2 = d(f , F )2 .
д ∈F
Nous sommes bien en présence de la distance d’un vecteur fixé (ici f ) à un
sous-espace vectoriel de dimension finie (ici F ).
Par le théorème précédent, ∆ est atteint uniquement en д = p F (f ).
Il nous faut donc calculer ce projeté orthogonal par l’une ou l’autre des méthodes à
notre disposition.

Notons que (u, v) est une base orthogonale de F car


Z 2π Z 2π # 2π
sin(2t) cos(2t)
"
hu, vi = cos(t) sin(t) dt = dt = − = 0.
0 0 2 4 0

De plus,
2π 2π # 2π
cos(2t) + 1 sin(2t) + 2t
Z Z "
kuk2 = hu, ui = cos2 (t) dt = dt = = π.
0 0 2 4 0

De même, kvk2
!= π .
u v
Donc √ , √ est une base orthonormée de F .
π π
u v
On a donc p F (f ) = hf , ui + hf , vi . Mais alors
π π
Z 2π Z 2π
it it 2π
te dt = −ite 0 + i e it dt = −2iπ .

hf , ui + ihf , vi =
0 0

Donc par identification des parties réelles et imaginaires, hf , ui = 0 et hf , vi = −2π .


Donc p F (f ) = −2v.

Ce n’est malheureusement pas tout à fait fini : on a donc


Z 2π Z 2π Z 2π Z 2π
2 2 2
∆ = kf −p F (f )k = (x+2 sin(x)) dx = x dx+4 x sin(x) dx+4 sin2 (x) dx .
0 0 0 0

MP2I 2021–2022 M. VIENNEY


22 CHAPITRE 31 : PRODUITS SCALAIRES ET ESPACES PRÉHILBERTIENS

8π 3
Ce n’est alors que du calcul, on obtient tous calculs faits ∆ = − 4π .
3

MP2I 2021–2022 M. VIENNEY

Vous aimerez peut-être aussi