Euclid Iens
Euclid Iens
Euclid Iens
Lycée Saint-Louis
Mai
1 Notions de base
On se donne un R-espace vectoriel E.
1.1 Produit scalaire
Rappelons pour commencer une définition :
Définition 1 Une application ϕ de E × E dans R est une forme bilinéaire sur E lorsque :
1. pour tout x ∈ E, l’application y ∈ E 7→ ϕ(x, y) est linéaire (on la note ϕ(x, ·)).
2. pour tout y ∈ E, l’application x ∈ E 7→ ϕ(x, y) est linéaire (on la note ϕ(·, y)).
Nous avons déjà rencontré des formes bilinéaires lors de l’étude des déterminants.
Exemple 1 Donnons la forme générale d’une forme bilinéaire lorsque E est de dimension finie. On
se donne une base B = (e1 , . . . , en ) de E.
Soit ϕ une forme bilinéaire sur E. Soient x et y des éléments de E, de coordonnées respectives
(x1 , . . . , xn ) et (y1 , . . . , yn ) dans la base B. On a par bilinéarité :
Xn n
X X
ϕ(x, y) = ϕ xi ei , yj ej = xi yj ϕ(ei , ej )
i=1 j=1 1≤i,j≤n
On voit donc que ϕ est entièrement déterminée par les n2 réels ϕ(ei , ej ) obtenus pour (i, j) décrivant
R
{1, . . . , n}2 , c’est-à-dire par la matrice A de Mn ( ) définie par A[i, j] = ϕ(ei , ej ) pour 1 ≤ i, j ≤ n.
Cette matrice s’appelle la matrice de ϕ relativement à B. On a d’ailleurs, en notant X et Y les colonnes
des composantes de x et y dans B,
ϕ(x, y) = tXAY
R
Réciproquement, si on se donne une matrice A = (aij )1≤i,j≤n dans Mn ( ), et si on pose, pour x, y
dans E de composantes respectives (x1 , . . . , xn ) et (y1 , . . . , yn ) dans B,
X
ϕ(x, y) = aij xi yj ,
1≤i,j≤n
on définit bien une forme bilinéaire sur E (dont la matrice relativement à B est précisément A).
1
MPSI 2—Mathématiques 2
R
Remarquons que si ϕ : E × E → est symétrique et linéaire par rapport à l’une des deux variables,
elle est automatiquement linéaire par rapport à l’autre.
R
Exercice 1.1 Soit E un -espace vectoriel de dimension finie, B une base de E, ϕ une forme bilinéaire
sur E. Prouver que ϕ est symétrique si et seulement si la matrice de ϕ relativement à B est une matrice
symétrique.
∀x ∈ E, ϕ(x, x) ≥ 0
Remarque Si ϕ est une forme bilinéaire, on a, pour tout x, ϕ(0, x) = ϕ(x, 0) = 0, et en particulier
ϕ(0, 0) = 0. Donc si ϕ est définie positive, ϕ est positive.
Une formulation possible (contraposée) du caractère défini positif est la suivante : ϕ est définie positive
si et seulement si :
∀x ∈ E, ϕ(x, x) ≥ 0 et ∀x ∈ E, ϕ(x, x) = 0 =⇒ x = 0
Définition 4 (Produit scalaire) On appelle produit scalaire sur E toute forme bilinéaire symé-
trique définie positive sur E.
Si ϕ est un produit scalaire sur E, le couple (E, ϕ) s’appelle un espace préhilbertien réel. Si E est de
plus de dimension finie, on parle d’espace euclidien.
Notation Soit ϕ un produit scalaire sur E. Pour x, y éléments de E, on notera hx, yi, ou (x|y), ou
encore x · y (au lieu de ϕ(x, y)) le produit scalaire des vecteurs x et y (on lit « x scalaire y » ce produit
scalaire). La notation infixe ainsi adoptée est très pratique.
On vérifie qu’on définit ainsi un produit scalaire sur R2 , appelé produit scalaire canonique.
2. Plus généralement, si on prend E = Rn , et si on pose, pour x = (x1 , . . . , xn ) et y = (y1 , . . . , yn )
éléments de E,
n
X
hx, yi = xk yk ,
k=1
R
4. Prenons E = Mn ( ). Pour A, B éléments de E, posons
hA, Bi = Tr tAB
R
On définit ainsi ainsi un produit scalaire sur Mn ( ), appelé produit scalaire canonique.
Vérifions ceci : la bilinéarité est immédiate (propriétés de la transposition et de la trace).
D’autre part, pour A et B éléments de E, en utilisant le fait que Tr tM = Tr M pour toute
matrice M :
Tr tAB = Tr t tAB = Tr tB t(tA) = Tr(tBA),
R
On définit ainsi deux normes sur n (exercice).
De même, si p est un réel supérieur ou égal à 1, et si on pose
n
! p1
X
p
Np (x) = |xi | ,
i=1
R
Exercice 1.2 Représenter l’ensemble des vecteurs x de 2 tels que N∞ (x) ≤ 1, l’ensemble des
R R
vecteurs x de 2 tels que N1 (x) ≤ 1, et enfin l’ensemble des vecteurs x de 2 tels que N2 (x) ≤ 1.
On va à présent examiner une catégorie importante de normes : les normes euclidiennes, ce sont les
normes qui proviennent d’un produit scalaire (voir plus bas). Le résultat suivant est un résultat clé :
Supposons de plus que ϕ est définie positive. Alors l’inégalité précédente est une égalité si et seulement
si la famille (x, y) est liée.
Si ϕ(y, y) = 0, P est une fonction affine de t, toujours positive, donc le coefficient directeur est nul,
i.e ϕ(x, y) = 0, et l’inégalité est vraie.
Si ϕ(y, y) > 0, P est polynomiale de degré 2, toujours positive, donc P ne peut avoir deux racines
réelles distinctes (car alors P serait strictement négative entre les racines), donc le discriminant de P
est négatif ou nul, ce qui donne
ce qui impose x + µy = 0 puisque ϕ est définie positive. La famille (x, y) est liée ♣
MPSI 2—Mathématiques 5
R
Remarque Si h·, ·i est un produit scalaire sur le -espace vectoriel E, et si k · k est la norme
euclidienne associée à ce produit scalaire, l’inégalité de Cauchy-Schwarz s’écrit :
Dans Rn , muni du produit scalaire canonique, la norme euclidienne du vecteur x = (x1 , . . . , xn ) est :
q
kxk = x21 + . . . + x2n ,
Dans l’espace des fonctions continues sur un segment [a, b], muni du produit scalaire usuel, l’inégalité
de Cauchy-Schwarz devient :
Z sZ s
b b Z b
f g ≤
f 2 g2
a a a
MPSI 2—Mathématiques 6
Remarque Soit (E, h·, ·i) un espace préhilbertien, de norme euclidienne associée k · k. Soit d la
distance euclidienne. On a alors les propriétés :
1. d est à valeurs positives.
2. ∀x, y ∈ E, d(x, y) = 0 ⇐⇒ x = y. [séparation]
3. ∀x, y ∈ E, d(x, y) = d(y, x) [symétrie]
4. ∀x, y, z ∈ E, d(x, z) ≤ d(x, y) + d(y, z) [inégalité triangulaire]
Ces propriétés sont de faciles conséquences des propriétés des normes. On a de plus
on en déduit
∀x, y, z ∈ E, |d(x, y) − d(y, z)| ≤ d(x, z)
Je vous renvoie à la figure pour une interprétation de ces inégalités dans un triangle (c’est ce qui
donne son nom à l’inégalité).
Proposition 2 (cas d’égalité dans l’inégalité triangulaire) Soit h·, ·i un produit scalaire sur le
R-espace vectoriel E, de norme euclidienne associée k · k, x et y des vecteurs de E.
On a kx + yk = kxk + kyk si et seulement si x et y sont positivement liés, c’est à dire :
les deux inégalités intermédiaires sont des égalités. Il y a donc égalité dans l’inégalité de Cauchy-
Schwarz, donc la famille (x, y) est liées, et puisque x et y sont non nuls, il existe un réel λ tel
que y = λx. On doit de plus avoir hx, yi = |hx, yi|, ce qui donne ici λ kxk2 = |λ| kxk2 , puis
λ = |λ| (car kxk2 > 0), c’est-à-dire λ ≥ 0.
Le cas où x ou y est nul est immédiat. ♣
MPSI 2—Mathématiques 7
R
Petite histoire : Soit h·, ·i un produit scalaire sur le -espace vectoriel E, de norme euclidienne
associée k · k. Soient x1 , . . . , xn des éléments de E. En utilisant la bilinéarité du produit scalaire, on
obtient :
X
2
n
* n n
+
X X X
xi
= xi , xj = hxi , xj i.
i=1 i=1 j=1 1≤i,j≤n
X
2 X
n
n X X
xi
= kxi k2 + hxi , xj i + hxi , xj i
i=1 i=1 1≤i<j≤n 1≤j<i≤n
la dernière égalité a été obtenue en permutant les lettres muettes i et j. On obtient finalement :
X
2
n
n
X X
xi
= kxi k2 +2 hxi , xj i
i=1 i=1 1≤i<j≤n
| {z } | {z }
« carrés parfaits » « doubles produits »
C’est une formule tout à fait similaire à celle qu’on obtient lorsqu’on calcule le carré d’une somme de
nombres.
Dans le cas de deux vecteurs, on a alors successivement :
En effet, (1) est une application directe de la formule générale, (2) s’obtient en changeant y en −y dans
(1), (3) et (4) s’obtiennent par différence et somme de (1) et (2). Enfin, on obtient (5) en remplaçant
dans (3) x par x + y et y par x − y.
MPSI 2—Mathématiques 8
L’identité (4) porte le nom d’identité du parallélogramme (voir figure) : dans un parallélogramme, la
somme des carrés de longueurs de côtés est égale à la somme des carrés des longueurs des diagonales.
L’identité (5) est l’analogue de la formule bien connue a2 − b2 = (a + b)(a − b).
On peut voir facilement qu’il peut exister des normes qui ne sont pas euclidiennes (c’est-à-dire qui ne
R
sont pas associées à un produit scalaire). Considérons par exemple N∞ sur 2 . Il est clair que cette
norme ne vérifie pas l’identité du parallélogramme (prendre x = (1, 0), et y = (0, 1)). On voit de même
R
que N1 n’est pas euclidienne. On peut montrer qu’une norme sur un -espace vectoriel est euclidienne
si et seulement si elle vérifie l’identité du parallélogramme (c’est un joli (et difficile) exercice).
Exercice 1.4 (un résultat de von Neumann) Soit N une norme sur un R-espace vectoriel E. On
suppose que N vérifie l’identité du parallélogramme :
1.3 Orthogonalité
Dans ce paragraphe, E est un R-espace vectoriel muni d’un produit scalaire h·, ·i, de norme euclidienne
associée k · k.
Définition 6 Soient x et y des vecteurs de E. On dit que x et y sont orthogonaux, et on écrit x⊥y
lorsque hx, yi = 0.
Remarque On voit tout de suite que 0 est orthogonal à tout vecteur de E, et c’est le seul vecteur
de E orthogonal à tous les autres (si x est orthogonal à tout vecteur de E, alors 0 = hx, xi = kxk2 ,
donc x = 0).
D’après les identités remarquables, on voit tout de suite que x et y sont orthogonaux si et seulement
si kx + yk2 = kxk2 + kyk2 : c’est le célébrissime théorème de Pythagore !
Petite histoire : Retrouvons nos petits. Je vais commencer par définir l’angle géométrique de deux
vecteurs non nuls. Soient x et y deux vecteurs non nuls de E. L’inégalité de Cauchy-Schwarz peut
s’écrire :
hx, yi
∈ [−1, 1].
kxk kyk
hx,yi
On dispose donc d’un unique réel θ ∈ [0, π] tel que cos θ = kxk kyk , c’est ce réel qu’on appelle angle
géométrique de x et y.
Avec cette définition, il est immédiat que
Définition 7 (Familles orthogonales) Soit (e1 , . . . , en ) une famille de vecteurs de E. On dit que
cette famille est orthogonale si les ei sont deux à deux orthogonaux, c’est-à-dire si hei , ej i = 0 pour i
et j distincts dans {1, . . . , n}.
On dit que la famille est orthonormée si elle est orthogonale, et si tous les ei sont unitaires (c’est-à-dire
de norme 1), donc si hei , ej i = δij pour tout (i, j) ∈ {1, . . . , n}2 .
Par exemple, la base canonique (e1 , . . . , en ) est une famille orthonormée de Rn (lorsqu’on munit Rn
du produit scalaire canonique).
Si (a1 , . . . , an ) est une famille orthogonale de vecteurs de E, alors
X
2 X
n
n
ai
= kai k2
i=1 i=1
Proposition 3 Une famille orthogonale de vecteurs non nuls est libre. En particulier, toute famille
orthonormée est libre.
preuve : Soit (eP 1 , . . . , en ) une famille orthogonale de vecteurs non nul de E, soient λ1 , . . . , λn des
n
scalaires tels que k=1 λk xk = 0. On a alors, pour tout entier i compris entre 1 et n :
* n
+ n
X X
0 = hei , 0i = ei , λk xk = λk hei , ek i = λi kei k2 ,
| {z }
k=1 k=1
=0 si i6=k
donc λi est nul (car ei n’est pas nul, donc kei k2 > 0). ♣
Nous verrons plus loin l’intérêt des familles orthonormées, et plus particulièrement des bases ortho-
normées.
Définition 8 (Orthogonal d’une partie) Soit A une partie non vide de E. On appelle orthogonal
de A, et on note A⊥ l’ensemble des vecteurs de E qui sont orthogonaux à tous les vecteurs de A. Par
définition, un élément x de E appartient à A⊥ si et seulement si hx, ai = 0 pour tout élément a de A.
Listons quelques propriétés immédiates :
— On a E ⊥ = {0}, et {0}⊥ = E.
— Si A ⊂ B alors B ⊥ ⊂ A⊥ .
— A ⊂ (A⊥ )⊥ .
MPSI 2—Mathématiques 10
donc λx + y appartient à A⊥ .
— on a toujours A⊥ = (Vect (A))⊥ . En effet, on a A ⊂ Vect (A), donc (Vect (A))⊥ ⊂ A⊥ . D’autre
part, si x appartient à A⊥ , et si y appartient à Vect (A), on sait que y s’écrit y = λ1 a1 +. . .+λr ar ,
N
avec r ∈ ∗ , a1 , . . . , ar éléments de A, et λ1 , . . . , λr réels, et on a alors
* r
+ r
X X
hx, yi = x, λk ak = λk hx, ak i = 0,
| {z }
k=1 k=1
=0
Définition 9 (parties orthogonales) Soient A et B deux parties non vides de E. On dit que A et
B sont orthogonales, et on écrit A⊥B lorsque
∀(a, b) ∈ A × B, ha, bi = 0.
Ceci équivaut à A ⊂ B ⊥ , ou à B ⊂ A⊥ .
preuve : On sait tout d’abord que Vect (a) ∩ (Vect (a))⊥ = {0}, la somme est donc directe.
Soit x un vecteur de E, on cherche un réel λ et un vecteur y orthogonal à a tel que x = λa + y.
Supposons l’existence de a et de y, on a alors
Remarque Avec les notations du théorème, on peut définir le projecteur p sur Vect (a), parallèlement
à {a}⊥ , appelé projecteur orthogonal sur Vect (a). On a, pour tout x élément de E :
ha, xi
p(x) = a,
kak2
Théorème 2
Si E est de dimension finie, alors E admet des bases orthonormées.
N
preuve : : on procède par récurrence sur la dimension. Pour n ∈ ∗ , soit (Hn ) l’énoncé : « tout
espace euclidien de dimension n admet des bases orthonormées. »
— (H1 ) est vrai : soit E euclidien de dimension 1. Il suffit de prendre un vecteur x non nul, et de
x
considérer e = kxk pour obtenir une base orthonormée de E.
— soit n un entier non nul tel que (Hn ) est vrai, soit E un espace euclidien de dimension n + 1,
x
soit x un vecteur non nul de E, et e = kxk , de telle sorte que e est unitaire. D’après le théorème
précédent,
E = Vect (e) ⊕ (Vect (e))⊥ ,
et F = (Vect (e))⊥ est un sous-espace de E de dimension n, c’est un espace euclidien de dimen-
sion n si on le munit du produit scalaire de E. Par hypothèse de récurrence, on peut trouver
une base orthonormée (e1 , . . . , en ) de F , et on obtient par recollement une base (e, e1 , . . . , en )
de E, évidemment orthonormée. ♣
Nous reviendrons sur ce sujet lors du paragraphe sur les espaces euclidiens.
Théorème 3
Soit F un sous-espace vectoriel de E, de dimension finie. Alors
E = F ⊕ F⊥
preuve : D’après le théorème précédent, on peut considérer une base orthonormée (e1 , . . . , ep ) de F
(où p est la dimension de F ).
On sait déjà que F ∩ F ⊥ = {0}.
Prouvons que
Pp
il s’agit de vérifier que le vecteur x − k=1 hx, ek iek est bien orthogonal aux ei . Mais, pour 1 ≤ i ≤ p,
on a :
p p
* +
X X
x− hx, ek iek , ei = hx, ei i − hx, ek i hek , ei i = hx, ei i − hx, ei i = 0,
| {z }
k=1 k=1
=δki
d’où le résultat.
Soit maintenant une famille (e1 , . . . , en ) orthonormée de vecteurs de E. Soit F = Vect (e1 , . . . , en ). On
se donne un vecteur x de E. D’après la preuve du théorème précédent, on a dans ce cas :
n
X
pF (x) = hx, ek iek
k=1
Par ailleurs, vu que les vecteurs hx, e1 ie1 , . . . , hx, en ien sont deux à deux orthogonaux :
n
X n
X
kpF (x)k2 = khx, ek iek k2 = hx, ek i2
k=1 k=1
MPSI 2—Mathématiques 13
ce qui permet de voir que l’inégalité de Bessel est une égalité si et seulement si x appartient à
Vect (e1 , . . . , en ).
E = F + F ⊥ ⊂ (F ⊥ )⊥ + F ⊥ ⊂ E
car F ⊂ (F ⊥ )⊥ . On peut parler du projecteur orthogonal q sur F ⊥ . Or, si p est le projecteur orthogonal
sur F , on a, pour tout x élément de E, x = p(x) + (x − p(x)), avec p(x) élément de F (donc de (F ⊥ )⊥ ),
et x − p(x) élément de F ⊥ . On en déduit que q(x) = x − p(x), puis
Dans le cas particulier où F est de dimension finie et où on dispose d’une base orthonormée (e1 , . . . , ep )
de F , on aura
v
u p
uX
d(x, F ⊥ ) = kp(x)k = t hx, ek i2
k=1
Dans le cas où F est une droite vectorielle dirigée par un vecteur non nul a, on aura donc (puisque
a
( kak ) est une base orthonormée de Vect (a)) :
s
hx, ai2
d(x, Vect (a)) = kxk2 −
kak2
et aussi
|hx, ai|
d(x, {a}⊥ ) =
kak
Cette dernière expression mérite d’être retenue.
Théorème 4
Soit n un entier naturel non nul, et (x1 , . . . , xn ) une famille libre de vecteurs de E. Alors il existe une
et une seule famille orthonormée (e1 , . . . , en ) de vecteurs de E telle que :
k
X
hxk+1 , yi = kxk+1 k2 − hxk+1 , ep i2 = d(xk+1 , G)2 > 0,
p=1
y
donc le fait que hxk+1 , ek+1 i > 0 impose ek+1 = + kyk .
On voit donc que (e1 , . . . , en ) est l’unique famille déterminée récursivement par :
x1
1. e1 = kx1 k .
2. pour tout entier k de {1, . . . , n − 1},
Pk
xk+1 − p=1 hxk+1 , ep iep
ek+1 =
Pk
xk+1 − p=1 hxk+1 , ep iep
• Il reste à vérifier que la famille précédente convient. Il est clair que e1 est bien unitaire, que
Vect (e1 ) = Vect (x1 ), et que hx1 , e1 i > 0.
Soit k un entier compris entre 1 et n−1. Supposons que la famille (e1 , . . . , ek ) soit orthonormée,
que Vect (e1 , . . . , ek ) = Vect (x1 , . . . , xk ), et que hxp , ep i > 0 pour 1 ≤ p ≤ k. Soit y le vecteur
k
X
y = xk+1 − hxk+1 , ep iep .
p=1
D’après la petite histoire précédente, y est orthogonal aux vecteurs e1 , . . . , ek , et n’est pas nul
(car xk+1 n’appartient pas à Vect (x1 , . . . , xk ) = Vect (e1 , . . . , ek )). On en déduit que ek+1 est
y
orthogonal à e1 , . . . , ek . Il est clair que ek+1 = kyk est unitaire. On a aussi
C’est immédiat par double inclusion pour la première égalité. On a donc bien, puisque ek+1 est
proportionnel à y,
Vect (e1 , . . . , ek , ek+1 ) = Vect (x1 , . . . , xk , xk+1 )
Enfin, avec l’inégalité de Bessel :
k
X
hxk+1 , yi = kxk+1 k2 − hxk+1 , ep i2 > 0,
p=1
On considère l’espace vectoriel E des applications continues de [0, 1] dans R, muni du produit scalaire :
Z 1
hf, gi = fg
0
3 Espaces euclidiens
R
Dans cette section, on considère un espace euclidien (E, h·, ·i) : E est un -espace vectoriel de dimen-
sion finie, et h·, ·i est un produit scalaire sur E. On notera k · k la norme euclidienne associée à ce
produit scalaire.
3.1 Sous-espaces
Soit F un sous-espace de E. Comme E est de dimension finie, F est également de dimension finie, et
on a donc :
E = F ⊕ F⊥
On a par conséquent :
dim(F ⊥ ) = dim E − dim F
et aussi :
(F ⊥ )⊥ = F
La dernière égalité vient du fait que F est inclus dans (F ⊥ )⊥ , et du fait que
On peut donc définir sans se poser de questions le projecteur orthogonal sur F , et le symétrie ortho-
gonale par rapport à F .
hx, ai
σH (x) = x − 2 a.
kak2
Lorsque a est unitaire (on peut toujours se ramener à ce cas en divisant a par sa norme) :
Résumons :
Proposition 1 Si H est un hyperplan de E, il existe un vecteur non nul a tel que H = {a}⊥ . Si on
note σH la réflexion d’hyperplan H, alors, pour tout élément x de E :
hx, ai
σH (x) = x − 2 a.
kak2
Théorème 1
E admet des bases orthonormées.
Les composantes de x dans B s’expriment comme des produits scalaires de x avec les vecteurs de B.
On a aussi : * n +
X Xn Xn X n n
X
hx, yi = xi ei , yj ej = xi yj hei , ej i = xi yi
i=1 j=1 i=1 j=1
| {z } i=1
=δij
On a ainsi :
n
X n
X
hx, yi = xi yi et kxk2 = x2i
i=1 i=1
Il faut donc retenir les expressions particulièrement simples du produit scalaire et de la norme eucli-
dienne dans une base orthonormée.
Soit à nouveau H un hyperplan de E. On sait qu’il existe des réels non tous nuls a1 , . . . , an tels que
H est l’ensemble des vecteurs x de E dont les coordonnées (x1 , . . . , xn ) vérifient
a1 x1 + . . . + an xn = 0
a = a1 e1 + . . . + an en
À retenir : on obtient un vecteur normal à l’hyperplan H en considérant le vecteur dont les coordonnées
dans B sont les coefficients de l’équation cartésienne de H.
On a également très facilement le théorème suivant :
Théorème 2
Soit ψ une forme linéaire sur E. Alors il existe un et un seul vecteur a de E tel que ψ = ha, ·i.
preuve : Soit (e∗1 , . . . , e∗n ) la base duale de la base B. Pour 1 ≤ i ≤ n, e∗i est l’application i-ème
coordonnées dans B donc d’après ce qui précède :
On sait que ψ s’écrit de façon unique ψ = a1 e∗1 + . . . + an e∗n , avec a1 , . . . , an des réels. On a alors,
pour tout x de coordonnées (x1 , . . . , xn ) dans la base orthonormée B :
n
X n
X
ψ(x) = ai e∗i (x) = ai xi = ha, xi,
i=1 i=1
MPSI 2—Mathématiques 19
où a est le vecteur a1 e1 + . . . + an en .
Si on dispose d’un autre vecteur b tel que ψ = hb, ·i, alors, pour tout x on a
0 = ha, xi − hb, xi = ha − b, xi,
donc a − b est dans l’orthogonal de E, donc est nul. ♣.
On a enfin l’équivalent du théorème de la base incomplète pour des familles orthonormées :
Théorème 3
Soit (e1 , . . . , ep ) une famille orthonormée de vecteurs de E. Alors on peut trouver des vecteurs
ep+1 , . . . , en dans E tels que (e1 , . . . , en ) est une base orthonormée de E.
preuve : Remarquons que p ≤ n = dim E car une famille orthonormée est libre. Soit F = Vect (e1 , . . . , ep ),
on a dim F = p, et E = F ⊕ F ⊥ . On a dim F ⊥ = n − p, on considère alors une base orthonormée
(ep+1 , . . . , en ) de F ⊥ . On obtient le résultat en recollant. ♣
4 Isométries
R
Dans cette section, on considère un espace euclidien (E, h·, ·i) : E est un -espace vectoriel de dimen-
sion finie, et h·, ·i est un produit scalaire sur E. On notera k · k la norme euclidienne associée à ce
produit scalaire.
4.1 Généralités
Définition 1 Soit f un endomorphisme de E. On dit que f est une isométrie si f conserve la norme,
c’est-à-dire si :
∀x ∈ E, kf (x)k = kxk
Exemple 1 Nous avons déjà rencontré des isométries non triviales de E (distinctes de ± IdE ) : toute
symétrie orthogonale par rapport à un sous-espace est une isométrie. En particulier, toute réflexion
est une isométrie. Les réflexions sont des isométries particulièrement importantes, car on peut montrer
que toute isomérie est une composée de réflexions.
preuve : Si x appartient au noyau de f , alors 0 = k0k = kf (x)k = kxk, donc x est nul. On en déduit
que f est un isomorphisme (f est un endomorphisme injectif d’un espace de dimension finie).
Soient x et y des vecteurs de E, on a :
4hf (x), f (y)i = kf (x) + f (y)k2 − kf (x) − f (y)k2 [identité remarquable]
2 2
= kf (x + y)k + kf (x − y)k [linéarité de f ]
2 2
= kx + yk + kx − yk [f conserve la norme]
= 4hx, yi,
MPSI 2—Mathématiques 20
et f conserve bien le produit scalaire. Il est alors évident que f conserve l’orthogonalité.
Soit enfin F un sous-espace vectoriel de E stable par f : f (F ) ⊂ F . On peut considérer g l’endomor-
phisme de F induit par f . Il est clair que g est injectif (comme f ), donc g est un isomorphisme de F ,
et on a F = g(F ) = f (F ).
Soit y un élément de F ⊥ . Montrons que f (y) ∈ F ⊥ . Soit x un élément de F , on peut écrire x = f (a),
avec a ∈ F . On a alors
hx, f (y)i = hf (a), f (y)i
= ha, yi [f conserve le produit scalaire]
= 0, [y ∈ F ⊥ et a ∈ F ]
d’où le résultat. ♣
On a une caractérisation simple et utile des isométries à l’aide d’une base orthonormée.
preuve : Supposons que f est un isométrie. Comme f conserve le produit scalaire, on a, pour
1 ≤ i, j ≤ n :
hf (ei ), f (ej )i = hei , ej i = δij ,
donc (f (e1 ), . . . , f (en )) est une famille orthonormée. C’est donc une famille libre, de cardinal dim E,
donc c’est une base de E.
Réciproquement, supposons que C = (f (e1 ), . . . , f (en )) est une base orthonormée de E. Soit x un
vecteur de E, qu’on écrit x = x1 e1 + . . . + xn en . Comme la base B est orthonormée, on sait que
kxk2 = x21 + . . . + x2n
Par linéarité de f , on a f (x) = x1 f (e1 ) + . . . + xn f (en ), et, puisque C est orthonormée :
kf (x)k2 = x21 + . . . + x2n = kxk2 ,
ce qui prouve que f conserve la norme. ♣
Notation On note O(E) l’ensemble des isométries de E. Il s’agit d’une partie de GL(E).
Proposition 3 (et définition) O(E) est un sous-groupe du groupe (GL(E), ◦). Le groupe (O(E), ◦)
s’appelle le groupe orthogonal de E.
Remarque Il est clair que toute matrice orthogonale est inversible, puisque l’endomorphisme de n R
canoniquement associé à une telle matrice est en particulier un isomorphisme.
R
Mieux : On ( ) est un sous-groupe de GLn ( ). R
R R R
En effet, si on note bc la base canonique de n , l’application de GL( n ) dans GLn ( ) qui à f associe
R R
Matbc (f ) est un isomorphisme de groupes, et On ( ) est l’image de O( n ) par ce morphisme.
On a une caractérisation très simple des matrices orthogonales :
R
Proposition 4 Soit M ∈ Mn ( ), dont on note (c1 , . . . , cn ) la famille des vecteurs colonnes. Alors
R
M est orthogonale si et seulement si (c1 , . . . , cn ) est une base orthonormée de ( n , ·), ce qui équivaut
à:
∀i, j ∈ {1, . . . , n}, ci · cj = δij
R
preuve : Soit f l’endomorphisme de n canoniquement associé à M . Notons encore bc = (e1 , . . . , en )
R R
la base canonique de n , il s’agit d’une base orthonormée de ( n , ·), et on sait d’autre part que
f (ej ) = cj pour 1 ≤ j ≤ n. On a alors les équivalences :
R R
a c
Exemple 2 Déterminons O2 ( ) à l’aide de ce qui précède. Soit M = ∈ M2 ( ). Alors M
b d
est orthogonale si et seulement si : 2
a + b2 = 1
(?) c2 + d2 = 1
ac + bd = 0
Supposons que les conditions (?) sont vérifiées. On a a2 + b2 = 1 donc il existe un réel θ tel que
a = cos θ et b = sin θ (voir décrassage). De même, il existe un réel ϕ tel que c = cos ϕ et d = sin ϕ.
On a alors
0 = ac + bd = cos(ϕ − θ),
ce qui impose ϕ ≡ θ+ π2 (mod 2π) ou ϕ = θ− π2 (mod 2π). Si ϕ ≡ θ+ π2 (mod 2π) alors cos ϕ = − sin θ,
et sin ϕ = cos θ, tandisque si ϕ = θ −π2 (mod 2π) alors cos ϕ = sin θ
et sin ϕ = − cosθ. On voit donc
que M s’écrit M =
cos θ − sin θ
sin θ cos θ
R
, avec θ ∈ , ou bien M =
cos θ sin θ
sin θ − cos θ
, avec θ ∈ . R
Réciproquement, les matrices précédentes sont évidemment orthogonales.
R
Pour θ ∈ , notons alors Rθ et Sθ les matrices :
cos θ − sin θ cos θ sin θ
Rθ = et Sθ =
sin θ cos θ sin θ − cos θ
MPSI 2—Mathématiques 22
Proposition 5 Soit (E, h·, ·i) un espace euclidien, B = (e1 , . . . , en ) une base orthonormée de E (où
n = dim E).
1. Soit (x1 , . . . , xn ) une famille de vecteurs de E de cardinal n, et soit M la matrice de cette
famille relativement à B. Alors
preuve : Il suffit de prouver la première assertion (pourquoi ?). Notons c1 , . . . , cn les vecteurs co-
lonnes de M . Par définition de M , on a, pour tout j compris entre 1 et n :
n
X
xj = Mkj ek .
k=1
Remarque Il résulte de cette proposition que si M est la matrice de passage entre deux bases
orthonormées de E, alors M est orthogonale.
On a une autre caractérisation des matrices orthogonales.
R
Proposition 6 Soit M ∈ Mn ( ). Les assertions suivantes sont équivalentes :
preuve : Il est immédiat que (2) et (3) sont équivalentes. Maintenant, si on note (c1 , . . . , cn ) les
vecteurs colonnes de M , on a, pour tout (i, j) ∈ {1, . . . , n}2 :
n
X
t
M M [i, j] = Mki Mkj = ci · cj ,
k=1
Remarque Il est immédiat avec la proposition précédente que, pour M élément de Mn ( ), M est R
orthogonale si et seulement si tM est orthogonale. On en déduit que M est orthogonale si et seulement
si la famille (`1 , . . . , `n ) des vecteurs lignes de M est orthonormée.
Par ailleurs, il est particulièrement simple d’inverser une matrice orthogonale (il suffit de la transposer).
Si par exemple P est la matrice de passage entre deux bases orthonormées, alors l’inverse de P est tP .
Corollaire 1 Si M est une matrice orthogonale, alors det M = ±1. Si f est une isométrie d’un
espace euclidien, alors det f = ±1.
R
Notation On note SOn ( ) l’ensemble des matrices orthogonales de déterminant 1. Si E est un
espace euclidien, on note SO(E) l’ensemble des isométries de E de déterminant 1. Les éléments de
SO(E) sont appelés isométries positives, ou rotations. Les éléments de O(E) \ SO(E), c’est-a-dire les
isométries de déterminant −1, s’appellent les isométries négatives. On note parfois O+ (E) l’ensemble
des isométries positives, et O− (E) l’ensemble des isométries négatives.
Il est immédiat (exercice enfantin) que SO(E) est un sous-groupe de (O(E), ◦). Le groupe SO(E)
s’appelle le groupe spécial orthogonal.
R
De même, SOn ( ) est un sous-groupe de On ( ). R
Si f est un endomorphisme de l’espace euclidien E de dimension n, et B une base orthonormée de E,
il est clair que f ∈ SO(E) si et seulement si MatB (f ) ∈ SOn ( ). R
Exercice 4.1 Si E est un espace euclidien, prouver que les ensembles O+ (E) et O− (E) sont en
bijection.
En effet, si P est la matrice de passage de B vers B 0 , on sait que M = P M 0 . Par ailleurs, P est
orthogonale, donc | det P | = 1, ce qui entraîne le résultat.
R
Le groupe SO2 ( ) a une propriété tout à fait remarquable : il est commutatif. En effet, on a par calcul
direct (faites le) :
R
∀θ, ϕ ∈ , Rθ Rϕ = Rθ+ϕ ,
et il en résulte, puisque θ + ϕ = ϕ + θ, que Rθ Rϕ = Rϕ Rθ .
R
Cette même formule montre que θ ∈ 7→ Rθ est un morphisme de groupes (surjectif) de ( , +) dans R
R
(SO2 ( ), ×). On a donc, pour θ réel, Rθ−1 = R−θ , et plus généralement, pour tout n élément de Z:
(Rθ )n = Rnθ
On sait que
MatD,B (IdE ◦ IdE ) = MatC,B (IdE ) MatD,C (IdE ),
d’où le résultat.
On définit une relation R sur l’ensemble Γ des bases de E en posant :
∀B, C ∈ Γ, BRC ⇐⇒ det PB→C > 0
On vérifie qu’on définit là une relation d’équivalence :
— si B est une base de E, alors PB→B = In , donc BRB.
— soient B, C deux bases de E telles que det PB→C > 0. On sait que PB→C est inversible d’inverse
PC→B , donc
1
det PC→B = >0
det PB→C
— si B, C, et D sont des bases de E telles que det PB→C > 0 et det PC→D > 0, la relation (?)
montre que det PB→D > 0.
On va montrer qu’il existe exactement deux classes d’équivalence.
Soit A = (e1 , . . . , en ) une base de E, et A0 = (−e1 , e2 , . . . , en ). On a :
det PA→A0 = det Diag(−1, 1, . . . , 1) = −1,
donc A et A0 ne sont pas dans la même classe d’équivalence. Il y a donc au moins deux classes
d’équivalence.
Soit B une base de E. Si det PA→B > 0, alors B appartient à la classe de A. Sinon, on a det PA→B < 0,
et dans ce cas :
det PA0 →B = det PA0 →A det PA→B > 0,
| {z } | {z }
<0 <0
donc B appartient à la classe de A0 .
Il y a donc bien exactement deux classes d’équivalences.
1. ce passage n’est pas vraiment lié aux espaces euclidiens, mais j’ai préféré en parler ici, vu que c’est le seul endroit
du cours où on va utiliser cette notion.
MPSI 2—Mathématiques 25
Définition 3 par définition, orienter E c’est choisir une des deux classes d’équivalence. Les bases de
la classe choisie seront qualifiées de bases directes, celles de l’autre classe de bases rétrogrades. Une
fois ce choix effectué, on parle d’espace orienté.
En pratique, pour orienter E, on choisit une base A de E, qui définit l’orientation : les bases directes
sont celles de la classe de A, c’est-à-dire l’ensemble des bases B de E telles que det PA→B > 0.
R
L’espace n est usuellement orienté par le choix de la base canonique, on parle alors de l’orientation
R
canonique de n .
R
Un espace euclidien est un cas particulier d’espace vectoriel de dimension finie sur . On peut donc
orienter un tel espace, on parle alors d’espace euclidien orienté. On définit de façon évidente les
bases orthonormées directes (en abrégé b.o.n.d), et les bases orthonormées rétrogrades (b.o.n.r). Il y
a toujours des b.o.n.d et des b.o.n.r, car si B = (e1 , . . . , en ) est une base orthonormée de E, alors
B 0 = (−e1 , e2 , . . . , en ) est aussi une base orthonormée de E, et ces deux bases ne sont pas dans la
même classe. Remarquons que si B et C sont deux b.o.n.d de E, la matrice PB→C est orthogonale de
déterminant positif, donc en fait det PB→C = 1. Si B et C sont deux bases orthonormées d’orientations
différentes, alors det PB→C = −1.
R
Si n est muni du produit scalaire canonique, et est canoniquement orienté, la base canonique de n R
R
est une b.o.n.d de n .
Come-back : on suppose à présent que l’espace euclidien E est orienté.
preuve : Supposons que f est une isométrie. On sait alors que C = (f (e1 ), . . . , f (en )) est une base
orthonormée de E, et on a aussi
det PB→C = detB (f (e1 ), . . . , f (en )) = det f
Donc si det f = 1 alors C est directe, et si det f = −1 alors C est rétrograde.
Réciproquement, supposons que C soit, par exemple, une b.o.n.d. On sait déjà que f est une isométrie
(change la base orthonormée B en base orthonormée). D’autre part, puisque C est directe :
0 < det PB→C = detB (f (e1 ), . . . , f (en )) = det f,
ce qui laisse det f = 1, et f appartient à SO(E). ♣
On va maintenant définir le produit mixte : soit (x1 , . . . , xn ) une famille de vecteurs de E (n = dim E).
Si B et C sont deux b.o.n.d de E, on a alors
detB (x1 , . . . , xn ) = detC (x1 , . . . , xn )
En effet, on sait qu’il existe un réel λ tel que detB = λ detC , et si on note C = (c1 , . . . , cn ), on a
λ = detB (c1 , . . . , cn ) = det PB→C = 1.
Ceci légitime la définition suivante :
Définition 4 (Produit mixte) Si (x1 , . . . , xn ) est une famille de vecteurs de E, on appelle produit
mixte de la famille (x1 , . . . , xn ), et on note [x1 , . . . , xn ] le réel :
[x1 , . . . , xn ] = detB (x1 , . . . , xn ),
où B est n’importe quelle b.o.n.d de E.
MPSI 2—Mathématiques 26
Remarque Le produit mixte est un déterminant dans une base, on a donc toutes les propriétés
habituelles des déterminants.
En particulier, si (x1 , . . . , xn ) est une famille de vecteurs de E, alors [x1 , . . . , xn ] = 0 si et seulement si
la famille est liée, et [x1 , . . . , xn ] 6= 0 si et seulement si (x1 , . . . , xn ) est une base de E. Dans ce dernier
cas, on a tout de suite [x1 , . . . , xn ] > 0 si et seulement si la base (x1 , . . . , xn ) est directe.
Que se passe-t-il si on change d’orientation sur E ? On montre que si B et C sont deux bases or-
thonormées d’orientations différentes, alors detB = − detC (exercice). On en déduit que si on change
d’orientation, le produit mixte est changé en son opposé.
On appelle angle de r l’ensemble des réels ϕ tels que la matrice de r dans toute b.o.n.d est Rϕ . Si θ
est un élément de cet ensemble (on dit que θ est une mesure de l’angle de r) , l’angle de r n’est autre
Z
que θ + 2π . On dit alors que r est la rotation d’angle θ, et r est aussi notée rθ .
preuve : Soit B une b.o.n.d de E. On sait que la matrice de r relativement à B appartient à SO2 ( ), R
il existe donc un réel θ tel que cette matrice est Rθ . On pouvait aussi dire que l’image par r de la base
B est une b.o.n.d, donc de la forme (uθ , vθ ), et on retrouve la matrice Rθ .
Maintenant, si C est une autre b.o.n.d de E, la matrice de passage P de B vers C est aussi élément
R R
de SO2 ( ). Comme SO2 ( ) est commutatif, on en déduit que la matrice de r relativement à C est
P −1 Rθ P = P −1 P Rθ = Rθ .
R
On a juste écrit que les éléments P et Rθ de SO2 ( ) commutent.
R
Enfin, pour ϕ ∈ , on a Rϕ = Rθ si et seulement si cos ϕ = cos θ et sin ϕ = sin θ, c’est-à-dire si et
seulement si ϕ ≡ θ (mod 2π) ♣.
MPSI 2—Mathématiques 27
avec φ réel. Or on vérifie immédiatement que Sφ2 = I2 , pour tout réel φ. Autrement dit, pour
R
toute matrice M ∈ O2 ( ) de déterminant −1, on a M 2 = I2 (et donc M −1 = M ).
On a donc ici P −1 = P . D’autre part, P Rθ est aussi orthogonale de déterminant −1, donc
I2 = (P Rθ )2 = P Rθ P Rθ ,
ce qui fournit
P Rθ P = Rθ−1 = R−θ
La matrice de r relativement à C est alors
P −1 Rθ P = P Rθ P = R−θ ,
et on en déduit que si on change d’orientation, r devient la rotation d’angle −θ. C’est logique :
tourner d’un angle θ dans le sens trigonométrique, c’est tourner d’un angle −θ dans le sens des
aiguilles d’une montre. Orienter E, c’est aussi choisir un sens de rotation.
On est à présent en mesure de définir l’angle orienté de deux vecteurs non nuls.
Lemme 1 Soient a et b deux vecteurs unitaires. Il existe un unique r ∈ SO(E) tel que r(a) = b.
preuve : Si r existe, r doit transformer la b.o.n.d (a, ǎ) en une b.o.n.d. Comme r(a) = b, on voit que
r(ǎ) est l’unique vecteur c de E tel que (b, c) est une b.o.n.d, autrement dit on doit avoir r(ǎ) = b̌.
On voit ainsi que r est l’unique endomorphisme de E déterminé sur la base (a, ǎ) par r(a) = b, et
r(ǎ) = b̌.
Réciproquement, soit r l’endomorphisme de E défini par r(a) = b et r(ǎ) = b̌. On a évidemment
r(a) = b, et r est bien un élément de SO(E) puisque r transforme une b.o.n.d en b.o.n.d. ♣
MPSI 2—Mathématiques 28
Définition 5 Soient x et y deux vecteurs non nuls de E. On appelle angle orienté de x et y, l’angle
x y [
de l’unique rotation qui envoie kxk sur kyk . On note (x, y) cet angle orienté.
Remarque Soient x, y et z trois vecteurs non nuls de E, θ une mesure de l’angle orienté (x, [ y), et
[ x y y z
ϕ une mesure de l’angle orienté (y, z). On a par définition rθ ( kxk ) = kyk , et rϕ ( kyk ) = kzk . On en
déduit déjà :
x y y
= rθ−1 = r−θ ,
kxk kyk kyk
[
donc −θ est une mesure de l’angle orienté (y, x), ce qui entraîne
[
(y, [
x) = −(x, y)
d’où
y = kyk cos θ e1 + kyk sin θ e2 ,
MPSI 2—Mathématiques 29
ce qui permet de voir (par définition de ϕ) que cos θ = cos ϕ, et on en déduit sin2 (θ) = sin2 ϕ, ce qui
laisse, puisque sin ϕ ≥ 0, | sin θ| = sin ϕ.
D’autre part, puisque la base (e1 , e2 ) est orthonormée directe, on a
kxk kyk cos θ
[x, y] =
= kxk kyk sin θ.
0 kyk sin θ
Supposons que (x, y) est libre. Si [x, y] > 0, alors sin θ > 0, puis sin θ = sin ϕ. On en déduit que ϕ
est une mesure de l’angle orienté (x, [ y). Au contraire, si [x, y] < 0, alors −ϕ est une mesure de l’angle
[
orienté (x, y).
Si (x, y) est liée alors [x, y] = 0, sin θ = 0 = sin ϕ, et ϕ est encore une mesure de (x,[ y).
On obtient enfin très facilement la relation :
connue sous le nom d’identité de Lagrange, et valable même lorsque x ou y est nul.
Si (a, b) et (c, d) sont les composantes respectives de x et y dans une certaine b.o.n.d de E, cette
identité s’écrit :
(ac + bd)2 + (ad − bc)2 = (a2 + b2 )(c2 + d2 ).
Ça vous rappelle quelque chose ?
Proposition 8 Soient x et y deux vecteurs non nuls de E, r une rotation, f un élément de O− (E).
On a alors
\
(r(x), [
r(y)) = (x, \
y) et (f (x), [
f (y)) = −(x, y)
[
preuve : Soit θ une mesure de l’angle (x, y).
Remarquons tout d’abord que si g est une isométrie de E, on a, pour tout élément a de E \ {0} :
g(a) g(a) a
= =g .
kg(a)k kak kak
\
donc θ est une mesure de l’angle (r(x), r(y)).
On a également :
f (x) x
r−θ = r−θ ◦ f .
kf (x)k kxk
MPSI 2—Mathématiques 30
Or, si h est un élément de O− (E), la matrice de h dans une base orthonormée est du type Sφ , avec
R
φ ∈ , donc Sφ2 = I2 , et h ◦ h = IdE .
Ici, f ◦ rθ est élément de O− (E), donc f ◦ rθ ◦ f ◦ rθ = IdE , ou encore
r−θ = rθ−1 = f ◦ rθ ◦ f,
Proposition 9 Les éléments de O− (E) sont le symétries orthogonales par rapport à une droite vec-
torielle (ce sont donc les réflexions puisque E est de dimension 2).
On en déduit que :
et
si bien que la matrice de ρ relativement à B n’est autre que S2θ . On voit déjà (mais on le savait) que
ρ est bien un élément de O− (E).
Réciproquement, si f est un élément de O− (E), alors il existe un réel α tel que la matrice de f
relativement à B est Sα .
Si on note s la symétrie orthogonale par rapport à Vect (u), où u = cos α2 e1 + sin α2 e2 , la matrice de
s relativement à B est aussi Sα d’après ce qui précède, donc f = s. ♣
MPSI 2—Mathématiques 31
∀z ∈ E, [x, y, z] = ha, zi
R
preuve : L’application ϕ : z ∈ E 7→ [x, y, z] ∈ est linéaire (d’après les propriétés du déterminant),
on sait alors qu’il existe un et un seul vecteur a de E tel que ϕ = ha, ·i. ♣
Retrouvons alors les propriétés du produit vectoriel :
• L’application (x, y) ∈ E 2 7→ x ∧ y est bilinéaire.
Montrons par exemple la linéarité par rapport à la première variable : soient x, x0 , y des vecteurs
de E, λ un réel. Alors, pour tout vecteur z de E on a :
[x, x, z] = 0 = h0, zi
hx ∧ y, xi = [x, y, x] = 0.