Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Euclid Iens

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 32

Espaces euclidiens

Lycée Saint-Louis
Mai 

1 Notions de base
On se donne un R-espace vectoriel E.
1.1 Produit scalaire
Rappelons pour commencer une définition :

Définition 1 Une application ϕ de E × E dans R est une forme bilinéaire sur E lorsque :
1. pour tout x ∈ E, l’application y ∈ E 7→ ϕ(x, y) est linéaire (on la note ϕ(x, ·)).
2. pour tout y ∈ E, l’application x ∈ E 7→ ϕ(x, y) est linéaire (on la note ϕ(·, y)).
Nous avons déjà rencontré des formes bilinéaires lors de l’étude des déterminants.

Exemple 1 Donnons la forme générale d’une forme bilinéaire lorsque E est de dimension finie. On
se donne une base B = (e1 , . . . , en ) de E.
Soit ϕ une forme bilinéaire sur E. Soient x et y des éléments de E, de coordonnées respectives
(x1 , . . . , xn ) et (y1 , . . . , yn ) dans la base B. On a par bilinéarité :
 
Xn n
X X
ϕ(x, y) = ϕ  xi ei , yj ej  = xi yj ϕ(ei , ej )
i=1 j=1 1≤i,j≤n

On voit donc que ϕ est entièrement déterminée par les n2 réels ϕ(ei , ej ) obtenus pour (i, j) décrivant
R
{1, . . . , n}2 , c’est-à-dire par la matrice A de Mn ( ) définie par A[i, j] = ϕ(ei , ej ) pour 1 ≤ i, j ≤ n.
Cette matrice s’appelle la matrice de ϕ relativement à B. On a d’ailleurs, en notant X et Y les colonnes
des composantes de x et y dans B,
ϕ(x, y) = tXAY
R
Réciproquement, si on se donne une matrice A = (aij )1≤i,j≤n dans Mn ( ), et si on pose, pour x, y
dans E de composantes respectives (x1 , . . . , xn ) et (y1 , . . . , yn ) dans B,
X
ϕ(x, y) = aij xi yj ,
1≤i,j≤n

on définit bien une forme bilinéaire sur E (dont la matrice relativement à B est précisément A).

Définition 2 Une forme bilinéaire ϕ sur E est dite symétrique lorsque :

∀x, y ∈ E, ϕ(x, y) = ϕ(y, x)

1
MPSI 2—Mathématiques 2

R
Remarquons que si ϕ : E × E → est symétrique et linéaire par rapport à l’une des deux variables,
elle est automatiquement linéaire par rapport à l’autre.

R
Exercice 1.1 Soit E un -espace vectoriel de dimension finie, B une base de E, ϕ une forme bilinéaire
sur E. Prouver que ϕ est symétrique si et seulement si la matrice de ϕ relativement à B est une matrice
symétrique.

Définition 3 Une forme bilinéaire ϕ sur E est dite positive lorsque :

∀x ∈ E, ϕ(x, x) ≥ 0

On dit que ϕ est définie positive si

∀x ∈ E \ {0}, ϕ(x, x) > 0

Remarque Si ϕ est une forme bilinéaire, on a, pour tout x, ϕ(0, x) = ϕ(x, 0) = 0, et en particulier
ϕ(0, 0) = 0. Donc si ϕ est définie positive, ϕ est positive.
Une formulation possible (contraposée) du caractère défini positif est la suivante : ϕ est définie positive
si et seulement si :

∀x ∈ E, ϕ(x, x) ≥ 0 et ∀x ∈ E, ϕ(x, x) = 0 =⇒ x = 0

Définition 4 (Produit scalaire) On appelle produit scalaire sur E toute forme bilinéaire symé-
trique définie positive sur E.
Si ϕ est un produit scalaire sur E, le couple (E, ϕ) s’appelle un espace préhilbertien réel. Si E est de
plus de dimension finie, on parle d’espace euclidien.

Notation Soit ϕ un produit scalaire sur E. Pour x, y éléments de E, on notera hx, yi, ou (x|y), ou
encore x · y (au lieu de ϕ(x, y)) le produit scalaire des vecteurs x et y (on lit « x scalaire y » ce produit
scalaire). La notation infixe ainsi adoptée est très pratique.

Exemple 2 Donnons quelques exemples de produits scalaires :


1. Prenons E = R2 . Pour x = (x1 , x2 ), et y = (y1 , y2 ) éléments de E, on pose
hx, yi = x1 y1 + x2 y2

On vérifie qu’on définit ainsi un produit scalaire sur R2 , appelé produit scalaire canonique.
2. Plus généralement, si on prend E = Rn , et si on pose, pour x = (x1 , . . . , xn ) et y = (y1 , . . . , yn )
éléments de E,
n
X
hx, yi = xk yk ,
k=1

on définit ainsi un produit scalaire sur Rn , appelé produit scalaire canonique.


3. Généralisons encore.
N
Si E est de dimension finie n ∈ ∗ , et si on se donne
Pn une base B =P
(e1 , . . . , en ) de E, on définit
n
un produit scalaire sur E en posant, pour x = k=1 xk ek et y = k=1 yk ek éléments de E :
n
X
hx, yi = xk yk
k=1
MPSI 2—Mathématiques 3

R
4. Prenons E = Mn ( ). Pour A, B éléments de E, posons

hA, Bi = Tr tAB


R
On définit ainsi ainsi un produit scalaire sur Mn ( ), appelé produit scalaire canonique.
Vérifions ceci : la bilinéarité est immédiate (propriétés de la transposition et de la trace).
D’autre part, pour A et B éléments de E, en utilisant le fait que Tr tM = Tr M pour toute
matrice M :
Tr tAB = Tr t tAB = Tr tB t(tA) = Tr(tBA),
  

on a vérifié la symétrie. Enfin, si A est une matrice non nulle de Mn ( ), on a R


n n X
n
 X X
Tr tAA = t
(A[j, i])2 > 0,

AA [i, i] =
i=1 i=1 j=1

car il s’agit d’une somme de réels positifs non tous nuls.


R
5. Soit E le -espace vectoriel des fonctions continues réelles définies sur un segment [a, b]. Pour
f et g éléments de E, posons
Z b
hf, gi = fg
a
On définit ainsi un produit scalaire sur E. En effet, bilinéarité et symétrie sont faciles. De plus,
si f est un élément non nul de E, alors f 2 est positive, continue, et non identiquement nulle,
Rb
donc a f 2 > 0.

1.2 Norme euclidienne


Commençons par définir ce qu’est une norme sur E.

Définition 5 On appelle norme sur E toute application N de E dans R+ telle que :


1. ∀x ∈ E, N (x) = 0 =⇒ x = 0 [séparation]
2. ∀λ ∈ R, ∀x ∈ E, N (λx) = |λ| N (x) [homogénéité]
3. ∀x, y ∈ E, N (x + y) ≤ N (x) + N (y) [inégalité triangulaire]

Exemple 3 Donnons quelques exemples.


R
— prenons E = n . Pour x = (x1 , . . . , xn ) élément de E, posons :
n
X
N∞ (x) = max |xi | et N1 (x) = |xi |.
1≤i≤n
i=1

R
On définit ainsi deux normes sur n (exercice).
De même, si p est un réel supérieur ou égal à 1, et si on pose

n
! p1
X
p
Np (x) = |xi | ,
i=1

on définit aussi une norme sur E (exercice dificile).


MPSI 2—Mathématiques 4

— De même, si E = C([a, b], R), et si on pose, pour f élément de E :


Z b
N∞ (f ) = sup |f | et N1 (f ) = |f |,
[a,b] a

on définit ainsi deux normes sur E (exercice).

R
Exercice 1.2 Représenter l’ensemble des vecteurs x de 2 tels que N∞ (x) ≤ 1, l’ensemble des
R R
vecteurs x de 2 tels que N1 (x) ≤ 1, et enfin l’ensemble des vecteurs x de 2 tels que N2 (x) ≤ 1.

Exercice 1.3 Soit N une norme sur E. Prouver que :

∀x, y ∈ E, |N (x) − N (y)| ≤ N (x ± y)

On va à présent examiner une catégorie importante de normes : les normes euclidiennes, ce sont les
normes qui proviennent d’un produit scalaire (voir plus bas). Le résultat suivant est un résultat clé :

Proposition 1 (inégalité de Cauchy-Schwarz) Soit ϕ une forme bilinéaire symétrique positive


R
sur le -espace vectoriel E. Alors on a :
p p
∀x, y ∈ E, |ϕ(x, y| ≤ ϕ(x, x) ϕ(y, y)

Supposons de plus que ϕ est définie positive. Alors l’inégalité précédente est une égalité si et seulement
si la famille (x, y) est liée.

preuve : Soient x et y deux éléments de E.


Comme ϕ est positive, on a, pour tout réel t, ϕ(x + ty, x + ty) ≥ 0, ce qui donne par bilinéarité et
symétrie :
∀t ≥ 0, ϕ(x, x) + 2tϕ(x, y) + t2 ϕ(y, y) ≥ 0
| {z }
=P (t)

Si ϕ(y, y) = 0, P est une fonction affine de t, toujours positive, donc le coefficient directeur est nul,
i.e ϕ(x, y) = 0, et l’inégalité est vraie.
Si ϕ(y, y) > 0, P est polynomiale de degré 2, toujours positive, donc P ne peut avoir deux racines
réelles distinctes (car alors P serait strictement négative entre les racines), donc le discriminant de P
est négatif ou nul, ce qui donne

4ϕ(x, y)2 − 4ϕ(x, x)ϕ(y, y) ≤ 0,

et on a bien l’inégalité cherchée.


Supposons à présent que ϕ est définie positive.
— supposons que la famille (x, y) est liée. Si x ou y est nul, il y a bien égalité dans l’inégalité
précédente. Si x et y ne sont pas nuls, y s’écrit y = λx, avec λ réel. On a alors ϕ(x, y) = λϕ(x, x),
et ϕ(y, y) = λ2 ϕ(x, x), et on constate de visu avec les yeux que l’inégalité précédente est une
égalité.
— supposons qu’il y a égalité dans l’inégalité précédente. Si y est nul, la famille (x, y) est bien
liée. Si y n’est pas nul, alors ϕ(y, y) > 0, et t 7→ ϕ(x + ty, x + ty) est un polynôme P de degré
2 dont le discriminant est nul. On dispose donc d’une racine µ de P dans , et on a R
0 = P (µ) = ϕ(x + µy, x + µy),

ce qui impose x + µy = 0 puisque ϕ est définie positive. La famille (x, y) est liée ♣
MPSI 2—Mathématiques 5

On peut alors définir la norme euclidienne associée à un produit scalaire :

Théorème 1 (et définition)


Soit h·, ·i un produit scalaire sur le R-espace vectoriel E. Alors l’application :
E −→ R+ p
x 7→ kxk = hx, xi
est une norme sur E, appelée norme euclidienne associée au produit scalaire h·, ·i.
On appelle également distance euclidienne l’application d définie sur E × E par :
∀(x, y) ∈ E 2 , d(x, y) = kx − yk

preuve : Vérifions que k · k est une norme :


— il est évident que k · k est à valeurs positives. De plus, pour x élément de E, kxk = 0 si et
seulement si hx, xi = 0, ce qui équivaut à x = 0 (caractère défini positif d’un produit scalaire).
R
— soit x ∈ E et λ ∈ . On a
p p √
kλxk = hλx, λxi = λ2 hx, xi = λ2 kxk = |λ| kxk.
— soient x et y des éléments de E. On a
2 2
(kxk + kyk) − kx + yk2 = (kxk + kyk) − hx + y, x + yi
 

= kxk2 + kyk2 + 2kxk kyk − hx, xi +2hx, yi + hy, yi


 
| {z } | {z }
=kxk2 =kyk2

= 2 (kxk kyk − hx, yi)


Or, d’après l’inégalité de Cauchy-Schwarz, on a
hx, yi ≤ |hx, yi| ≤ kxk kyk,
2
on en déduit bien que kx + yk2 ≤ (kxk + kyk) , d’où l’inégalité triangulaire en prenant la racine
carrée.

R
Remarque Si h·, ·i est un produit scalaire sur le -espace vectoriel E, et si k · k est la norme
euclidienne associée à ce produit scalaire, l’inégalité de Cauchy-Schwarz s’écrit :

∀x, y ∈ E, |hx, yi| ≤ kxk kyk

Dans Rn , muni du produit scalaire canonique, la norme euclidienne du vecteur x = (x1 , . . . , xn ) est :
q
kxk = x21 + . . . + x2n ,

et l’inégalité de Cauchy-Schwarz s’écrit :


v v
Xn u Xn u n
u uX
xi yi ≤ t x2i t yi2



i=1 i=1 i=1

Dans l’espace des fonctions continues sur un segment [a, b], muni du produit scalaire usuel, l’inégalité
de Cauchy-Schwarz devient :
Z sZ s
b b Z b

f g ≤

f 2 g2
a a a
MPSI 2—Mathématiques 6

Figure 1 – Inégalité triangulaire

Remarque Soit (E, h·, ·i) un espace préhilbertien, de norme euclidienne associée k · k. Soit d la
distance euclidienne. On a alors les propriétés :
1. d est à valeurs positives.
2. ∀x, y ∈ E, d(x, y) = 0 ⇐⇒ x = y. [séparation]
3. ∀x, y ∈ E, d(x, y) = d(y, x) [symétrie]
4. ∀x, y, z ∈ E, d(x, z) ≤ d(x, y) + d(y, z) [inégalité triangulaire]
Ces propriétés sont de faciles conséquences des propriétés des normes. On a de plus

∀x, y ∈ E, |kxk − kyk| ≤ kx ± yk,

on en déduit
∀x, y, z ∈ E, |d(x, y) − d(y, z)| ≤ d(x, z)
Je vous renvoie à la figure pour une interprétation de ces inégalités dans un triangle (c’est ce qui
donne son nom à l’inégalité).

Proposition 2 (cas d’égalité dans l’inégalité triangulaire) Soit h·, ·i un produit scalaire sur le
R-espace vectoriel E, de norme euclidienne associée k · k, x et y des vecteurs de E.
On a kx + yk = kxk + kyk si et seulement si x et y sont positivement liés, c’est à dire :

(∃λ ∈ R+ , y = λx) ou (∃λ ∈ R+ , x = λy)


On dit aussi dans ce cas que x et y sont colinéaires de même sens.

preuve : Vérifions les deux implications.


— supposons que y = λx, avec λ ≥ 0. On a alors kyk = |λ| kxk = λ kxk car λ ≥ 0.
De plus, kx + yk = k(1 + λ)xk = |1 + λ| kxk = (1 + λ)kxk, et on a bien kx + yk = kxk + kyk.
R
Le cas x = λy avec λ ∈ + est identique.
— Supposons que kx + yk = kxk + kyk, avec de plus x et y non nuls. On a alors (voir la preuve
de l’inégalité triangulaire) hx, yi = kxk kyk. Or on sait que

hx, yi ≤ |hx, yi| ≤ kxk kyk,

les deux inégalités intermédiaires sont des égalités. Il y a donc égalité dans l’inégalité de Cauchy-
Schwarz, donc la famille (x, y) est liées, et puisque x et y sont non nuls, il existe un réel λ tel
que y = λx. On doit de plus avoir hx, yi = |hx, yi|, ce qui donne ici λ kxk2 = |λ| kxk2 , puis
λ = |λ| (car kxk2 > 0), c’est-à-dire λ ≥ 0.
Le cas où x ou y est nul est immédiat. ♣
MPSI 2—Mathématiques 7

On va maintenant examiner quelques identités remarquables.

R
Petite histoire : Soit h·, ·i un produit scalaire sur le -espace vectoriel E, de norme euclidienne
associée k · k. Soient x1 , . . . , xn des éléments de E. En utilisant la bilinéarité du produit scalaire, on
obtient :
X 2
n * n n
+
X X X
xi = xi , xj = hxi , xj i.



i=1 i=1 j=1 1≤i,j≤n

En distinguant les couples (i, i) et les autres, on obtient :

X 2 X
n n X X
xi = kxi k2 + hxi , xj i + hxi , xj i



i=1 i=1 1≤i<j≤n 1≤j<i≤n

De plus, par symétrie du produit scalaire,


X X X
hxi , xj i = hxj , xi i = hxi , xj i,
1≤j<i≤n 1≤j<i≤n 1≤i<j≤n

la dernière égalité a été obtenue en permutant les lettres muettes i et j. On obtient finalement :

X 2
n n
X X
xi = kxi k2 +2 hxi , xj i



i=1 i=1 1≤i<j≤n
| {z } | {z }
« carrés parfaits » « doubles produits »

C’est une formule tout à fait similaire à celle qu’on obtient lorsqu’on calcule le carré d’une somme de
nombres.
Dans le cas de deux vecteurs, on a alors successivement :

(1) kx + yk2 = kxk2 + kyk2 + 2hx, yi


(2) kx − yk2 = kxk2 + kyk2 − 2hx, yi
(3) 4hx, yi = kx + yk2 − kx − yk2
(4) 2(kxk2 + kyk2 ) = kx + yk2 + kx − yk2
(5) kxk2 − kyk2 = hx + y, x − yi

En effet, (1) est une application directe de la formule générale, (2) s’obtient en changeant y en −y dans

Figure 2 – (4) Identité du parallélogramme

(1), (3) et (4) s’obtiennent par différence et somme de (1) et (2). Enfin, on obtient (5) en remplaçant
dans (3) x par x + y et y par x − y.
MPSI 2—Mathématiques 8

L’identité (4) porte le nom d’identité du parallélogramme (voir figure) : dans un parallélogramme, la
somme des carrés de longueurs de côtés est égale à la somme des carrés des longueurs des diagonales.
L’identité (5) est l’analogue de la formule bien connue a2 − b2 = (a + b)(a − b).
On peut voir facilement qu’il peut exister des normes qui ne sont pas euclidiennes (c’est-à-dire qui ne
R
sont pas associées à un produit scalaire). Considérons par exemple N∞ sur 2 . Il est clair que cette
norme ne vérifie pas l’identité du parallélogramme (prendre x = (1, 0), et y = (0, 1)). On voit de même
R
que N1 n’est pas euclidienne. On peut montrer qu’une norme sur un -espace vectoriel est euclidienne
si et seulement si elle vérifie l’identité du parallélogramme (c’est un joli (et difficile) exercice).

Exercice 1.4 (un résultat de von Neumann) Soit N une norme sur un R-espace vectoriel E. On
suppose que N vérifie l’identité du parallélogramme :

∀x, y ∈ E,N 2 (x + y) + N 2 (x − y) = 2(N 2 (x) + N 2 (y))

On pose, pour x,y éléments de E, ϕ(x, y) = 41 N 2 (x + y) − N 2 (x − y) .



p
1. Montrer que ϕ est symétrique, que ϕ(0, y) = 0 pour tout y dans E, et que N (x) = ϕ(x, x)
pour tout x dans E.
2. Soient x, x0 , y des éléments de E. Prouver que ϕ(x + x0 , y) = ϕ(x, y) + ϕ(x0 , y).
3. Soient x et y des vecteurs de E. Prouver que t ∈ R 7→ N (tx + y) est lipschitzienne (donc
continue).
4. Montrer que ϕ est bilinéaire.
5. Prouver que ϕ est un produit scalaire et que N est la norme associée à ce produit scalaire.

1.3 Orthogonalité
Dans ce paragraphe, E est un R-espace vectoriel muni d’un produit scalaire h·, ·i, de norme euclidienne
associée k · k.

Définition 6 Soient x et y des vecteurs de E. On dit que x et y sont orthogonaux, et on écrit x⊥y
lorsque hx, yi = 0.

Remarque On voit tout de suite que 0 est orthogonal à tout vecteur de E, et c’est le seul vecteur
de E orthogonal à tous les autres (si x est orthogonal à tout vecteur de E, alors 0 = hx, xi = kxk2 ,
donc x = 0).
D’après les identités remarquables, on voit tout de suite que x et y sont orthogonaux si et seulement
si kx + yk2 = kxk2 + kyk2 : c’est le célébrissime théorème de Pythagore !

Petite histoire : Retrouvons nos petits. Je vais commencer par définir l’angle géométrique de deux
vecteurs non nuls. Soient x et y deux vecteurs non nuls de E. L’inégalité de Cauchy-Schwarz peut
s’écrire :
hx, yi
∈ [−1, 1].
kxk kyk
hx,yi
On dispose donc d’un unique réel θ ∈ [0, π] tel que cos θ = kxk kyk , c’est ce réel qu’on appelle angle
géométrique de x et y.
Avec cette définition, il est immédiat que

hx, yi = kxk kyk cos θ


MPSI 2—Mathématiques 9

Tiens donc ! Ça vous rappelle quelque chose, non ?


De plus, on voit que x⊥y si et seulement si cos θ = 0, c’est-à-dire si θ = π2 .
D’après le cas d’égalité dans Cauchy-Schwarz, on voit que x et y sont proportionnels si et seulement
si | cos θ| = 1, c’est-à-dire θ = 0 ou θ = π.
Enfin, hx, yi > 0 si et seulement si θ ∈ [0, π2 [ (angle aigu), et hx, yi < 0 si et seulement si θ ∈] π2 , π]
(angle obtus). On peut faire nos dessins habituels avec cette définition de l’angle, youpi !

Définition 7 (Familles orthogonales) Soit (e1 , . . . , en ) une famille de vecteurs de E. On dit que
cette famille est orthogonale si les ei sont deux à deux orthogonaux, c’est-à-dire si hei , ej i = 0 pour i
et j distincts dans {1, . . . , n}.
On dit que la famille est orthonormée si elle est orthogonale, et si tous les ei sont unitaires (c’est-à-dire
de norme 1), donc si hei , ej i = δij pour tout (i, j) ∈ {1, . . . , n}2 .
Par exemple, la base canonique (e1 , . . . , en ) est une famille orthonormée de Rn (lorsqu’on munit Rn
du produit scalaire canonique).
Si (a1 , . . . , an ) est une famille orthogonale de vecteurs de E, alors

X 2 X
n n
ai = kai k2



i=1 i=1

Proposition 3 Une famille orthogonale de vecteurs non nuls est libre. En particulier, toute famille
orthonormée est libre.

preuve : Soit (eP 1 , . . . , en ) une famille orthogonale de vecteurs non nul de E, soient λ1 , . . . , λn des
n
scalaires tels que k=1 λk xk = 0. On a alors, pour tout entier i compris entre 1 et n :
* n
+ n
X X
0 = hei , 0i = ei , λk xk = λk hei , ek i = λi kei k2 ,
| {z }
k=1 k=1
=0 si i6=k

donc λi est nul (car ei n’est pas nul, donc kei k2 > 0). ♣
Nous verrons plus loin l’intérêt des familles orthonormées, et plus particulièrement des bases ortho-
normées.

Définition 8 (Orthogonal d’une partie) Soit A une partie non vide de E. On appelle orthogonal
de A, et on note A⊥ l’ensemble des vecteurs de E qui sont orthogonaux à tous les vecteurs de A. Par
définition, un élément x de E appartient à A⊥ si et seulement si hx, ai = 0 pour tout élément a de A.
Listons quelques propriétés immédiates :
— On a E ⊥ = {0}, et {0}⊥ = E.
— Si A ⊂ B alors B ⊥ ⊂ A⊥ .
— A ⊂ (A⊥ )⊥ .
MPSI 2—Mathématiques 10

— A⊥ est toujours un sous-espace vectoriel de E : en effet, on a bien 0 ∈ A⊥ , et si x et y


R
appartiennent à A⊥ , et si λ ∈ , alors pour tout élément de A on a

hλx + y, ai = λhx, ai + hy, ai = λ0 + 0 = 0,

donc λx + y appartient à A⊥ .
— on a toujours A⊥ = (Vect (A))⊥ . En effet, on a A ⊂ Vect (A), donc (Vect (A))⊥ ⊂ A⊥ . D’autre
part, si x appartient à A⊥ , et si y appartient à Vect (A), on sait que y s’écrit y = λ1 a1 +. . .+λr ar ,
N
avec r ∈ ∗ , a1 , . . . , ar éléments de A, et λ1 , . . . , λr réels, et on a alors
* r
+ r
X X
hx, yi = x, λk ak = λk hx, ak i = 0,
| {z }
k=1 k=1
=0

et x appartient bien à l’orthogonal de Vect (A).


— si F est un sous-espace vectoriel de E, on a F ∩ F ⊥ = {0} . En effet, si x appartient à cette
intersection, x est en particulier orthogonal à lui-même, donc nul.

Définition 9 (parties orthogonales) Soient A et B deux parties non vides de E. On dit que A et
B sont orthogonales, et on écrit A⊥B lorsque

∀(a, b) ∈ A × B, ha, bi = 0.

Ceci équivaut à A ⊂ B ⊥ , ou à B ⊂ A⊥ .

2 Théorèmes fondamentaux et applications


R
On considère un -espace vectoriel E muni d’un produit scalaire noté h·, ·i, de norme euclidienne
associée notée k · k.

2.1 Théorèmes fondamentaux


Théorème 1
Soit a un vecteur non nul de E. On a :

E = Vect (a) ⊕ (Vect (a))⊥ = Vect (a) ⊕ {a}⊥

preuve : On sait tout d’abord que Vect (a) ∩ (Vect (a))⊥ = {0}, la somme est donc directe.
Soit x un vecteur de E, on cherche un réel λ et un vecteur y orthogonal à a tel que x = λa + y.
Supposons l’existence de a et de y, on a alors

ha, xi = ha, λa + yi = λkak2 + ha, yi = λkak2 ,


ha,xi ha,xi
d’où nécessairement λ = kak2 , puis y = x − kak2 a.
On écrit donc  
ha, xi ha, xi
x= a+ x− a ,
kak2 kak2
il s’agit de vérifier que x − ha,xi
kak2 a est bien orthogonal à a :
 
ha, xi ha, xi
a, x − a = ha, xi − ha, ai = 0. ♣
kak2 kak2
MPSI 2—Mathématiques 11

Remarque Avec les notations du théorème, on peut définir le projecteur p sur Vect (a), parallèlement
à {a}⊥ , appelé projecteur orthogonal sur Vect (a). On a, pour tout x élément de E :

ha, xi
p(x) = a,
kak2

et lorsque a est unitaire,


p(x) = ha, xia

Théorème 2
Si E est de dimension finie, alors E admet des bases orthonormées.

N
preuve : : on procède par récurrence sur la dimension. Pour n ∈ ∗ , soit (Hn ) l’énoncé : « tout
espace euclidien de dimension n admet des bases orthonormées. »
— (H1 ) est vrai : soit E euclidien de dimension 1. Il suffit de prendre un vecteur x non nul, et de
x
considérer e = kxk pour obtenir une base orthonormée de E.
— soit n un entier non nul tel que (Hn ) est vrai, soit E un espace euclidien de dimension n + 1,
x
soit x un vecteur non nul de E, et e = kxk , de telle sorte que e est unitaire. D’après le théorème
précédent,
E = Vect (e) ⊕ (Vect (e))⊥ ,
et F = (Vect (e))⊥ est un sous-espace de E de dimension n, c’est un espace euclidien de dimen-
sion n si on le munit du produit scalaire de E. Par hypothèse de récurrence, on peut trouver
une base orthonormée (e1 , . . . , en ) de F , et on obtient par recollement une base (e, e1 , . . . , en )
de E, évidemment orthonormée. ♣
Nous reviendrons sur ce sujet lors du paragraphe sur les espaces euclidiens.

Théorème 3
Soit F un sous-espace vectoriel de E, de dimension finie. Alors

E = F ⊕ F⊥

preuve : D’après le théorème précédent, on peut considérer une base orthonormée (e1 , . . . , ep ) de F
(où p est la dimension de F ).
On sait déjà que F ∩ F ⊥ = {0}.
Prouvons que

E = F + F ⊥ = Vect (e1 , . . . , ep ) + (Vect (e1 , . . . , ep ))⊥ = Vect (e1 , . . . , ep ) + {e1 , . . . , ep }⊥

x un élément de E, on cherche des réels λ1 , . . . , λp , et un vecteur y orthogonal aux ei tel que


Soit P
p
x = k=1 λk ek + y.
Supposons l’existence de y et des λk , on doit alors avoir, pour 1 ≤ i ≤ p :
p
X
hx, ei i = λk hek , ei i + hy, ei i = λi
| {z } | {z }
k=1
=δki =0

On a donc nécessairement λi = hx, ei i pour 1 ≤ i ≤ p. On écrit donc


p p
!
X X
x= hx, ek iek + x − hx, ek iek ,
k=1 k=1
MPSI 2—Mathématiques 12

Pp
il s’agit de vérifier que le vecteur x − k=1 hx, ek iek est bien orthogonal aux ei . Mais, pour 1 ≤ i ≤ p,
on a :
p p
* +
X X
x− hx, ek iek , ei = hx, ei i − hx, ek i hek , ei i = hx, ei i − hx, ei i = 0,
| {z }
k=1 k=1
=δki

d’où le résultat.

2.2 projecteurs orthogonaux et distance à un sous-espace


Soit F un sous-espace de E tel que E = F ⊕ F ⊥ (c’est le cas d’après ce qui précède lorsque F est de
dimension finie). On peut définir dans ce cas le projecteur sur F parallèlement à F ⊥ , appelé projecteur
orthogonal sur F (je le note ici pF ), et aussi la symétrie par rapport à F , parallèlement à F ⊥ , appelée
symétrie orthogonale par rapport à F (notée ici sF ).

Tout vecteur x de E s’écrit de façon unique x = y + z,


avec y ∈ F , et z ∈ F ⊥ . On a pF (x) = y, et sF (x) = y − z. Comme y et z sont orthogonaux, on a

kxk2 = kyk2 + kzk2 ,

on en déduit déjà que kzk2 ≤ kxk2 , autrement dit :

kpF (x)k ≤ kxk

Le projecteur pF diminue la norme.


On a aussi ky − zk2 = kyk2 + kzk2 , donc ksF (x)k = kxk. La symétrie sF conserve la norme.

Soit maintenant une famille (e1 , . . . , en ) orthonormée de vecteurs de E. Soit F = Vect (e1 , . . . , en ). On
se donne un vecteur x de E. D’après la preuve du théorème précédent, on a dans ce cas :

n
X
pF (x) = hx, ek iek
k=1

Par ailleurs, vu que les vecteurs hx, e1 ie1 , . . . , hx, en ien sont deux à deux orthogonaux :

n
X n
X
kpF (x)k2 = khx, ek iek k2 = hx, ek i2
k=1 k=1
MPSI 2—Mathématiques 13

On a donc, puisque pF diminue la norme, l’inégalité de Bessel :


n
X
hx, ek i2 ≤ kxk2
k=1

Par ailleurs on a vu que kxk2 = kpF (x)k2 + kx − pF (x)k2 , donc


n
X
2 2
kx − pF (x)k = kxk − hx, ek i2 ,
k=1

ce qui permet de voir que l’inégalité de Bessel est une égalité si et seulement si x appartient à
Vect (e1 , . . . , en ).

Revenons à la situation de départ : E = F ⊕ F ⊥ . Soit x un vecteur de E, que l’on écrit x = y + z, avec


y ∈ F , et z ∈ F ⊥ . Pour tout vecteur u de F , on a x − u = (y − u) + z, et y − u et z sont orthogonaux
puisque y − u est dans F et z dans F ⊥ . On a donc
kx − uk2 = ky − uk2 + kzk2 ,
ce qui permet de voir que kx − uk ≥ kzk, avec égalité si et seulement si ky − uk = 0, i.e si u = y. On
en déduit que
kx − pF (x)k = kzk = inf kx − uk
u∈F
C’est l’occasion d’introduire la notion de distance à une partie :

Définition 1 Soit A une partie non vide de E, et x un élément de E. On appelle distance de x à A,


et on note d(x, A) le réel :
d(x, A) = inf{kx − ak , a ∈ A}
(ce nombre est bien défini, c’est la borne inférieure d’une partie minorée de R)

On a montré auparavant que si F est un sous-espace vectoriel de E


tel que E = F ⊕ F ⊥ , alors
d(x, F ) = kx − pF (x)k ,
d(x, F ) est atteinte, et pF (x) est l’unique vecteur u de F tel que kx − uk = d(x, F ).
Dans le cas où F et de dimension finie et où (e1 , . . . , en ) est une base orthonormée de F , il résulte des
calculs précédents que pour tout vecteur x de E,
v
u
X n
u
d(x, F ) = tkxk2 − hx, ek i2
k=1
MPSI 2—Mathématiques 14

Remarquons que si E = F ⊕ F ⊥ , on a aussi E = F ⊥ ⊕ (F ⊥ )⊥ : en effet, la somme est directe, et on a

E = F + F ⊥ ⊂ (F ⊥ )⊥ + F ⊥ ⊂ E

car F ⊂ (F ⊥ )⊥ . On peut parler du projecteur orthogonal q sur F ⊥ . Or, si p est le projecteur orthogonal
sur F , on a, pour tout x élément de E, x = p(x) + (x − p(x)), avec p(x) élément de F (donc de (F ⊥ )⊥ ),
et x − p(x) élément de F ⊥ . On en déduit que q(x) = x − p(x), puis

d(x, F ⊥ ) = kx − q(x)k = kp(x)k

Dans le cas particulier où F est de dimension finie et où on dispose d’une base orthonormée (e1 , . . . , ep )
de F , on aura
v
u p
uX
d(x, F ⊥ ) = kp(x)k = t hx, ek i2
k=1

Dans le cas où F est une droite vectorielle dirigée par un vecteur non nul a, on aura donc (puisque
a
( kak ) est une base orthonormée de Vect (a)) :

s
hx, ai2
d(x, Vect (a)) = kxk2 −
kak2

et aussi
|hx, ai|
d(x, {a}⊥ ) =
kak
Cette dernière expression mérite d’être retenue.

2.3 le processus d’orthonormalisation de Gram-Schmidt


Il s’agit là d’un algorithme qui permet de fabriquer une famille orthonormée en partant d’une famille
libre. On va prouver le théorème suivant :

Théorème 4
Soit n un entier naturel non nul, et (x1 , . . . , xn ) une famille libre de vecteurs de E. Alors il existe une
et une seule famille orthonormée (e1 , . . . , en ) de vecteurs de E telle que :

∀k ∈ {1, . . . , n}, Vect (e1 , . . . , ek ) = Vect (x1 , . . . , xk ) et hxk , ek i > 0

On part donc d’une famille libre (x1 , . . . , xn ) de vecteurs de E.

• Supposons l’existence de la famille (e1 , . . . , en ).


On doit avoir e1 unitaire tel que Vect (e) = Vect (x1 ), et hx1 , e1 i > 0. Le vecteur e1 doit donc
être proportionnel à x1 , il s’écrit e1 = tx1 , avec t réel. On doit avoir ke1 k = 1, ce qui impose
|t| = kx11 k , puis e1 = ± kxx11 k . La condition hx1 , e1 i > 0 impose alors e1 = + kxx11 k . On voit ainsi
que e1 est déterminé de manière unique.
Soit k un entier compris entre 1 et n.
Notons F = Vect (x1 , . . . , xk+1 ), et G = Vect (x1 , . . . , xk ) = Vect (e1 , . . . , ek ).
On a dim F = k + 1, et dim G = k (G est un sous-espace de F ). On sait que, en notant
G0 l’orthogonal de G dans l’espace euclidien F , F = G ⊕ G0 (puisque G est un sous-espace
MPSI 2—Mathématiques 15

de F de dimension finie), et on a dim G0 = 1. On a ek+1 ∈ F , et ek+1 est orthogonal à


e1 , . . . , ek , donc ek+1 appartient à G0 . D’après la précédente petite histoire, on sait que le
Pk
vecteur y = xk+1 − p=1 hxk+1 , ep iep appartient à G0 , et n’est pas nul (car xk+1 n’appartient
pas à G). Puisque dim G0 = 1, on a G0 = Vect (y). On en déduit que ek+1 s’écrit ek+1 = ty,
1 y
avec t réel. Comme ek+1 est unitaire, on a |t| = kyk , et ek+1 = ± kyk . On a

k
X
hxk+1 , yi = kxk+1 k2 − hxk+1 , ep i2 = d(xk+1 , G)2 > 0,
p=1

y
donc le fait que hxk+1 , ek+1 i > 0 impose ek+1 = + kyk .
On voit donc que (e1 , . . . , en ) est l’unique famille déterminée récursivement par :
x1
1. e1 = kx1 k .
2. pour tout entier k de {1, . . . , n − 1},
Pk
xk+1 − p=1 hxk+1 , ep iep
ek+1 =
Pk
xk+1 − p=1 hxk+1 , ep iep

• Il reste à vérifier que la famille précédente convient. Il est clair que e1 est bien unitaire, que
Vect (e1 ) = Vect (x1 ), et que hx1 , e1 i > 0.
Soit k un entier compris entre 1 et n−1. Supposons que la famille (e1 , . . . , ek ) soit orthonormée,
que Vect (e1 , . . . , ek ) = Vect (x1 , . . . , xk ), et que hxp , ep i > 0 pour 1 ≤ p ≤ k. Soit y le vecteur
k
X
y = xk+1 − hxk+1 , ep iep .
p=1

D’après la petite histoire précédente, y est orthogonal aux vecteurs e1 , . . . , ek , et n’est pas nul
(car xk+1 n’appartient pas à Vect (x1 , . . . , xk ) = Vect (e1 , . . . , ek )). On en déduit que ek+1 est
y
orthogonal à e1 , . . . , ek . Il est clair que ek+1 = kyk est unitaire. On a aussi

Vect (e1 , . . . , ek , y) = Vect (e1 , . . . , ek , xk+1 ) = Vect (x1 , . . . , xk , xk+1 )

C’est immédiat par double inclusion pour la première égalité. On a donc bien, puisque ek+1 est
proportionnel à y,
Vect (e1 , . . . , ek , ek+1 ) = Vect (x1 , . . . , xk , xk+1 )
Enfin, avec l’inégalité de Bessel :
k
X
hxk+1 , yi = kxk+1 k2 − hxk+1 , ep i2 > 0,
p=1

On a donc bien hxk+1 , ek+1 i > 0. D’où le résultat.


Cet algorithme est à mémoriser.
Une remarque pour terminer : si on enlève la condition hxk , ek i > 0, on voit qu’il y a 2n familles
orthonormées qui conviennent (2 choix possibles à chaque étape du processus).
Ce processus se généralise sans problèmes au cas de l’orthonormalisation d’une famille infinie (xn )n∈N
libre (ce qui nécessite que E ne soit pas de dimension finie).
MPSI 2—Mathématiques 16

Exercice 2.1 On souhaite déterminer :


Z 1
A= inf (t2 + at + b)2 dt
(a,b)∈ R2
0

On considère l’espace vectoriel E des applications continues de [0, 1] dans R, muni du produit scalaire :
Z 1
hf, gi = fg
0

Soit F le sous-espace de E formé des fonctions affines.


Prouver que A est le carré de la distance d’un certain élément de E au sous-espace F . En déduire A
(on pourra orthonormaliser la base naturelle de F ).

3 Espaces euclidiens
R
Dans cette section, on considère un espace euclidien (E, h·, ·i) : E est un -espace vectoriel de dimen-
sion finie, et h·, ·i est un produit scalaire sur E. On notera k · k la norme euclidienne associée à ce
produit scalaire.

3.1 Sous-espaces
Soit F un sous-espace de E. Comme E est de dimension finie, F est également de dimension finie, et
on a donc :
E = F ⊕ F⊥
On a par conséquent :
dim(F ⊥ ) = dim E − dim F
et aussi :
(F ⊥ )⊥ = F

La dernière égalité vient du fait que F est inclus dans (F ⊥ )⊥ , et du fait que

dim(F ⊥ )⊥ = dim E − dim F ⊥ = dim F

On peut donc définir sans se poser de questions le projecteur orthogonal sur F , et le symétrie ortho-
gonale par rapport à F .

Définition 1 Soit p un projecteur de E, s une symétrie de E.


1. On dit que p est un projecteur orthogonal si Im p⊥ ker p (c’est-à-dire si hx, yi = 0 pour tout x
élément de Im p et tout y élément de ker p).
2. On dit que s est une symétrie orthogonale si ker(s − IdE )⊥ ker(s + IdE ).

Remarque Soit p un projecteur de E. On sait que p est le projecteur sur F = Im p, parallèlement


à G = ker p. On en déduit que p est un projecteur orthogonal si et seulement si G ⊂ F ⊥ , ce qui
équivaut (vu que G et F ⊥ ont même dimension) à G = F ⊥ . Donc, p est un projecteur orthogonal si
et seulement si p est le projecteur orthogonal sur F .
De même, si s est une symétrie de E, s est une symétrie orthogonale si et seulement si s est le symétrie
orthogonale par rapport à F = ker(s − IdE ).
MPSI 2—Mathématiques 17

Définition 2 On appelle réflexion toute symétrie orthogonale par rapport à un hyperplan.


Soit H un hyperplan de E. On a dim H ⊥ = 1, c’est-à-dire que H ⊥ est une droite vectorielle. Soit a
un vecteur non nul de H ⊥ , on a alors H ⊥ = Vect (a), puis

H = (H ⊥ )⊥ = Vect (a)⊥ = {a}⊥

Si x est un vecteur de E, on a vu que x s’écrit


 
hx, ai hx, ai
x= a+ x− a ,
kak2 kak2

avec hx,ai ⊥ hx,ai


kak2 a ∈ Vect (a) = H , et x − kak2 a ∈ {a}

= H. On en déduit aussitôt (en notant σH le
symétrie orthogonale par rapport à H, c’est-à-dire la réflexion d’hyperplan H) :

hx, ai
σH (x) = x − 2 a.
kak2

Lorsque a est unitaire (on peut toujours se ramener à ce cas en divisant a par sa norme) :

σH (x) = x − 2hx, aia .

Résumons :

Proposition 1 Si H est un hyperplan de E, il existe un vecteur non nul a tel que H = {a}⊥ . Si on
note σH la réflexion d’hyperplan H, alors, pour tout élément x de E :

hx, ai
σH (x) = x − 2 a.
kak2

3.2 Bases orthonormées


Il résulte d’un théorème de la section précédente que :

Théorème 1
E admet des bases orthonormées.

Quelle est l’utilité des bases orthonormées ?


On se donne une base orthonormée B = (e1 , . . . , en ) de E. Soient x et y deux vecteurs de E, de
composantes (x1 , . . . , xn ) et (y1 , . . . , yn ) dans B. On notera aussi X et Y les matrices colonnes des
composantes de x et y dans B.
Soit i un entier compris entre 1 et n , on a alors
* n + n
X X
hx, ei i = xk ek , ei = xk hek , ei i = xi .
| {z }
k=1 k=1
=δki

Ainsi, pour tout i compris entre 1 et n,


xi = hx, ei i
MPSI 2—Mathématiques 18

Les composantes de x dans B s’expriment comme des produits scalaires de x avec les vecteurs de B.
On a aussi : * n +
X Xn Xn X n n
X
hx, yi = xi ei , yj ej = xi yj hei , ej i = xi yi
i=1 j=1 i=1 j=1
| {z } i=1
=δij

On a ainsi :

n
X n
X
hx, yi = xi yi et kxk2 = x2i
i=1 i=1

Autrement dit, tout se passe comme si on était dans R n


muni du produit scalaire standard.
Matriciellement, les relations précédentes s’écrivent :

hx, yi = tXY et kxk2 = tXX

Il faut donc retenir les expressions particulièrement simples du produit scalaire et de la norme eucli-
dienne dans une base orthonormée.
Soit à nouveau H un hyperplan de E. On sait qu’il existe des réels non tous nuls a1 , . . . , an tels que
H est l’ensemble des vecteurs x de E dont les coordonnées (x1 , . . . , xn ) vérifient

a1 x1 + . . . + an xn = 0

C’est ce qu’on appelle une équation cartésienne de H relativement à B. Soit a le vecteur

a = a1 e1 + . . . + an en

D’après ce qui précède, pour x ∈ E de coordonnées (x1 , . . . , xn ) dans B, a1 x1 + . . . + an xn = ha, xi.


On voit donc que
x ∈ H ⇐⇒ hx, ai = 0 ⇐⇒ x ∈ {a}⊥ ,
et H = {a}⊥ . Il en résulte en particulier que, pour tout vecteur x de E de composantes (x1 , . . . , xn )
dans B,
|hx, ai| |a1 x1 + . . . + an xn |
d(x, H) = = p 2
kak a1 + . . . + a2n

À retenir : on obtient un vecteur normal à l’hyperplan H en considérant le vecteur dont les coordonnées
dans B sont les coefficients de l’équation cartésienne de H.
On a également très facilement le théorème suivant :

Théorème 2
Soit ψ une forme linéaire sur E. Alors il existe un et un seul vecteur a de E tel que ψ = ha, ·i.

preuve : Soit (e∗1 , . . . , e∗n ) la base duale de la base B. Pour 1 ≤ i ≤ n, e∗i est l’application i-ème
coordonnées dans B donc d’après ce qui précède :

∀x ∈ E, e∗i (x) = hx, ei i

On sait que ψ s’écrit de façon unique ψ = a1 e∗1 + . . . + an e∗n , avec a1 , . . . , an des réels. On a alors,
pour tout x de coordonnées (x1 , . . . , xn ) dans la base orthonormée B :
n
X n
X
ψ(x) = ai e∗i (x) = ai xi = ha, xi,
i=1 i=1
MPSI 2—Mathématiques 19

où a est le vecteur a1 e1 + . . . + an en .
Si on dispose d’un autre vecteur b tel que ψ = hb, ·i, alors, pour tout x on a
0 = ha, xi − hb, xi = ha − b, xi,
donc a − b est dans l’orthogonal de E, donc est nul. ♣.
On a enfin l’équivalent du théorème de la base incomplète pour des familles orthonormées :

Théorème 3
Soit (e1 , . . . , ep ) une famille orthonormée de vecteurs de E. Alors on peut trouver des vecteurs
ep+1 , . . . , en dans E tels que (e1 , . . . , en ) est une base orthonormée de E.

preuve : Remarquons que p ≤ n = dim E car une famille orthonormée est libre. Soit F = Vect (e1 , . . . , ep ),
on a dim F = p, et E = F ⊕ F ⊥ . On a dim F ⊥ = n − p, on considère alors une base orthonormée
(ep+1 , . . . , en ) de F ⊥ . On obtient le résultat en recollant. ♣

4 Isométries
R
Dans cette section, on considère un espace euclidien (E, h·, ·i) : E est un -espace vectoriel de dimen-
sion finie, et h·, ·i est un produit scalaire sur E. On notera k · k la norme euclidienne associée à ce
produit scalaire.

4.1 Généralités
Définition 1 Soit f un endomorphisme de E. On dit que f est une isométrie si f conserve la norme,
c’est-à-dire si :
∀x ∈ E, kf (x)k = kxk

Exemple 1 Nous avons déjà rencontré des isométries non triviales de E (distinctes de ± IdE ) : toute
symétrie orthogonale par rapport à un sous-espace est une isométrie. En particulier, toute réflexion
est une isométrie. Les réflexions sont des isométries particulièrement importantes, car on peut montrer
que toute isomérie est une composée de réflexions.

Proposition 1 Soit f une isométrie de E. On a :


1. f est un isomorphisme.
2. f conserve le produit scalaire :
∀x, y ∈ E, hf (x), f (y)i = hx, yi

3. f conserve l’orthogonalité : ∀x, y ∈ E, x⊥y =⇒ f (x)⊥f (y).


4. si F est un sous-espace vectoriel de E stable par f , alors F ⊥ est aussi stable par f .

preuve : Si x appartient au noyau de f , alors 0 = k0k = kf (x)k = kxk, donc x est nul. On en déduit
que f est un isomorphisme (f est un endomorphisme injectif d’un espace de dimension finie).
Soient x et y des vecteurs de E, on a :
4hf (x), f (y)i = kf (x) + f (y)k2 − kf (x) − f (y)k2 [identité remarquable]
2 2
= kf (x + y)k + kf (x − y)k [linéarité de f ]
2 2
= kx + yk + kx − yk [f conserve la norme]
= 4hx, yi,
MPSI 2—Mathématiques 20

et f conserve bien le produit scalaire. Il est alors évident que f conserve l’orthogonalité.
Soit enfin F un sous-espace vectoriel de E stable par f : f (F ) ⊂ F . On peut considérer g l’endomor-
phisme de F induit par f . Il est clair que g est injectif (comme f ), donc g est un isomorphisme de F ,
et on a F = g(F ) = f (F ).
Soit y un élément de F ⊥ . Montrons que f (y) ∈ F ⊥ . Soit x un élément de F , on peut écrire x = f (a),
avec a ∈ F . On a alors
hx, f (y)i = hf (a), f (y)i
= ha, yi [f conserve le produit scalaire]
= 0, [y ∈ F ⊥ et a ∈ F ]

d’où le résultat. ♣
On a une caractérisation simple et utile des isométries à l’aide d’une base orthonormée.

Proposition 2 Soit B = (e1 , . . . , en ) (n = dim E) une base orthonormée de E, et f un endomor-


phisme de E. Alors :
f est une isométrie ⇐⇒ (f (e1 ), . . . , f (en ))est une base orthonormée de E

preuve : Supposons que f est un isométrie. Comme f conserve le produit scalaire, on a, pour
1 ≤ i, j ≤ n :
hf (ei ), f (ej )i = hei , ej i = δij ,
donc (f (e1 ), . . . , f (en )) est une famille orthonormée. C’est donc une famille libre, de cardinal dim E,
donc c’est une base de E.
Réciproquement, supposons que C = (f (e1 ), . . . , f (en )) est une base orthonormée de E. Soit x un
vecteur de E, qu’on écrit x = x1 e1 + . . . + xn en . Comme la base B est orthonormée, on sait que
kxk2 = x21 + . . . + x2n
Par linéarité de f , on a f (x) = x1 f (e1 ) + . . . + xn f (en ), et, puisque C est orthonormée :
kf (x)k2 = x21 + . . . + x2n = kxk2 ,
ce qui prouve que f conserve la norme. ♣

Notation On note O(E) l’ensemble des isométries de E. Il s’agit d’une partie de GL(E).

Proposition 3 (et définition) O(E) est un sous-groupe du groupe (GL(E), ◦). Le groupe (O(E), ◦)
s’appelle le groupe orthogonal de E.

preuve : Il est clair que IdE ∈ O(E).


Par ailleurs, si f et g sont éléments de O(E), on a, pour tout x ∈ E :
kf ◦ g(x)k = kf (g(x))k = kg(x)k [f conserve la norme]
= kxk [g conserve la norme]
ce qui montre que f ◦ g ∈ O(E). D’autre part, pour tout x ∈ E :
kxk = kf (f −1 (x)k = kf −1 (x))k [f conserve la norme],
ce qui montre que f −1 ∈ O(E). ♣
MPSI 2—Mathématiques 21

4.2 Matrices orthogonales


R
Définition 2 Soit M un élément de Mn ( ) (n entier non nul). On dit que M est orthogonale si
R
l’endomorphisme de n canoniquement associé à M est une isométrie de l’espace euclidien ( n , ·) R
R
(où, pour a, b ∈ n , a · b est le produit scalaire canonique des vecteurs a et b).
R
On note On ( ) l’ensemble des matrices orthogonales réelles de taille n.

Remarque Il est clair que toute matrice orthogonale est inversible, puisque l’endomorphisme de n R
canoniquement associé à une telle matrice est en particulier un isomorphisme.
R
Mieux : On ( ) est un sous-groupe de GLn ( ). R
R R R
En effet, si on note bc la base canonique de n , l’application de GL( n ) dans GLn ( ) qui à f associe
R R
Matbc (f ) est un isomorphisme de groupes, et On ( ) est l’image de O( n ) par ce morphisme.
On a une caractérisation très simple des matrices orthogonales :

R
Proposition 4 Soit M ∈ Mn ( ), dont on note (c1 , . . . , cn ) la famille des vecteurs colonnes. Alors
R
M est orthogonale si et seulement si (c1 , . . . , cn ) est une base orthonormée de ( n , ·), ce qui équivaut
à:
∀i, j ∈ {1, . . . , n}, ci · cj = δij

R
preuve : Soit f l’endomorphisme de n canoniquement associé à M . Notons encore bc = (e1 , . . . , en )
R R
la base canonique de n , il s’agit d’une base orthonormée de ( n , ·), et on sait d’autre part que
f (ej ) = cj pour 1 ≤ j ≤ n. On a alors les équivalences :

M est orthogonale ⇐⇒ f est une isométrie de ( Rn , ·)


⇐⇒ (f (e1 ), . . . , f (en )) est une base orthonormée de ( Rn , ·)
⇐⇒ (c1 , . . . , cn ) est une base orthonormée de ( Rn , ·)
et la dernière condition équivaut bien au fait que (c1 , . . . , cn ) est une famille orthonormée (puisqu’il
s’agit d’une famille de cardinal n). ♣

R R
 
a c
Exemple 2 Déterminons O2 ( ) à l’aide de ce qui précède. Soit M = ∈ M2 ( ). Alors M
b d
est orthogonale si et seulement si :  2
 a + b2 = 1
(?) c2 + d2 = 1
ac + bd = 0

Supposons que les conditions (?) sont vérifiées. On a a2 + b2 = 1 donc il existe un réel θ tel que
a = cos θ et b = sin θ (voir décrassage). De même, il existe un réel ϕ tel que c = cos ϕ et d = sin ϕ.
On a alors
0 = ac + bd = cos(ϕ − θ),
ce qui impose ϕ ≡ θ+ π2 (mod 2π) ou ϕ = θ− π2 (mod 2π). Si ϕ ≡ θ+ π2 (mod 2π) alors cos ϕ = − sin θ,
et sin ϕ = cos θ, tandisque si ϕ = θ −π2 (mod 2π) alors cos ϕ = sin θ 
et sin ϕ = − cosθ. On voit donc
que M s’écrit M =
cos θ − sin θ
sin θ cos θ
R
, avec θ ∈ , ou bien M =
cos θ sin θ
sin θ − cos θ
, avec θ ∈ . R
Réciproquement, les matrices précédentes sont évidemment orthogonales.
R
Pour θ ∈ , notons alors Rθ et Sθ les matrices :
   
cos θ − sin θ cos θ sin θ
Rθ = et Sθ =
sin θ cos θ sin θ − cos θ
MPSI 2—Mathématiques 22

Alors on vient de voir que


R
O2 ( ) = {Rθ , θ ∈ R} ∪ {Sθ , θ ∈ R}
Notons que les deux ensembles sont disjoints car, pour tout réel θ, det Rθ = 1 alors que det Sθ = −1.
On peut caractériser les isométries d’un espace euclidien « abstrait »à l’aide de leur matrice relative-
ment à une base orthonormée.

Proposition 5 Soit (E, h·, ·i) un espace euclidien, B = (e1 , . . . , en ) une base orthonormée de E (où
n = dim E).
1. Soit (x1 , . . . , xn ) une famille de vecteurs de E de cardinal n, et soit M la matrice de cette
famille relativement à B. Alors

(x1 , . . . , xn ) est orthonormée ⇐⇒ M est orthogonale

2. Soit f un endomorphisme de E, de matrice M dans B. Alors :

f est une isométrie ⇐⇒ M est orthogonale

preuve : Il suffit de prouver la première assertion (pourquoi ?). Notons c1 , . . . , cn les vecteurs co-
lonnes de M . Par définition de M , on a, pour tout j compris entre 1 et n :
n
X
xj = Mkj ek .
k=1

Puisque la base B est orthonormée, on a :


n
X
∀i, j ∈ {1, . . . , n}, hxi , xj i = Mki Mkj = ci · cj ,
k=1

ce qui entraîne immédiatement l’équivalence. ♣

Remarque Il résulte de cette proposition que si M est la matrice de passage entre deux bases
orthonormées de E, alors M est orthogonale.
On a une autre caractérisation des matrices orthogonales.

R
Proposition 6 Soit M ∈ Mn ( ). Les assertions suivantes sont équivalentes :

(1) M est orthogonale.


t
(2) M M = In .
(3) M est inversible et M −1 = tM.

preuve : Il est immédiat que (2) et (3) sont équivalentes. Maintenant, si on note (c1 , . . . , cn ) les
vecteurs colonnes de M , on a, pour tout (i, j) ∈ {1, . . . , n}2 :
n
X
t

M M [i, j] = Mki Mkj = ci · cj ,
k=1

Donc tM M = In si et seulement si la famille (c1 , . . . , cn ) est orthonormée (dans Rn ), d’où l’équivalence


de (1) et (2). ♣
MPSI 2—Mathématiques 23

Remarque Il est immédiat avec la proposition précédente que, pour M élément de Mn ( ), M est R
orthogonale si et seulement si tM est orthogonale. On en déduit que M est orthogonale si et seulement
si la famille (`1 , . . . , `n ) des vecteurs lignes de M est orthonormée.
Par ailleurs, il est particulièrement simple d’inverser une matrice orthogonale (il suffit de la transposer).
Si par exemple P est la matrice de passage entre deux bases orthonormées, alors l’inverse de P est tP .

Corollaire 1 Si M est une matrice orthogonale, alors det M = ±1. Si f est une isométrie d’un
espace euclidien, alors det f = ±1.

preuve : Soit M une matrice orthogonale de taille n, alors

1 = det In = det(tM M ) = det tM det M = (det M )2

L’assertion sur les isométries est alors immédiate. ♣


 
1 1
Remarquons que la réciproque est fausse : est de déterminant 1 mais n’est pas orthogonale.
0 1
Il y a toujours des matrices orthogonales de déterminant −1 (et donc aussi des isométries de détermi-
nant −1) : par exemple, Diag(−1, 1, . . . , 1) est une telle matrice. Une réflexion est donc une isométrie
de déterminant −1 (la matrice d’une rélexion dans une base bien choisie est en effet Diag(−1, 1 . . . , 1)).

R
Notation On note SOn ( ) l’ensemble des matrices orthogonales de déterminant 1. Si E est un
espace euclidien, on note SO(E) l’ensemble des isométries de E de déterminant 1. Les éléments de
SO(E) sont appelés isométries positives, ou rotations. Les éléments de O(E) \ SO(E), c’est-a-dire les
isométries de déterminant −1, s’appellent les isométries négatives. On note parfois O+ (E) l’ensemble
des isométries positives, et O− (E) l’ensemble des isométries négatives.
Il est immédiat (exercice enfantin) que SO(E) est un sous-groupe de (O(E), ◦). Le groupe SO(E)
s’appelle le groupe spécial orthogonal.
R
De même, SOn ( ) est un sous-groupe de On ( ). R
Si f est un endomorphisme de l’espace euclidien E de dimension n, et B une base orthonormée de E,
il est clair que f ∈ SO(E) si et seulement si MatB (f ) ∈ SOn ( ). R
Exercice 4.1 Si E est un espace euclidien, prouver que les ensembles O+ (E) et O− (E) sont en
bijection.

Remarque Soit E un espace euclidien de dimension n, B et B 0 deux bases orthonormées de E. Soit


(x1 , . . . , xn ) une famille de vecteurs de E, de matrices M et M 0 relativement à B et B 0 . On a alors

| det M | = | det M 0 |, ou encore | detB (x1 , . . . , xn )| = | detB0 (x1 , . . . , xn )|

En effet, si P est la matrice de passage de B vers B 0 , on sait que M = P M 0 . Par ailleurs, P est
orthogonale, donc | det P | = 1, ce qui entraîne le résultat.

Remarque (très importante) Il est clair d’après la discussion sur O2 ( ) que R


R
SO2 ( ) = {Rθ , θ ∈ R} ,
où, pour tout réel θ,  
cos θ − sin θ
Rθ =
sin θ cos θ
MPSI 2—Mathématiques 24

R
Le groupe SO2 ( ) a une propriété tout à fait remarquable : il est commutatif. En effet, on a par calcul
direct (faites le) :
R
∀θ, ϕ ∈ , Rθ Rϕ = Rθ+ϕ ,
et il en résulte, puisque θ + ϕ = ϕ + θ, que Rθ Rϕ = Rϕ Rθ .
R
Cette même formule montre que θ ∈ 7→ Rθ est un morphisme de groupes (surjectif) de ( , +) dans R
R
(SO2 ( ), ×). On a donc, pour θ réel, Rθ−1 = R−θ , et plus généralement, pour tout n élément de Z:
(Rθ )n = Rnθ

Il est temps à présent de parler d’orientation d’un R-espace vectoriel 1 .


R
Parenthèse On se donne un -espace vectoriel E de dimension finie n ∈ ∗ . N
Si B et C sont deux bases de E, on notera ici PB→C la matrice de passage de B vers C. On rappelle
que cette matrice est la matrice de la famille C relativement à la base B, ou encore la matrice de IdE
relativement au couple de bases (C, B). Si B, C, et D sont trois bases de E, alors on a :
(?) PB→D = PB→C PC→D
En effet, considérons le diagramme suivant :
(E, D) −→ (E, C) −→ (E, B)
IdE IdE

On sait que
MatD,B (IdE ◦ IdE ) = MatC,B (IdE ) MatD,C (IdE ),
d’où le résultat.
On définit une relation R sur l’ensemble Γ des bases de E en posant :
∀B, C ∈ Γ, BRC ⇐⇒ det PB→C > 0
On vérifie qu’on définit là une relation d’équivalence :
— si B est une base de E, alors PB→B = In , donc BRB.
— soient B, C deux bases de E telles que det PB→C > 0. On sait que PB→C est inversible d’inverse
PC→B , donc
1
det PC→B = >0
det PB→C
— si B, C, et D sont des bases de E telles que det PB→C > 0 et det PC→D > 0, la relation (?)
montre que det PB→D > 0.
On va montrer qu’il existe exactement deux classes d’équivalence.
Soit A = (e1 , . . . , en ) une base de E, et A0 = (−e1 , e2 , . . . , en ). On a :
det PA→A0 = det Diag(−1, 1, . . . , 1) = −1,
donc A et A0 ne sont pas dans la même classe d’équivalence. Il y a donc au moins deux classes
d’équivalence.
Soit B une base de E. Si det PA→B > 0, alors B appartient à la classe de A. Sinon, on a det PA→B < 0,
et dans ce cas :
det PA0 →B = det PA0 →A det PA→B > 0,
| {z } | {z }
<0 <0
donc B appartient à la classe de A0 .
Il y a donc bien exactement deux classes d’équivalences.
1. ce passage n’est pas vraiment lié aux espaces euclidiens, mais j’ai préféré en parler ici, vu que c’est le seul endroit
du cours où on va utiliser cette notion.
MPSI 2—Mathématiques 25

Définition 3 par définition, orienter E c’est choisir une des deux classes d’équivalence. Les bases de
la classe choisie seront qualifiées de bases directes, celles de l’autre classe de bases rétrogrades. Une
fois ce choix effectué, on parle d’espace orienté.
En pratique, pour orienter E, on choisit une base A de E, qui définit l’orientation : les bases directes
sont celles de la classe de A, c’est-à-dire l’ensemble des bases B de E telles que det PA→B > 0.
R
L’espace n est usuellement orienté par le choix de la base canonique, on parle alors de l’orientation
R
canonique de n .
R
Un espace euclidien est un cas particulier d’espace vectoriel de dimension finie sur . On peut donc
orienter un tel espace, on parle alors d’espace euclidien orienté. On définit de façon évidente les
bases orthonormées directes (en abrégé b.o.n.d), et les bases orthonormées rétrogrades (b.o.n.r). Il y
a toujours des b.o.n.d et des b.o.n.r, car si B = (e1 , . . . , en ) est une base orthonormée de E, alors
B 0 = (−e1 , e2 , . . . , en ) est aussi une base orthonormée de E, et ces deux bases ne sont pas dans la
même classe. Remarquons que si B et C sont deux b.o.n.d de E, la matrice PB→C est orthogonale de
déterminant positif, donc en fait det PB→C = 1. Si B et C sont deux bases orthonormées d’orientations
différentes, alors det PB→C = −1.
R
Si n est muni du produit scalaire canonique, et est canoniquement orienté, la base canonique de n R
R
est une b.o.n.d de n .
Come-back : on suppose à présent que l’espace euclidien E est orienté.

Proposition 7 Soit f un endomorphisme de E, et B = (e1 , . . . , en ) une b.o.n.d de E. On a :


f appartient à SO(E) si et seulement si (f (e1 ), . . . , f (en )) est une b.o.n.d de E.
f appartient à O− (E) si et seulement si (f (e1 ), . . . , f (en )) est une b.o.n.r de E.

preuve : Supposons que f est une isométrie. On sait alors que C = (f (e1 ), . . . , f (en )) est une base
orthonormée de E, et on a aussi
det PB→C = detB (f (e1 ), . . . , f (en )) = det f
Donc si det f = 1 alors C est directe, et si det f = −1 alors C est rétrograde.
Réciproquement, supposons que C soit, par exemple, une b.o.n.d. On sait déjà que f est une isométrie
(change la base orthonormée B en base orthonormée). D’autre part, puisque C est directe :
0 < det PB→C = detB (f (e1 ), . . . , f (en )) = det f,
ce qui laisse det f = 1, et f appartient à SO(E). ♣
On va maintenant définir le produit mixte : soit (x1 , . . . , xn ) une famille de vecteurs de E (n = dim E).
Si B et C sont deux b.o.n.d de E, on a alors
detB (x1 , . . . , xn ) = detC (x1 , . . . , xn )
En effet, on sait qu’il existe un réel λ tel que detB = λ detC , et si on note C = (c1 , . . . , cn ), on a
λ = detB (c1 , . . . , cn ) = det PB→C = 1.
Ceci légitime la définition suivante :

Définition 4 (Produit mixte) Si (x1 , . . . , xn ) est une famille de vecteurs de E, on appelle produit
mixte de la famille (x1 , . . . , xn ), et on note [x1 , . . . , xn ] le réel :
[x1 , . . . , xn ] = detB (x1 , . . . , xn ),
où B est n’importe quelle b.o.n.d de E.
MPSI 2—Mathématiques 26

Remarque Le produit mixte est un déterminant dans une base, on a donc toutes les propriétés
habituelles des déterminants.
En particulier, si (x1 , . . . , xn ) est une famille de vecteurs de E, alors [x1 , . . . , xn ] = 0 si et seulement si
la famille est liée, et [x1 , . . . , xn ] 6= 0 si et seulement si (x1 , . . . , xn ) est une base de E. Dans ce dernier
cas, on a tout de suite [x1 , . . . , xn ] > 0 si et seulement si la base (x1 , . . . , xn ) est directe.
Que se passe-t-il si on change d’orientation sur E ? On montre que si B et C sont deux bases or-
thonormées d’orientations différentes, alors detB = − detC (exercice). On en déduit que si on change
d’orientation, le produit mixte est changé en son opposé.

4.3 Étude de la dimension 2


Dans cette section, E est un plan euclidien orienté.
Remarquons que si a est un vecteur unitaire de E, il existe un unique vecteur unitaire b tel que (a, b)
est une b.o.n.d : en effet, {a}⊥ est ici une droite vectorielle, et contient exactement deux vecteurs
unitaires opposés, et un seul des deux convient. On notera dans la suite, pour tout vecteur unitaire
a, ǎ l’unique vecteur b de E tel que (a, b) est une b.o.n.d.
Soit B = (e1 , e2 ) une base orthonormée de E. Si a est un vecteur unitaire de E, a s’écrit a = αe1 +βe2 ,
avec α2 + β 2 = kak2 = 1. On voit aussitôt que le vecteur b = −βe1 + αe2 est unitaire, et orthogonal
à a. Si la base B est de plus directe, on a

α −β
[a, b] = detB (a, b) = = α2 + β 2 = 1,
β α

donc la base (a, b) est une b.o.n.d, et ǎ = b = −βe1 + αe2 .


Par ailleurs, puisque α2 + β 2 = 1, on peut trouver un réel θ tel que α = cos θ et β = sin θ.
Si on note, pour tout réel θ, uθ = cos θe1 + sin θe2 , et vθ = − sin θe1 + cos θe2 , ce qui précède montre
que, si la base B est une b.o.n.d, alors l’ensemble des b.o.n.d de E est {(uθ , vθ ) , θ ∈ }. R
Théorème 1 (et définition)
Soit r un élément de SO(E). Il existe alors un réel θ, unique modulo 2π, tel que la matrice de r
relativement à toute base orthonormée directe de E est
 
cos θ − sin θ
Rθ =
sin θ cos θ

On appelle angle de r l’ensemble des réels ϕ tels que la matrice de r dans toute b.o.n.d est Rϕ . Si θ
est un élément de cet ensemble (on dit que θ est une mesure de l’angle de r) , l’angle de r n’est autre
Z
que θ + 2π . On dit alors que r est la rotation d’angle θ, et r est aussi notée rθ .

preuve : Soit B une b.o.n.d de E. On sait que la matrice de r relativement à B appartient à SO2 ( ), R
il existe donc un réel θ tel que cette matrice est Rθ . On pouvait aussi dire que l’image par r de la base
B est une b.o.n.d, donc de la forme (uθ , vθ ), et on retrouve la matrice Rθ .
Maintenant, si C est une autre b.o.n.d de E, la matrice de passage P de B vers C est aussi élément
R R
de SO2 ( ). Comme SO2 ( ) est commutatif, on en déduit que la matrice de r relativement à C est

P −1 Rθ P = P −1 P Rθ = Rθ .

R
On a juste écrit que les éléments P et Rθ de SO2 ( ) commutent.
R
Enfin, pour ϕ ∈ , on a Rϕ = Rθ si et seulement si cos ϕ = cos θ et sin ϕ = sin θ, c’est-à-dire si et
seulement si ϕ ≡ θ (mod 2π) ♣.
MPSI 2—Mathématiques 27

Remarque Plusieurs choses :


— il est tout à fait exceptionnel que la matrice d’un endomorphisme soit la même dans toute une
catégorie de bases. On avait vu que les homothéties ont la même matrice dans toutes les bases
de E. Ici, la propriété concerne les éléments de SO(E), et les bases en questions sont les b.o.n.d.
R
Ce fait remarquable est du au fait que SO2 ( ) est commutatif.
— SO(E) est évidemment aussi commutatif.
— on peut clairement identifier une rotation et son angle. Se donner une rotation revient même à
se donner une mesure de son angle.
R C
— montrons que les rotations portent bien leur nom. Par exemple, identifions 2 et . On munit
R
2
de sa structure euclidienne canonique, qui se transporte évidemment dans . La base C
R R C
canonique (e1 , e2 ) de 2 correspond à la base (1, i) du -espace vectoriel . Soit r la rotation
d’angle θ. La matrice de r relativement à la b.o.n.d (1, i) est Rθ . Donc pour z = α + iβ ∈ , C
on a
r(z) = (α cos θ − β sin θ)1 + (α sin θ + β cos θ)i = eiθ z,
on retrouve là une expression familière, on a bien tourné d’un angle θ...
— Il est naturel de se demander ce qui se passe si on change d’orientation sur E. On a toujours
un élément r de SO(E), de matrice Rθ relativement à toute b.o.n.d de E. Il existe aussi ϕ
tel que la matrice de r dans toute b.o.n.r est Rϕ (puisque qu’on aurait pu prendre les b.o.n.r
comme b.o.n.d, ce choix est arbitraire (coucou Églantine)). Quel est le rapport entre θ et ϕ ?
Pour répondre à cette question, on se donne une b.o.n.d B, et une b.o.n.r C. Soit P la matrice
de passage de B vers C, il s’agit d’une matrice orthogonale de déterminant négatif, donc de
déterminant −1. Les matrices orthogonales de déterminant −1 sont les matrices qui s’écrivent
 
cos φ sin φ
Sφ = ,
sin φ − cos φ

avec φ réel. Or on vérifie immédiatement que Sφ2 = I2 , pour tout réel φ. Autrement dit, pour
R
toute matrice M ∈ O2 ( ) de déterminant −1, on a M 2 = I2 (et donc M −1 = M ).
On a donc ici P −1 = P . D’autre part, P Rθ est aussi orthogonale de déterminant −1, donc
I2 = (P Rθ )2 = P Rθ P Rθ ,
ce qui fournit
P Rθ P = Rθ−1 = R−θ
La matrice de r relativement à C est alors
P −1 Rθ P = P Rθ P = R−θ ,
et on en déduit que si on change d’orientation, r devient la rotation d’angle −θ. C’est logique :
tourner d’un angle θ dans le sens trigonométrique, c’est tourner d’un angle −θ dans le sens des
aiguilles d’une montre. Orienter E, c’est aussi choisir un sens de rotation.
On est à présent en mesure de définir l’angle orienté de deux vecteurs non nuls.

Lemme 1 Soient a et b deux vecteurs unitaires. Il existe un unique r ∈ SO(E) tel que r(a) = b.

preuve : Si r existe, r doit transformer la b.o.n.d (a, ǎ) en une b.o.n.d. Comme r(a) = b, on voit que
r(ǎ) est l’unique vecteur c de E tel que (b, c) est une b.o.n.d, autrement dit on doit avoir r(ǎ) = b̌.
On voit ainsi que r est l’unique endomorphisme de E déterminé sur la base (a, ǎ) par r(a) = b, et
r(ǎ) = b̌.
Réciproquement, soit r l’endomorphisme de E défini par r(a) = b et r(ǎ) = b̌. On a évidemment
r(a) = b, et r est bien un élément de SO(E) puisque r transforme une b.o.n.d en b.o.n.d. ♣
MPSI 2—Mathématiques 28

Définition 5 Soient x et y deux vecteurs non nuls de E. On appelle angle orienté de x et y, l’angle
x y [
de l’unique rotation qui envoie kxk sur kyk . On note (x, y) cet angle orienté.

Remarque Soient x, y et z trois vecteurs non nuls de E, θ une mesure de l’angle orienté (x, [ y), et
[ x y y z
ϕ une mesure de l’angle orienté (y, z). On a par définition rθ ( kxk ) = kyk , et rϕ ( kyk ) = kzk . On en
déduit déjà :    
x y y
= rθ−1 = r−θ ,
kxk kyk kyk
[
donc −θ est une mesure de l’angle orienté (y, x), ce qui entraîne

[
(y, [
x) = −(x, y)

(pour toute partie A de R, on note −A l’ensemble {−a , a ∈ A}).


D’autre part, on a :    
z x x
= rϕ ◦ rθ = rϕ+θ ,
kzk kxk kxk
[
et θ + ϕ est une mesure de l’angle orienté (x, z). Ceci entraîne d’ailleurs l’égalité ensembliste (relation
de Chasles) :
[
(x, [
z) = (x, [
y) + (y, z) ,

où, si A et B sont des parties de R, A + B est l’ensemble {a + b , (a, b) ∈ A × B}.


Petite histoire : Essayons de retrouver un peu nos petits. Soient x et y des vecteurs non nuls de
E, θ une mesure de l’angle orienté (x, [ y). Notons d’autre part ϕ l’angle géométrique des vecteurs x et
hx,yi
y : le réel ϕ appartient à [0, π], et cos ϕ = kxk kyk .
x
Posons e1 = kxk , il s’agit d’un vecteur unitaire de E, soit e2 = eˇ1 . On considère donc la b.o.n.d (e1 , e2 ).

Il est clair que x = kxk e1 . Écrivons


y = αe1 + βe2 .
La matrice de rθ dans la b.o.n.d (e1 , e2 ) est Rθ , donc rθ (e1 ) = cos θe1 + sin θe2 . On a ainsi :
y
= rθ (e1 ) = cos θ e1 + sin θ e2 ,
kyk

d’où
y = kyk cos θ e1 + kyk sin θ e2 ,
MPSI 2—Mathématiques 29

ce qui correspond aux calculs habituels.


On en déduit, puisque la base (e1 , e2 ) est orthonormée, que

hx, yi = kxk kyk cos θ ,

ce qui permet de voir (par définition de ϕ) que cos θ = cos ϕ, et on en déduit sin2 (θ) = sin2 ϕ, ce qui
laisse, puisque sin ϕ ≥ 0, | sin θ| = sin ϕ.
D’autre part, puisque la base (e1 , e2 ) est orthonormée directe, on a

kxk kyk cos θ
[x, y] =
= kxk kyk sin θ.
0 kyk sin θ

On retient donc que :


[x, y] = kxk kyk sin θ

Supposons que (x, y) est libre. Si [x, y] > 0, alors sin θ > 0, puis sin θ = sin ϕ. On en déduit que ϕ
est une mesure de l’angle orienté (x, [ y). Au contraire, si [x, y] < 0, alors −ϕ est une mesure de l’angle
[
orienté (x, y).
Si (x, y) est liée alors [x, y] = 0, sin θ = 0 = sin ϕ, et ϕ est encore une mesure de (x,[ y).
On obtient enfin très facilement la relation :

hx, yi2 + [x, y]2 = kxk2 kyk2 ,

connue sous le nom d’identité de Lagrange, et valable même lorsque x ou y est nul.
Si (a, b) et (c, d) sont les composantes respectives de x et y dans une certaine b.o.n.d de E, cette
identité s’écrit :
(ac + bd)2 + (ad − bc)2 = (a2 + b2 )(c2 + d2 ).
Ça vous rappelle quelque chose ?

Proposition 8 Soient x et y deux vecteurs non nuls de E, r une rotation, f un élément de O− (E).
On a alors
\
(r(x), [
r(y)) = (x, \
y) et (f (x), [
f (y)) = −(x, y)

[
preuve : Soit θ une mesure de l’angle (x, y).
Remarquons tout d’abord que si g est une isométrie de E, on a, pour tout élément a de E \ {0} :
 
g(a) g(a) a
= =g .
kg(a)k kak kak

On en déduit en particulier, puisque SO(E) est commutatif :


       
r(x) x x y r(y)
rθ = rθ ◦ r = r ◦ rθ =r =
kr(x)k kxk kxk kyk kr(y)k

\
donc θ est une mesure de l’angle (r(x), r(y)).
On a également :    
f (x) x
r−θ = r−θ ◦ f .
kf (x)k kxk
MPSI 2—Mathématiques 30

Or, si h est un élément de O− (E), la matrice de h dans une base orthonormée est du type Sφ , avec
R
φ ∈ , donc Sφ2 = I2 , et h ◦ h = IdE .
Ici, f ◦ rθ est élément de O− (E), donc f ◦ rθ ◦ f ◦ rθ = IdE , ou encore

r−θ = rθ−1 = f ◦ rθ ◦ f,

puis, vu que f ◦ f = IdE :


r−θ ◦ f = f ◦ rθ ◦ f ◦ f = f ◦ rθ
On a donc :      
f (x) x y f (y)
r−θ = f ◦ rθ =f = ,
kf (x)k kxk kyk kf (y)k
\
ce qui prouve que −θ est une mesure de l’angle orienté (f (x), f (y)). ♣
Déterminons à présent les éléments de O− (E).

Proposition 9 Les éléments de O− (E) sont le symétries orthogonales par rapport à une droite vec-
torielle (ce sont donc les réflexions puisque E est de dimension 2).

preuve : On va même préciser un peu plus les choses.


On commence par se donner une base orthonormée (e1 , e2 ) de E.
Soit D une droite vectorielle, et u un vecteur unitaire de D. On sait que u s’écrit u = cos θ e1 + sin θ e2 ,
où θ est un certain réel (si B est une b.o.n.d, θ est une mesure de l’angle orienté (e \ 1 , u)). Le vecteur

v = − sin θ e1 + cos θ e2 est unitaire, orthogonal à u, et D = {v} . On sait alors que si ρ est la symétrie
orthogonale par rapport à D, on a :

∀x ∈ E, ρ(x) = x − 2hx, viv

On en déduit que :

ρ(e1 ) = e1 − 2(− sin θ) (− sin θ e1 + cos θ e2 )


= (1 − 2 sin2 θ) e1 + 2 sin θ cos θ e2
= cos(2θ) e1 + sin(2θ) e2

et

ρ(e2 ) = e2 − 2 cos θ (− sin θ e1 + cos θ e2 )


= 2 sin θ cos θ e1 + (1 − 2 cos2 θ) e2
= sin(2θ) e1 − cos(2θ) e2

si bien que la matrice de ρ relativement à B n’est autre que S2θ . On voit déjà (mais on le savait) que
ρ est bien un élément de O− (E).
Réciproquement, si f est un élément de O− (E), alors il existe un réel α tel que la matrice de f
relativement à B est Sα .
Si on note s la symétrie orthogonale par rapport à Vect (u), où u = cos α2 e1 + sin α2 e2 , la matrice de
s relativement à B est aussi Sα d’après ce qui précède, donc f = s. ♣
MPSI 2—Mathématiques 31

4.4 Bonus : produit vectoriel en dimension 3


Ce qui suit n’est plus au programme. Le but est de vous donner une définition rigoureuse du produit
vectoriel, que vous utilisez en physique et en SI.
On se donne E un espace euclidien orienté de dimension 3.
Une remarque avant de commencer : si (a, b) est une famille orthonormée de vecteurs de E, il existe
un unique vecteur c tel que (a, b, c) est une b.o.n.d de E. En effet, {a, b}⊥ est ici une droite vectorielle,
qui contient exactement deux vecteurs unitaires opposés, et un seul des deux convient.
On note par ailleurs [x, y, z] le produit mixte des vecteurs x, y et z.

Théorème 2 (et définition)


Soient x et y des vecteurs de E. Il existe un et un seul vecteur a de E tel que :

∀z ∈ E, [x, y, z] = ha, zi

Ce vecteur a s’appelle le produit vectoriel de x et y, et se note x ∧ y

R
preuve : L’application ϕ : z ∈ E 7→ [x, y, z] ∈ est linéaire (d’après les propriétés du déterminant),
on sait alors qu’il existe un et un seul vecteur a de E tel que ϕ = ha, ·i. ♣
Retrouvons alors les propriétés du produit vectoriel :
• L’application (x, y) ∈ E 2 7→ x ∧ y est bilinéaire.
Montrons par exemple la linéarité par rapport à la première variable : soient x, x0 , y des vecteurs
de E, λ un réel. Alors, pour tout vecteur z de E on a :

[λx + x0 , y, z] = λ[x, y, z] + [x0 , y, z] [trilinéarité du déterminant]


= λhx ∧ y, zi + hx0 ∧ y, zi [définition du produit vectoriel]
= hλ (x ∧ y) + x0 ∧ y, zi

On en déduit bien que (λx + x0 ) ∧ y = λ (x ∧ y) + x0 ∧ y.


• Pour tout vecteur x de E, x ∧ x = 0.
En effet, en utilisant le caractère alterné du déterminant, on a pour (x, z) ∈ E 2 :

[x, x, z] = 0 = h0, zi

• Ainsi, (x, y) ∈ E 2 7→ x ∧ y est bilinéaire et alternée, donc antisymétrique : on a y ∧ x = −x ∧ y


pour x, y ∈ E.
• Pour x, y ∈ E, x ∧ y est orthogonal à x et à y.
En effet, on a par exemple avec le caractère alterné du déterminant :

hx ∧ y, xi = [x, y, x] = 0.

• pour x, y ∈ E 2 , x ∧ y = 0 si et seulement si la famille (x, y) est liée.


Si (x, y) est libre alors (x, y, x ∧ y) est une base directe de E.
En effet, soient x et y des vecteurs de E.
Si la famille (x, y) est liée on sait que x∧y = 0 (puisque (u, v) 7→ u∧v est bilinéaire et alternée).
Supposons que (x, y) est libre, on peut trouver un vecteur z de E tel que (x, y, z) est une base
de E, et on a alors [x, y, z] 6= 0, ce qui implique que x ∧ y 6= 0. On a alors :

[x, y, x ∧ y] = hx ∧ y, x ∧ yi = kx ∧ yk2 > 0,

et (x, y, x ∧ y) est une base directe de E.


MPSI 2—Mathématiques 32

• Soit B = (e1 , e2 , e3 ) une b.o.n.d de E. On a :


e1 ∧ e2 = e3 , e2 ∧ e3 = e1 , e3 ∧ e1 = e2
Montrons par exemple la première relation.
Soit z un élément de E, qu’on écrit z = αe1 + βe2 + γe3 . On sait que γ = he3 , zi puisque la
base B est orthonormée. D’autre part, comme B est une b.o.n.d, on a

1 0 α

[e1 , e2 , z] = detB (e1 , e2 , z) = 0 1 β = γ = he3 , zi,
0 0 γ
d’où e1 ∧ e2 = e3 .
• Si (a, b) est une famille orthonormée, alors (a, b, a ∧ b) est une base orthonormée directe.
En effet, soit c l’unique vecteur de E tel que (a, b, c) est une b.o.n.d. D’après le point précédent,
on a a ∧ b = c.
• Soit B = (e1 , e2 , e3 ) une b.o.n.d de E, x et x0 deux vecteurs de E de composantes (α, β, γ) et
(α0 , β 0 , γ 0 ) dans B. Alors :

x ∧ x0 = (βγ 0 − γβ 0 ) e1 − (αγ 0 − γα0 ) e2 + (αβ 0 − βα0 ) e3


On a par bilinéarité :
x ∧ x0 = (α e1 + β e2 + γe3 ) ∧ (α0 e1 + β 0 e2 + γ 0 e3 )
= αα0 e1 ∧ e1 +αβ 0 e1 ∧ e2 +αγ 0 e1 ∧ e3
| {z } | {z } | {z }
=0 =e3 =−e2
0 0 0
+ βα e2 ∧ e1 +ββ e2 ∧ e2 +βγ e2 ∧ e3
| {z } | {z } | {z }
=−e3 =0 =e1

+ γα0 e3 ∧ e1 +γβ 0 e3 ∧ e2 +γγ 0 e3 ∧ e3


| {z } | {z } | {z }
=e2 =−e1 =0

Il y a un moyen mnémotechnique pour retrouver ceci. On considère le faux déterminant :


α α 0

e1
β β 0

e2
γ γ 0

e3
qu’on développe par rapport à la dernière colonne.
• Si x et y sont deux vecteurs non nuls de E, d’angle géométrique θ ∈ [0, π], alors :
kx ∧ yk = kxk kyk sin θ
En effet, cette relation est vraie si la famille (x, y) est liée.
x
Si (x, y) est libre, on considère e1 = kxk , puis e2 ∈ Vect (x, y) tel que (e1 , e2 ) est orthonormée.
Le vecteur y s’écrit y = α e1 + β e2 , et on a
hy, xi
α = hy, e1 i = = kyk cos θ
kxk
puis α2 + β 2 = kyk2 , d’où β 2 = kyk2 (1 − cos2 θ) = kyk2 sin2 θ, donc |β| = kyk sin θ.
Soit e3 = e1 ∧ e2 , alors (e1 , e2 , e3 ) est une base orthonormée directe de E, et on a
x ∧ y = (kxk e1 ) ∧ (αe1 + βe2 ) = αkxk e1 ∧ e1 + βkxk e1 ∧ e2 = βkxke3 ,
et enfin
kx ∧ yk = |β| kxk = kxk kyk sin θ.

Vous aimerez peut-être aussi