POLYCOPIÉ (5)
POLYCOPIÉ (5)
POLYCOPIÉ (5)
Soufiane Mezroui
mezroui.soufiane@yahoo.fr
ENSA de Tanger
Maroc
Avant-propos
Le polycopié suivant fait partie du cours d’Algèbre 3 donné à l’ENSA de Tanger durant la période
2016- . Notons que ce manuscrit ne peut remplacer le cours dispensé en classe, qui seul fixera les
points qui seront abordés dans l’examen. En classe, ces notes seront expliquées en détail, il y aura
aussi certains compléments, en plus des intuitions qui sont derrière les passages abstraits, etc.
ii
Table des matières
1 Espaces Euclidiens 1
1.1 Produit Scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Procédé d’orthonormalisation de Schmidt . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Représentation matricielle du produit scalaire . . . . . . . . . . . . . . . . . . . . . 8
1.5 Sous-espaces orthogonaux et projection . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 Endomorphisme adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Groupe orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.8 Cas particuliers : Étude des groupes O(2,R) et O(3,R) . . . . . . . . . . . . . . . . 16
1.8.1 Étude de O(2,R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.8.2 Étude de O(3,R) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.9 Orientation et angles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9.1 Bases orientées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9.2 Orientation induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.3 Angle non orienté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.4 Angle orienté en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.5 Angle orienté en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.9.6 Produit extérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.10 Diagonalisation des automorphismes autoadjoints . . . . . . . . . . . . . . . . . . . 23
Espaces Euclidiens
2. symétrique si
∀x,y ∈ E, f (x,y) = f (y,x);
3. positive si, K = R,
∀x ∈ E, f (x,x) ≥ 0;
4. définie positive si elle est positive et
∀x ∈ E, f (x,x) = 0 ⇐⇒ x = 0.
Définition 1.1.2 Soit E un espace vectoriel défini sur R. On appelle produit scalaire sur E toute
application, notée h,i : E × E 7−→ R, qui est bilinéaire, symétrique et définie positive.
Un espace vectoriel réel de dimension finie et muni d’un produit scalaire est appelé Espace Euclidien.
Exemple 1 : Soit E = Rn . Le produit scalaire canonique h,i défini sur E est donné par :
hx,yi = x1 y1 + · · · + xn yn ,
θ
x
On appelle k x k la norme de x.
2. Deux vecteurs x et y sont dit orthogonaux si hx,yi = 0, et ce sera noté par x ⊥ y.
3. Une base {e1 , . . . ,en } est dite orthogonale si
4. Une base orthogonale {e1 , . . . ,en } est dite orthonormée si chaque vecteur est de norme 1,
∀i, k ei k= 1.
Pour répondre à la question principale de cette section, il suffit donc de voir s’il existe toujours une
base orthonormée de E.
Théorème 1.2.3 Dans un espace Euclidien, il existe toujours une base orthonormée.
G = {x ∈ E | hx,vi = 0} .
3
v
t1
t2
G
f : E −→ R
x 7−→ hx,vi,
c’est une application linéaire. Le théorème du Rang donne dim E− dim(ker f )=1, donc dim (G) =dim(ker
f )= n − 1. D’après l’hypothèse de récurrence, il existe une base orthogonale {t1 , . . . ,tn−1 } de G.
Vérifions que {v,t1 , . . . ,tn−1 } est une base orthogonale de E. En effet,
∀i,hv,ti i = 0,
donc les éléments de la famille {v,t1 , . . . ,tn−1 } sont deux à deux orthogonaux, ce qui implique que
c’est une famille libre d’après l’exercice 1.2.2 et comme elle est constituée de n éléments, alors c’est
une base orthogonale de E.
Nous allons expliquer en détails maintenant le procédé de Gram-Schmidt qui permet de construire
une base orthonormée à partir de n’importe quelle base d’un espace Euclidien donné.
Soit E un espace Euclidien et {v1 , . . . ,vr } une famille libre de E, posons G = Vect{v1 , . . . ,vr }.
Construisons par récurrence une base orthogonale de G à partir de cette première base {v1 , . . . ,vr }.
Posons
ε1 = v1 , ε2 = v2 + λ ε1 ,
avec λ est choisi tel que ε1 ⊥ ε2 . La condition ε1 ⊥ ε2 est équivalente à
donc
hε1 ,v2 i
λ =− .
k ε1 k2
Notons que
Vect(ε1 ,ε2 ) = Vect(v1 ,v2 ),
puisque
v1 = ε1 ,v2 = ε2 − λ ε1 .
Posons maintenant
ε3 = v3 + κε1 + µε2 ,
avec κ et µ sont choisis tels que ε3 ⊥ ε2 et ε3 ⊥ ε1 . Les deux dernières conditions sont équivalentes à
4
hε3 ,ε2 i = hv3 + κε1 + µε2 ,ε2 i =
hv3 ,ε2 i + µ k ε2 k2 = 0,
hε3 ,ε1 i = hv3 + κε1 + µε2 ,ε1 i =
hv3 ,ε1 i + κ k ε1 k2 = 0,
donc
hε2 ,v3 i hε1 ,v3 i
µ =− 2
,κ = − .
k ε2 k k ε1 k2
Notons que
Vect(ε1 ,ε2 ,ε3 ) = Vect(v1 ,v2 ,v3 ),
puisque
v1 = ε1 ,v2 = ε2 − λ ε1 ,v3 = ε3 − κε1 − µε2 .
On continue ainsi par récurrence. Supposons qu’on a construit de la même manière ε1 ,ε2 , . . . ,εk , avec
k < r. Posons
εk+1 = vk+1 + λ1 ε1 + · · · + λk εk ,
tel que εk+1 ⊥ εi pour tout i satisfaisant 1 ≤ i ≤ k. Ainsi
hvk+1 ,εi i
λi = − .
k εi k2
1 1 1
−1 −1 1 1
−1 0 −1 = − − = −1 6= 0.
0 −1 −1 −1
0 1 −1
Appliquons le procédé de Gram-Schmidt pour déduire une base orthonormée de {u1 ,u2 ,u3 }. Posons
1
ε1 = −1 .
0
Calculons ensuite
−hε1 ,v2 i 1
λ= = − ,
k ε1 k2 2
5
et posons
1
1
ε2 = v2 + λ ε1 = 1 .
2
2
Calculons aussi
hv3 ,ε2 i 2 hv3 ,ε1 i
µ =− 2
= ,κ = − = −1,
k ε2 k 3 k ε1 k2
et posons
1
1
ε3 = v3 + κε1 + µε2 = 1 .
3
−1
On vérifie facilement que {ε1 ,ε2 ,ε3 } est une base orthogonale de R3 .
pour la distance entre le point u et le point d’origine (0,0) ; avec cette notation la distance entre u et v
devient k v − u k.
Généralisons ce concept de distance aux espaces vectoriels. Soit E un espace vectoriel réel pas
nécessairement de dimension finie, et muni d’un produit scalaire h.i. L’application
k . k: E −→ R+ p
x 7−→ k x k= hx,xi,
k x + λ y k2 =k x k2 +2hx,λ yi+ k λ y k2
= λ 2 k y k2 +2λ hx,yi+ k x k2
≥ 0.
hx,yi2 − k x k2 k y k2 ≤ 0,
k x + λ y k2 =k x k2 +2hx,λ yi+ k λ y k2
= λ 2 k y k2 +2λ hx,yi+ k x k2 .
Puisque le discriminant du polynôme λ 2 k y k2 +2λ hx,yi+ k x k2 est nul, donc il admet toujours une
racine réelle. Posons λ0 ∈ R telle que
Ainsi x + λ0 y = 0. Par conséquent x et y sont liés, ce qui prouve la dernière assertion du théorème.
Exemple : Soit R2 muni du produit scalaire canonique. Soient x,y ∈ R2 , on a hx,yi =k x k k y k cos(θ )
avec θ l’angle entre x et y. Puisque | cos(θ ) |≤ 1, ceci donne l’inégalité de Cauchy-Schwarz
k x + y k2 =k x k2 + k y k2 +2hx,yi
≤k x k2 + k y k2 +2 | hx,yi |
≤k x k2 + k y k2 +2 k x kk y k (Cauchy-Schwarz)
= (k x k + k y k)2 ,
donc
k x + y k≤k x k + k y k .
7
1.4 Représentation matricielle du produit scalaire
Soit E un espace vectoriel de dimension n sur un corps K, {e1 , . . . ,en } une base de E, et f : E × E −→
K une forme bilinéaire. Soient x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E, on a
n
f (x,y) = ∑ xi y j f (ei ,e j ).
i, j=1
Il suffit donc de connaitre les éléments f (ei ,e j ) pour pouvoir déterminer complètement f .
On peut évidement à partir de la matrice M( f )ei construire la forme f et vice versa. De plus, si f est
symétrique, alors f (ei ,e j ) = f (e j ,ei ) et M( f )ei est une matrice symétrique.
∀x,y ∈ E,hx,yi = x1 y1 + · · · + xn yn .
Exemple : Soit la forme bilinéaire f : R3 × R3 −→ R donnée dans la base canonique {e1 ,e2 ,e3 } de
R3 par ∀x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ R3 ,
Proposition 1.4.2 Soit E un espace vectoriel de dimension finie n défini sur un corps K, {e1 , . . . ,en }
une base de E, et f : E × E −→ K une forme bilinéaire. On a ∀x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E,
y1
..
f (x,y) = x1 . . . xn M( f )ei . .
yn
8
Exercice 1.4.3 Soit (E,h,i) un espace Euclidien et {ei } une base de E. Montrer que la matrice du
produit scalaire M(h,i)ei est inversible.
0 0
Soient à présent {e1 , . . . ,en }, {e1 , . . . ,en } deux bases de E, P = P{e }→{e0 } la matrice de passage de
i i
0
{ei } à {ei }. Soient x,y ∈ E, donnés par
n n n n
0 0 0 0
x = ∑ xi ei , x = ∑ xi ei , y = ∑ yi ei , y = ∑ yi ei
i=1 i=1 i=1 i=1
Ce qui donne
y1
..
f (x,y) = (x1 , . . . ,xn )M( f )ei .
yn
= t X M( f )ei Y
0 0
= t (PX ) M( f )ei (PY )
0 0
= t X (t P M( f )ei P)Y .
0 0 0 0
D’autre part on a f (x,y) = t X M( f )e0 Y . Par identification on trouve, ∀X ,Y ∈ Mn,1 (K),
i
t 0 0 0 0
X M( f )e0 Y =t X (t P M( f )ei P)Y .
i
0 0
Exemple : Soit E = R2 , {e1 ,e2 } la base canonique, {e1 ,e2 } la base donnée par
0 0
e1 = −e1 + e2 , e2 = e1 − 2e2 ,
f (x,y) = x1 y1 − x2 y2 + 2x1 y2 + x2 y1
0 0
dans la base canonique. En utilisant l’équation (1.4), donnons la formule de f dans la base {e1 ,e2 }.
La matrice de f et la matrice de passage sont données par
1 2 −1 1
M( f )ei = ,P = .
1 −1 1 −2
9
On en déduit que
M( f )e0 = t P M( f )ei P
i
−1 1 1 2 −1 1
=
1 −2 1 −1 1 −2
−3 6
= .
5 −9
0 0
Ainsi f est donnée dans la base {e1 ,e2 } par
0 0 0 0 0 0 0 0
f (x,y) = −3x1 y1 − 9x2 y2 + 6x1 y2 + 5x2 y1 .
B⊥ = {x ∈ E | ∀b ∈ B,hx,bi = 0}.
Démonstration :
1. Supposons que dim F = p et soit {v1 , . . . ,v p } une base de F. Complétons-la en une base {v1 , . . . ,v p , . . . ,vn }
de E. Posons M(h,i)vi = (ai j )1≤i, j≤n la matrice du produit scalaire dans la base {v1 , . . . ,vn }, telle
que
hvi ,v j i = ai j .
On a x = ∑nj=1 x j v j ∈ F ⊥ si et seulement si
n n
hv1 ,xi = hv1 , ∑ x j v j i = ∑ a1 j x j = 0,
j=1 j=1
n n
hv2 ,xi = hv2 , ∑ x j v j i = ∑ a2 j x j = 0,
j=1 j=1
.. ..
. .
n n
hv p ,xi = hv p , ∑ x j v j i = ∑ a p j x j = 0,
j=1 j=1
10
ce qui est équivalent au système d’équations
a11 x1 + · · · + a1n xn = 0,
..
.
a p1 x1 + · · · + a pn xn = 0.
D’après l’exercice 1.4.3, M(h,i)vi est inversible, donc det (ai j ) 6= 0. Les lignes de cette matrice
sont donc indépendantes, et par conséquent rang (ai j )1≤i≤p,1≤ j≤n = rang t (ai j )1≤i≤p,1≤ j≤n = p.
D’après le théorème du rang, on déduit que dim F ⊥ = n − p.
2. Pour montrer que F et F ⊥ sont supplémentaires, puisque E est de dimension finie et d’après 1), il
suffit de prouver que F ∩ F ⊥ = {0}. En effet, soit x ∈ F ∩ F ⊥ . Donc hx,xi = 0 et par conséquent
x = 0.
3. Soit y ∈ F, on a ∀x ∈ F ⊥ , hy,xi = 0, donc y ∈ F ⊥⊥ , ceci donne F ⊂ F ⊥⊥ . D’autre part, d’après 1,
Soit (E,h,i) un espace Euclidien et E ∗ son dual. La proposition suivante décrit un isomorphisme
canonique entre E et E ∗ .
Démonstration : L’application s est linéaire car le produit scalaire est linéaire sur la seconde coordonnée.
Comme dim E = dim E ∗ , l’application linéaire s est un isomorphisme si et seulement si elle est
injective. Pour montrer l’injectivité, soit y ∈ E tel que s(y) = 0. Donc ∀x ∈ E,hx,yi = 0, en particulier
hy,yi = 0, ce qui donne y = 0.
Démonstration :
1. Soit x ∈ E avec x = u + v, u ∈ F, v ∈ F ⊥ . On a pF (x) − x = u − x = −v ∈ F ⊥ . De plus,
k pF (x) k2 =k u k2
≤k u k2 + k v k2
=k u + v k2 (Car u ⊥ v )
=k x k2 .
M( f ∗ )ei = t M( f )ei .
Démonstration : Soit {ei } une base orthonormée de E et f ∗ ∈ End(E) l’endomorphisme ayant pour
matrice M( f ∗ )ei = t M( f)ei la
transposée
de la matrice de f dans la base {ei }. On a ∀ x = ∑ni=1 xi ei ,y =
x1 y1
.. ..
∑i=1 yi ei ∈ E avec X = . ,Y = . ∈ Mn,1 (R),
n
xn yn
Montrons maintenant l’unicité, supposons qu’il existe un autre g ∈ End(E) tel que
Définition 1.7.1 Soit E un espace Euclidien et f ∈ End(E). On dit que f est une transformation
orthogonale, ou isométrie, si
∀x,y ∈ E,h f (x), f (y)i = hx,yi.
Notons O(E) l’ensemble des transformations orthogonales.
Démonstration :
1) =⇒ 2), il suffit de faire x = y dans la formule de 1).
2) =⇒ 1), on a
1
k f (x) + f (y) k2 − k f (x) k2 − k f (y) k2
h f (x), f (y)i =
2
1
= k f (x + y) k2 − k f (x) k2 − k f (y) k2 .
2
Puisque f conserve la norme, on déduit que
1
k x + y k2 − k x k2 − k y k2 = hx,yi.
h f (x), f (y)i =
2
Montrons que 1) ⇔ 3). On a d’après 1),
Comme f est une transformation orthogonale, k f (v) k=k v k, alors | λ |= 1 et donc λ = ±1.
On a d’autre part, dans une basée orthonormée {ei }, t M( f )ei M( f )ei = Id. Ce qui donne dét M( f )2ei =
1, ainsi dét f = dét M( f )ei = ±1.
Les transformations orthogonales ont la propriété de transformer les bases orthonormées en bases
orthonormées, en effet :
Démonstration :
Montrons que 1) ⇒ 2). Supposons que f est une transformation orthogonale et soit {ei } une base
orthonormée. D’après la Proposition 1.7.3, f est bijective, donc l’image { f (ei )} de la base {ei } est
aussi une base. Il reste à montrer qu’elle est orthonormée. On a
et
∀i, k f (ei ) k=k ei k= 1,
ce qui donne le résultat voulu.
2) ⇒ 3) C’est une implication évidente.
Montrons que 3) ⇒ 1). Supposons qu’il existe une base orthonormée {ei } telle que { f (ei )} soit
aussi orthonormée. Soient x = ∑ni=1 xi ei ,y = ∑ni=1 yi ei ∈ E. Puisque {ei } est orthonormée, d’après
l’équation (1.2), on a
n
hx,yi = ∑ xi yi .
i=1
14
D’autre part
n n
h f (x), f (y)i = h ∑ xi f (ei ), ∑ y j f (e j )i
i=1 j=1
n
= ∑ xi y j h f (ei ), f (e j )i
i, j=1
n
= ∑ xi yi (Car { f (ei )} est orthonormée)
i=1
= hx,yi.
O(n,R) = A ∈ Mn (R) |t A A = Id
D’après la Proposition 1.7.3, et dans une base orthonormée, les matrices orthogonales sont les matrices
des transformations orthogonales dans les espaces Euclidiens.
0
Proposition 1.7.6 Soit E un espace Euclidien et {ei },{ei } deux bases orthonormées de E. Soit P{e }→{e0 }
i i
0
la matrice de passage de {ei } vers ei . On a P{e }→{e0 } ∈ O(n,R).
i i
0
Démonstration : Soit f l’endomorphisme défini par ∀i, f (ei ) = ei . Donc f est orthogonal d’après la
proposition précédente et par suit M( f )ei ∈ O(n,R). On a M( f )ei = P{e }→{e0 } , donc P{e }→{e0 } est une
i i i i
matrice orthogonale.
a b
Exercice 1.7.7 Soit A = ∈ M2 (R). Montrer que A ∈ O(n,R) est une matrice orthogonale si
c d
et seulement si
a2 + c2 = 1, b2 + d 2 = 1, ab + cd = 0.
15
1.8 Cas particuliers : Étude des groupes O(2,R) et O(3,R)
1.8.1 Étude de O(2,R)
a b
Soit A = ∈ M2 (R). D’après l’exercice précédent on a A ∈ O(n,R) est une matrice orthogonale
c d
si et seulement si
a2 + c2 = 1, b2 + d 2 = 1, ab + cd = 0.
Les deux premières équations impliquent que ∃θ ,λ ∈ R tels que
donc
(2m + 1)π
θ −λ =
2
avec m ∈ Z. Ainsi
(2m + 1)π
b = cos θ + = (−1)m+1 sin(θ ),
2
(2m + 1)π
d = sin θ + = (−1)m cos(θ ).
2
Comme dét A = (−1)m cos(θ )2 + sin(θ )2 = (−1)m , alors A ∈ SO(2,R) si et seulement si m est pair,
AX
X
θ
O
16
cos(θ ) sin(θ )
2. Supposons que A ∈/ SO(2,R), il existe alors θ ∈ R tel que A = . C’est la
sin(θ ) −cos(θ )
symétrie orthogonale par rapport à la droite d’angle polaire θ2 .
AX
θ
2
X
O
Lemme 1.8.3 Soit {e1 ,e2 ,e3 } la base canonique de R3 et f ∈ End(R3 ) une transformation orthogonale,
M( f )ei ∈ O(3,R). Supposons que M( f )ei 6= Id :
Démonstration : Supposons que dét M( f )ei = 1. D’après le Lemme 1.8.2, 1 est une valeur propre
d’ordre 1 ou 3. Si dim E1 = 3, alors E1 = R3 et donc M( f )ei = I3 , ce qui est exclu dans l’énoncé.
Supposons maintenant que dim E1 = 2, alors 1 est une valeur propre d’ordre 3. Soit {v1 ,v2 } une base
de E1 et w ∈ Vect{v1 ,v2 }⊥ , w 6= 0. On a ∀i,
17
h f (w),vi i = h f (w), f (vi )i (Car f (vi ) = vi )
= hw,vi i (Car f est orthogonale)
= 0,
ce qui donne f (w) ∈ Vect{v1 ,v2 }⊥ . Ceci implique f (w) ∈ Vect(w), d’après la Proposition 1.5.2. Donc
∃µ ∈ R tel que f (w) = µw, et 1 est une valeur propre d’ordre 3, alors µ = 1. Ainsi f (w) = w et
donc w ∈ E1 . Ce qui est impossible d’après la Proposition 1.5.2, car w ∈ E1⊥ et w 6= 0. Donc, on a
nécessairement dim E1 = 1.
Le cas dét M( f )ei = −1 se traite de la même manière.
0
Démonstration : Si A = ±I3 , on pose ∀i, ei = ei , θ = 0 si A = I3 , θ = π si A = −I3 . Ce qui donne le
résultat voulu pour ce cas.
Supposons maintenant que A 6= ±I3 . Si dét A = 1, on a d’après le Lemme 1.8.3, dim E1 = 1. Posons
E1 = Vect(w),w ∈ E1 . On a ∀x ∈ E1⊥ , hx,wi = 0. Puisque f est une transformation orthogonale, alors
h f (x), f (w)i = 0. D’autre part f (w) = w, ce qui implique h f (x),wi = 0, et donc f (x) ∈ E1⊥ . Ainsi le
plan E1⊥ est stable par f .
Posons f˜ = f |E ⊥ la restriction de f sur le plan E1⊥ . On a ∀x,y ∈ E1⊥ ,
1
a b
dét M( f˜){e0 ,e0 } = = dét M( f )e0 = dét M( f )ei = dét A = 1.
1 2 c d i
f˜ θ
E1⊥
Ceci implique
˜ a b cos(θ ) −sin(θ )
M( f ){e0 ,e0 } = = .
1 2 c d sin(θ ) cos(θ )
Ainsi
cos(θ ) −sin(θ ) 0
M( f )e0 = sin(θ ) cos(θ ) 0 .
i
0 0 1
Ce qui achève la démonstration de la proposition dans ce cas. Le cas dét A = −1 se traite d’une
manière analogue, on remplace seulement E1 par E−1 .
Gardons les notations de la Proposition 1.8.4. Si dét A = 1, f est alors une rotation autours de la droite
E1 . Comme la trace est invariante par changement de base, on a
Tr A = 2 cos(θ ) + 1. (1.5)
Dans la pratique, pour pouvoir trouver θ , il suffit de calculer Tr A.
Si dét A = −1, on peut écrire f = g ◦ h avec
cos(θ ) −sin(θ ) 0 1 0 0
M(g)e0 = sin(θ ) cos(θ ) 0 , M(h)e0 = 0 1 0 .
i i
0 0 1 0 0 −1
Donc, la transformation orthogonale f est égale à la composition de la rotation autour de la droite
⊥ . On a dans ce cas
E−1 suivie de la symétrie orthogonale par rapport au plan E−1
Tr A = 2 cos(θ ) − 1. (1.6)
En particulier, si Tr A = 1, alors θ = 0 et donc f c’est la symétrie orthogonale par rapport au plan
⊥ . f dans ce cas est appelée réflexion par rapport à E ⊥ .
E−1 −1
Définition 1.9.1 Soit E un espace Euclidien de dimension n. Fixons une base orthonormée {ei } de
0 0
E. Si dét P{e }→{e0 } = 1, telle que {ei } est une base orthonormée de E, on dit que {ei } est une base
i i
directe. Dans le cas contraire, on dit qu’elle est indirecte.
L’espace E muni de {ei } est appelé espace Euclidien orienté par la base {ei }.
19
Exemple : Orientation canonique de Rn
Soit Rn muni du produit scalaire canonique et de la base ordonnée canonique {e1 , . . . ,en }, e1 =
(1,0, . . . ,0), e2 = (0,1,0, . . . ,0),. . . , en = (0,0, . . . ,1). On se base sur cette base canonique pour fixer
l’orientation des autres bases de Rn . En effet, on dit que la base {v1 , . . . ,vn } est une base directe, si
dét P{ei }→{vi } = 1.
| hx,yi |
≤ 1.
k x kk y k
| hx,yi |
cos(θ ) = .
k x kk y k
θ est appelé angle non orienté entre les vecteurs x et y.
Puisque θ reste fixe modulo 2π, on peut considérer que θ ∈] − π,π] et on l’appelle angle de la
rotation. Dans la suite de cette sous-section, toute rotation d’angle θ sera notée Rθ .
u v
Proposition 1.9.2 Soient u,v ∈ E et posons U = kuk ,V = kvk . Il existe un unique θ ∈] − π,π] tel que
Rθ (U) = V . θ est appelé angle orienté entre u et v et est noté (uv).
Démonstration : Soient U = (U1 ,U2 ), V = (V1 ,V2 ) les composantes de U,V dans la base orthonormée
{ei }. On a
donc ils existent α,β ∈ R tels que U1 = cos(α), U2 = sin(α), V1 = cos(β ), V2 = sin(β ). Ce qui donne
20
cos(θ ) −sin(θ ) cos(α) cos(β )
Rθ (U) = V ⇐⇒ =
sin(θ ) cos(θ ) sin(α) sin(β )
⇐⇒ cos(θ + α) = cos(β ), sin(θ + α) = sin(β )
⇐⇒ θ = β − α mod 2π.
Remarque 1.9.3 Dans la proposition précédente, on peut montrer que si on oriente E par une autre
base directe, différente de {e1 ,e2 }, alors l’angle orienté θ ne change pas. Ce qui justifie pourquoi on
travaille dans cette proposition dans un espace Euclidien orienté, car les angles orientés restent fixes
quand on passe d’une base directe à une autre qui est directe aussi.
Le système d’équations
cos(θ ) −sin(θ ) U1 V
= 1 ,
sin(θ ) cos(θ ) U2 V2
donne
cos(θ ) = U1V1 +U2V2 = hU,V i, sin(θ ) = U1V2 −U2V1 = dét k U,V kei .
On a donc les équations suivantes, qui sont utiles pour calculer l’angle θ ,
u∧v
Vect(u,v) u
Proposition 1.9.7 Soient u,v ∈ E. Soit aussi n un vecteur unitaire perpendiculaire au plan Vect(u,v)
et θ l’angle orienté par l’orientation définie par le vecteur n. On a
u ∧ v =k u k k v k sin(θ ) n.
u∧v
Démonstration : Soient w = ku∧vk et P le parallélogramme défini par u et v. On a par définition
u ∧ v = Surface de P × w, comme Surface de P =k u k k v k | sin(θ ) |, alors
u ∧ v =k u k k v k | sin(θ ) | w. (1.8)
D’autre part, on a
dét k u,v,n k dét k u,v, ± w k
sin(θ ) = = .
k u kk v k k u kk v k
Donc si w = n, alors sin(θ ) > 0, si w = −n, on a sin(θ ) < 0. On remplace cela dans l’équation (1.8),
et on trouve le résultat recherché.
Exercice 1.9.8 Soit {e1 ,e2 ,e3 } une base orthonormée directe de E et x = ∑3i=1 xi ei ,y = ∑3i=1 yi ei ∈ E.
Donner les coordonnées de x ∧ y dans la base {ei }.
Corollaire 1.10.3 Toute matrice symétrique réelle est diagonalisable dans R et ses sous espaces
propres sont deux à deux orthogonaux.
0 1
Exercice 1.10.4 Soit la matrice symétrique complexe A = ∈ M2 (C). Montrer que A n’est
1 2i
pas diagonalisable.
Soit f une forme bilinéaire symétrique définie sur un espace vectoriel réel E. Pour savoir si f définit
un produit scalaire, il suffit de vérifier si elle est définie positive. Pour cela, on utilise la méthode de
réduction de Gauss qu’on verra dans le chapitre suivant (voir Théorème 2.2.2). On peut aussi utiliser
le critère suivant :
Proposition 1.10.5 Soit f une forme bilinéaire symétrique définie sur un espace vectoriel réel E de
dimension n. Soit {e1 , . . . ,en } une base de E. On a f définit un produit scalaire si et seulement si la
matrice M( f )ei a toutes ses valeurs propres strictement positives.
Démonstration : Soit h,iei le produit scalaire associé à la base {ei }, et posons g : E −→ E l’endomorphisme
ayant M( f )ei comme matrice dans {ei }. On a donc
x1 y1
.. ..
∀X = . ,Y = . ∈ Mn,1 (R),hx,g(y)iei = t XM(g)ei Y = t XM( f )ei Y = f (x,y),
xn yn
Ainsi, d’après le Théorème 1.10.2, on peut construire une base orthonormée {v1 , . . . ,vn } de vecteurs
propres de g ayant λ1 , . . . ,λn comme valeurs propres respectives. Soient x = ∑ni=1 xi vi ,y = ∑nj=1 y j v j ∈
E. On a
n n
f (x,y) = ∑ xi y j f (vi ,v j ) = ∑ xi y j hvi ,g(v j )iei =
i, j=1 i, j=1
n
= ∑ xi y j λ j hvi ,v j iei = λ1 x1 y1 + · · · + λn xn yn .
i, j=1
Ainsi
f (x,x) = λ1 x12 + · · · + λn xn2 .
Par conséquent, d’après le Théorème 1.10.2, f est définie positive si et seulement si toutes les valeurs
propres λi de g, donc de M( f )ei , sont strictement positives.
24
Chapitre 2
M( f )e0 = t P M( f )ei P,
i
0
où P est la matrice de passage de {ei } vers {ei }. P est inversible, donc dét P 6= 0. Ainsi
ce qui implique
dét M( f )e0 6= 0 ⇐⇒ dét M( f )ei 6= 0.
i
Donc le fait que f soit non dégénérée ne dépend pas de la base choisie, ce qui justifie la définition
adoptée.
Exercice 2.1.2 Montrer que rg( f ) = rg M( f )ei ne dépend pas de la base choisie {ei }.
Exemple : Tout produit scalaire est non dégénérée. En effet, si E est un espace vectoriel réel de
dimension n, h,i un produit scalaire sur E, et {e1 , . . . ,en } une base orthonormée de E. On a
1 ... 0
M(h,iei ) = ... . . . ... = In .
0 ... 1
Donc rg h,i = n.
Exemple : Soit f : R3 × R3 −→ R la forme bilinéaire définie par
s : E −→ E ∗
y 7−→ s(y),
avec
s(y) : E −→ R
x 7−→ f (x,y).
Si f est un produit scalaire, la Proposition 1.5.3 implique que s est un isomorphisme.
Proposition 2.1.3 Soit {e1 , . . . ,en } une base de E, {v1 , . . . ,vn } une base de son dual E ∗ . On a
M(s)ei ,v j = M( f )ei .
On a
s(e j )(ek ) = (a1 j v1 + · · · + an j vn )(ek ) = ak j vk (ek ) = ak j .
D’autre part, par définition de s,
s(e j )(ek ) = f (ek ,e j ).
Ainsi f (ek ,e j ) = ak j , ce qui donne M(s)ei ,v j = M( f )ei .
D’après cette proposition, le rang de l’application bilinéaire f est égal au rang de l’application s, qui
est aussi égal à la dimension de Im(s). Ceci nous permet de formuler les définitions suivantes, valables
même quand la dimension de E n’est pas finie.
Définition 2.1.4 Soit E un espace vectoriel sur un corps K et f : E × E −→ K une forme bilinéaire.
1. On appelle rang de f le rang de l’application
s : E −→ E ∗
y 7−→ f (.,y).
N( f ) = {y ∈ E | ∀x ∈ E, f (x,y) = 0} = Ker s.
3. f est dite non dégénérée si s est injective, Ker s = N( f ) = {0}, c’est à dire
∀x ∈ E, f (x,y) = 0 =⇒ y = 0.
26
Quand E est de dimension finie. Le théorème du rang appliqué à l’application s donne
dim E = rg f + dim N( f ).
Soient {e1 ,e2 ,e3 } la base canonique de R3 et {v1 ,v2 ,v3 } une base de son dual (R3 )∗ . On a d’après la
Proposition 2.1.3,
−3 −3 −4
M(s)ei ,v j = M( f )ei = −3 0 1 .
−4 1 3
On a N( f ) = Ker s, c’est l’ensemble de solutions du système
−3 −3 −4 z1 0
−3 0 1 z2 = 0 .
−4 1 3 z3 0
Définition 2.1.5 Soient E un espace vectoriel de dimension finie n sur un corps K et {e1 , . . . ,en } une
base de E. L’application q : E −→ K est dite forme quadratique sur E si
n n
∀x = ∑ xk ek ∈ E, q(x) = ∑ ai j xi x j ,
k=1 i, j=1
Il existe une correspondance bijective entre les formes quadratiques et les formes bilinéaires symétriques,
en effet :
∀x ∈ E, q(x) = f (x,x),
∀x ∈ E, q(x) = f (x,x).
Vérifions que q est une forme quadratique sur E. Soient x = ∑ni=1 xi ei , y = ∑nj=1 y j e j ∈ E. L’équation (2.2)
donne
q(x) = f (x,x) = a11 x12 + a22 x22 + · · · + ann xn2 + · · · + 2 ai j xi x j + . . . ,
avec ai j ∈ K. Donc q est une forme quadratique.
2. Réciproquement, soit q : E −→ K une forme quadratique sur E. Donc ∀x = ∑ni=1 xi ei ∈ E, q(x) est
un polynôme homogène de degré 2 en fonction des xi , c’est à dire
1 1
f (x,y) = a11 x1 y1 + · · · + ann xn yn + · · · + ai j xi y j + ai j x j yi + . . .
2 2
Ainsi f est une forme bilinéaire symétrique telle que ∀x ∈ E,q(x) = f (x,x).
Pour x,y ∈ E, on a
q(x + y) = f (x + y,x + y)
= f (x,x) + f (x,y) + f (y,x) + f (y,y)
= q(x) + 2 f (x,y) + q(y).
Donc
1
f (x,y) = (q(x + y) − q(x) − q(y)). (2.1)
2
Ce qui assure l’unicité de la forme bilinéaire symétrique f
La Proposition 2.1.7 permet de donner une définition générale des formes quadratiques, valable même
pour les espaces vectoriels qui n’ont pas une dimension finie.
Définition 2.1.8 Soit E un espace vectoriel sur un corps K, pas nécessairement de dimension finie.
L’application q : E −→ K est dite forme quadratique sur E s’il existe une forme bilinéaire symétrique
f : E × E −→ K telle que ∀x ∈ E, q(x) = f (x,x). Quand la forme f existe, elle est donnée par
1
∀x,y ∈ E, f (x,y) = (q(x + y) − q(x) − q(y)),
2
f est appelée forme polaire de q.
28
Cette définition généralise la Définition 2.1.5.
Exemple : Soit R[x] l’ensemble des polynômes à coefficients sur R, c’est un espace vectoriel sur R
qui n’est pas de dimension finie. Vérifions que l’application
q : R[x] −→ R
7−→ 01 P(x)2 dx,
R
P
est une forme quadratique sur R[x]. Soit la forme f : R[x] × R[x] −→ R donnée par ∀P,Q ∈ R[x],
1
f (P,Q) = (q(P + Q) − q(P) − q(Q))
2
Z 1 Z 1 Z 1
1 2 2 2
= (P(x) + Q(x)) dx − P(x) dx − Q(x) dx
2 0 0 0
Z 1
= P(x)Q(x) dx.
0
Puisque f est une forme bilinéaire symétrique, alors q est une forme quadratique.
Puisque les formes quadratiques sont en correspondance bijective avec les formes bilinéaires symétriques,
on peut transporter toutes les notions déjà vues pour les formes bilinéaires symétriques vers les formes
quadratiques, en effet :
3. La forme quadratique q : E −→ R à valeurs réelles est dite définie positive si sa forme polaire f
est définie positive. C’est à dire
4. La forme quadratique q : E −→ R à valeurs réelles est dite définie si sa forme polaire f est définie.
C’est à dire
(q(x) = 0 ⇐⇒ x = 0) .
Définition 2.1.10 Soit E un espace vectoriel défini sur un corps K et q : E −→ K une forme quadratique.
1
f ((x1 ,x2 ),(y1 ,y2 )) = (q(x1 + y1 ,x2 + y2 ) − q(x1 ,x2 ) − q(y1 ,y2 ))
2
= (x1 + y1 )2 − (x2 + y2 )2 − (x12 − x22 ) − (y21 − y22 )
= 2(x1 y1 − x2 y2 ).
Ainsi f , et aussi q, sont non dégénérées. Finalement, le cône isotrope est donné par
Exercice 2.1.11 Soit E un espace vectoriel sur un corps K et q : E −→ K une forme quadratique.
Montrer que
N(q) ⊂ I(q).
Remarque 2.2.1 Si f est un produit scalaire, tous les aii sont strictement positifs, aii > 0. En effet,
supposons que aii ≤ 0, on a aii = f (ei ,ei ) ≤ 0, ce qui implique que ei = 0, car f est un produit scalaire.
Mais ei 6= 0, ce qui est absurde.
On obtient donc une somme de carrés de formes linéaires. Cette expression est appelée réduction en
carrés de Gauss.
Il est évident via cette expression que f (x,x) ≥ 0 et donc f est positive. Supposons maintenant que
f (x,x) = 0, ce qui implique
x1 − x2 = 0,
x2 + x3 = 0,
x3 = 0.
Ainsi x1 = x2 = x3 = 0 et x = 0. Par conséquent, f est définie positive.
Exemple 2 : Soit E = R3 et {e1 ,e2 ,e3 } sa base canonique. Soit f : E × E −→ R une forme bilinéaire
symétrique telle que
f (x,x) = x12 + 5 x22 + 4 x1 x2 − 2 x2 x3 .
On fait comme dans l’exemple précédent. On commence par opérer sur la variable x1 pour extraire
une identité remarquable de degré 2
= (x1 + 2 x2 )2 + x22 − 2 x2 x3 .
On opère ensuite sur la variable x2 pour extraire une identité remarquable de degré 2
x1 + 2 x2 = 0,
x2 − x3 = x3 ,
admet des solutions non nulles, par exemple x3 = 1, x2 = 2 et x1 = −4. Ainsi f (x,x) = 0 pour x =
−4e1 + 2e2 + e3 et donc f n’est pas définie positive.
Exemple 3 : Soit E = R3 et {e1 ,e2 ,e3 } sa base canonique. Soit f : E × E −→ R une forme bilinéaire
symétrique telle que
f (x,x) = x12 + 4 x22 + x32 + 4 x1 x2 − 2 x1 x3 − 3 x2 x3 .
31
On opère sur la variable x1 pour extraire une identité remarquable de degré 2
= (x1 + 2 x2 − x3 )2 + x2 x3 .
Contrairement aux exemples précédents, on remarque qu’on n’a pas de termes carrés dans la partie
1
On va donc procéder comme suit, on applique l’identité remarquable ab =
à droite de cette formule.
2 − (a − b)2 ,
4 (a + b)
f (x,x) = (x1 + 2 x2 − x3 )2 + x2 x3
1
= (x1 + 2 x2 − x3 )2 + (x2 + x3 )2 − (x2 − x3 )2 .
4
C’est la réduction en carrés de Gauss de f .
On généralise ces exemples dans le théorème suivant.
Théorème 2.2.2 Soit E un espace vectoriel de dimension n sur R et f une forme bilinéaire symétrique.
On peut écrire f (x,x) sous la forme suivante
r
f (x,x) = ∑ αi li (x)2 ,
i=1
tels que αi ∈ R ne sont pas tous nuls et l1 , . . . ,lr ,r ≤ n, sont des formes linéaires indépendantes. De
plus, f est définie positive si et seulement si r = n et αi > 0 pour tout i.
On regroupe les termes selon chaque monôme, cette dernière expression devient
32
a12 x2 + · · · + a1n xn 2 (a12 x2 + · · · + a1n xn )2
f (x,x) = a11 x1 + − + a22 x22 + . . .
a11 a11
a12 x2 + · · · + a1n xn 2
= a11 x1 + + b22 x22 + b33 x32 + · · · + bnn xn2 + · · · + 2 bi j xi x j + . . .
a11
tels que bi j ∈ R. Supposons que l’un des termes carrés bii est non nul, par exemple b22 6= 0, on procède
alors comme avant selon la variable x2 et on continue ainsi progressivement pour obtenir à la fin
a12 x2 + · · · + a1n xn
l1 (x1 , . . . ,xn ) = x1 + ,
a11
b23 x3 + · · · + b2n xn (2.3)
l2 (x1 , . . . ,xn ) = x2 + ,
b22
..
.
ce qui donne
f (x,x) = a11 l1 (x)2 + b22 l2 (x)2 + . . . ,
tels que l1 , . . . ,lr , r ≤ n, sont des formes linéaires clairement indépendantes. Ce qui répond à l’énoncé
du théorème.
2eme cas. Supposons qu’a une certaine étape du procédé du 1er cas on ne trouve pas de termes carrés,
tous les termes sont rectangles. On se réduit alors à une expression de la forme suivante
∑ ai j xix j ,
telle que aii = 0 pour tout i. Sans perte de généralité on suppose que a12 6= 0. On isole les variables x1
et x2 et on trouve
f (x,x) = a12 x1 x2 + x1 S1 + x2 S2 ,
tels que S1 et S2 sont des expressions linéaires en fonction des variables x3 , x4 , . . . , xn . On a
f (x,x) = a12 x1 x2 + x1 S1 + x2 S2
S2 S1 S1 S2
= a12 x1 + x2 + − .
a12 a12 a12
((a+b)2 −(a−b)2 )
L’identité remarquable ab = 4 donne
S2 S1 S1 S2
f (x,x) = a12 x1 + x2 + −
a12 a12 a12
2 !
S2 − S1 2
a12 S1 + S2 S1 S2
= x1 + x2 + − x1 − x2 + − .
4 a12 a12 a12
S1 S2
On applique ensuite le procédé du 1er cas sur la formule a12 . Posons
33
S1 + S2
l1 (x1 , . . . ,xn ) = x1 + x2 + ,
a12
S2 − S1
l2 (x1 , . . . ,xn ) = x1 − x2 + ,
a12
..
.
ce qui donne
a12 a12
f (x,x) = l1 (x)2 − l2 (x)2 + . . .
4 4
Les formes linéaires l1 et l2 seront clairement indépendantes avec les autres, en effet, dans le cas
contraire cela reviendrait à écrire x1 en fonction des autres variables x2 , x3 , . . . , xn , ce qui est absurde.
Ceci répond à l’énoncé du théorème.
Montrons maintenant la seconde partie du théorème. Supposons que durant la méthode en carrés de
Gauss décrite au dessus, on trouve des termes carrés dans chaque étape avec des coefficients positifs,
on n’applique donc que l’opération du 1er cas. sans passer par le second cas et on obtiendra à la fin
r
f (x,x) = ∑ αi li (x)2 ,
i=1
tels que αi > 0, et l1 , . . . ,lr , r ≤ n, sont des formes linéaires indépendantes de la forme (2.3). Si r = n
et f (x,x) = 0, alors
a12 x2 + · · · + a1n xn
x1 + = 0,
a11
b23 x3 + · · · + b2n xn
x2 + = 0,
b22
..
.
xn =0.
Donc x1 = · · · = xn = 0 et f est définie positive. Si r < n et f (x,x) = 0, alors il existera moins
d’équations que de variables et on aura une infinité de solutions, donc f n’est pas définie positive.
Supposons maintenant que via la méthode en carrés de Gauss on trouve un coefficient négatif,
r
f (x,x) = ∑ αi li (x)2 ,
i=1
r
−α2
l1 (x) = l2 (x),
α1
l3 (x) = 0,
..
.
lr (x) = 0.
C’est un système homogène qui comporte moins d’équations que d’inconnues, donc il existe x =
(x1 , . . . ,xn ) 6= 0 tel que f (x,x) = 0. Ce qui achève la preuve du théorème.
34
2.3 Bases orthogonales et réduction des formes quadratiques
Nous étudions dans cette section le problème de la réduction des formes quadratiques, nous allons
voir que ce problème pourrait être réduit à chercher des bases orthogonales dans les espaces vectoriels
munis de formes bilinéaires symétriques.
Définition 2.3.1 Soit E un espace vectoriel défini sur un corps K et f : E × E −→ K une forme
bilinéaire symétrique. Une base {ei } de E est dite orthogonale pour la forme f si ∀i, j,i 6= j, f (ei ,e j ) =
0. Une base orthogonale {ei } est dite orthonormée si de plus elle réalise ∀i, f (ei ,ei ) = 0.
Notons que cette définition généralise la Définition 1.2.1 pour les bases orthogonales et orthonormées
pour les produits scalaires aux formes bilinéaires symétriques.
Exemple : Soient E un espace vectoriel de dimension finie n sur un corps K, q : E −→ K une forme
quadratique et f : E × E −→ K la forme polaire associée. Soit {e1 , . . . ,en } une base orthogonale de E
pour la forme f . Posons ∀i, aii = f (ei ,ei ) ∈ K. On a
a11 · · · 0
M(q)ei = M( f )ei = ... . . . ... .
0 · · · ann
Notons que le nombre de carrés dans cette expression est égale au rang de la forme quadratique q.
De la même manière, si {e1 , . . . ,en } est une base orthonormée de E pour la forme f , alors
1 ··· 0
M(q)ei = M( f )ei = In = ... . . . ... .
0 ··· 1
D’après cet exemple, chercher une base orthogonale revient à déterminer une base dans laquelle la
matrice de q est diagonale, ce qui est équivalent à écrire q sous la forme de somme en termes carrés.
On peut ainsi formuler les questions suivantes :
Question : Soit E un espace vectoriel de dimension finie muni d’une forme quadratique q :
1. Est ce qu’il existe une base orthogonale de E pour la forme q ?
2. Est ce que le Théorème 1.2.3 se généralise et s’applique sur E ? Plus précisément, est ce qu’il
existe une base orthonormée de E pour la forme q ?
Le théorème suivant répond à la première question.
0 0
Démonstration : La démonstration est presque identique à celle du Théorème 1.2.3. On raisonne par
récurrence sur la dimension n de E.
Si n = 1, le résultat est évident. Supposons le théorème vrai pour l’ordre n − 1. Soit E un espace
vectoriel de dimension n défini sur un corps K et muni d’une forme quadratique q : E −→ K et sa
forme polaire associée f : E × E −→ K.
Si q = 0, toutes les bases sont orthogonales et le théorème est trivial. Supposons maintenant que q 6= 0.
Soit v ∈ E tel que q(v) 6= 0, et soit l’ensemble des vecteurs de E qui lui sont orthogonaux
G = {x ∈ E | f (x,v) = 0}.
L’ensemble G est clairement un sous espace vectoriel et v ∈
/ G, car q(v) 6= 0. Soit l’application linéaire
f : E −→ K
x 7−→ f (x,v).
Le théorème du Rang donne dim E− dim(ker f )=1, donc dim (G) =dim(ker f )= n − 1. D’après
l’hypothèse de récurrence, il existe une base orthogonale {t1 , . . . ,tn−1 } de G. Vérifions que {v,t1 , . . . ,tn−1 }
est une base orthogonale de E. En effet,
∀i, f (v,ti ) = 0,
donc les éléments de la famille {v,t1 , . . . ,tn−1 } sont deux à deux orthogonaux. Il reste à montrer que
{v,t1 , . . . ,tn−1 } est une base. Puisqu’elle est constituée de n éléments, il suffit de vérifier qu’elle est
libre. En effet, soient λ1 , . . . ,λn ∈ K tels que λ1t1 + · · · + λn−1tn−1 + λn v = 0. On a donc
f (λ1t1 + · · · + λn−1tn−1 + λn v,v) = f (0,v) = 0,
et d’autre part
f (λ1t1 + · · · + λn−1tn−1 + λn v,v) = λ1 f (t1 ,v) + · · · + λn−1 f (tn−1 ,v) + λn f (v,v) = λn f (v,v).
Par conséquent, λn f (v,v) = 0, et donc λn = 0 car q(v) = f (v,v) 6= 0. Puisque λn = 0 , alors λ1t1 +
· · · + λn−1tn−1 = 0, et ainsi λ1 = · · · = λn−1 = 0 car {t1 , . . . ,tn−1 } est une base de G. On a finalement
λ1 = · · · = λn−1 = λn = 0, ce qui achève la démonstration du théorème.
Supposons que pour un certain entier naturel p ≤ r, on a a1 , . . . ,a p > 0 et a p+1 , . . . ,ar < 0. Ainsi,
posons
√ √ p √
x1 = a1 y1 , . . . ,x p = a p y p ,x p+1 = − −a p+1 y p+1 , . . . ,xr = − −ar yr .
ce qui donne
√ √ 2 2 √ 2
q(x) = ( a1 y1 )2 + · · · + a p y p −
p
−a p+1 y p+1 − · · · − −ar yr
= x12 + · · · + x2p − x2p+1 − · · · − xr2 .
0
Vérifions que l’entier p ne dépend pas du choix de la base. Soient {ei } et {ei } deux bases de E telles
que
0
avec x = ∑ni=1 xi ei et x = ∑ni=1 yi ei . Posons
0 0 0
F = Vect{e1 , . . . ,e p }, F = Vect{e1 , . . . ,e p0 },
0 0 0
G = Vect{e p+1 , . . . ,en }, G = Vect{e p0 +1 , . . . ,en },
0
Montrons que F ∩ G = {0}. On a
0
x ∈ F\{0} =⇒ q(x) > 0, x ∈ F \{0} =⇒ q(x) > 0,
0
x ∈ G =⇒ q(x) ≤ 0, x ∈ G =⇒ q(x) ≤ 0.
0 0
Donc x ∈ F ∩ G implique x = 0, et par conséquent, F ∩ G = {0}. Ainsi
0
dim F + dim G = dim (F + G) = p + (n − p ) ≤ n = dim E,
0 0 0
et donc p ≤ p . De la même manière, on montre que G ∩ F = {0}, et on en déduit que p ≤ p.
37
Corollaire 2.4.2 Soit q une forme quadratique sur un espace vectoriel réel E. On a les équivalences
suivantes,
Exemple : Soit la forme quadratique q : R3 7−→ R donnée dans la base canonique {e1 ,e2 ,e3 } par
∀x = ∑3i=1 xi ei ∈ R3 ,
q(x) = x12 + 2 x32 + 2 x1 x2 + 2 x1 x3 + 2 x2 x3 .
La réduction de Gauss donne
q(x) = (x1 + x2 + x3 )2 − x22 + x32 ,
ce qui donne sign(q) = (2,1).
Ce qui donne !
n
∀x ∈ E, ∑ γi (βi1 x1 + · · · + βin xn ) = 0 =⇒ γ1 = · · · = γn = 0.
i=1
C’est équivalent à
!
n
∀x ∈ E, ∑ xi (γ1 β1i + · · · + γn βni ) = 0 =⇒ γ1 = · · · = γn = 0.
i=1
e1 = β11 v1 + · · · + βn1 vn ,
..
.
en = β1n v1 + · · · + βnn vn .
Proposition 2.5.2 On a ∀i, li (vi ) = 1 et li (v j ) = 0 pour j 6= i.
Démonstration :
En effet, on a ∀x = ∑ni=1 xi ei ∈ E,
Vérifions maintenant que {vi } est orthogonale. L’équation (2.5) donne ∀x = ∑ni=1 xi vi ∈ E,
et donc
α1 · · · 0
M(q)vi = ... . . . ... .
0 · · · αn
Ainsi {vi } est une base orthogonale. Récapitulons ce qu’il faut faire pour trouver une base orthogonale
de la forme quadratique q :
1. On commence par utiliser la réduction en carrées de Gauss appliquée à la forme quadratique q.
2. On complète la famille libre {l1 , . . . ,lr } en une base {l1 , . . . ,ln } de E ∗ .
3. On extrait la matrice P.
4. Les vecteurs colonnes {v1 , . . . ,vn } de la matrice P−1 forment la base orthogonale recherchée.
Exemple : Soit {e1 ,e2 ,e3 } la base canonique de R3 et q : R3 −→ R la forme quadratique donnée par
∀x = ∑3i=1 xi ei ∈ R3 ,
q(x) = 5x12 + x22 + 2x32 + 2x1 x2 + 6x1 x3 + 2x2 x3 .
En appliquant la méthode de réduction en carrées de Gauss, on trouve que
l1 (x) = x1 + x2 + x3 ,
l2 (x) = 2x1 + x3 .
∗
{l1 ,l2 } est une famille libre de R3 , complétons la en une base {l1 ,l2 ,l3 } telle que
l3 (x) = x2 .
v1 = −e1 + 2e3 ,
v2 = e1 − e3 ,
v3 = e1 + e2 − 2e3 .
A⊥ = {x ∈ E | ∀a ∈ E, f (x,a) = 0}
F 0 = {ϕ ∈ E ∗ | ∀x ∈ F,ϕ(x) = 0},
Démonstration : Supposons que dim E = n et soit {e1 , . . . ,e p } une base de F. Complétons la en une
base B = {e1 , . . . ,e p ,e p+1 , . . . ,en } de E. Soit {e∗1 , . . . ,e∗n } la base duale de B dans E ∗ . Montrons que
{e∗p+1 , . . . ,e∗n } est une base de F 0 , ce qui donnera le résultat voulu dim F 0 = n − p = dim E− dim F.
Soit k = p + 1, . . . ,n. On a e∗k (e1 ) = 0, . . . ,e∗k (e p ) = 0, donc e∗k annule tous les vecteurs de F. Ainsi e∗k ∈
F 0 . On déduit que e∗p+1 , . . . ,e∗n ∈ F 0 . De plus, la famille {e∗p+1 , . . . ,e∗n } est clairement libre, puisqu’elle
est extraite d’une base. Il reste à démontrer qu’elle engendre F 0 .
Soit ϕ ∈ F 0 . Montrons que ϕ s’écrit comme combinaison linéaire en fonction des e∗p+1 , . . . ,e∗n . Soit
x ∈ E tel que
x = x1 e1 + · · · + x p e p + x p+1 e p+1 + · · · + xn en ,
41
avec xi ∈ K. Comme e1 , . . . ,e p ∈ F et ϕ ∈ F 0 , alors
Proposition 2.6.5 Soient E un espace vectoriel défini sur un corps K, F un sous-espace vectoriel de
E, q : E −→ K une forme quadratique et f sa forme polaire. Posons N = N(q). On a :
1. dim E = dim F+ dim F ⊥ − dim F ∩ N.
2. F ⊥⊥ = F + N.
Démonstration :
1. Soit l’application
s : E −→ E ∗
y 7−→ f (.,y),
telle que f (.,y) est définie par
f (.,y) : E −→ K
x 7−→ f (x,y).
Appliquons le Lemme 2.6.4 au sous-espace vectoriel s(F) de l’espace dual E ∗ , ce qui donne
F + N ⊂ F ⊥⊥ .
D’après 1), on a
Définition 2.6.6 Soient E un espace vectoriel défini sur un corps K, q : E −→ K une forme quadratique
et f sa forme polaire. Un sous-espace vectoriel F de E est dit isotrope si
F ∩ F ⊥ 6= {0}.
Proposition 2.6.7 Soient E un espace vectoriel défini sur un corps K, q : E −→ K une forme quadratique
et f sa forme polaire. On a
Ainsi E = F ⊕ F ⊥ .
43
2.7 Endomorphisme adjoint
Nous allons voir dans cette section que la notion de l’endomorphisme adjoint qu’on a vu pour
les espaces Euclidiens, se généralise aux espaces vectoriels de dimension finie munis d’une forme
quadratique non dégénérée.
Proposition 2.7.1 Soient E un espace vectoriel de dimension finie sur un corps K, q : E −→ K une
forme quadratique non dégénérée, s sa forme polaire, et f ∈ End(E) un endomorphisme. Il existe
alors un unique endomorphisme f ∗ ∈ End(E) tel que
Démonstration : Soit {ei } une base de E, S = M(s)ei . Puisque s est non dégénérée, alors S est
inversible. Soit donc f ∗ ∈ End(E) l’endomorphisme ayant pour matrice
xn yn
On a finalement que tout endomorphisme satisfaisant cette équation, sa matrice est de la forme
suivante S−1 t M( f )ei S, ce qui prouve l’unicité.
Exemple : Soit E = R2 , {e1 ,e2 } sa base canonique, et q une forme quadratique donnée par ∀x =
x1 e1 + x2 e2 ∈ R2 ,
q(x) = x12 − 2x22 .
Sa forme polaire s est donnée donc par ∀x = x1 e1 + x2 e2 ,y = y1 e1 + y2 e2 ∈ R2 ,
1
s(x,y) = (q(x + y) − q(x) − q(y))
2
= x1 y1 − 2x2 y2 .
On a
1 0
S = M(s)ei = .
0 −2
Soit f : E −→ E un endomorphisme donné par
a b
M( f )ei = .
c d
44
Son endomorphisme adjoint f ∗ , d’après l’équation (2.9), est donné par
Proposition 2.7.2 Gardons les hypothèses de la proposition précédente et soient f ,g deux endomorphismes
de E. Soit aussi le scalaire λ ∈ K. On a f ∗∗ = f , (id)∗ = id, ( f + g)∗ = f ∗ + g∗ , (λ f )∗ = λ f ∗ ,
( f ◦ g)∗ = g∗ ◦ f ∗ , rg f ∗ = rg f , dét f ∗ = dét f .
Démonstration : Ces résultats se démontrent tous en utilisant la formule (2.9). Prouvons par exemple
f ∗∗ = f . On a
M( f ∗ )ei = S−1 t M( f )ei S.
D’autre part
M( f ∗∗ )ei = S−1 t M( f ∗ )ei S.
On remplace la première équation dans la seconde, on trouve
Puisque la forme s est symétrique, alors S est une matrice symétrique, t S = S, la dernière équation
devient
Ce qui donne f ∗∗ = f .
Proposition 2.8.1 Soit (E,q) un espace vectoriel de dimension finie muni d’une forme quadratique
non dégénérée q, s la forme polaire de q. Soit aussi un endomorphisme f ∈ End(E). Les propriétés
suivantes sont équivalentes :
1. ∀x ∈ E, q( f (x)) = q(x).
45
2. ∀x,y ∈ E, s ( f (x), f (y)) = s(x,y).
3. f ∗ ◦ f = Id, f ◦ f ∗ = Id.
L’endomorphisme f est dit orthogonal relativement à q.
Démonstration : 2) =⇒ 1), il suffit de faire x = y dans la formule de 2).
1) =⇒ 2), on a
1
s ( f (x), f (y)) = (q( f (x) + f (y)) − q( f (x)) − q( f (y)))
2
1
= (q( f (x + y)) − q( f (x)) − q( f (y))) .
2
Puisque f conserve la forme quadratique q d’après 1), alors
1
(q(x + y) − q(x) − q(y)) = s(x,y).
s ( f (x), f (y)) =
2
Montrons que 2) ⇔ 3). Soit {ei } une base de E, S = M(s)ei . L’équation de 2)
∀x,y ∈ E,s ( f (x), f (y)) = s(x,y)
est équivalente à
∀X,Y ∈ Mn,1 (R),t (M( f )ei X) S M( f )ei Y =t X SY.
Ceci est équivalent à
t
M( f )ei S M( f )ei = S.
Donc S−1 t M( f )ei S M( f )ei = Id. Ceci devient en utilisant l’équation (2.9), M( f ∗ )ei M( f )ei = Id. Ainsi
f ∗ ◦ f = Id. L’autre équation de 3) se démontre de la même façon.
La proposition suivante se vérifie facilement :
Proposition 2.8.2 Soient (E,q) un espace vectoriel de dimension finie muni d’une forme quadratique
non dégénérée q et s la forme polaire de q. Posons O(q) = { f ∈ End(E) | f ∗ ◦ f = Id}. On a :
1. Id ∈ O(q) ;
2. ∀ f ,g ∈ O(q), f ◦ g ∈ O(q) ;
3. ∀ f ∈ O(q), f −1 ∈ O(q).
L’ensemble O(q) est donc un groupe appelé groupe orthogonal de q.
Proposition 2.8.3 Fixons les hypothèses de la proposition précédente. Soit f ∈ O(q), alors dét f =
±1.
L’ensemble
SO(q) = { f ∈ O(q) | dét f = 1}
est un sous-groupe de O(q), appelé groupe spécial orthogonal de q.
Démonstration : Soit f ∈ O(q). On a f ∗ ◦ f = Id. L’équation (2.9) implique dét f ∗ = dét f . Ainsi
46
Bibliographie
[1] S. Axler, Linear Algebra, Done Right, Springer-Verlag New York Inc, Seconde édition (1997).
[2] S. H. Friedberg, A. J. Insel, L. E. Spence, Linear Algebra, Prentice-Hall, Englewood Cliffs, New
Jersey 07632, Seconde édition (1989).
[3] J. Grifone, Algèbre Linéaire, Cépaduès-Editions, 4ème édition (2011).
[4] P. R. Halmos, Finite-Dimensional vector spaces, Springer-Verlag New York Inc (1987).