Mipc Alg2 2016 PDF
Mipc Alg2 2016 PDF
Mipc Alg2 2016 PDF
Formation MIPC
S2, 2015-2016
13 mai 2016
2
Table des matières
1 Applications linéaires 5
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Dé…nitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Applications linéaires et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . 6
1.2.1 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . 6
1.2.2 Image d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Bases, dimension et applications linéaires . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Applications linéaires et changement de base . . . . . . . . . . . . . . . . . . . . 12
2 Déterminants 15
2.1 Théorie des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Dé…nition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Déterminants de matrices particulières . . . . . . . . . . . . . . . . . . . 16
2.2 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.1 Interprétation géométrique des déterminants . . . . . . . . . . . . . . . . 19
2.2.2 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Quelques applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Expression de l’inverse d’une matrice à l’aide du déterminant . . . . . . . 20
2.3.2 Application des déterminants à l’indépendance linéaire de vecteurs . . . 21
2.3.3 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.4 Formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3
4 TABLE DES MATIÈRES
Applications linéaires
1.1 Généralités
1.1.1 Dé…nitions et exemples
Dé…nition 1.1. Une application f de E dans F est dite linéaire (ou morphisme d’espace
vectoriel) si :
8 x; y 2 E, 8 2 K :
f (x + y) = f (x) + f (y); f ( x) = f (x):
ou encore :
8 x; y 2 E, 8 ; 2K:
f ( x + y) = f (x) + f (y):
La propriété précédente s’étend à toute combinaison linéaire : 8 x1 ; :::; xn 2 E, 8 1 ; :::; n 2K:
Xn X
n
f( i xi ) = i f (xi ):
i=1 i=1
f : R2 ! R3
Exemple 1.1. ; f est linéaire.
(x; y) ! (3x; y x; 2x)
5
6 CHAPITRE 1. APPLICATIONS LINÉAIRES
Exemple 1.2. Soit A = (aij ) 2 Mm;n (K) une matrice de type (m; n) à coe¢ cients dans K.
L’application dé…nie par
Kn ! Km 0 1
0 1 a11 a1n 01 0 1
x1 B .. .. .. C x 1 a11 x 1 + ::: + a 1n x n
B .. C B C B .. C B .. C
X=@ . A ! A:X = B . . . C:@ . A = @ . A
@ am1 amn A
xn xn am1 x1 + ::: + amn xn
est linéaire.
Exemple 1.3. Homothéties : Soit E un K-espace vectoriel et 2 K. L’application
h
E ! E
u ! :u
est un endomorphisme sur E appelé homothétie de rapport . L’homothétie de rapport 1 est
appelée l’identité de E et notée IdE .
Exemple 1.4. Projecteurs : Soient F et G deux s.e.v. de E tels que E = F G. Tout x 2 E
se décompose de manière unique en x = y + z avec y 2 F et z 2 G. On appelle projecteur
sur F parallèlement à G l’endomorphisme dé…ni par p(x) = y.
Exemple 1.5. les applications suivantes sont linéaires :
Remarque 1.1. L’image inverse de B (f 1 (B)) est dé…nie même si f n’est pas bijective, c’est
à dire même si l’application f 1 n’est pas dé…nie.
Proposition 1.1. Soit f : E ! F une application linéaire entre deux K-espaces vectoriels.
1) Pour tout sous-espace vectoriel V de E, f (V ) est un sous-espace vectoriel de F .
2) Pour tout sous-espace vectoriel W de F , f 1 (W ) est un sous-espace vectoriel de E.
y + y 0 = f (x) + f (x0 ) = f ( x + x0 ) 2 f (V ):
Dé…nition 1.3. (Image et Noyau d’une application linéaire) Soit f : E ! F une application
linéaire :
On appelle image de f et on note Im f l’ensemble
Soit f 2 LK (E; F ). Comme E est un espace vectoriel, il résulte de la proposition 1:1 que
f (E) (= Im f ) est un sous-espace vectoriel de F . De même, ker f (= f 1 (0F )) est un s-e-v de
E.
Exercice 1.2.
f : R3 ! R3
! f (x) = (x1 x2 + x3 ; 3x1 + x2 2x3 ; 4x1 x3 )
x = (x1 ; x2 ; x3 )
0 1
1 -1 1 0
@ 3 1 -2 0 A
4 0 -1 0
0 1 0 1
1 -1 1 0 1 -1 1 0
L2 L2 3L1 @ 0 4 -5 0 A ! @ 0 -4 -5 0 A
L3 L3 4L1 0 4 -5 0 L3 L3 L 2 0 0 0 0
det A = 0 donc ces trois vecteurs u1 (1; 3; 4); u2 ( 1; 1; 0); u3 (1; 2; 1) sont liés (u1 + 4u3 =
5u2 ).
Ainsi ker f = fe1 + 4e3 + 5e2 g et Im f = V etc (u1 (1; 1; 3); u2 (1; 0; 1)). On remarque que
dim ker f + dim Im f = 3.
Preuve. Existence : Soit (e1 ; :::; en ) une base de E et soit u1 ; u2 ; :::; un : n vecteurs de F .
Considérons l’application linéaire f telle que f (ei ) = ui .
Unicité : supposons q’9 une autre application linéaire g telle que g(ei ) = ui .
8x 2 E (f g)(x) = (f g)(x1 e1 + ::: + xn en ) = x1 (f g)(e1 ) + :::: + xn (f g)(en ) =
x1 0 + :::: + xn 0 = 0F ) f (x) = g(x); 8x 2 E ) f = g.
Preuve. Soit (e1 ; :::; ep ) une base de ker f . Complétons cette base en B = (e1 ; :::; en ) base
de E. On a E = ker f S, avec S = V ect(ep+1 ; :::; en ). Notons que f (ep+1 ); :::; f (en ) 2 Im f et
montrons que (f (ep+1 ); :::; f (en )) est une base de Imf .
i) (f (ep+1 ); :::; f (en )) génératrice de Im f ?
Im f = V ect(f (e1 ); :::; f (ep ); f (ep+1 ); ; f (en )) = V ect(f (ep+1 ); ; f (en )).
ii) (f (ep+1 ); :::; f (en )) libre?
Soit p+1 ; :::; n 2 K tels que p+1 f (ep+1 ) + ::: + n f (en ) = 0F ) f ( p+1 ep+1 + ::: + n en ) =
0F ) p+1 ep+1 + ::: + n en 2 Kerf \ S = f0E g ) p+1 ep+1 + ::: + n en = 0. Or la famille
(ep+1 ; :::; en ) est libre, donc p+1 = ::: = n = 0 ) (f (ep+1 ); :::; f (en )) est libre.
Par conséquent rang(f ) = dim Im f = n p = dim E dim ker f .
Preuve. Soit aij le terme de la i-ème ligne et de la j-ème colonne de M (f; B 0 ; B), par
dé…nition :
X
m
f (ei ) = aji e0j
j=1
Il en résulte,
! !
Xn X
n X
n X
m X
m X
n X
m
f (x) = f ( xi ei ) = xi f (ei ) = xi aji e0j = aji xi e0j = yj e0j :
i=1 i=1 i=1 j=1 j=1 i=1 j=1
Théorème 1.2. D’après la proposition 1:7, la donnée d’une application linéaire f 2 LK (E; F )
et d’une base B de E et une base B 0 dans F implique la donnée d’une application linéaire
fe 2 L(Kn ; Km ) et donc d’une matrice M (f; B 0 ; B) 2 Mm;n (K).
Inversement la donnée d’une matrice A 2 Mm;n (K) dé…nie une application linéaire f 2 L(Kn ; Km )
comme suit
Kn ! Km
X ! A:X
Proposition 1.8. Soient E et F deux K-espaces vectoriels, B une base de E et B 0 une base
de F . Soit f; g 2 LK (E; F ) et 2 K. On a :
1) M (f + g; B 0 ; B) = M (f; B 0 ; B) + M (g; B 0 ; B) et M ( f; B 0 ; B) = M (f; B 0 ; B).
2) Si G est un troisième espace vectoriel, B" une base de G et g 2 LK (F; G), alors
M (g f; B"; B) = M (g; B"; B 0 ) M (f; B 0 ; B):
Proposition 1.9. Soient E et F deux K-espaces vectoriels de dimensions respectivement n et
m, B une base de E et B 0 une base de F . L’application :
IB 0 ;B
LK (E; F ) ! Mm;n (K)
f ! M (f; B 0 ; B)
est un isomorphisme. Par conséquent dim L(E; F ) = dim Mm;n (K) = m n.
12 CHAPITRE 1. APPLICATIONS LINÉAIRES
Proposition 1.10. Soit E un K-espace vectoriel, B une base de E. f 2 LK (E) est un isomor-
phisme si et seulement si M (f; B) est inversible. On a alors
1 1
M (f ; B) = M (f; B)
Exercice 1.4. Soit R3 muni de sa base canonique B et soient B1 = f(1; 1; 0); ((0; 1; 0); (3; 2; 1)g
et B2 f(1; 1; 0); ((0; 1; 0); (0; 0; 1)g deux bases de R3 :
Quelle est la matrice de passage de B1 à B2 ?
0 1 0 1
1 0 3 1 0 0
Preuve : PB;B1 = @ 1 1 2 A et PB;B2 = @ 1 1 0 A ; on sait que PB;B2 =
0 0 1 0 0 1
1
PB;B1 PB1 ;B2 et donc PB1 ;B2 = PB;B P B;B2 .
0 1 1 01 1 0 1 0 1
1 0 3 1 0 0 1 0 3 1 0 0
PB1 ;B2 = @ 1 1 2 A @ 1 1 0 A = @ 1 1 1 A @ 1 1 0 A
0 01 0 1 0 0 1 0 0 1 0 0 1
1 0 3
= @ 2 1 1 A.
0 0 1
1.5. APPLICATIONS LINÉAIRES ET CHANGEMENT DE BASE 13
M (f; B20 ; B2 ) = M (IdF ; B20 ; B10 ):M (f; B10 ; B1 ):M (IdE ; B1 ; B2 )
M (f; B20 ; B2 ) = M (IdF 1 f IdE ; B20 ; B2 ) = M (IdF 1 ; B20 ; B10 ):M (f; B10 ; B1 ):M (IdE ; B1 ; B2 ):
f0: R31 ! R
0
3
1
x x z
@ y A ! @ 2x 3y + z A
z y 2z
0 1
1 0 1
La matrice de f dans la base canonique est : M (f; C) = @ 2 3 1 A. On considère main-
0 1 2
tenant la nouvelle base B = ("1 ; "2 ; "3 ), avec "1 = (1;
0 0; 0), " =
2 1 (1; 1; 0) et "3 = (1; 1; 1). La
1 1 1
matrice de passage de la base C à la base B est P = @ 0 1 1 A. Donc la matrice de f dans
0 10 0 0 1 1 0 1
1 1 0 1 0 1 1 1 1
la base B est : M (f; B) = P 1 AP = @ 0 1 1 A @ 2 3 1 A @ 0 1 1 A=
0 1 0 0 0 0 1 2 0 0 1
1 2 1
@ 2 2 1 A.
0 1 1
14 CHAPITRE 1. APPLICATIONS LINÉAIRES
Alors :
f
E ! F
A
B1 ! B10 M (f; B20 ; B2 ) = M (IdF 1 ; B20 ; B10 ):M (f; B10 ; B1 ):M (IdE ; B1 ; B2 )
1 AP ,
P # IdE
B=Q
y IdF # Q soit B = Q 1 :A:P
B
B2 ! B20
Dé…nition 1.5. Deux matrices A et B de Mm;n (R) sont équivalentes ssi il existe deux matrices
inversibles P 2 Mn (R) et Q 2 Mm (R) telles que :
B = Q 1 :A:P
Chapitre 2
Déterminants
a11 a1n
detA = .. .. ..
. . .
an1 ann
Avec cette notation, la propriété i) s’écrit : pour tout i 2 f1; :::; ng,
jC1 ; ::: ; Ci + Ci0 ; ::: ; Cn j = jC1 ; :::; Ci ; :::; Cn j + jC1 ; ::: ; Ci0 ; ::: ; Cn j
Une application de Mn (K) dans K qui satisfait la propriété i) est appelée forme multilinéaire.
Si elle satisfait ii), on dit qu’elle est alternée.
Le déterminant est donc la seule forme multilinéaire alternée qui vaut 1 sur la matrice In . Les
autres formes multilinéaires alternées sont les multiples scalaires du déterminant. On verra plus
loin comment on peut calculer e¤ectivement les déterminants. Donnons maintenant quelques
propriétés importantes du déterminant.
15
16 CHAPITRE 2. DÉTERMINANTS
Proposition 2.1. Soit A une matrice dans Mn (K) et A0 la matrice obtenue en échangeant
deux colonnes distinctes de A. Alors on a detA0 = detA.
Preuve. Soit A = (C1 ; :::; Ci ; ::: Cj ; :::; Cn ). On va échanger les colonnes i et j, ce qui
donne la matrice A0 = (C1 ; :::; Cj ::: ; Ci ; :::; Cn ), où le vecteur Ci se retrouve en colonne i et
le vecteur Cj en colonne j (on a pris ici i < j, sans perte de généralité). Introduisons alors
une troisième matrice Ae = (C1 :::; Ci + Cj ; ::: ; Cj + Ci ; :::; Cn ), cette matrice a deux colonnes
distinctes égales, donc d’après ii) detA e = 0. D’un autre coté, nous pouvons développer ce
déterminant en utilisant la propriété i) de multilinéarité, c’est-à-dire linéarité par rapport à
chaque colonne. Ceci donne
detA e = detA + detA0 = 0:
Proposition 2.2. Soit A une matrice dans Mn (K) et A0 la matrice obtenue en ajoutant à une
colonne de A une combinaison linéaire des autres colonnes de A. Alors on a detA0 = detA.
Preuve. Soit A = (C1 ; :::; Ci ; ::: ; Cj ; :::; Cn ) et donnons nous des scalaires j, j = 1; :::; n,
j 6= i. On pose !
X
A0 = C1 ; :::; Ci + j Cj ; :::; Cj ; :::; Cn
j6=i
Or chacun des déterminants apparaissant sous le signe de sommation est nul, puisqu’il concerne
une matrice dont les colonnes i et j sont égales.
Corollaire 2.1. Si une colonne de A est combinaison linéaire des autres colonnes alors det A =
0.
Preuve. En e¤et, on soustrait à cette colonne la combinaison linéaire en question, ce qui ne
modi…e pas le déterminant. La matrice obtenue a une colonne nulle, et par linéarité par rapport
à cette colonne, le déterminant est nul.
Autrement dit, pour une matrice triangulaire, le déterminant est égal au produit des termes
diagonaux.
2.1. THÉORIE DES DÉTERMINANTS 17
Preuve. On traite le cas des matrices triangulaires supérieures, le cas des matrices trian-
gulaires inférieures est identique. Soit donc
0 1
a11 a12 a13 a1n
B 0 a22 a23 a2n C
B C
B 0 0 a33 a3n C
A=B C
B .. .. .. . . .. C
@ . . . . . A
0 0 0 ann
1 0 0 0
0 a22 a23 a2n
det A = a11 0 0 a33 a3n
.. .. .. .. ..
. . . . .
0 0 0 ann
et l’on continue ainsi jusqu’à avoir parcouru toutes les colonnes de la matrice. Au bout de n
étapes, on a obtenu
1 0 0 0
0 1 0 0
det A = a11 a22 :::ann 0 0 1 0 = a11 a22 :::ann det(In ) = a11 a22 :::ann :
.. .. .. . . . ..
. . . .
0 0 0 1
Remarque 2.1. La façon de procéder doit rappeler l’algorithme de Gauss. C’est en fait le même
argument mais avec des substitutions de colonnes. Notons que le résultat s’applique en particu-
lier aux matrices diagonales, lesquelles sont à la fois triangulaires supérieures et triangulaires
inférieures.
Notation. Soit une matrice carrée M d’ordre n. Il est évident que si l’on supprime une
ligne et une colonne dans M , la matrice obtenue est à n 1 lignes et colonnes. On note la
matrice obtenue en supprimant la i-ème ligne et la j-ième colonne Mij .
18 CHAPITRE 2. DÉTERMINANTS
0 1 2
1 2
d1 = 0 2 4 = 4 = 4( 1 4 2 2) = 32 .
2 4
4 3 1
Exemple 2.2. Calculer
1 3 2
d2 = 2 2 4 :
5 3 1
1 3 2
4 6
d2 = 0 4 6 L2 + 2L1 , d2 = 1 =4 9 6 12 = 36.
12 9
0 12 9 L3 5L1
2 x 1
d3 = (2 x) 1 = (2 x)((2 x)2 1) = (1 x)(2 x)(3 x):
1 2 x
1 x1 x21 x31
1 x2 x22 x32
Exemple 2.4. d4 = = (x4 x3 )(x4 x2 )(x4 x1 )(x3 x2 )(x3 x1 )(x2 x1 ) =
1 x3 x23 x33
1 x4 x24 x34
(xi xj )
i6=j
2.2. PROPRIÉTÉS DU DÉTERMINANT 19
1 0 0 0
1 1 0 0
det(1 X; X X 2; X 2 X 3; X 3) = = 1 6= 0:
C 0 1 1 0
0 0 1 1
Proposition 2.8. Le rang d’une matrice est le plus grand entier r tel qu’il existe une matrice
carrée d’ordre r extraite de M de déterminant non nul.
22 CHAPITRE 2. DÉTERMINANTS
1 0 5 1 0 5
2 4 5 = 0 4 15 = 28 30 = 2 6= 0:
1 2 2 0 2 7
Donc rangA = 3.
det(Aj )
xj = ; 1 j n:
det(A)
1 0 5
2 4 5 = 2 6= 0, donc le système est un système de Cramer et on a :
1 2 2
1 0 5 1 1 5 1 0 1
0 4 5 2 0 5 2 4 0
2 2 2 1 2 2 29 1 2 2
x= = 19; y = = ; z= = 4:
2 2 2 2
29
Donc l’ensemble de solutions du système (S) est f(19; ; 4)g.
2
Chapitre 3
3.1 Diagonalisation
Le but de ce chapitre est de savoir transformer une matrice carrée A en une matrice semblable
B la "plus simple possible". Dans la situation idéale, la matrice B sera diagonale, et on dira
alors que A est diagonalisable. Dans les cas moins favorables, on pourra seulement transformer
A en une matrice B triangulaire (et on dira que A est trigonalisable) voire triangulaire par
blocs. Pour
Pnl’endomorphisme, nous voulons décomposer un endomorphisme f en une somme
…nie f = i=1 fi d’endomorphismes fi "plus simples". Dans les cas les plus favorables, les ui
seront des homothéties. sur un sous-espace vectoriel de E.
Dé…nition 3.2. Si est une valeur propre de l’endomorphisme f de End(E), on appelle sous-
espace propre associé à l’ensemble des vecteurs propres de f pour .
Proposition 3.1. Si est une valeur propre de f , l’ensemble E est un sous-espace vectoriel
de E non réduit à f0g, et l’on a : E = ker(f Id).
23
24 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
Remarque 3.1. En particulier, 0 est valeur propre de f si et seulement si ker f n’est pas réduit
à 0, si et seulement si f n’est pas injectif. Dans ce cas E0 n’est autre que ker f .
p
X
i xi = 0:
i=1
Si l’on considère ( 1 x1 ; 2 x2 ; :::; p xp ) comme les inconnues du système, la matrice de (S) n’est
autre que la matrice de Vandermonde associée au p-uplet ( 1 ; :::; p ). Comme les i sont deux
à deux distincts, on en déduit que (S) est de Cramer. Son unique solution est clairement
1 x1 = 2 x2 = ::: = p xp = 0. Comme tous les xi sont distincts de 0, on conclut que tous les
i sont nuls.
1
0 m m+1 n
1
1 1 0 0 0 0
.. B .. C
. B 0 1 . 0 C
B .. .. .. C
B 0 0 . . . C
M (p; (ei )) = B C ) det(M I) = ( 1)m ( )n m
)
B .. .. C
B . . C
m B C
B 1 C
.. B C
. @ 0 A
n 0 0 0 0
Sp(p) = f0; 1g, E0 = ker p = G et E1 = Im p = F .
2. Symétries :
Si l’on considère maintenant la symétrie s par rapport à F parallèlement à G, alors on a
Sp(s) = f 1; 1g, E 1 = G et E1 = F .
Preuve. i) ) ii) : Comme 2 Sp(A), la matrice A In n’est pas inversible. Son rang est
donc strictement inférieur à n.
ii) ) iii) : Soit f l’endomorphisme de matrice A par rapport à la base canonique (e1 ; :::; en )
de Kn . On supose rg(f Id) < n. Donc, d’après le théorème du rang, ker(f Id) n’est pas
réduit à f0g et l’on peut trouver x = x1 e1 + ::: + xn en tel que f (x) = x. Le vecteur colonne
de composantes (x1 ; :::; xn ) répond à la question.
iii) ) i) : Si f désigne l’endomorphisme dé…ni ci-dessus, et x = x1 e1 + ::: + xn en où les xi sont
les composantes de x, alors x 2 ker(f Id). Donc f Id n’est pas inversible, et la matrice
(par rapport à la base canonique) correspondante A In non plus.
Dé…nition 3.4. Si est valeur propre de A, tout vecteur colonne X tel que AX = X est
appelé vecteur propre de A.
X
n Y
n
trace(A) = i et det(A) = i:
i=1 i=1
0 1
2 0 4 2 X 0 4
3) M = @ 3 4 12 A ; M = det(M XI3 ) = 3 4 X 12 = (2
1 2 5 1 2 5 X
X) [( 4 X)(5 X) + 24] + 4 [ 6 + 4 + X]
= (2 X) [X 2 X + 4] + 4 [ 2 + X] = (2 X)(X 2 X + 4 4) = (2 X)X(X 1).
Sp(M ) = f0; 1; 2g.
Donnons quelques propriétés importantes des polynômes caractéristiques :
3.1. DIAGONALISATION 27
CP = ( 1)n mCP :
En e¤et
X 0 ::: 0 a0
1 X ::: 0 a1
CP (X) = 0 1 ::: 0 a2
.. .. .. .. ..
. . . . .
0 :::::: 0 1 an 1 X
Notons (Li ) la i-ème ligne de ce déterminant. Changer (L1 ) en (L1 ) + X(L2 ) + ::: + X n 1 (Ln )
ne modi…e pas le déterminant. Par conséquent,
Pn 1
0 0 ::: 0 X n + i=0 ai X i
1 X ::: 0 a1 X
n 1
CP = 0 1 : : : 0 a 2 = ( 1)n
(X n
ai X i ):
.. .. . . .. ..
. . . . . i=0
0 :::::: 0 1 an 1 X
De même, à tout endomorphisme dé…ni sur un espace vectoriel E de dimension …nie n, on peut
associer un polynôme caractéristique.
Dé…nition 3.5. Soit f 2 End(E) avec E de dimension …nie, B une base de E, et A la matrice
de f par rapport à B. On appelle polynôme caractéristique de f , le polynôme f = A .
Remarque 3.2. D’après la proposition 6.4, deux matrices semblables ont même polynôme
caractéristique. La dé…nition ci-dessus ne dépend donc pas de la base B choisie. On dispose
bien sûr du résultat fondamental suivant :
Théorème 3.2. Soit f 2 End(E). Alors 2 Sp(f ) si et seulement si f( ) = 0.
Corollaire 3.2. Si est racine de f de multiplicité alors 1 dimE . Le nombre
entier est appelé multiplicité de la valeur propre . En particulier, si est racine simple
alors dimE = 1. Résultat identique pour les matrices.
Preuve. Si est racine de f alors E n’est pas réduit à 0, d’où = dimE 1. De plus,
d’après la proposition 1.3, l’endomorphisme induit par f sur E coïncide avec IdE . Son po-
lynôme caractéristique est donc ( X) . D’après la proposition précédente, ( X) divise
donc f , ce qui montre que .
Dé…nition 3.7. On dit que A 2 Mn (K) est diagonalisable si A est semblable à une matrice B
diagonale.
Preuve. Si f est diagonalisable, alors sa matrice dans une base de vecteurs propres est diago-
nale. Réciproquement, si dans une base B = (e1 ; :::; en ) donnée la matrice de f est diagonale,
alors tous les ei sont vecteurs propres pour f . On a donc prouvé i).
Pour prouver ii), il su¢ t de remarquer que si A = P:diag( 1 ; :::; n ):P 1 et si l’on note ("1 ; :::; "n )
la base canonique de Kn , on a AP "i = P diag( 1 ; :::; n )"i = i P "i .
Par conséquent dire que A est diagonalisable équivaut à dire que l’endomorphisme f de matrice
A par rapport à la base canonique admet (P "1 ; :::; P "n ) comme base de vecteurs propres.
Théorème 3.3. Soit f 2 End(E). Notons Sp(f ) = f 1 ; :::; p g. Les quatre propriétés suivantes
sont équivalentes :
i) f est diagonalisable,
ii) E = pi=1 E i .
p
X
iii) dimE = dimE i .
i=1
iv) Il existe p entiers non nuls 1 ; :::; p tels que 1 + ::: + p = n, et une base B de E par
30 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
Preuve. Sachant que les E i sont en somme directe et inclus dans E, on a ii) , iii).
i) ) iii) : Soit f diagonalisable. On considère une base (e1 ; :::; en ) de vecteurs propres de f que
l’on ordonne de telle sorte que les 1 premiers
Pp vecteurs soient associés à 1 , les 2 suivants à
2 . On a bien évidemment dimE i = i et i=1 i = n, ce qui entraîne iii).
ii) ) iv) : Supposons que E = pi=1 E i . La matrice de f par rapport à une base adaptée à
cette décomposition est clairement du type voulu.
iv) ) i) : Immédiat.
Corollaire 3.3. Si f a n valeurs propres deux à deux distinctes, 1 ; :::; n alors f est diagona-
lisable et tous ses sous-espaces propres sont de dimension 1. De plus, la matrice de f dans une
base de vecteurs propres (x1 ; :::; xn ) associés à 1 ; :::; n est
matB (f ) = diag( 1 ; :::; n ):
avec égalité si et seulement si tous les sous-espaces propres sont de dimension 1. Mais par ailleurs
p p
i=1 E i est inclus dans E donc est de dimension au plus n. On conclut que E = i=1 E i , et
donc f est diagonalisable en vertu du théorème 6.3.
Théorème 3.4. Un endomorphisme f 2 End(E) est diagonalisable si et seulement si f est
scindé dans K[X] et la dimension i de chaque sous-espace propre E i de f est égale à la
multiplicité i de i dans f . Dans ce cas, on a
p
Y
n
f = ( 1) (X i)
i
i=1
où Sp(f ) = f 1 ; :::; p g.
Exemple 3.1. Chercher les valeurs propres et des bases des espaces propres associés à la
matrice A. diagonaliser A dans R ou C si c’est possible.
0 1
0 1 0
A = @ 0 0 1 A:
2 1 2
Le polynôme caractéristique de A est
X 1 0
X 1 0 1
A (X) = 0 X 1 = X = X 3 + 2X 2 + X 2:
1 2 X 2 2 X
2 1 2 X
On remarque 1 est une racine de A . Par suite, A (X) = (X 2)(X 1)(X + 1). Donc le
spectre de A est Sp(A) = f 1; 1; 2g. Puisque Les valeurs propres de A sont réelles et distinctes.
Donc A est diagonalisable dans R.
Recherche d’un vecteur propre X(x; y; z) associé à 1. X est un vecteur propre associé à 1 si
et seulement si (A + I)X = 0 si et seulement si X véri…e le système de Cramer
0 1 0 1 0 1
1 1 0 0 1 1 0 0 1 1 0 0
@ 0 1 1 0 A , @ 0 1 1 0 A,@ 0 1 1 0 A
2 1 3 0 0 3 3 0 0 0 0 0
Donc un vecteur propre associé à 1 est "1 = (1; 1; 1).
Recherche d’un vecteur propre X(x; y; z) associé à 1. X est un vecteur propre associé à 1 si et
seulement si (A I)X = 0 si et seulement siX véri…e le système de Cramer
0 0 0
1 1 0 1 1 1 0 1 1 1 0 1
B 0 0 B 0 0 B 0 0
B 1 1 A,B 1 1 A,B 1 1
@ 2 1 1 0 @ 2 1 1 0 @ 0 0 A
1 1
0 0 0
E0 , E4 ?
E0 = V ect fu0 = (1; 1; 2)g et E4 = V ect fv4 = (1; 1; 0); w4 = (1; 0; 1)g .
dim E0 = 1 et 2. dim E0 + dim E4 = 3 ) M est diagonalisable.
0 dim E4 =1
0 0 0
matB 0 (f ) = @ 0 4 0 A ;où B 0 = fu0 ; v4 ; w4 g.
0 0 4
Exercice 3.1. Calculer les valeurs propres et des bases des espaces propres associés aux ma-
trices suivantes.
0 Les diagonaliser
1 0 dans R ou C si1c’est possible.
1 1 0 2 8 6
B = @ 1 1 2 A et C = @ 4 10 6 A :
0 0 2 4 8 4
Exercice 3.2. On considère les suites (un ) et (vn ) dé…nies par u0 = 1 et v0 = 1 et pour tout
n2N:
un+1 = 72un + 50vn
vn+1 105un 73vn
3.2. TRIANGULATION 33
un 72 50
On pose Xn = et A =
vn 105 73
1) Diagonaliser A.
2) Endéduire An , pour n 2 N.
3) Exprimer un et vn en fonction de n.
3.2 Triangulation
ou (Trigonalisation)
Exemple 3.4.
0 1
2 1 1
A=@ 2 3 1 A, A = M (B; u) où B = (e1 ; e2 ; e3 ).
0 1 1
1. On calcule et on factorise le polynôme caractéristique de A :
PA (t) = det(A I) = ( 2)3 . A possède une seule valeur propre = 2. PA est scindable,
donc A est au moins trigonalisable (triangulable).
2. Détermination
0 1 de E2 .
x
X = @ y A 2 E2 , (A 2I)X = 0.
z 8 8 0 1
< 2x + y + z = 2x < y = z 1
On résoud donc le système : 2x + 3y z = 2y ) x = z ) X = z@ 1 A
: :
y+z = 2z y = z 1
On obtient ainsi E2 = V ect fv1 = e1 + e2 e3 g.
3. dim(E2 ) = 1 6= 3 (donc A n’est pas diagonalisable)
4. On complète le système libre fv1 g pour construire une base B1 = fv1 ; v2 ; v3 g de E, (en
utilisant
les vecteurs de B = (e1 ; e2 ; e3 )). On pose :
8 8
< v1 = e1 + e2 e3 < e1 = v2
v2 = e1 ) e2 = v3 .
: :
v3 = e2 e3 = v1 + v2 + v3
5.
8 On calcule A1 = M (B1 ; u)
< u(v1 ) = u(e1 + e2 e3 ) = 2v1
u(v2 ) = u(e1 ) = 2e1 2e2 = 2v2 2v3 . D’où :
:
u(v0
3 ) = u(e2 ) = e1 + 3e2
1 e3 = v1 + 2v3
2 0 1
A1 = @ 0 2 0 A = M (u; B1 ) où B1 = fv1 ; v2 ; v3 g.
0 2 2
34 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
2 0
6. On travaille maintenant sur A0 = = M (u0 ; fv2 ; v3 g)
2 2
(a) PA0 (t) = (t 2)2
(b) Recherche des vecteurs propres de A0 en résolvant (A0 2I)(Y ) = 0 et en posant :
y
Y =
z
On obtient donc :
0=0 y=0 0
) )Y =z
2y + 0 = 0 z quelconque 1
0 1
0
On peut donc considérer le vecteur w2 = @ 1 A = v3
0
(c) On complète le système libre fv1 ; w2 g pour construire la base B2 = fw1 ; w2 ; w3 g de E,
en utilisant
8 les vecteurs
8 de B1 = fv1 ; v2 ; v3 g. On pose :
< w1 = v1 < v1 = w1
w2 = v3 ) v2 = w3
: :
w3 = v2 v3 = w2
(d) On calcule A2 = M (u; B2 ) la matrice représentative de u dans la base B2 :
8
< u(w1 ) = u(v1 ) = 2v1 = 2w1
u(w2 ) = u(v3 ) = v1 + 2v3 = w1 + 2w2 . D’où :
:
u(w3 ) = u(v2 ) = 2v2 2v3 = 2w2 + 2w3
0 1
2 1 0
A2 = T = @ 0 2 2 A = M (u; B2 ) où B2 = fw1 ; w2 ; w3 g (une base de E).
0 0 2
7. La matrice triangulaire semblable à A que nous venons de construire est la matrice T = A2
, relativement
8 a la matrice de passage P de la0base B à la 1 base B2 :
< w1 = v1 = e1 + e2 e3 1 0 1
w2 = v3 = e2 ) PB;B2 = @ 1 1 0 A.
:
w3 = v2 = e1 1 0 0
4.bis. On aurait pu faire autrement si on avait un peu plus de chance et on a pensé au bon
choix des vecteurs v2 ; v3 .
On complète le système libre fv1 g pour construire une base B1 = fv1 ; v2 ; v3 g de E, (en
utilisant les vecteurs de B = (e1 ; e2 ; e3 )). On pose :
8 8
< v1 = e1 + e2 e3 < e2 = v2
v2 = e2 ) e3 = v3 .
: :
v3 = e3 e1 = v1 v2 + v3
5.
8 On calcule A1 = M (B1 ; u)
< u(v1 ) = u(e1 + e2 e3 ) = 2v1
u(v2 ) = u(e2 ) = e1 + 3e2 e2 = v1 + 2v2 . D’où :
:
u(v3 ) = u(e3 ) = e1 e2 + e3 = v1 2v3 + 2v3
3.2. TRIANGULATION 35
0 1 0 1
2 1 1 1 0 0
A1 = @ 0 2 2 A = M (u; B1 ) où B1 = fv1 ; v2 ; v3 g. Et P = PB;B2 = @ 1 1 0 A
0 0 2 1 0 1
(A 2I)v1 = 0 (1)
On va chercher v2 2 Ker(A 2I)2 (au sens stricte)) (A 2I)2 v2 = 0 ) (A 2I) [(A 2I)v2 ] =
0 ) (A 2I)v2 2 Ker(A 2I)
Il su¢ t de prendre (A 2I)v2 = v1 et cherchons v2 en résolvant le système qui en résulte :
8
< y+z =1
2x + y + z = 1 ) v2 = (x; x + 1; x); x 2 R . On a donc, par exemple, v2 =
:
y z= 1
(0; 1; 0) tel que (A 2I)v2 = v1 )
(A 2I)v2 = v1 (2)
On cherche v3 2 Ker(A 2I)3 (au sens stricte)) (A 2I)3 v3 = 0 ) (A 2I)2 [(A 2I)v3 ] =
0 ) (A 2I)v3 2 Ker(A 2I)2
Il su¢ t de prendre (A 2I)v3 = v2 et cherchons v3 en résolvant le système qui suit :
8
< y+z =0
1
2x + y + z = 1 ) v3 = ( + z; z; z); z 2 R. On a donc, par exemple, v3 =
: 2
y z=0
1
( ; 0; 0) tel que (A 2I)v3 = v2 )
2
(A 2I)v3 = v2 (3)
Véri…ons maintenant que les 3 vecteurs v1 , v2 et v3 sont libres : v1 = (1; 1; 1); v2 =
1
(0; 1; 0); v3 = ( 1=2; 0; 0) ) det(v3 ; v2 ; v1 ) = 6= 0.
2
C/c : Dans la base8 (v 1 ; v 2 ; v 3 ) la matrice semblable
0 à A1est triangulaire :
< Av 1 = 2v 1 2 1 0
(1); (2) et (3) ) Av2 = v1 + 2v2 ) T = @ 0 2 1 A.
:
Av3 = v2 + 2v3 0 0 2
0 1 1
1 0
B C
La matrice de passage est P = @ 1 1 02 A.
1 0 0
36 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
0 1
15 12 15 10
B 3 8 5 2 C
Exemple 3.6. C = B
@ 1
C = M (u; B) où B = (e1 ; e2 ; e3 ; e4 ) la base cano-
4 1 6 A
5 8 13 18
4
nique de R .
3. Détermination
0 1 de E8 .
x
B y C
X=B C
@ z A 2 E8 , (B 8I)(X) = 0 ;
t
On résoud donc le système :
8
> 7x + 12y + 15z + 10t = 0 8
>
< < x= z
3x + 5z + 2t =0
) y= z
>
> x 4y 9z 6t = 0 :
: t= z
5x + 8y + 13z + 10t = 0
0 1
1
B 1 C
) X = zB C
@ 1 A = zv2 où v2 = e1 e2 + e3 e4 vect.p 2 E8 .
1
(A 8I)v2 = 0 (1)
On va chercher v3 2 Ker(A 8I)2 (au sens strict)) (A 8I)2 v3 = 0 ) (A 8I) [(A 8I)v3 ] =
0 ) (A 8I)v3 2 Ker(A 8I)
Il su¢ t de prendre (A 8I)v3 = v2 et cherchons v3 en résolvant le système qui en résulte :
8
> 7x + 12y + 15z + 10t = 1 (1) 8 8
>
< < x + 2y + z = 1 (1) (4) < x z=0 (1)0
3x + 5z + 2t = 1 (2)
) 5x + 2y 3z = 1 3(2) + (3) ) 2x + 2y = 1 (2)
>
> x 4y 9z 6t = 1 (3) : :
: 3x + 5z + 2t = 1 (2) 2x + 2t = 1 (2)
5x + 8y + 13z + 10t = 1 (4)
1 1 1 1
(x; x; x; x); x 2 R . On a donc, par exemple, v3 = (0; ; 0; ) tel que (A 8I)v3 =
2 2 2 2
v2 )
(A 8I)v3 = v2 (2)
On cherche v4 2 Ker(A 8I)3 (au sens stricte)) (A 8I)3 v4 = 0 ) (A 2I)2 [(A 8I)v4 ] =
0 ) (A 8I)v4 2 Ker(A 8I)2
Il su¢ t de prendre (A 8I)v4 = v3 et cherchons v4 en résolvant le système suivant
8 :
8
> 7x + 12y + 15z + 10t = 0 (1) 8 >
> 4x 4z = 1
>
< < x + 2y + z = 1=2 (1) (4) >
< 1
3x + 5z + 2t = 1 (2) y= x v0 =
) 5x + 2y 3z = 1=2 3(2) + (3) ) 8
>
> x 4y 9z 6t = 0 (3) : >
> 1
: 3x + 5z + 2t = 1 (2) >
: t= x
5x + 8y + 13z + 10t = 1 (4)
8
3.2. TRIANGULATION 39
1 1 1 1 1 1
(x; x; + x; x); x 2 R . On a donc, par exemple, v4 = (0; ; ; ) tel que
8 4 8 8 4 8
(A 8I)v4 = v3 )
(A 8I)v4 = v3 (3)
Véri…ons maintenant que les 3 vecteurs v2 , v3 et v4 sont libres : v2 = (1; 1; 1; 1), v3 =
1 1 1 1 1
(0; ; 0; ), v4 = (0; ; ; ) ) det(v2 ; v3 ; v4 )extrait 6= 0.
2 2 8 4 8
C/c : Dans la base 8 (v1 ; v2 ; v3 ; v4 ) la matrice 0
semblable à A est1 triangulaire :
>
> Av 1 = 16v 1 16 0 0 0
< B 0 8 1 0 C
Av2 = 8v2
(1); (2) et (3) ) )T =B @ 0 0 8 1 A.
C
>
> Av 3 = v 2 + 8v 3
:
Av4 = v3 + 8v4 0 0 0 8
0 1
3 1 0 0
B 1 1 21 1 C
La matrice de passage est P = B @ 1
8 C.
1 0 0 A
1 1
3 1 2 8
40 CHAPITRE 3. RÉDUCTION DES ENDOMORPHISMES ET DES MATRICES
Chapitre 4
41
42 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES
'(x; y) = t XAY .
Le cas d’une forme bilinéaire sur un espace de dimension n se traite de manière analogue.
Dé…nition 4.3. La matrice d’une forme bilinéaire ' dans une base B = (ei )1 i n de E est la
matrice carrée d’ordre n :
A = ('(ei ; ej ))1 i;j n .
Théorème 4.1. Soit ' une forme bilinéaire sur E et A la matrice de ' dans la base B. Pour
tous vecteurs x; y dans E on a :
'(x; y) = t XAY .
Théorème 4.2. Une application ' de E E dans K est une forme bilinéaire dans E si, et
seulement si, il existe une matrice A = ((aij ))1 i;j n dans Mn (K) et des formes linéaires l1 ; ln
linéairement indépendantes telles que :
Xn Xn
8(x; y) 2 E E; '(x; y) = aij xi yj = aij li (x)lj (y)
1 i;j n 1 i;j n
où (li )1 i n est la base duale de B.
Théorème 4.3. Une forme bilinéaire ' sur E est symétrique (resp. alternée) si, et seulement
si, sa matrice A dans une base B de E est symétrique (resp. alternée).
Preuve : Si ' est symétrique (resp. alternée), on a 8(x; y) 2 R2 : '(x; y) = '(y; x) en
particulier '(ei ; ej ) = '(ej ; ei ) (resp. '(ei ; ej ) = '(ej ; ei )) 8i; j 2 f1; ng ce qui signi…e que la
matrice A de ' dans B est symétrique (resp. alternée).
Réciproquement si A est symétrique (resp. alternée), on a alors 8(x; y) 2 E 2 :
'(y; x) = t Y AX = t (t Y AX) = t X t AY = t XAY = '(x; y).
(idem pour alternée)
Le sous-espace Bils (E) formé des formes bilinéaires symétriques sur E est donc isomorphe
au sous-espace de Mn (K) formé des matrices carrées symetriques ; cet espace étant de dimension
n(n + 1)
n(n + 1)=2, il en résulte que dim(Bils (E)) = .
2
n(n + 1) n(n 1)
Bil(E) = Bils (E) Bila (E) ) dim(Bila (E)) = n2 = .
2 2
Exercice 4.3. Montrer que chacune des applications ' est bilinéaire et donner sa matrice dans
la base canonique de Rn .
1) n = 2, '(x; y) = x1 y1 3x2 y2 ;
2) n = 3; '(x; y) = x1 y1 x1 y2 x2 y2 2x2 y3 x3 y1 2x3 y3 .
Solution :
0 1
1 1 0
1 0
A1 = et A2 = @ 0 1 2 A.
0 3
1 0 2
0 1
1 4 7
Exercice 4.4. Soit A = @ 2 5 8 A ; Déterminer la forme bilinéaire associée à A dans la
3 6 9
3
base canonique de R .
Solution :
0 10 1
1 4 7 y1
'(x; y) = t XAY = (x1 ; x2 ; x3 ) @ 2 5 8 A @ y2 A
3 6 9 y3
= x1 (y1 + 4y2 + 7y3 ) + x2 (2y1 + 5y2 + 8y3 ) + x3 (3y1 + 6y2 + 9y3 ).
Théorème 4.4. Soient B1 et B2 2 bases de E et P la matrice de passage de B1 à B2 . Si A1 et
A2 sont les matrices d’une forme bilinéaire ' sur E dans les bases B1 et B2 respectivement, on
alors :
A2 = t P A 1 P .
Preuve : Soient x 2 E , X1 = coordB1 (x) et X2 = coordB2 (x).
8(x; y) 2 E 2 '(x; y) = t X1 A1 Y1 = t (P X2 )A1 (P Y2 ) = t X2 (t P A1 P )Y2
) A2 = t P A 1 P .
4.3. FORMES QUADRATIQUES 45
8x 2 E; q(x) = '(x; x)
où ' est une forme bilinéaire sur E.
Remarque 4.1. L’ensemble Q(E) des formes quadratiques sur E est un K-espace vectoriel.
Remarque 4.2. Il n’y a pas unicité des formes bilinéaires associées à une forme quadratique.
Par exemple sur R2 , les formes bilinéaires ' et dé…nies par :
'(x; y) = x1 y1 + x2 y2
(x; y) = x1 y1 + x1 y2 x2 y1 + x2 y2
dé…nissent la même forme quadratique :
q(x) = '(x; x) = x21 + x22 = (x; x) = x21 + x1 x2 x2 x1 + x22 .
L’unicité de ' est assurée par le résultat suivant.
Théorème 4.5. Si q est une forme quadratique sur E, il existe alors une unique forme bilinéaire
symétrique ' telle que q(x) = '(x; x) pour tout x 2 E.
Preuve : La forme quadratique q est dé…nie par q(x) = '0 (x; x) pour tout x 2 E, où '0 est
une forme bilinéaire sur E. L’application ' dé…nie sur E E par :
1
'(x; y) = ('0 (x; y) + '0 (y; x))
2
est bilinéaire et symétrique avec '(x; x) = q(x) 8x 2 E, ce qui prouve l’existence de '.
Comme ' est bilinéaire et symétrique, on a pour x; y dans E :
q(x + y) = '(x + y; x + y) = '(x; x) + 2'(x; y) + '(y; y)
= q(x) + 2'(x; y) + q(y)
de sorte que :
1
'(x; y) = (q(x + y) q(x) q(y))
2
ce qui prouve l’unicité de '.
Dé…nition 4.5. Avec les notations du théorème qui précède, on dit que ' est la forme polaire
de la forme quadratique q.
1
Remarque 4.3. 8(x; y) 2 E 2 ; '(x; y) = (q(x + y) q(x) q(y))
2
1
= (q(x + y) q(x y))
4
Remarque 4.4. Pour tout scalaire et tout vecteur x, on a :
q( x) = '( x; x) = 2 '(x; x) = 2 q(x)
46 CHAPITRE 4. FORMMES BILINÉAIRES ET QUADRATIQUES
Remarque 4.5. L’application qui associe à une forme quadratique q sa forme polaire ' réalise
un isomorphisme d’espaces vectoriels de Q(E) sur l’espace Bils(E) des formes bilinéaires
symétriques sur E. Pour E de dimension n, Q(E) est de dimension n(n + 1)=2.
Remarque 4.6. De cet isomorphisme, on déduit aussi que deux formes bilinéaires symétriques
'1 et '2 sur E sont égales si, et seulement si, '1 (x; x) = '2 (x; x) pour tout x 2 E.
L’application qui associe à une forme quadratique q sa matrice dans la base B réalise un
isomorphisme d’espaces vectoriels de Q(E) sur l’espace Sn (K) des matrices symétriques d’ordre
n.
En notant aij = '(ei ; ej ) pour tous i; j compris entre 1 et n, l’expression de la forme
quadratique q 2 Q(E)
X dans la base B = (ei )1 i n est :
q(x) = aij xi xj = t XAX
1 i;j n
où on a noté X le vecteur de Kn formé des composantes de x dans la base B.
Exercice 4.5. Soient p un entier naturel non nul, `1 ; ; `p des formes linéaires sur E et 1; ; p
des scalaires.
Montrer que l’application q dé…nie sur E par :
p
X
2
8x 2 E; q(x) = j `j (x)
j=1
est une forme quadratique et déterminer sa forme polaire.
Exercice 4.6. Montrer que si q est une forme quadratique sur Rn , alors sa forme polaire ' est
donnée par :
1 X @q(x) 1 X @q(y)
n n
'(x; y) = yj = xi
2 j=1 @xj 2 i=1 @yi
Soit A =X
(aij )i i;j n la matrice de q dans la base canonique, on a :
q(x) = aij xi xj
1 i;j n
4.3. FORMES QUADRATIQUES 47
Dé…nition 4.9. On dit qu’un vecteur x de E est isotrope relativement à ' s’il est orthogonal
à lui même.
Dé…nition 4.10. L’ensemble des vecteurs isotropes de E, relativement à ', est le cône isotrope
de '.
On dit aussi que ker(') est le noyau de la forme quadratique q et on le note alors ker(q)
Lemme 4.1. Le noyau de ' est contenu dans son cône isotrope, soit : ker(') C'.
Preuve : Un vecteur x est dans le noyau de ' si, et seulement si, il est orthogonal à tout
vecteur de E, ce qui équivaut à dire du fait de la linéarité à droite de ' que x est
orthogonal à chacun des vecteurs de la base B, soit :
x 2 ker(') , (8i 2 f1; ; ng; '(x; ei ) = 0)
ce qui revient à dire les coordonnées x1 ; ; xn de x dans la base B sont solutions du système
linéaire de n équations
! à n inconnues :
Xn Xn X
n
' xj ej ; ei = xj ' (ej ; ei ) = ' (ei ; ej ) xj = 0 (1 i; j n)
j=1 j=1 j=1
Ce système s’écrit AX = 0 où A = ('(ei ; ej ))1 i;j n est la matrice de ' dans B et X le
vecteur colonne formé des composantes de x dans cette base. Ce système est encore équi-
valent à u(x) = 0, où u l’endomorphisme de E de matrice A dans B, ce qui revient à dire que
x 2 ker(u) .
On retiendra qu’en dimension …nie, le noyau de ' se calcule en résolvant le système AX = 0,
en utilisant les notations du théorème précédent.
4.4. THÉORÈME DE RÉDUCTION DE GAUSS 49
Ce résultat peut aussi se montrer dans le cas réel comme suit. Dire que x 2 ker(') équivaut
à dire que '(y; x) = 0 pour tout y 2 E, soit à t Y AX = 0 pour tout Y 2 Rn et prenant Y = AX,
on a t (AX)AX = 0.
X n
n t
Mais pour Z 2 R , on a ZZ = zi2 et t ZZ = 0 équivaut à Z = 0. Donc AX = 0 pour
i=1
x 2 ker(') .
La réciproque est évidente.
Dé…nition 4.12. On dit que la forme bilinéaire symétrique ' (ou de manière équivalente la
forme quadratique q) est non dégénérée si son noyau est réduit à f0g .
Du théorème précédent, on déduit qu’en dimension …nie, une forme bilinéaire symétrique
est non dégénérée si, et seulement si, sa matrice dans une quelconque base de E est inversible,
ce qui équivaut à dire que son déterminant est non nul.
Comme pour les applications linéaires, on peut dé…nir le rang d’une forme quadratique à
partir de la dimension de son noyau.
Dé…nition 4.13. Si E est de dimension …nie égale à n, le rang de ' (ou de q) est l’entier :
rg(q) = n dim(ker(q)):
Du théorème précédent, on déduit qu’en dimension …nie le rang d’une forme quadratique
est égal à celui de sa matrice dans une quelconque base.
On suppose le résultat acquis au rang n 1 et on se donne une forme quadratique non nulle
q dé…nie dans une base B d’un espace vectoriel E de dimension n 3 par :
X
n X
n
q(x) = aii x2i + 2 aij xi xj
i=1 1 i j n
Supposons tout d’abord que cette expression contient au moins un terme carré, c’est-à-dire
qu’il existe un indice i compris entre 1 et n tel que aii 6= 0. Quitte à e¤ectuer une permutation
sur les vecteurs de base, on peut supposer que a11 6= 0. En regroupant les termes contenant
x1 , on écrit que :
Xn Xn
a1j
2 2
a11 x1 + 2 a1j x1 xj = a11 (x1 + 2x1 xj )
j=2
a
j=2 11
!
X
n
a1j X n
a1j 2
= a11 (x1 + xj )2 ( xj )
j=2
a11 j=2
a 11
et :
!2
X
n
a1j
q(x) = a11 x1 + 2 xj + q 0 (x0 ) = a11 `1 (x) + q 0 (x0 )
j=2
a11
X
n
a1j
où `1 (x) = x1 + 2 xj
j=2
a11
q 0 est une forme quadratique dé…nie sur le sous espace vectoriel H de E de dimension n 1
X n X
n
0
qui est engendré par e2 ; , en et x = xi ei si x = xi ei .
i=2 i=1
Si q 0 = 0, on a alors q = a11 `1 avec a11 et `1 non nuls.
Si q 0 6= 0, l’hypothèse de récurrence nous dit qu’il existe un entier r compris entre 2 et n,
des scalaires non nuls 2 ; ; r et des formes linéaires indépendantes `2 ; ; `r dé…nies sur H
tels que :
X
r
8x0 2 H; q 0 (x0 ) = 2 0
i `i (x )
i=2
X
r X
r
L’égalité i `i = 0 équivaut à dire que i `i (x) = 0 pour tout x 2 E. Prenant x = e1 ,
i=1 i=1
X
r
0
on a `1 (x) = 1 et `j (x) = 0 pour j compris entre 2 et r, ce qui donne 1 = 0 et i `i (x )=0
i=2
X
r
pour tout x0 2 H, ce qui implique i `i = 0 et la nullité de tous les i puisque le système
i=2
(`2 ; ; `r ) est libre dans H . On a donc le résultat annoncé.
Il reste en…n à traiter le cas où q est sans facteurs carrés, c’est-à-dire le cas où tous les
coe¢ cients aii sont nuls. Comme q est non nulle, il existe deux indices i < j tels que aij 6= 0.
Quitte à e¤ectuer une permutation sur les vecteurs de base, on peut supposer que a12 6= 0. On
regroupe alors dans l’expression de q tous les termes contenant x1 et x2 que l’on fait apparaître
comme fragment d’un produit de deux formes linéaires, soit :
Xn X
n
Q = a12 x1 x2 + x1 a1j xj + x2 a2j xj
j=3 j=3
! ! ! !
X
n X
n
a1j X
n X
n
a1j
= a12 x1 + a2j xj x2 + xj a2j xj xj
j=3 j=3
a12 j=3 j=3
a12
ce qui donne :
Xn
q(x) = aij xi xj
1 i j n
Xn
= 2Q + aij xi xj
3 i j n
= 2L1 (x)L2 (x) + q 0 (x0 )
Xn Xn
a1j
où L1 (x) = a12 x1 + a2j xj , L2 (x) = x2 + xj et q 0 est une forme quadratique dé…nie
j=3 j=3
a 12
Xn X
n
sur le sous espace vectoriel H de E engendré par e3 ; ; en et x0 = xi ei si x = xi ei
i=3 i=1
En écrivant que :
1 1
2L1 (x)L2 (x) = (L1 (x) + L2 (x))2 (L1 (x) L2 (x))2
2 2
1
= (`21 (x) `22 (x))
2
on a :
1
q(x) == (`21 (x) `22 (x)) + q 0 (x0 )
2
4.4. THÉORÈME DE RÉDUCTION DE GAUSS 53
1 1 2
Si q 0 = 0, on a alors q = `21 ` , les formes linéaires `1 et `2 étant indépendantes puisque
2 2 2
la matrice :
A1 a12 1 13 1n
A=
A2 a12 1 23 2n
a12 1
est de rang 2 car le déterminant extrait = 2a12 est non nul.
a12 1
Si q 0 6= 0, l’hypothèse de récurrence nous dit qu’il existe un entier r compris entre 3 et n,
des scalaires non nuls 3 ; ; r et des formes linéaires indépendantes `3 ; ; `r dé…nies sur H
tels que :
X
r
0 0 0 2 0
8x 2 H; q (x ) = i `i (x )
i=3
et en prolongeant les formes linéaires `3 ; ; `r à E, on a :
1 2 X r
2 2
q(x) = (`1 (x) `2 (x)) + i `i (x)
2 i=3
ce qui donne une décomposition de q comme combinaison linéaire de carrés de formes
linéaires. Il reste à véri…er que les formes `1 ; `2 ; ; `r sont linéairement indépendantes dans
E .
X r X
r
L’égalité i `i = 0 équivaut à dire que i `i (x) = 0 pour tout x 2 E.
i=1 i=1
Prenant x = e1 et x = e2 , on obtient 1 a12 + 2 a12 = 0 et 1 2 = 0, ce qui équivaut à
X
r Xr
0 0
1 = 2 = 0 puisque a12 6= 0 et i `i (x ) = 0 pour tout x 2 H, ce qui équivaut à i `i = 0
i=3 i=3
et la nullité de tous les j puisque le système (`3 ; ; `r ) est libre dans H . On a donc le résultat
annoncé.
Remarque 4.7. Une telle décomposition est appelée réduction de Gauss, ou plus simplement
réduction, de la forme quadratique q et la démonstration précédente nous donne un algorithme
pour obtenir une telle réduction.