Cours
Cours
Cours
DIAGONALISATION
ET ALGÈBRE BILINÉAIRE
Programme.
1. Algèbre linéaire. Rappels sur les espaces vectoriels et les matrices. Déterminant et
trace. Valeurs propres, vecteurs propres, polynôme caractéristique. Théorème de
Cayley-Hamilton, polynôme minimal. Diagonalisation des matrices. Puissances
d’une matrice, exponentielle de matrices.
2. Algèbre bilinéaire. Formes bilinéaires, orthogonalité, formes quadratiques, réduction
de Gauss, signature, théorème de Sylvester. Produits scalaires, espaces vectoriels
euclidiens. Réduction des matrices symétriques réelles.
- 2021 -
Table des matières
1 Algèbre linéaire 4
1.1 Rappels sur les espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Rappels sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Image, noyau et rang d’une matrice . . . . . . . . . . . . . . . . 9
1.2.4 Systèmes d’équations linéaires homogènes . . . . . . . . . . . . . 9
1.2.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . 10
1.2.6 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.7 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Définition par récurrence . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2 Premières propriétés du déterminant . . . . . . . . . . . . . . . . 13
1.3.3 Déterminants et bases . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4 Déterminant d’un produit de matrices . . . . . . . . . . . . . . . 15
1.3.5 Calculs du déterminant . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.6 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 17
1.4 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . 18
1.4.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.2 Rappels sur les polynômes . . . . . . . . . . . . . . . . . . . . . . 19
1.4.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . 20
1.4.4 Polynôme minimal et théorème de Cayley-Hamilton . . . . . . . 21
1.4.5 Valeurs propres d’un endomorphisme . . . . . . . . . . . . . . . . 22
1.5 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.1 Problème de la diagonalisation . . . . . . . . . . . . . . . . . . . 22
1.5.2 Caractérisation des matrices diagonalisables . . . . . . . . . . . . 23
1.5.3 Méthode de diagonalisation . . . . . . . . . . . . . . . . . . . . . 24
1.5.4 Applications de la diagonalisation des matrices . . . . . . . . . . 25
2 Algèbre bilinéaire 29
2.1 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.2 Formes bilinéaires symétriques ou alternées . . . . . . . . . . . . 30
2.1.3 Noyau et rang des formes bilinéaires symétriques ou alternées . . 31
2.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1
2.2.1 Orthogonal d’un sous-espace vectoriel . . . . . . . . . . . . . . . 34
2.3 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.2 Autres invariants d’une forme quadratique . . . . . . . . . . . . . 38
2.4 Réduction des formes quadratiques . . . . . . . . . . . . . . . . . . . . . 38
2.4.1 Bases duales et contraduales . . . . . . . . . . . . . . . . . . . . 38
2.4.2 Formulations du problème . . . . . . . . . . . . . . . . . . . . . . 40
2.4.3 Réduction de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4.4 Classification des formes quadratiques sur R et sur C . . . . . . . 45
2.5 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.5.1 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . 47
2.5.2 Définitions et premières propriétés . . . . . . . . . . . . . . . . . 48
2
Notations
Par la suite K désigne le corps des nombres rationnels Q, le corps des nombres réels R ou
le corps des nombres complexes C. (La plupart des résultats restent cependant valides
pour des corps plus généraux.)
Les vecteurs de l’espace vectoriel Kn sont notés en colonne, par exemple :
1
0 ∈ R3 .
2
3
Chapitre 1
Algèbre linéaire
4
Soit E un K-espace vectoriel et soit F un sous-ensemble de E. On dit que F est un
sous-espace vectoriel de E si F vérifie les propriétés suivantes :
1. F est non vide (note : F doit contenir 0E ) ;
2. pour tous x, y ∈ F , on a x + y ∈ F (stable pour l’addition) ;
3. pour tout x ∈ F et tout λ ∈ K, on a λx ∈ F (stable pour la multiplication).
Notons qu’un sous-espace vectoriel est en particulier un espace vectoriel.
Soit E un K-espace vectoriel et soit (x1 , . . . , xs ) une famille finie d’éléments de E. On
note Vec(x1 , . . . , xs ) le sous-espace vectoriel engendré par les éléments de cette famille.
On peut montrer que Vec(x1 , . . . , xs ) est égal à l’ensemble des combinaisons linéaires
des x1 , . . . , xs , c’est-à-dire
La famille est libre s’il n’existe pas de relation non triviale entre les éléments de la
famille. En d’autres termes, si la seule solution de l’équation :
λ1 x1 + · · · + λs xs = 0E
Proposition 1.1. Supposons que E est de dimension fini et soit B = (e1 , . . . , en ) une
base de E. Alors :
1. Le cardinal n de la base B est indépendant du choix de la base, on l’appelle la
dimension de E et on note dim(E).
2. Toute famille libre de E a au plus n éléments et une famille libre a n éléments
si et seulement si c’est une base.
3. Toute famille génératrice de E a au moins n éléments et une famille génératrice
a n éléments si et seulement si c’est une base.
4. Pour tout x ∈ E, la décomposition :
x = µ 1 e 1 + · · · + µn e n
5
est unique.
On appelle vecteur représentant x sur la base B, le vecteur
µ1
..
X = . ∈ Kn .
µn
Kn → E
t
(µ1 , . . . , µn ) 7→ µ1 e1 + · · · + µn en .
6
Une forme linéaire est une application linéaire de E dans K (avec K un K-espace
vectoriel de dimension 1). L’ensemble des formes linéaires de E est appelé le dual d’un
espace vectoriel de E et est dénoté E ∗ = L(E, K), c’est un K-espace vectoriel. Pour
u ∈ E ∗ , on a par le théorème du rang que : ou bien u = 0 (application linéaire), ou bien
u est surjective.
Soit E un K-espace vectoriel de dimension finie et soient F, G deux sous-espaces
vectoriels de E. On dit que E = F ⊕ G, E est la somme directe de F et G si l’une des
trois propriétés équivalentes est vérifiée :
1. F ∩ G = {0} et E = F + G ,
2. F ∩ G = {0} et dim E = dim F + dim G,
3. E = F +G et tout vecteur x ∈ E s’écrit de manière unique sous la forme x = y +z
avec y ∈ F et z ∈ G.
Remarque importante. le premier indice est la ligne, le deuxième indice est la colonne.
L’ensemble de matrices à coefficients dans K de type (n, m) est dénoté par Mn,m (K)
ou par Mn (K) quand m = n (matrices carrées). On note In la matrice identité dans
Mn (K).
Théorème 1.3. L’ensemble Mn,m (K) est K-espace vectoriel de dimension nm. Une base
de Mn,m (K) est la base des matrices élémentaires (Ei,j ) 1≤i≤n où Ei,j est la matrice avec
1≤j≤m
tous les coefficients égaux à 0 sauf le coefficient (i, j) égal à 1.
Soit A = (ai,j ) une matrice carrée de type n. On dénote par (a1,1 , · · · , an,n ) la
diagonale de A. La matrice A est une matrice diagonale si ai,j = 0 pour i ̸= j et
donc
a1,1 0 · · · 0
0 a2,2 · · · 0
A= .
. .
. ..
. . .
0 0 · · · an,n
La matrice A est triangulaire supérieure, resp. triangulaire inférieure, si tous les
coefficients au-dessous (resp. au-dessus) de la diagonale sont nulles. La transposée de
7
la matrice A, dénotée t A, est la matrice dont les coefficients sont aj,i (symétrie par
rapport à la diagonale). On dit que A est symétrique si t A = A et anti-symétrique
si t A = −A. La transposition est un endomorphisme de Mn (K).
n2 + n n2 − n
dim Sn (K) = , dim An (K) = et Mn (K) = Sn (K) ⊕ An (K).
2 2
Soit A une matrice carrée de type n. On dit que A est nilpotente si il existe un
entier k ≥ 1 tel que Ak = 0 (matrice nulle). Le plus petit entier k ≥ 1 tel que Ak = 0
est l’indice de nilpotence de A. On dit que A est inversible si il existe une matrice
carrée B de type n telle que AB = BA = In . On note A−1 l’inverse. On dénote par
GLn (K) l’ensemble des matrices inversibles de type n.
Soient A et B deux matrices de Mn (K). On dit que A et B sont semblables si il
existe une matrice P ∈ GLn (K) telle que
B = P −1 AP.
On dit que A et B sont équivalentes si il existe deux matrices P, Q ∈ GLn (K) telles
que
B = QAP.
Les relations “semblable” et “équivalente” sont des relations d’équivalence. Deux ma-
trices semblables sont équivalentes (mais le contraire est faux en général).
8
1.2.3 Image, noyau et rang d’une matrice
Soit A une matrice de Mn,m (K). On définit
Im(A) = {Ax avec x ∈ Km }
Ker(A) = {x ∈ Km tel que Ax = 0}
Proposition 1.6. L’image Im(A) est un sous-espace vectoriel de Kn et le noyau Ker(A)
est un sous-espace vectoriel de Km .
On définit le rang de A par rang(A) = dim Im(A). On a
Théorème 1.7. On a
1. rang(A) ≤ min(n, m),
2. rang(A) = rang(t A),
3. Ker(A) = {0} si et seulement si rang(A) = m,
4. Ker(t A) = {0} si et seulement si rang(A) = n,
5. rang(A) + dim Ker(A) = m.
De plus, deux matrices de Mn (K) équivalentes si et seulement si elles sont même rang.
où les inconnues sont x1 , . . . , xn et les coefficients ai,j sont dans K. On peut aussi réécrire
ce système sous la forme
AX = 0
où A = (ai,j ) et X = t (x1 , . . . , xn ). Il suit que l’ensemble des solutions de (S) est égal au
noyau de la matrice A. Par le théorème du rang, le noyau est de dimension n − rang(A).
On dit que le système est échelonné si ai,j = 0 pour i > j, c’est-à-dire de la forme
a1,1 x1 + a1,2 x2 + a1,3 x3 + · · · + a1,n xn = 0
a2,2 x2 + a2,3 x3 + · · · + a2,n xn = 0
(S) a3,3 x3 + · · · + a3,n xn = 0 .
···
am,n xn = 0
On suppose de plus que chaque ligne contient au moins un coefficient non nul. Dans ce
cas, il est facile de voir que le rang de la matrice correspondante est m. On en déduit le
résultat suivant
Proposition 1.8. L’ensemble des solutions d’un système échelonné de m équations
linéaires homogènes non nulles en n variables est un espace vectoriel de dimension n−m.
9
1.2.5 Matrice d’une application linéaire
Soient E et F deux K-espaces vectoriels de dimension respectives n et m. Soit B =
(e1 , . . . , en ) une base de E et soit C = (f1 , . . . , fm ) une base de F . Soit φ ∈ L(E, F ) une
application linéaire de E dans F . On associe à φ respectivement au base B et C une
matrice (ai,j ) de type (m, n) avec
10
Alors, on a
A′ = Q−1 AP.
(A et A′ sont équivalentes.)
En particulier, si φ : E → E est un endomorphisme et M est la matrice de φ res-
pectivement à la bases B et M ′ est la matrice de u respectivement à la bases B ′ , on
a
M ′ = P −1 M P.
(M et M ′ sont semblables.)
Proposition 1.13. L’application Tr : Mn (K) → K est une forme linéaire (non nulle)
vérifiant, pour tous A, B ∈ Mn (K)
Tr(AB) = Tr(BA).
En particulier, deux matrices semblables ont la même trace.
Démonstration. Il est direct de voir que Tr est une application linéaire puisque Tr(A +
B) = Tr(A) + Tr(B) et Tr(λA) = λ Tr(A) pour λ ∈ K. C’est une forme linéaire puisque
son espace d’arrivée est K et elle est non nulle puisque Tr(In ) = n ̸= 0.
Maintenant, notons A = (ai,j ) et B = (bi,j ). D’un côte, on a C = AB la matrice
dont les coefficients ci,j sont donnés par
n
X
ci,j = ai,k bk,j .
k=1
Il suit que
n
X n X
X n
Tr(AB) = ci,i = ai,k bk,i .
i=1 i=1 k=1
D’un autre côté, on a D = BA la matrice dont les coefficients di,j sont donnés par
n
X
di,j = bi,k ak,j .
k=1
Il suit que
n
X n X
X n
Tr(BA) = di,i = bi,k ak,i
i=1 i=1 k=1
et on a bien Tr(AB) = Tr(BA).
Pour finir, soient A et B deux matrices semblables, disons B = P −1 AP avec P ∈
GLn (K). On calcule
Tr(A) = Tr(AP P −1 ) = Tr(P −1 AP ) = Tr(B).
11
Pour φ ∈ L(E) un endomorphisme, on définit la trace de φ comme la trace de la
matrice de φ respectivement à une base arbitraire de E. Par le résultat précédent, cette
trace ne dépend pas du choix de cette base.
1.3 Déterminant
1.3.1 Définition par récurrence
Soit A = (ai,j ) ∈ Mn (K). Pour i, j ∈ {1, . . . , n}, on dénote par Ai,j la matrice de
Mn−1 (K) obtenue en supprimant la ligne i et la colonne j.
Exemple. On pose
5 0 −1
A = 3 2 1 .
0 −2 4
On a alors par exemple
2 1 0 −1 5 0
A1,1 = , A2,1 = , A3,3 = .
−2 4 −2 4 3 2
Exemples. On a
a b
= ad − bc
c d
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3
a3,1 a3,2 a3,3
+ a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1
Proposition 1.14. Supposons que A ∈ Mn (K) est une matrice diagonale ou une matrice
triangulaire supérieure ou une matrice triangulaire inférieure. Alors le déterminant de
A est le produit de ses termes diagonaux.
En particulier, le déterminant de la matrice identité In est 1.
12
Démonstration. On montre le résultat dans le cas triangulaire inférieur (ce qui implique
le cas diagonal). Le cas triangulaire supérieur est similaire (on suit de la formule det(A) =
det(t A) donnée plus tard). On procède par récurrence. Pour n = 1, le résultat est direct.
Supposons que n ≥ 1 est tel que le résultat est vrai pour toutes les matrices triangulaires
inférieures de type n − 1. Soit A = (ai,j ) un matrice triangulaire inférieure de type n + 1,
on a donc ai,j = 0 si i < j. On a
n+1
X
det A = (−1)j+1 a1,j det A1,j = a1,1 det A1,1 .
j=1
Mais A1,1 = (ai+1,j+1 ) est une matrice triangulaire inférieur et donc det A1,1 = a2,2 · · · an+1,n+1
par récurrence. Ainsi, on a bien
Proposition 1.15. Le déterminant d’une matrice est une application linéaire par rap-
port à chacune de ses colonnes, c’est-à-dire pour v1 , . . . , vn (K) et pour k ∈ {1, . . . , n},
on a
1. Pour tout u ∈ Kn
2. Si λ ∈ K,
det(v1 | · · · |λvk | · · · |vn ) = λ det(v1 | · · · |vk | · · · |vn ).
n+1
X
det A′ = (−1)j+1 a′1,j det A′1,j
j=1
n+1
X
= (−1)j+1 a1,j det A′1,j + (−1)k+1 λa1,k det A′1,k .
j=1
j̸=k
13
La matrice A′1,j est une matrice de type n égale à la matrice A1,j avec une colonne
multipliée par λ, on a donc par récurrence det A′1,j = λ det A1,j . Puisque la matrice A′1,k
ne contient pas la colonne k, elle est égale à A1,k . On a donc
n+1
X
det A′ = (−1)j+1 a1,j λ det A1,j + (−1)k+1 λa1,k det A1,k
j=1
j̸=k
n+1
X
j+1 k+1
= λ
(−1) a1,j det A1,j + (−1) a1,k det A1,k
j=1
j̸=k
= λ det A.
Proposition 1.16. Le déterminant d’une matrice est alterné par rapport à ses colonnes,
c’est-à-dire si v1 , . . . , vn ∈ Kn et j, k ∈ {1, . . . , n} avec j < k, on a
En particulier, si deux colonnes d’une matrice sont égales alors son déterminant est nul.
Les résultats sur les colonnes sont aussi vrais pour les lignes grâce au résultat suivant.
14
(v1 , . . . , vn ) n’est pas une base, elle est liée. Donc il existe une relation, disons par
exemple
X n
v1 = λ j vj .
j=2
On a
n
X
det(v1 | · · · |vn ) = det λj vj |v2 | · · · |vn
j=2
n
X
= λj det(vj |v2 | · · · |vn ) = 0
j=2
puisque les déterminants sont tous nuls car il y a toujours au moins deux vecteurs égaux
dans chaque déterminant de cette somme.
Maintenant, supposons que (v1 , . . . , vn ) est une base. On montre par l’absurde que
det(v1 | · · · |vn ) ̸= 0. Supposons le contraire : det(v1 | · · · |vn ) = 0. Soit (u1 , . . . , un ) une
famille quelconque de vecteurs de Kn . Alors, on peut écrire les vecteurs uj sur la base
(v1 , . . . , vn ), disons
Xn
uj = λi,j vi .
i=1
On calcule
n n
!
X X
det(u1 | · · · |un ) = det λi,1 vi | · · · | λi,n vi
i=1 i=1
n X
X n n
X
= ··· λi1 ,1 λi2 ,2 · · · λin ,n det(vi1 |vi2 | · · · |vin ).
i1 =1 i2 =1 in =1
Maintenant, considérons un des déterminants det(vi1 |vi2 | · · · |vin ) de cette dernière somme.
Ou bien il existe k ̸= ℓ avec ik = iℓ et donc ce déterminant est nul ; ou bien tous les
indices sont différents et donc, en réarrangeant les colonnes, ce déterminant est égal au
signe près à det(v1 | · · · |vn ) = 0. Ainsi, on trouve que, pour toute famille (u1 , . . . , un ),
on a det(u1 | · · · |un ) = 0. Mais ceci est absurde car si on prend pour (u1 , . . . , un ) la base
canonique, on obtient la matrice identité In et son déterminant est égal à 1.
Pour le deuxième point, on procède de la même façon si ce n’est qu’on prend pour
la famille (u1 , . . . , un ) la base B. On obtient alors la matrice des vecteurs représentant
la famille (u1 , . . . , un ) sur la base (u1 , . . . , un ) qui est aussi la matrice identité.
15
Corollaire 1.20. Un matrice A dans Mn (K) est inversible si et seulement si det(A) ̸= 0.
On a alors det(A−1 ) = det(A)−1 .
Démonstration. Supposons que A est inversible, alors il existe une matrice A−1 telle que
AA−1 = In . On a alors det(AA−1 ) = det(In ) = 1. Puisque det(AA−1 ) = det(A) det(A−1 ),
on en déduit que det(A) ̸= 0 et det(A−1 ) = 1/ det(A).
Supposons à présent que det(A) ̸= 0. On montre que A est inversible. Supposons que
A = (v1 | · · · |vn ). Alors, on sait que la famille (v1 , . . . , vn ) est une base de Kn et donc
A est la matrice de passage de la base canonique à la base (v1 , . . . , vn ) ; elle est donc
inversible.
16
Proposition 1.23. Il existe une unique fonction surjective sign : Sn → {−1, +1} telle
que, pour tous σ, π ∈ Sn , on a
sign(σ ◦ π) = sign(σ)sign(π).
Proposition 1.25. Soient A, B et C trois matrices dans Mn (K) et soient M ∈ M2n (K)
telles que
A B
M= .
0 C
Alors, on a det(M ) = det(A) det(C).
17
1.4 Valeurs propres et vecteurs propres
1.4.1 Premières définitions
Soit A ∈ Mn (K). Un vecteur non nul v ∈ Kn est un vecteur propre de A si il
existe λ ∈ K tel que Av = λv. Dans ce cas, on dit que λ est la valeur propre associée
à v. Un scalaire λ ∈ K est une valeur propre de A si et seulement si il existe un vecteur
v ∈ Kn (non nul) dont c’est la valeur propre associée. L’ensemble des valeurs propres de
A est appelé le spectre de A.
Proposition 1.27. Un vecteur v ∈ Kn , v ̸= 0, est un vecteur propre de A de valeur
propre 0 si et seulement si v ∈ Ker(A). En particulier, 0 est valeur propre de A si et
seulement si det(A) = 0.
Démonstration. On a : v vecteur propre de valeur propre 0 ssi Av = 0 · v = 0 ssi
v ∈ Ker(A) ce qui démontre le premier point. Maintenant, 0 est valeur propre ssi il
existe v ̸= 0 dans Ker(A) donc ssi Ker(A) ̸= {0} ssi det(A) = 0.
0 1
Exemple. On considère la matrice A = . On a alors
1 0
0 1 1 1
=
1 0 1 1
donc le vecteur t (1, 1) est vecteur propre de A associée à la valeur propre 1. Par ailleurs,
on a
0 1 1 −1 1
= =−
1 0 −1 1 −1
donc le vecteur t (1, −1) est vecteur propre de A associée à la valeur propre −1.
Le résultat suivant est une généralisation directe du résultat précédent.
Proposition 1.28. Soit λ ∈ K. Alors les assertions suivantes sont équivalentes :
1. λ est valeur propre de A,
2. Ker(A − λIn ) ̸= {0},
3. det(A − λIn ) = 0.
Soit λ une valeur propre de A. On appelle sous-espace propre associée à λ, dénoté
Eλ , l’ensemble formé des vecteurs propres associés à λ et du vecteur nul. On a donc
E = Ker(A − λIn ) et ainsi Eλ est un sous-espace vectoriel de Kn .
Proposition 1.29. Soit λ une valeur propre de A. Alors Eλ est stable par multiplication
par A. De plus, si µ est une autre valeur propre de A alors Eλ ∩ Eµ = {0}.
Démonstration. Soit v ∈ Eλ . On a Av = λv ∈ Eλ puisque Eλ est un espace vectoriel.
Maintenant, supposons que v ∈ Eλ ∩ Eµ . Alors, on a Av = λv = µv d’où (λ − µ)v = 0
et donc v = 0 puisque λ ̸= µ.
Ce résultat se généralise à plusieurs valeurs propres. Une conséquence est que la
matrice A a au plus n valeurs propres.
Proposition 1.30. Soient λ1 , . . . , λs des valeurs propres distinctes de A. Alors, les
sous-espaces propres Eλ1 , . . . , Eλs sont en somme directe.
18
1.4.2 Rappels sur les polynômes
On rappelle que K[T ] dénote l’ensemble des polynômes en coefficient dans K en la
variable T . Soit f (T ) ∈ K avec f ̸= 0, on a
f (T ) = ad T d + ad−1 T d−1 + · · · + a0
Théorème 1.32 (PGCD). Soient f et g deux polynômes dans K[T ] tels que l’un des
deux au moins est non nul. Alors, il existe un unique polynôme unitaire d(T ) ∈ K[T ] tel
que d divise f et d divise g, et si h(T ) ∈ K[T ] est un polynôme tel que h divise f et g,
alors h divise d. On appelle d le plus grand commun diviseur (PGCD) de f et g.
Soient f et g deux polynômes dans K[T ] tels que l’un des deux au moins est non nul.
On dit que f et g sont premiers entre eux si leur PGCD est 1.
Théorème 1.33 (Relation de Bezout). Soient f et g deux polynômes dans K[T ] tels
que l’un des deux au moins est non nul. Alors, f et g sont premiers entre eux si et
seulement si il existe deux polynômes u, v ∈ K[T ] tels que
f (T ) = (T − α)q(T ) + r
19
Soit α une racine du polynôme f (T ) ∈ K[T ]. On peut écrire de manière unique
f (T ) = (T − α)m g(T )
CA (T ) = det(A − T In ).
CB (T ) = det(P −1 AP − T In )
= det(P −1 (A − T In )P )
= det(P )−1 det(A − T In ) det(P ) = CA (T ).
20
1.4.4 Polynôme minimal et théorème de Cayley-Hamilton
Soit f (T ) = λm T m + · · · + λ1 T + λ0 ∈ K[T ] un polynôme à coefficients dans K et
soit A ∈ Mn (K) une matrice carrée. On définit
f (A) = λm Am + · · · + λ1 A + λ0 In ∈ Mn (K).
CA (T ) = T 2 − Tr(A)T + det(A).
λ0 In + · · · + λm Am = 0.
f (T ) = mA (T )q(T ) + r(T )
avec r(T ) = 0 ou deg(r) < deg(mA ). Supposons que r ̸= 0. Puisque f (A) = mA (A) = 0,
on en déduit que r(A) = 0 et donc r est un polynôme annulateur de A avec deg(r) <
deg(mA ). Ceci est une contradiction car le degré de mA est minimal. Ainsi, on a r = 0
et mA (T ) divise f (T ).
Maintenant, supposons que m0 (T ) ∈ K[T ] est un autre polynôme unitaire annulateur
de A avec deg(mA ) = deg(m0 ). Alors, on a que mA (T ) divise m0 (T ). Comme ils sont
de même degré, il suit qu’il existe λ ∈ K tel que m0 (T ) = λ mA (T ). Mais, comme les
polynômes m0 (T ) et mA (T ) sont unitaires, on trouve que λ = 1 et donc m0 (T ) = mA (T ).
Donc le polynôme minimal est bien unique.
21
Le résultat fondamental sur les polynômes annulateurs est le suivant.
Théorème 1.41 (Cayley-Hamilton). Le polynôme caractéristique d’une matrice carrée
est un polynôme annulateur de cette matrice. En d’autres termes, pour A ∈ Mn (K), on
a CA (A) = 0.
Corollaire 1.42. Soit A ∈ Mn (K). Soit f (T ) est un polynôme annulateur de A, alors
les valeurs propres de A sont parmi les racines de f . En particulier, un scalaire λ ∈ K
est une valeur propre de A si et seulement si λ est une racine de mA (T ).
Démonstration. Soit λ ∈ K une valeur propre de A. Alors, il existe un vecteur non nul
x tel que Ax = λx. On pose f (T ) = an T n + · · · + a0 et on calcule
f (A)x = an An x + · · · + a1 Ax + a0 x = an λn x + · · · + a1 λx + a0 x = f (λ)x.
1.5 Diagonalisation
1.5.1 Problème de la diagonalisation
Soit A ∈ Mn (K). On dit que A est diagonalisable si A est semblable à une matrice
diagonale, c’est-à-dire s’il existe une matrice P ∈ GLn (K) et une matrice diagonale D
22
de type n telles que
A = P DP −1 .
Supposons A diagonalisable, diagonaliser A consiste à calculer des matrices P et
D vérifiant cette relation. (En général, les matrices P et D ne sont pas uniques.)
Corollaire 1.45. Supposons A est diagonalisable. Soit (v1 , . . . , vn ) une base de Kn telle
que, pour i = 1, . . . , n, le vecteur vi est vecteur propre de A associée à la valeur propre
λi . On pose
λ1 0 · · · 0
0 λ2 · · · 0
P = (v1 | · · · |vn ) et D = . .. .
.
. ··· ··· .
0 ··· 0 λn
Alors, on a A = P DP −1 .
Corollaire 1.46. Soit A ∈ Mn (K). Supposons que A possède n valeurs propres dis-
tinctes. Alors, A est diagonalisable.
Attention : il peut exister des matrices dans Mn (K) avec strictement moins de valeurs
propres que n qui sont pourtant diagonalisables.
Eλ = Ker(A − λIn ).
23
Proposition 1.47. Soit λ une valeur propre de A et soit m la multiplicité de λ comme
racine du polynôme caractéristique CA (T ) de A. Alors, on a
1 ≤ dim Eλ ≤ m.
Ce corollaire ne s’applique que quand K ̸= C car tout les polynôme sont scindés sur C.
De fait, il existe des exemples de matrices carrées réelles qui ne sont pas diagonalisables
sur R, mais sont diagonalisables sur C.
A = P DP −1 .
24
Exemple. On cherche à diagonaliser la matrice
2 −1 1
A = 0 1 1 .
0 0 2
1. On calcule CA (T ) = T 3 − 5T 2 + 8T − 4.
2. La racine λ1 = 1 est évidente. On divise CA (T )/(T − 1) = T 2 − 4T + 4 = (T − 2)2 .
Donc on a m1 = 1 et l’autre racine est λ2 = 2 de multiplicité m2 = 2.
3. Puisque m1 + m2 = 3, il n’y a pas d’obstacle (pour l’instant) à diagonaliser A.
4. i = 1 : λ = 1 et m = 1.
(a) Le vecteur v = t (x, y, z) ∈ E1 ssi Av = v ssi
2x − y + z = x x−y+z =0
x−y =0
y+z =y ssi z=0 ssi
z=0
2z = z z=0
(b-c) Donc E2 est de dimension 3 − 1 = 2 avec pour base (t (0, 1, 1), t (1, 0, 0)).
5. La matrice A est diagonalisable. On pose
1 0 1 1 0 0
P = 1 1 0
et D = 0 2
0
0 1 0 0 0 2
et on a A = P DP −1 .
25
Remarque. Pour K = C, le résultat est aussi vrai si la matrice A n’est pas diagonali-
sable.
Notons que diagonaliser une matrice n’est pas une méthode efficace pour calculer
le déterminant d’une matrice en général. De fait, pour cela, il est déjà nécessaire de
calculer le polynôme caractéristique CA (T ) de A est
CA (0) = det(A).
Proposition 1.51. Soit A ∈ Mn (K). Soient P ∈ GLn (K) et B ∈ Mn (K) telles que
A = P BP −1 .
A−k = P B −k P −1 .
Démonstration. Soit k ≥ 1, on a
Ak = (P BP −1 )(P BP −1 ) · · · (P BP −1 )
| {z }
k fois
= P B(P −1 P )B(P −1 P ) · · · (P −1 P )BP −1
· · B} P −1 = P B k P −1 .
= P |B ·{z
k fois
A(P B −1 P −1 ) = P BP −1 P B −1 P = P BB −1 P −1 = P P −1 = In
(λ1 , . . . , λn )
26
Exemple. Considérons la matrice
2 1
A= .
1 2
Notons que
−1 1 −1 1
P = .
2 1 1
On en déduit que, pour tout k ∈ Z, on a
k
k −1 1 1 0 1 −1 1
A =
1 1 0 3k 2 1 1
1 3k + 1 3 k − 1
= .
2 3k − 1 3 k + 1
Théorème 1.52. Pour tout A ∈ Mn (K), la matrice eA existe et vérifie les propriétés
suivantes :
1. La matrice eA est inversible et son inverse est e−A ,
2. Soient A, B ∈ Mn (K) deux matrices qui commutent, c’est-à-dire AB = BA, alors
eA+B = eA eB .
27
Démonstration. La preuve de 2. est similaire à la preuve de la formule classique eα+β =
eα eβ pour α, β ∈ C. Maintenant, on a
eA e−A = eA−A = e0 = In
donc eA est inversible et son inverse est e−A ce qui prouve 1. Finalement, pour la preuve
de 3, on a
!
−1
X 1 X 1 X 1
eP AP = (P AP −1 )k = P Ak P −1 = P Ak P −1 = P eA P −1 .
k! k! k!
k≥0 k≥0 k≥0
Comme dans le cas des puissances de matrices, le fait essentiel est que l’exponen-
tielle d’une matrice diagonale est facile à calculer. Plus précisément, soit la matrice
diagonale D dont la diagonale est (λ1 , . . . , λn ), alors la matrice eD est diagonale avec
pour diagonale
(eλ1 , . . . , eλn ).
Notons que
−1 1 −1 1
P = .
2 1 1
On en déduit que
1
A −1 1 e 0 1 −1 1
e =
1 1 0 e3 2 1 1
1 e + e3 −e + e3
= .
2 −e + e3 e + e3
28
Chapitre 2
Algèbre bilinéaire
Les formes bilinéaires constituent un K-espace vectoriel, noté L2 (E). Nous détermi-
nerons la structure de cet espace dans la prochaine section.
Exemples.
1. E = R, Φ(x, y) = xy.
Z 1
2. E = C([0, 1]), Φ(f, g) = f (t)g(1 − t) dt.
0
29
On pose ai,j = Φ(ei , ej ) et on introduit la matrice A = (ai,j ) ∈ Mn (K). On appelle A la
matrice représentant Φ sur la base B. On note X (resp. Y ) le vecteur représentant
x (resp. y) sur la base B. L’expression matricielle de Φ est donnée par :
Φ(x, y) = t X A Y.
Remarque. La réciproque est aussi vraie, toute application de E × E dans K qui peut
s’écrire sous cette forme est une forme bilinéaire.
Théorème 2.1. L’application de L2 (K) dans Mn (K) définit par Φ 7→ A où A est la
matrice de Φ relativement à une base fixée de K, est un isomorphisme. En particulier,
L2 (K) est de dimension n2 .
X = P X′ et Y = P Y ′,
d’où :
Φ(x, y) = t X A Y = t X ′ t P AP Y ′
et la matrice A′ représentant Φ sur la base B ′ est :
A′ = t P AP.
Φ(x, x) = 0.
Proposition 2.2. Toute forme bilinéaire est alternée si et seulement si elle est anti-
symétrique.
30
Démonstration. Soit Φ une forme bilinéaire alternée. Pour x, y ∈ E, on a Φ(x + y, x +
y) = 0 = Φ(x, x) + Φ(y, y) + Φ(x, y) + Φ(y, x) = Φ(x, y) + Φ(y, x). On en déduit que
Φ(x, y) = −Φ(y, x) et Φ est anti-symétrique.
Soit Φ une forme bilinéaire anti-symétrique. Soit x ∈ E. On a Φ(x, x) = −Φ(x, x)
d’où 2Φ(x, x) = 0 et Φ(x, x) = 0.
Théorème 2.3. On a
L2 (E) = Sym2 (E) ⊕ Alt2 (E).
Démonstration. Le seul point qui n’est pas direct est le fait que L2 (E) = Sym2 (E) +
Alt2 (E). Soit Φ ∈ L2 (K). On pose
En termes de matrice, étant donné une matrice A de type n, cela revient à considérer
d’une part l’ensemble des vecteurs X tels que t XA = 0 et d’un autre côté l’ensemble
des vecteurs Y tels que AY = 0. Si la matrice A est symétrique ou anti-symétrique, on
a
t
XA = 0 ⇐⇒ t (t XA) = 0 ⇐⇒ t AX = 0 ⇐⇒ AX = 0.
On en déduit résultat suivant.
Lemme 2.4. Soit Φ une forme bilinéaire symétrique ou alternée. On a Ker Φg = Ker Φd .
31
Soit Φ une forme bilinéaire symétrique ou alternée. Soit B une base de E. On note
A la matrice de Φ relativement à la base B. On montre que la dimension du noyau de
Φ est égale à la dimension du noyau de A. On a donc par la formule du rang
Le rang d’une forme bilinéaire symétrique ou alternée Φ est défini comme le rang d’une
matrice A représentant Φ relativement à une base arbitraire de E. On note rang Φ. La
formule ci-dessus donne le résultat suivant.
Proposition 2.5. Soit Φ une forme bilinéaire symétrique ou alternée de E, on a
Une forme bilinéaire symétrique ou alternée Φ est non dégénérée si son noyau est
l’espace nul, ce qui revient à dire que son rang est maximal. Dans le cas contraire, on
dit que Φ est dégénérée.
Proposition 2.6. Soit Φ une forme bilinéaire symétrique ou alternée. Soit A la matrice
représentant Φ dans une base arbitraire de E. Les conditions suivantes sont équivalentes :
1. Φ est non dégénérée,
2. det(A) ̸= 0.
D’où l’expression matricielle de Φ sur la base canonique de R3 est donnée par la matrice
0 −2 1
A= 2 0 −1
−1 1 0
32
La forme Φ est alternée. Le déterminant de A est 0, donc Φ est dégénérée. Pour trouver
le noyau, on résout le système
−2y2 + y3 = 0
2y1 − y3 = 0
−y1 + y2 = 0.
2.2 Orthogonalité
Soit Φ une forme bilinéaire de E. Soient x, y ∈ E. On dit que y est orthogonal à
x (relativement à Φ) si on a Φ(x, y) = 0. On note x ⊥Φ y ou x ⊥ y plus simplement
quand il n’y pas de risque de confusion. Si Φ est symétrique ou alternée, la relation
d’orthogonalité est symétrique : x ⊥ y si et seulement si y ⊥ x. Dans le cas où Φ est
symétrique ou alternée, tout élément de Ker Φ est orthogonal à tous les éléments de E.
On suppose pour la suite que Φ est symétrique ou alternée.
Pour tout x ∈ E, on pose :
C’est donc bien un sous-espace vectoriel puisque l’intersection d’un nombre quelconque
(non nul) de sous-espaces vectoriels est toujours un sous-espace vectoriel. Le fait que X ⊥
contienne Ker Φ vient du fait que les éléments de Ker Φ sont orthogonaux à n’importe
quel élément de E par définition.
33
2.2.1 Orthogonal d’un sous-espace vectoriel
Soit F un sous-espace vectoriel de E. L’orthogonal F ⊥ de F (toujours par rapport
à la forme bilinéaire fixée Φ) est un sous-espace vectoriel de E. Nous allons étudier les
relations entre F et F ⊥ . On a d’abord le premier résultat.
Proposition 2.8.
1. Soit X une partie de E. On a X ⊥ = Vec(X )⊥ .
2. Soient F et G deux sous-espaces vectoriels de E. On a (F + G)⊥ = F ⊥ ∩ G⊥ .
3. Soit H un sous-espace vectoriel de E et soit (h1 , . . . , hs ) une famille génératrice
de H. Alors, x ∈ H ⊥ si et seulement si x ⊥ hi pour i = 1, . . . , s.
Démonstration. On prouve le point 1. On a X ⊂ Vec(X ), d’où Vec(X )⊥ ⊂ X ⊥ . Pour
l’autre inclusion, soit u ∈ X ⊥ et soit x = λ1 x1 +· · ·+λs xs ∈ Vec(X ) avec x1 , . . . , xs ∈ X .
On a
Φ(x, u) = λ1 Φ(x1 , u) + · · · + λs Φ(xs , u) = 0
et donc X ⊥ ⊂ Vec(X )⊥ ce qui achève la preuve de ce point.
Pour le point 2, on a F ⊂ F + G et donc (F + G)⊥ ⊂ F ⊥ . De même, on a (F + G)⊥ ⊂
G et donc (F + G)⊥ ⊂ F ⊥ ∩ G⊥ . Pour l’inclusion inverse, on considère x ∈ F ⊥ ∩ G⊥ .
⊥
34
Exemples. Sur R2 , on considère la forme bilinéaire :
y1 = y2 ,
q(x) = Φ(x, x)
35
pour tout x ∈ E.
On remarque qu’une forme quadratique n’est pas une application linéaire. En effet,
pour x ∈ E et λ ∈ K, on a :
Φ1 (x, y) = x1 y1 + x1 y2 − 2x2 y1
Φ2 (x, y) = x1 y1 − x1 y2
Soit B = (e1 , . . . , en ) une base de E. Soit Φ une forme bilinéaire (arbitraire) telle
que q(x) = Φ(x, x) et A la matrice de Φ sur la base B. On a donc
q(x) = t XAX.
36
On calcule
1 t t t
Q(x, y) = 2 (X + Y )A(X + Y ) − XAX − Y AY
1 t t t t
= 2 ( X + Y )A(X + Y ) − XAX − Y AY
1 t t t t t
− t Y AY
= 2 XAX + XAY + Y AX + Y AY − XAX
1 t t
= 2 XAY + Y AX .
Notons que t XAY et t Y AX sont en fait des matrices de type 1, c’est-à-dire des éléments
de K. En particulier, on a t Y AX = t (t Y AX) = t X t AY , et ainsi
Q(x, y) = t X 21 A + t A Y.
définition la matrice de la forme bilinéaire Q sur B. Ainsi, cette matrice est toujours
symétrique.
Ainsi on trouve
1 −1/2 y1
Q(x, y) = (x1 , x2 ) = x1 y1 − 12 x1 y2 − 21 x2 y1 .
−1/2 0 y2
q(x) = x21 − x1 x2 ,
37
2.3.2 Autres invariants d’une forme quadratique
On définit le noyau et le rang de q comme le noyau et le rang de Q. La forme
quadratique q est dégénérée si Ker q ̸= {0}, sinon q est non dégénérée (ou régulière).
Un vecteur x est dit isotrope si q(x) = 0. Si la forme quadratique q admet un vecteur
isotrope non nul, on dit que q est isotrope. L’ensemble C(q) formé des vecteurs isotropes
de q est le cône isotrope de q. En général, ce n’est pas un sous-espace vectoriel (mais
c’est un cône, c’est-à-dire stable par multiplication par un élément de K). Il contient
toujours le noyau de q.
Exemple. Soit q(x) = 2x21 + 2x1 x2 = 2x1 (x1 + x2 ). La matrice de q (sur la base
2 1
canonique) est . Puisqu’elle est de déterminant non nul, on a Ker q = {0}. D’un
1 0
autre côté, on voit que q est isotrope puisque les vecteurs t (0, 1) et t (1, −1) sont isotropes
pour q. (Remarque : le vecteur t (0, 1) + t (1, −1) = t (1, 0) n’est pas isotrope.)
On calcule la forme ξ1 . Pour x = t (x1 , x2 , x3 ), comme ξ1 est une forme linéaire, elle est
de la forme ξ1 (x) = λ1 x1 + λ2 x2 + λ3 x3 avec λ1 , λ2 , λ3 ∈ R à déterminer. On doit avoir
ξ1 (e1 ) = 1
λ1 − λ3 = 1
λ1 = 1
ξ1 (e2 ) = 0 ⇐⇒ 2λ2 + λ3 = 0 ⇐⇒ λ2 = 0
ξ1 (e3 ) = 0 λ3 = 0 λ3 = 0
38
Proposition 2.12. La famille (ξ1 , . . . , ξn ) est une base de E ∗ . On l’appelle la base
duale de B et on la note B ∗ .
Démonstration. Montrons que c’est une famille libre de E ∗ . Soit une combinaison
λ1 ξ1 + · · · + λn ξn = 0E ∗
λ1 ξ1 (x) + · · · + λn ξn (x) = 0
λ1 ξ1 (ei ) + · · · + λn ξn (ei ) = λi = 0,
et donc tous les coefficients de la relation sont nuls, ce qui prouve que la famille est libre.
Montrons à présent que cette famille est génératrice. Soit f un élément de E ∗ . Pour
tout i = 1, . . . , n, on pose
µi = f (ei )
et on vérifie directement que
f = µ1 ξ1 + · · · + µn ξn .
χj = q1,j ξ1 + · · · + qn,j ξn
Et ainsi on obtient χi (fj ) = δi,j donc la base (χ1 , . . . , χn ) est la base duale de C ce qui
prouve le résultat.
Corollaire 2.14. Soit F une base de E ∗ . Alors il existe une unique base B de E telle
que la base F est la base duale de B. La base B s’appelle la base contraduale de F.
39
Exemple. On pose E = R3 . On considère la base (f1 , f2 , f3 ) de E ∗ avec
f1 (x) = x1 − x2 f2 (x) = −x3 , f3 (x) = x1 + x2 + x3 .
On calcule la base contraduale (e1 , e2 , e3 ). On pose e1 = t (x1 , x2 , x3 ) avec x1 , x2 , x3 ∈ R
à déterminer. On doit avoir
f1 (e 1 ) = 1
x 1 − x 2 = 1 x1 = 1/2
f2 (e1 ) = 0 ⇐⇒ −x3 = 0 ⇐⇒ x2 = −1/2
f3 (e1 ) = 0 x1 + x2 + x3 = 0 x3 = 0
40
Démonstration. Notons (e1 , . . . , en ) les vecteurs de la base contraduale de la base (f1 , . . . , fn ).
Pour i ∈ {1, . . . , n}, on a q(ei ) = λi . Maintenant, pour i ̸= j, on a
1 1
Q(ei , ej ) = [q(ei + ej ) − q(ei ) − q(ej )] = [λi + λj − λi − λj ] = 0.
2 2
Théorème 2.16. Toute forme quadratique admet une base orthogonale.
Démonstration. On démontre le résultat par récurrence sur la dimension de E. Suppo-
sons que dim E = 1. Alors toute base de E est orthogonale pour q et le résultat est
démontré.
Supposons à présent que le résultat est démontré pour la dimension m avec m ≥ 1
fixé. On considère q une forme quadratique sur un espace vectoriel E de dimension m+1.
On note Q la forme polaire associée à q. Si q est la forme quadratique nulle, c’est-à-
dire q(x) = 0 pour tout x ∈ E, alors toutes les bases de E sont orthogonales pour q.
Sinon, il existe un vecteur a ∈ E tel que q(a) ̸= 0. On pose H le sous-espace vectoriel
engendré par a et H ⊥ l’orthogonal de H par rapport à Q. Le sous-espace vectoriel H
est non isotrope car sinon il existe un élément b non nul dans H ∩ H ⊥ , d’où b = λa
pour λ ∈ K, λ ̸= 0 et Q(a, b) = λQ(a, a) = 0, ainsi q(a) = 0, contradiction. Donc H est
non isotrope et il suit par le Corollaire 2.10 que E = H ⊕ H ⊥ . Maintenant, notons p la
restriction de q à H ⊥ et P la forme polaire de p. En fait, il est facile de voir que P est
la restriction de Q à H ⊥ × H ⊥ . Puisque dim H ⊥ = dim E − dim H = m, l’hypothèse
de récurrence implique qu’il existe une base B ′ = (e1 , . . . , em ) de H ⊥ orthogonale pour
p. Alors, B = (a, e1 , . . . , em ) est une base orthogonale de E. En effet, B est une base de
E car c’est l’union d’une base de H et de H ⊥ . Puis on a Q(ei , ej ) = P (ei , ej ) = 0 pour
i ̸= j, et de plus Q(a, ei ) = 0 pour tout i puisque a ∈ H et ei ∈ H ⊥ . Donc B est bien
une base orthogonale pour q et le résultat est démontré pour la dimension m + 1.
q(x) = x21 − 2x1 x2 + 4x1 x3 − 2x1 x4 + 5x22 − 8x2 x3 + 14x2 x4 + 5x23 − 8x3 x4 + 10x24 .
On commence par travailler avec les termes carrés, par exemple le terme x21 . On va
compléter le carré commençant par x21 . Pour cela on commence par mettre 2x1 en facteur
q(x) = x21 + 2x1 (−x2 + 2x3 − x4 ) + 5x22 − 8x2 x3 + 14x2 x4 + 5x23 − 8x3 x4 + 10x24
Ainsi les termes x21 + 2x1 (−x2 + 2x3 − x4 ) forment le début du développement de
(x1 −x2 +2x3 −x4 )2 = x21 +x22 +4x23 +x24 −2x1 x2 +4x1 x3 −2x1 x4 −4x2 x3 +2x2 x4 −4x3 x4 .
41
De surcroı̂t, les termes manquant ne font plus intervenir x1 et donc si on remplace, on
obtient
c’est-à-dire une expression de q sous la forme d’une somme entre le carré d’une forme
linéaire f1 (x) = x1 − x2 + 2x3 − x4 , plus un polynôme quadratique homogène qui ne fait
plus intervenir la variable x1 .
On continue le procédé avec la variable x2 . On écrit
On ne peut plus à présent appliquer la même méthode puisqu’il n’y a plus de carrés
dans la partie à réduire. Dans ce cas, on utilise l’identité suivante
1
(a + b)2 − (a − b)2 ,
ab =
4
ce qui nous donne finalement
On peut vérifier sans difficultés que les formes linéaires de cette décomposition sont bien
indépendantes.
Considérons à présent le polynôme quadratique homogène
Il faut utiliser la deuxième technique puisqu’il n’y a pas de termes carrés. Cependant, ici
la situation est moins simple que dans le cas précédent puisqu’il ne suffit pas d’appliquer
la formule donnée ci-dessus pour faire “disparaı̂tre” les variables. On procède de la
manière suivante : on choisit deux variables, par exemple les variables x1 et x2 . On groupe
les termes en écrivant le terme en x1 x2 puis les termes où ces variables interviennent en
factorisant x1 et x2
uv + ua + vb = (u + b)(v + a) − ab
et on déduit
x1 x2 +x1 (2x3 −x4 )+x2 (x3 +3x4 ) = (x1 +x3 +3x4 )(x2 +2x3 −x4 )−(2x3 −x4 )(x3 +3x4 ).
42
On remplace et on simplifie pour obtenir
43
où s = q ′ − f g/λ est un polynôme quadratique homogène avec deux variables de
moins que s.
La validité de l’algorithme est assurée par le théorème suivant.
Théorème 2.17. L’algorithme de Gauss calcule une décomposition en somme de carrées
de formes linéaires indépendantes.
Démonstration. On procède par récurrence sur le nombre de variables. S’il y a une seule
variable, alors le résultat est démontré puisque dans ce cas tout polynôme quadratique
homogène est de la forme λx21 . Maintenant, soit n ≥ 1. Supposons que la méthode de
Gauss appliquée à un polynôme quadratique homogène avec au plus n variables renvoie
bien une décomposition en somme de carrés de formes linéaires indépendantes.
On considère un polynôme quadratique homogène q en n + 1 variables. On suppose
q non nul car sinon le résultat est évident. Supposons que l’on se trouve dans le pre-
mier cas, c’est-à-dire q contient un terme en x2i , par exemple x21 . Alors on calcule une
décomposition
où A est la matrice de la famille (f1 , . . . , fn ) sur les variables x2 , . . . , xn+1 . En parti-
culier, le déterminant de M est égal au déterminant de A qui est non nul puisque les
f1 , . . . , fn sont indépendantes. Donc les formes linéaires de la décomposition de q sont
indépendantes.
De même, dans le deuxième cas, on a une décomposition de la forme
44
où A est la matrice de la famille (f1 , . . . , fn−1 ) sur les variables x3 , . . . , xn+1 . En particu-
lier, le déterminant de M est égal −2 det A qui est non nul puisque les f1 , . . . , fn−1 sont
indépendantes. Donc les formes linéaires de la décomposition de q sont indépendantes.
Théorème 2.18. Soit q une forme quadratique. Les trois quantités suivantes sont égales
a. Le rang de q ;
b. Le nombre de vecteurs non isotropes dans une base orthogonale de q ;
c. Le nombre de formes linéaires apparaissant avec un coefficient non nul dans une
décomposition de q en somme de carrés de formes linéaires indépendantes.
Corollaire 2.19. Soit q une forme quadratique sur un C-espace vectoriel E de dimen-
sion finie. Soit r le rang de q. Alors il existe une base (e1 , . . . , en ) de E pour laquelle on
a
q(x) = x21 + · · · + x2r .
avec x = x1 e1 + · · · + xn en .
Ainsi, deux formes quadratiques de E sont équivalentes si et seulement si elles ont le
même rang.
45
Démonstration. Soit (e′1 , . . . , e′n ) une base orthogonale de E. Par le théorème, on peut
supposer que e′1 , . . . , e′r sont non isotropes et e′r+1 , . . . , e′n sont isotropes. Pour i =
1, . . . , r, il existe αi ∈ C, αi ̸= 0, tels que αi2 = q(e′i ). On pose ei = e′i /αi pour i = 1, . . . , r
et ei = e′i pour i = r + 1, . . . , n. Il est clair que q a bien l’expression voulue sur cette
base.
On s’intéresse à présent au cas des formes quadratiques sur R. Dans une décomposition
de q en somme de carrées de formes linéaires indépendantes, on note s le nombre de
formes avec un coefficient strictement positif et t le nombre de formes avec un coefficient
strictement négatif. On appelle le couple (s, t) la signature de q.
Théorème 2.20 (Sylvester). Soit q une forme quadratique de signature (s, t). Alors, la
signature ne dépend pas du choix de la décomposition. De plus, on a
1. Dans une base orthogonale pour q, il y a s vecteurs dont l’image par q est stric-
tement positive et t dont l’image par q est strictement négative.
2. Il existe des sous-espaces vectoriels E + et E − tels que
• dim(E + ) = s, dim(E − ) = t,
• E = E+ ⊕ E− ⊕ E⊥,
• q(x) > 0 pour tout x ∈ E + \ {0},
• q(x) < 0 pour tout x ∈ E − \ {0}.
3. Le rang de q est s + t.
Proposition 2.21. Soit q une forme quadratique sur un R-espace vectoriel E de di-
mension finie. Soit (s, t) la signature de q. Alors il existe une base de E pour laquelle
on a
q(x) = x21 + · · · + x2s − x2s+1 − · · · − x2s+t
avec x = x1 e1 + · · · + xn en .
Ainsi, deux formes quadratiques de E sont équivalentes si et seulement si elles ont la
même signature.
Une forme quadratique q est dite positive (resp. négative) si elle vérifie q(x) ≥ 0
(resp. q(x) ≤ 0) pour tout x ∈ E. Si, de plus, la forme quadratique q vérifie q(x) ̸= 0
pour tout x ̸= 0, alors elle est dite définie positive (resp. définie négative).
Proposition 2.22. Soit q une forme quadratique sur un R-espace vectoriel de dimension
n.
• q est positive si et seulement si elle est de signature (m, 0) avec 0 ≤ m ≤ n.
• q est négative si et seulement si elle est de signature (0, m) avec 0 ≤ m ≤ n.
• q est définie positive si et seulement si elle est de signature (n, 0).
• q est définie négative si et seulement si elle est de signature (0, n).
Soit q une forme quadratique définie (positive ou négative), on remarque que q est
non dégénérée car sinon il existe un vecteur x non nul dans Ker q, donc x est isotrope,
c’est-à-dire x ̸= 0 et q(x) = 0 ce qui donne une contradiction.
46
2.5 Espaces euclidiens
2.5.1 Inégalité de Cauchy-Schwarz
Soit E un R-espace vectoriel.
Puisque q est positive, on a f (t) ≥ 0 pour tout t ∈ R. Si y est isotrope, alors le polynôme
f est de degré ≤ 1 et ne change pas de signe. Ceci n’est possible que s’il est constant et
donc Q(x, y) = 0. On a alors trivialement l’inégalité. Si y n’est pas isotrope, f (t) est un
polynôme de degré deux qui ne change pas de signe et donc son discriminant est négatif.
On calcule
∆ = (2Q(x, y))2 − 4q(x)q(y) ≤ 0,
et le résultat suit en divisant par 4 l’inégalité.
Supposons que q est définie positive. Si q(x) = 0 alors x = 0 et tout vecteur est
colinéaire à x. Sinon, l’égalité implique que le discriminant s’annule et f (t) a une racine
dans R, disons t0 . On a donc f (t0 ) = q(x + t0 y) = 0 donc x = −t0 y, c’est-à-dire x et y
sont colinéaires.
Corollaire 2.24. Soit q une forme quadratique positive, alors le noyau de q est égal au
cône isotrope de q.
Démonstration. On sait déjà que tout vecteur de Ker q est isotrope, il reste donc à
montrer la réciproque : tout vecteur isotrope est dans Ker q. Soit x un vecteur isotrope,
on obtient par le précédent théorème que, pour tout y ∈ E, on a
Proposition 2.25. Soit q est une forme quadratique positive. Alors, q est non dégénérée
si et seulement si q est définie.
47
2.5.2 Définitions et premières propriétés
On appelle espace euclidien un espace vectoriel réel E de dimension finie muni
d’une forme quadratique définie positive q. On appelle la forme polaire de q le produit
scalaire de E et on la note
⟨x, y⟩.
Pour x ∈ E, on pose p p
∥x∥ = q(x) = ⟨x, x⟩
la norme de x.
Par les résultats précédents, on sait que le produit scalaire est une forme bilinéaire
symétrique non dégénérée.
La norme vérifie les propriétés suivantes :
1. ∥x∥ ≥ 0 pour tout x ∈ E,
2. ∥x∥ = 0 si et seulement si x = 0,
3. ∥λx∥ = |λ| · ∥x∥ pour tout x ∈ E et λ ∈ R,
4. |⟨x, y⟩| ≤ ∥x∥ · ∥y∥ pour tout x, y ∈ E,
5. ∥x + y∥ ≤ ∥x∥ + ∥y∥ pour tout x, y ∈ E.
La propriété 1 vient de la définition de la norme comme racine carrée. Pour 2, on
utilise le fait que q est définie. La propriété 3 vient du fait que q(λx) = λ2 q(x). L’inégalité
de Cauchy-Schwarz donne 4. Finalement l’inégalité 5 est le résultat suivant.
∥x + y∥ ≤ ∥x∥ + ∥y∥.
En remplaçant, on trouve
Donc on obtient l’inégalité voulue en prenant les racines carrées de chaque côté.
48