Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Cours

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 49

UNIVERSITÉ LYON I

DIAGONALISATION
ET ALGÈBRE BILINÉAIRE

Programme.
1. Algèbre linéaire. Rappels sur les espaces vectoriels et les matrices. Déterminant et
trace. Valeurs propres, vecteurs propres, polynôme caractéristique. Théorème de
Cayley-Hamilton, polynôme minimal. Diagonalisation des matrices. Puissances
d’une matrice, exponentielle de matrices.
2. Algèbre bilinéaire. Formes bilinéaires, orthogonalité, formes quadratiques, réduction
de Gauss, signature, théorème de Sylvester. Produits scalaires, espaces vectoriels
euclidiens. Réduction des matrices symétriques réelles.

- 2021 -
Table des matières

1 Algèbre linéaire 4
1.1 Rappels sur les espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Rappels sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.3 Image, noyau et rang d’une matrice . . . . . . . . . . . . . . . . 9
1.2.4 Systèmes d’équations linéaires homogènes . . . . . . . . . . . . . 9
1.2.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . 10
1.2.6 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.7 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Définition par récurrence . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2 Premières propriétés du déterminant . . . . . . . . . . . . . . . . 13
1.3.3 Déterminants et bases . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4 Déterminant d’un produit de matrices . . . . . . . . . . . . . . . 15
1.3.5 Calculs du déterminant . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.6 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . 17
1.4 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . 18
1.4.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.2 Rappels sur les polynômes . . . . . . . . . . . . . . . . . . . . . . 19
1.4.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . 20
1.4.4 Polynôme minimal et théorème de Cayley-Hamilton . . . . . . . 21
1.4.5 Valeurs propres d’un endomorphisme . . . . . . . . . . . . . . . . 22
1.5 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.1 Problème de la diagonalisation . . . . . . . . . . . . . . . . . . . 22
1.5.2 Caractérisation des matrices diagonalisables . . . . . . . . . . . . 23
1.5.3 Méthode de diagonalisation . . . . . . . . . . . . . . . . . . . . . 24
1.5.4 Applications de la diagonalisation des matrices . . . . . . . . . . 25

2 Algèbre bilinéaire 29
2.1 Formes bilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.2 Formes bilinéaires symétriques ou alternées . . . . . . . . . . . . 30
2.1.3 Noyau et rang des formes bilinéaires symétriques ou alternées . . 31
2.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

1
2.2.1 Orthogonal d’un sous-espace vectoriel . . . . . . . . . . . . . . . 34
2.3 Formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.1 Premières définitions . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.2 Autres invariants d’une forme quadratique . . . . . . . . . . . . . 38
2.4 Réduction des formes quadratiques . . . . . . . . . . . . . . . . . . . . . 38
2.4.1 Bases duales et contraduales . . . . . . . . . . . . . . . . . . . . 38
2.4.2 Formulations du problème . . . . . . . . . . . . . . . . . . . . . . 40
2.4.3 Réduction de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4.4 Classification des formes quadratiques sur R et sur C . . . . . . . 45
2.5 Espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.5.1 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . 47
2.5.2 Définitions et premières propriétés . . . . . . . . . . . . . . . . . 48

2
Notations

Par la suite K désigne le corps des nombres rationnels Q, le corps des nombres réels R ou
le corps des nombres complexes C. (La plupart des résultats restent cependant valides
pour des corps plus généraux.)
Les vecteurs de l’espace vectoriel Kn sont notés en colonne, par exemple :
 
1
0 ∈ R3 .
2

On dénote par (u1 , . . . , un ) la famille composée des vecteurs u1 , . . . , un . Ainsi, la famille


     
1 0 0
0 , 1 , 0
0 0 1

est la base canonique de R3 .


Soit A une matrice ou un vecteur, on note t A la transposée de A. Par exemple :
     
t 1 2 −1 1 3 0 1
t
3 5 0  =  2 5 −2  et (1, 2, 3) = 2 .

0 −2 1 −1 0 1 3

Notons que la transposée d’un vecteur ligne est un vecteur colonne.

3
Chapitre 1

Algèbre linéaire

1.1 Rappels sur les espaces vectoriels


Le but de cette section est de rappeler très brièvement les résultats les plus impor-
tants sur les espaces vectoriels. Cependant, tous les résultats et définitions utilisés par
la suite ne sont pas inclus et il sera sans doute nécessaire de se reporter aux notes des
cours précédents.
Un espace vectoriel E sur le corps K est un ensemble E non vide muni d’une
opération interne (x, y) 7→ x+y de E ×E dans E et d’une opération externe (λ, x) 7→ λ·x
de K × E dans E satisfaisant les conditions suivantes :
1. pour tous x, y, z ∈ E, (x + y) + z = x + (y + z),
2. pour tous x, y ∈ E, x + y = y + x,
3. il existe 0E ∈ E tel que, pour tout x ∈ E, x + 0E = x,
4. pour tout x ∈ E, il existe un élément noté −x ∈ E tel que x + (−x) = 0E ,
5. pour tous λ, µ ∈ K et tout x ∈ E, λ · (µ · x) = (λµ) · x,
6. pour tout x ∈ E, 1K · x = x,
7. pour tout λ, µ ∈ K et tout x ∈ E, (λ + µ) · x = λ · x + µ · x,
8. pour tout λ ∈ K et tous x, y ∈ E, λ · (x + y) = λ · x + λ · y.
Remarque. En général, on écrira 0 à la place de 0E quand le contexte est clair pour
alléger les formules. Attention, cependant, cela signifie donc que le symbole 0 désigne
des objets différents suivant le contexte.
De même, on écrira en général l’opération interne sous la forme λx au lieu de λ · x.
On peut montrer que 0 · x = 0 et −1 · x = −x.
Exemples.
1. Le plan euclidien R2 avec l’addition des vecteurs et la multiplication des vecteurs
par un nombre réel est un R-espace vectoriel.
2. L’ensemble F des fonctions de K dans K muni des opérations f + g : x 7→
f (x) + g(x) et λ · f : x 7→ λf (x) est un K-espace vectoriel.
3. Le corps C des nombres complexes est un R-espace vectoriel.

4
Soit E un K-espace vectoriel et soit F un sous-ensemble de E. On dit que F est un
sous-espace vectoriel de E si F vérifie les propriétés suivantes :
1. F est non vide (note : F doit contenir 0E ) ;
2. pour tous x, y ∈ F , on a x + y ∈ F (stable pour l’addition) ;
3. pour tout x ∈ F et tout λ ∈ K, on a λx ∈ F (stable pour la multiplication).
Notons qu’un sous-espace vectoriel est en particulier un espace vectoriel.
Soit E un K-espace vectoriel et soit (x1 , . . . , xs ) une famille finie d’éléments de E. On
note Vec(x1 , . . . , xs ) le sous-espace vectoriel engendré par les éléments de cette famille.
On peut montrer que Vec(x1 , . . . , xs ) est égal à l’ensemble des combinaisons linéaires
des x1 , . . . , xs , c’est-à-dire

Vec(x1 , . . . , xn ) = {λ1 x1 + · · · + λs xs avec λ1 , . . . , λs ∈ K} .

La famille est libre s’il n’existe pas de relation non triviale entre les éléments de la
famille. En d’autres termes, si la seule solution de l’équation :

λ1 x1 + · · · + λs xs = 0E

avec λ1 , . . . , λs ∈ K, est la solution évidente λ1 = · · · = λs = 0.


La famille est génératrice si tout élément de E peut s’écrire comme combinaison
linéaire d’éléments de la famille. C’est-à-dire si, pour tout x ∈ E, il existe µ1 , . . . , µs ∈ K,
tels que :
x = µ1 x1 + · · · + µn xs .
Par définition, (x1 , . . . , xs ) est une famille génératrice de E si et seulement si E =
Vect(x1 , . . . , xs ). Une famille est une base si elle est à la fois libre et génératrice.
Un espace vectoriel est de dimension finie s’il admet une base finie ou de manière
équivalente s’il admet une famille génératrice finie. Dans le cas contraire, l’espace vec-
toriel est de dimension infinie. Parmi les exemples donnés ci-dessus, seul l’exemple 2
est de dimension infinie.
Les espaces vectoriels considérés dans ce cours sont de dimension finie, à moins que
le contraire ne soit explicitement mentionné.

Proposition 1.1. Supposons que E est de dimension fini et soit B = (e1 , . . . , en ) une
base de E. Alors :
1. Le cardinal n de la base B est indépendant du choix de la base, on l’appelle la
dimension de E et on note dim(E).
2. Toute famille libre de E a au plus n éléments et une famille libre a n éléments
si et seulement si c’est une base.
3. Toute famille génératrice de E a au moins n éléments et une famille génératrice
a n éléments si et seulement si c’est une base.
4. Pour tout x ∈ E, la décomposition :

x = µ 1 e 1 + · · · + µn e n

5
est unique.
On appelle vecteur représentant x sur la base B, le vecteur
 
µ1
 .. 
X =  .  ∈ Kn .
µn

5. L’espace vectoriel E est isomorphe à l’espace vectoriel Kn par l’application :

Kn → E
t
(µ1 , . . . , µn ) 7→ µ1 e1 + · · · + µn en .

Notons qu’une famille (x1 , . . . , xs ) est libre si et seulement si dim Vect(x1 , . . . , xs ) =


s.
On note F un autre K-espace vectoriel. Une fonction φ de E dans F est une appli-
cation linéaire si elle vérifie :
• pour tout x, y ∈ E, φ(x + y) = φ(x) + φ(y),
• pour tout x ∈ E et λ ∈ K, φ(λx) = λφ(x).
On appelle noyau de φ l’ensemble des éléments de E dont l’image par φ est 0F , on
note :
Ker φ = {x ∈ E tel que φ(x) = 0F }.
On appelle image de φ l’ensemble formé des images par φ des éléments de E, on note :

Im φ = {φ(x) pour x ∈ E}.

Une application linéaire injective et surjective est un isomorphisme (entre espaces


vectoriels). Une conséquence du théorème du rang (cf. ci-dessous) est que deux espaces
vectoriels isomorphes ont même dimension. On note L(E, F ) l’ensemble des applications
linéaires de E dans F . On note L(E) l’ensemble des applications linéaires de E dans E,
on appelle ces applications linéaires des endomorphismes.
Proposition 1.2. Soit φ une application linéaire de E dans F . Alors, l’application φ
vérifie aussi :
• φ(0E ) = 0F ,
• φ(−x) = −φ(x).
De plus, Ker φ un sous-espace vectoriel de E et Im φ est un sous-espace vectoriel de F .
L’application φ est injective si et seulement si Ker(φ) = {0} et φ est surjective si et
seulement si Im(φ) = F .
On a aussi l’égalité :

dim E = dim Ker φ + dim Im φ.

On appelle rang de φ la dimension de Im φ ; ainsi l’égalité précédente est connue sous


le nom de “théorème du rang”.
L’ensemble L(E, F ) est un espace vectoriel. Si E est de dimension finie n et F de
dimension finie m, alors l’espace vectoriel L(E, F ) est isomorphe (après le choix d’une
base de E et d’une base de F ) à l’espace vectoriel Mm×n (K) des matrices m × n à
coefficients dans K, en particulier c’est un espace vectoriel de dimension mn.

6
Une forme linéaire est une application linéaire de E dans K (avec K un K-espace
vectoriel de dimension 1). L’ensemble des formes linéaires de E est appelé le dual d’un
espace vectoriel de E et est dénoté E ∗ = L(E, K), c’est un K-espace vectoriel. Pour
u ∈ E ∗ , on a par le théorème du rang que : ou bien u = 0 (application linéaire), ou bien
u est surjective.
Soit E un K-espace vectoriel de dimension finie et soient F, G deux sous-espaces
vectoriels de E. On dit que E = F ⊕ G, E est la somme directe de F et G si l’une des
trois propriétés équivalentes est vérifiée :
1. F ∩ G = {0} et E = F + G ,
2. F ∩ G = {0} et dim E = dim F + dim G,
3. E = F +G et tout vecteur x ∈ E s’écrit de manière unique sous la forme x = y +z
avec y ∈ F et z ∈ G.

1.2 Rappels sur les matrices


1.2.1 Premières définitions
Soit K un corps et soient n, m ≥ 1 deux entiers. Une matrice à coefficients dans
K de type (n, m) est une famille (ai,j ) 1≤i≤n de scalaires dans K. La matrice (ai,j ) (on
1≤j≤m
omet les bornes quand il n’y pas de risques de confusion) est dénotée par un tableau
 
a1,1 a1,2 · · · a1,m
 a2,1 a2,2 · · · a2,m 
 
 .. .. .. 
 . . . 
an,1 an,2 · · · an,m

Remarque importante. le premier indice est la ligne, le deuxième indice est la colonne.
L’ensemble de matrices à coefficients dans K de type (n, m) est dénoté par Mn,m (K)
ou par Mn (K) quand m = n (matrices carrées). On note In la matrice identité dans
Mn (K).

Théorème 1.3. L’ensemble Mn,m (K) est K-espace vectoriel de dimension nm. Une base
de Mn,m (K) est la base des matrices élémentaires (Ei,j ) 1≤i≤n où Ei,j est la matrice avec
1≤j≤m
tous les coefficients égaux à 0 sauf le coefficient (i, j) égal à 1.

Soit A = (ai,j ) une matrice carrée de type n. On dénote par (a1,1 , · · · , an,n ) la
diagonale de A. La matrice A est une matrice diagonale si ai,j = 0 pour i ̸= j et
donc  
a1,1 0 · · · 0
 0 a2,2 · · · 0 
A= .
 
. .
. .. 
 . . . 
0 0 · · · an,n
La matrice A est triangulaire supérieure, resp. triangulaire inférieure, si tous les
coefficients au-dessous (resp. au-dessus) de la diagonale sont nulles. La transposée de

7
la matrice A, dénotée t A, est la matrice dont les coefficients sont aj,i (symétrie par
rapport à la diagonale). On dit que A est symétrique si t A = A et anti-symétrique
si t A = −A. La transposition est un endomorphisme de Mn (K).

Théorème 1.4. On note Sn (K) l’ensemble des matrices symétriques de Mn (K) et


An (K) l’ensemble des matrices anti-symétriques de Mn (K). Alors, Sn (K) et An (K) sont
des sous-espaces vectoriels de Mn (K). De plus, on a

n2 + n n2 − n
dim Sn (K) = , dim An (K) = et Mn (K) = Sn (K) ⊕ An (K).
2 2

1.2.2 Produit de matrices


Soient A = (ai,j ) une matrice de type (n, m) et B = (bi,j ) une matrice de type (m, p),
on définit la matrice produit C = AB de type (n, p) par C = (ci,j ) où
m
X
ci,j = ai,k bk,j
k=1

Proposition 1.5. La produit de matrices vérifie les propriétés suivantes :


1. Pour A, B et C trois matrices compatibles, on a A(BC) = (AB)C.
2. Pour A de type (n, m), on a AIm = In A = A.
3. Pour A, B, C et D matrices compatibles, on a

A(B + C) = AB + AC et (B + C)D = BD + CD.

4. Soient A et B deux matrices compatibles, on a t (AB) = t B t A.

Soit A une matrice carrée de type n. On dit que A est nilpotente si il existe un
entier k ≥ 1 tel que Ak = 0 (matrice nulle). Le plus petit entier k ≥ 1 tel que Ak = 0
est l’indice de nilpotence de A. On dit que A est inversible si il existe une matrice
carrée B de type n telle que AB = BA = In . On note A−1 l’inverse. On dénote par
GLn (K) l’ensemble des matrices inversibles de type n.
Soient A et B deux matrices de Mn (K). On dit que A et B sont semblables si il
existe une matrice P ∈ GLn (K) telle que

B = P −1 AP.

On dit que A et B sont équivalentes si il existe deux matrices P, Q ∈ GLn (K) telles
que
B = QAP.
Les relations “semblable” et “équivalente” sont des relations d’équivalence. Deux ma-
trices semblables sont équivalentes (mais le contraire est faux en général).

8
1.2.3 Image, noyau et rang d’une matrice
Soit A une matrice de Mn,m (K). On définit
Im(A) = {Ax avec x ∈ Km }
Ker(A) = {x ∈ Km tel que Ax = 0}
Proposition 1.6. L’image Im(A) est un sous-espace vectoriel de Kn et le noyau Ker(A)
est un sous-espace vectoriel de Km .
On définit le rang de A par rang(A) = dim Im(A). On a
Théorème 1.7. On a
1. rang(A) ≤ min(n, m),
2. rang(A) = rang(t A),
3. Ker(A) = {0} si et seulement si rang(A) = m,
4. Ker(t A) = {0} si et seulement si rang(A) = n,
5. rang(A) + dim Ker(A) = m.
De plus, deux matrices de Mn (K) équivalentes si et seulement si elles sont même rang.

1.2.4 Systèmes d’équations linéaires homogènes


Un système de m équations linéaires homogènes en n variables est un système
d’équations de la forme



a1,1 x1 + a1,2 x2 + · · · + a1,n xn = 0

a x + a x + · · · + a x = 0
2,1 1 2,2 2 2,n n
(S)


···

a x + a x + · · · + a x = 0
m,1 1 m,2 2 m,n n

où les inconnues sont x1 , . . . , xn et les coefficients ai,j sont dans K. On peut aussi réécrire
ce système sous la forme
AX = 0
où A = (ai,j ) et X = t (x1 , . . . , xn ). Il suit que l’ensemble des solutions de (S) est égal au
noyau de la matrice A. Par le théorème du rang, le noyau est de dimension n − rang(A).
On dit que le système est échelonné si ai,j = 0 pour i > j, c’est-à-dire de la forme


 a1,1 x1 + a1,2 x2 + a1,3 x3 + · · · + a1,n xn = 0

a2,2 x2 + a2,3 x3 + · · · + a2,n xn = 0




(S) a3,3 x3 + · · · + a3,n xn = 0 .

···





am,n xn = 0

On suppose de plus que chaque ligne contient au moins un coefficient non nul. Dans ce
cas, il est facile de voir que le rang de la matrice correspondante est m. On en déduit le
résultat suivant
Proposition 1.8. L’ensemble des solutions d’un système échelonné de m équations
linéaires homogènes non nulles en n variables est un espace vectoriel de dimension n−m.

9
1.2.5 Matrice d’une application linéaire
Soient E et F deux K-espaces vectoriels de dimension respectives n et m. Soit B =
(e1 , . . . , en ) une base de E et soit C = (f1 , . . . , fm ) une base de F . Soit φ ∈ L(E, F ) une
application linéaire de E dans F . On associe à φ respectivement au base B et C une
matrice (ai,j ) de type (m, n) avec

φ(e1 ) = a1,1 f1 + a2,1 f2 + · · · + am,1 fm


φ(e2 ) = a1,2 f1 + a2,2 f2 + · · · + am,2 fm
···
φ(en ) = a1,n f1 + a2,n f2 + · · · + am,n fm

C’est la matrice de φ respectivement aux bases B et C. Si φ : E → E est un


endomorphisme, on prend en général C = B et on parle de la matrice de φ respectivement
à la base B.

Théorème 1.9. L’application φ 7→ A où A est la matrice de φ respectivement aux bases


B et C est un isomorphisme d’espace vectoriels. En particulier, on a dim L(E, F ) = nm.

Soient x ∈ E et y = φ(x). Notons X le vecteur représentant x sur la base B et Y


le vecteur représentant y sur la base C. Alors, on a Y = AX où A est la matrice de φ
respectivement aux bases B et C.

Proposition 1.10. Soit φ ∈ L(E) un endomorphisme. Soit B une base de E et soit A


la matrice de φ respectivement à la base B. Alors, φ est bijective si et seulement si la
matrice A est inversible. Dans ce cas, la matrice de φ−1 respectivement à la base B est
A−1 .

1.2.6 Matrice de passage


Soient B = (e1 , . . . , en ) et B ′ = (e′1 , . . . , e′n ) deux bases de E un K-espace vectoriel
de dimension n. La matrice de passage de la base B à la base B ′ est la matrice
de l’identité respectivement aux bases B ′ et B (attention à l’inversion !), c’est-à-dire la
matrice des vecteurs representants e′1 , . . . , e′n sur la base B.

Proposition 1.11. Soit P la matrice de passage de la base B à la base B ′ .


1. P est inversible et P −1 est la matrice de passage de la base B ′ à la base B,
2. Pour x ∈ E, on dénote par X et X ′ les vecteurs représentant x sur les bases B
et B ′ respectivement. On a X = P X ′ .

Théorème 1.12 (Changement de base). Soient E et F deux K-espaces vectoriels de


dimension finie. Soit φ : E → F une application linéaire. Soient B et B ′ deux bases de
E et C et C ′ deux bases de F . On pose
• P la matrice de passage de la base B à la base B ′ ,
• Q la matrice de passage de la base C à la base C ′ ,
• A la matrice de φ respectivement aux bases B et C,
• A′ la matrice de φ respectivement aux bases B ′ et C ′ .

10
Alors, on a
A′ = Q−1 AP.
(A et A′ sont équivalentes.)
En particulier, si φ : E → E est un endomorphisme et M est la matrice de φ res-
pectivement à la bases B et M ′ est la matrice de u respectivement à la bases B ′ , on
a
M ′ = P −1 M P.
(M et M ′ sont semblables.)

1.2.7 Trace d’une matrice


La trace d’une matrice carrée est la somme des termes de sa diagonale, c’est-à-dire
si A = (ai,j ), on a X
Tr(A) = ai,i .
i

Proposition 1.13. L’application Tr : Mn (K) → K est une forme linéaire (non nulle)
vérifiant, pour tous A, B ∈ Mn (K)
Tr(AB) = Tr(BA).
En particulier, deux matrices semblables ont la même trace.
Démonstration. Il est direct de voir que Tr est une application linéaire puisque Tr(A +
B) = Tr(A) + Tr(B) et Tr(λA) = λ Tr(A) pour λ ∈ K. C’est une forme linéaire puisque
son espace d’arrivée est K et elle est non nulle puisque Tr(In ) = n ̸= 0.
Maintenant, notons A = (ai,j ) et B = (bi,j ). D’un côte, on a C = AB la matrice
dont les coefficients ci,j sont donnés par
n
X
ci,j = ai,k bk,j .
k=1

Il suit que
n
X n X
X n
Tr(AB) = ci,i = ai,k bk,i .
i=1 i=1 k=1
D’un autre côté, on a D = BA la matrice dont les coefficients di,j sont donnés par
n
X
di,j = bi,k ak,j .
k=1

Il suit que
n
X n X
X n
Tr(BA) = di,i = bi,k ak,i
i=1 i=1 k=1
et on a bien Tr(AB) = Tr(BA).
Pour finir, soient A et B deux matrices semblables, disons B = P −1 AP avec P ∈
GLn (K). On calcule
Tr(A) = Tr(AP P −1 ) = Tr(P −1 AP ) = Tr(B).

11
Pour φ ∈ L(E) un endomorphisme, on définit la trace de φ comme la trace de la
matrice de φ respectivement à une base arbitraire de E. Par le résultat précédent, cette
trace ne dépend pas du choix de cette base.

1.3 Déterminant
1.3.1 Définition par récurrence
Soit A = (ai,j ) ∈ Mn (K). Pour i, j ∈ {1, . . . , n}, on dénote par Ai,j la matrice de
Mn−1 (K) obtenue en supprimant la ligne i et la colonne j.

Exemple. On pose  
5 0 −1
A = 3 2 1 .
0 −2 4
On a alors par exemple
     
2 1 0 −1 5 0
A1,1 = , A2,1 = , A3,3 = .
−2 4 −2 4 3 2

On définit par récurrence la fonction déterminant det : Mn (K) → K par


• det A = a1,1 pour n = 1,
n
(−1)j+1 a1,j det A1,j pour n ≥ 2.
P
• det A =
j=1
On utilise aussi la notation suivante pour le déterminant :
 
a1,1 a1,2 · · · a1,n a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n  a2,1 a2,2 · · · a2,n
det  . ..  = .. .. .
 
. .. ..
 . . .  . . .
an,1 an,2 · · · an,n an,1 an,2 · · · an,n

Exemples. On a

a b
= ad − bc
c d
a1,1 a1,2 a1,3
a2,1 a2,2 a2,3 = a1,1 a2,2 a3,3 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3
a3,1 a3,2 a3,3
+ a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1

Proposition 1.14. Supposons que A ∈ Mn (K) est une matrice diagonale ou une matrice
triangulaire supérieure ou une matrice triangulaire inférieure. Alors le déterminant de
A est le produit de ses termes diagonaux.
En particulier, le déterminant de la matrice identité In est 1.

12
Démonstration. On montre le résultat dans le cas triangulaire inférieur (ce qui implique
le cas diagonal). Le cas triangulaire supérieur est similaire (on suit de la formule det(A) =
det(t A) donnée plus tard). On procède par récurrence. Pour n = 1, le résultat est direct.
Supposons que n ≥ 1 est tel que le résultat est vrai pour toutes les matrices triangulaires
inférieures de type n − 1. Soit A = (ai,j ) un matrice triangulaire inférieure de type n + 1,
on a donc ai,j = 0 si i < j. On a
n+1
X
det A = (−1)j+1 a1,j det A1,j = a1,1 det A1,1 .
j=1

Mais A1,1 = (ai+1,j+1 ) est une matrice triangulaire inférieur et donc det A1,1 = a2,2 · · · an+1,n+1
par récurrence. Ainsi, on a bien

det A = a1,1 · · · an+1,n+1

et le résultat est démontré.

1.3.2 Premières propriétés du déterminant


Soit v1 , . . . , vn des vecteurs de Kn , on dénote par (v1 | · · · |vn ) la matrice dont les
colonnes sont les vecteurs v1 , . . . , vn . On appelle déterminant de la famille (v1 , . . . , vn )
le déterminant de la matrice (v1 | · · · |vn ).

Proposition 1.15. Le déterminant d’une matrice est une application linéaire par rap-
port à chacune de ses colonnes, c’est-à-dire pour v1 , . . . , vn (K) et pour k ∈ {1, . . . , n},
on a
1. Pour tout u ∈ Kn

det(v1 | · · · |vk + u| · · · |vn ) = det(v1 | · · · |vk | · · · |vn ) + det(v1 | · · · |u| · · · |vn ),

2. Si λ ∈ K,
det(v1 | · · · |λvk | · · · |vn ) = λ det(v1 | · · · |vk | · · · |vn ).

Démonstration. On démontre le résultat pour 2. La démonstration pour 1 est similaire.


On montre le résultat par récurrence sur n. C’est évident pour n = 1. Supposons que
n ≥ 1 est tel que le résultat est vrai pour toutes les matrices de type n, c’est-à-dire
quand on multiplie une colonne par λ alors le déterminant est aussi multiplié par λ.
Soit A = (ai,j ) une matrice de type n + 1 et soit A′ = (a′i,j ) avec a′i,j = ai,j si j ̸= k et
a′i,k = λai,k (donc la colonne j est multipliée par λ. On calcule

n+1
X
det A′ = (−1)j+1 a′1,j det A′1,j
j=1
n+1
X
= (−1)j+1 a1,j det A′1,j + (−1)k+1 λa1,k det A′1,k .
j=1
j̸=k

13
La matrice A′1,j est une matrice de type n égale à la matrice A1,j avec une colonne
multipliée par λ, on a donc par récurrence det A′1,j = λ det A1,j . Puisque la matrice A′1,k
ne contient pas la colonne k, elle est égale à A1,k . On a donc
n+1
X
det A′ = (−1)j+1 a1,j λ det A1,j + (−1)k+1 λa1,k det A1,k
j=1
j̸=k
 
n+1
X
j+1 k+1

= λ
 (−1) a1,j det A1,j + (−1) a1,k det A1,k 

j=1
j̸=k

= λ det A.

Proposition 1.16. Le déterminant d’une matrice est alterné par rapport à ses colonnes,
c’est-à-dire si v1 , . . . , vn ∈ Kn et j, k ∈ {1, . . . , n} avec j < k, on a

det(v1 | · · · |vj | · · · |vk | · · · |vn ) = − det(v1 | · · · |vk | · · · |vj | · · · |vn ).

En particulier, si deux colonnes d’une matrice sont égales alors son déterminant est nul.

Démonstration. On démontre uniquement le deuxième point (le premier point se prouve


par récurrence comme ci-dessus). Supposons que vj = vk , alors on a

det(v1 | · · · |vj | · · · |vk | · · · |vn ) = − det(v1 | · · · |vk | · · · |vj | · · · |vn )


= − det(v1 | · · · |vj | · · · |vk | · · · |vn )

et donc det(v1 | · · · |vj | · · · |vk | · · · |vn ) = 0.

Les résultats sur les colonnes sont aussi vrais pour les lignes grâce au résultat suivant.

Proposition 1.17. Soit A ∈ Mn (K), on a det(A) = det(t A). En particulier, on a


• le déterminant d’une matrice est une application linéaire par rapport à chaque
ligne,
• le déterminant d’une matrice dont deux lignes sont égales est nul,
• le déterminant change de signe quand on échange deux lignes d’une matrice,

1.3.3 Déterminants et bases


Théorème 1.18. Soit v1 , . . . , vn des vecteurs de Kn . Alors, la famille (v1 , . . . , vn ) est
une base de Kn si et seulement si le déterminant de la matrice (v1 | · · · |vn ) est non nul.
Plus généralement, soit E un K-espace vectoriel de dimension n. Soit B une base
de E. Soit x1 , . . . , xn des vecteurs de E et soient X1 , . . . , Xn les vecteurs représentant
respectivement x1 , . . . , xn sur la base B. Alors, la famille (x1 , . . . , xn ) est une base de E
si et seulement si le déterminant de la matrice (X1 | · · · |Xn ) est non nul.

Démonstration. On démontre le premier résultat. Supposons pour que la famille (v1 , . . . , vn )


n’est pas une base. On montre que det(v1 | · · · |vn ) = 0. Puisque la famille maximale

14
(v1 , . . . , vn ) n’est pas une base, elle est liée. Donc il existe une relation, disons par
exemple
X n
v1 = λ j vj .
j=2

On a
 
n
X
det(v1 | · · · |vn ) = det  λj vj |v2 | · · · |vn 
j=2
n
X
= λj det(vj |v2 | · · · |vn ) = 0
j=2

puisque les déterminants sont tous nuls car il y a toujours au moins deux vecteurs égaux
dans chaque déterminant de cette somme.
Maintenant, supposons que (v1 , . . . , vn ) est une base. On montre par l’absurde que
det(v1 | · · · |vn ) ̸= 0. Supposons le contraire : det(v1 | · · · |vn ) = 0. Soit (u1 , . . . , un ) une
famille quelconque de vecteurs de Kn . Alors, on peut écrire les vecteurs uj sur la base
(v1 , . . . , vn ), disons
Xn
uj = λi,j vi .
i=1

On calcule
n n
!
X X
det(u1 | · · · |un ) = det λi,1 vi | · · · | λi,n vi
i=1 i=1
n X
X n n
X
= ··· λi1 ,1 λi2 ,2 · · · λin ,n det(vi1 |vi2 | · · · |vin ).
i1 =1 i2 =1 in =1

Maintenant, considérons un des déterminants det(vi1 |vi2 | · · · |vin ) de cette dernière somme.
Ou bien il existe k ̸= ℓ avec ik = iℓ et donc ce déterminant est nul ; ou bien tous les
indices sont différents et donc, en réarrangeant les colonnes, ce déterminant est égal au
signe près à det(v1 | · · · |vn ) = 0. Ainsi, on trouve que, pour toute famille (u1 , . . . , un ),
on a det(u1 | · · · |un ) = 0. Mais ceci est absurde car si on prend pour (u1 , . . . , un ) la base
canonique, on obtient la matrice identité In et son déterminant est égal à 1.
Pour le deuxième point, on procède de la même façon si ce n’est qu’on prend pour
la famille (u1 , . . . , un ) la base B. On obtient alors la matrice des vecteurs représentant
la famille (u1 , . . . , un ) sur la base (u1 , . . . , un ) qui est aussi la matrice identité.

1.3.4 Déterminant d’un produit de matrices


Le résultat principal est le suivant

Théorème 1.19. Soient A et B deux matrices dans Mn (K). On a

det(AB) = det(A) det(B).

15
Corollaire 1.20. Un matrice A dans Mn (K) est inversible si et seulement si det(A) ̸= 0.
On a alors det(A−1 ) = det(A)−1 .

Démonstration. Supposons que A est inversible, alors il existe une matrice A−1 telle que
AA−1 = In . On a alors det(AA−1 ) = det(In ) = 1. Puisque det(AA−1 ) = det(A) det(A−1 ),
on en déduit que det(A) ̸= 0 et det(A−1 ) = 1/ det(A).
Supposons à présent que det(A) ̸= 0. On montre que A est inversible. Supposons que
A = (v1 | · · · |vn ). Alors, on sait que la famille (v1 , . . . , vn ) est une base de Kn et donc
A est la matrice de passage de la base canonique à la base (v1 , . . . , vn ) ; elle est donc
inversible.

1.3.5 Calculs du déterminant


Soit A = (ai,j ) ∈ Mn (K). Pour chaque coefficient ai,j de A, on appelle cofacteur de
ai,j la quantité
cofact(ai,j ) = (−1)i+j det(Ai,j )
où, comme précédemment, Ai,j est la matrice de type n − 1 obtenue en supprimant la
ligne i et la colonne j. On a

Proposition 1.21. Pour tout i ∈ {1, . . . , n}, on a le développement du déterminant de


A suivant la i-ième ligne
n
X
det(A) = ai,j cofact(ai,j ).
j=1

De même, pour tout j ∈ {1, . . . , n}, on a le développement du déterminant de A suivant


la j-ième colonne
Xn
det(A) = ai,j cofact(ai,j ).
i=1

Pour A ∈ Mn (K), on définit la comatrice de A par

Comat(A) = (ci,j ) avec ci,j = cofact(ai,j ).

Corollaire 1.22. Soit A ∈ Mn (K), on a

A t Comat(A) = t Comat(A) A = det(A) In .

En particulier, si A ∈ GLn (K), on a


1 t
A−1 = Comat(A).
det(A)

Soit n ≥ 1 un entier. Une bijection σ : {1, . . . , n} → {1, . . . , n} est appelé une


permutation sur n lettres. L’ensemble des permutations sur n lettres est dénoté Sn ;
c’est un groupe pour la composition.

16
Proposition 1.23. Il existe une unique fonction surjective sign : Sn → {−1, +1} telle
que, pour tous σ, π ∈ Sn , on a

sign(σ ◦ π) = sign(σ)sign(π).

On appelle cette fonction la signature.


Théorème 1.24. Soit A = (ai,j ) une matrice carrée de type n. Alors, on a
X n
Y
det(A) = sign(σ) ai,σ(i) .
σ∈Sn i=1

Proposition 1.25. Soient A, B et C trois matrices dans Mn (K) et soient M ∈ M2n (K)
telles que  
A B
M= .
0 C
Alors, on a det(M ) = det(A) det(C).

1.3.6 Déterminant d’un endomorphisme


Soit φ ∈ L(E) avec E un K-espace vectoriel de dimension finie. Soit B une base de
E et soit A la matrice de φ respectivement à la base B. On définit le déterminant de
φ par det(φ) = det(A).
Proposition 1.26. Le déterminant de φ ne dépend pas du choix de base B. De plus,
les assertions suivantes sont équivalentes
1. det(φ) ̸= 0,
2. φ est injective,
3. φ est surjective,
4. φ est bijective,
5. Ker(φ) = {0},
6. Im(φ) = E,
7. rang(φ) = dim(E).
Démonstration. On montre le premier point. Soit B ′ une autre base de E et soit A′ a
matrice de φ respectivement à la base B ′ . Alors, on a A′ = P −1 AP où P est la matrice
de passage de la base B à la base B ′ . Il suit

det(A′ ) = det(P −1 AP ) = det(P )−1 det(A) det(P ) = det(A)

et donc det(φ) ne dépend pas du choix de la base.


On montre les équivalences. On sait déjà que 2 ⇐⇒ 5 et 3 ⇐⇒ 6. On a aussi
directement 6 ⇐⇒ 7 par la définition du rang. Par le théorème du rang, on a rang(φ) =
dim(E) si et seulement si dim Ker(φ) = 0 et donc 7 ⇐⇒ 5. On a donc 2 ⇐⇒ 3 ⇐⇒
4 ⇐⇒ 5 ⇐⇒ 6 ⇐⇒ 7. Il reste donc juste à relier 1 avec les 6 autres assertions. Mais,
on sait que φ est bijective si et seulement si la matrice de φ dans toute base de E est
inversible et donc si et seulement si det(φ) ̸= 0.

17
1.4 Valeurs propres et vecteurs propres
1.4.1 Premières définitions
Soit A ∈ Mn (K). Un vecteur non nul v ∈ Kn est un vecteur propre de A si il
existe λ ∈ K tel que Av = λv. Dans ce cas, on dit que λ est la valeur propre associée
à v. Un scalaire λ ∈ K est une valeur propre de A si et seulement si il existe un vecteur
v ∈ Kn (non nul) dont c’est la valeur propre associée. L’ensemble des valeurs propres de
A est appelé le spectre de A.
Proposition 1.27. Un vecteur v ∈ Kn , v ̸= 0, est un vecteur propre de A de valeur
propre 0 si et seulement si v ∈ Ker(A). En particulier, 0 est valeur propre de A si et
seulement si det(A) = 0.
Démonstration. On a : v vecteur propre de valeur propre 0 ssi Av = 0 · v = 0 ssi
v ∈ Ker(A) ce qui démontre le premier point. Maintenant, 0 est valeur propre ssi il
existe v ̸= 0 dans Ker(A) donc ssi Ker(A) ̸= {0} ssi det(A) = 0.
 
0 1
Exemple. On considère la matrice A = . On a alors
1 0
    
0 1 1 1
=
1 0 1 1
donc le vecteur t (1, 1) est vecteur propre de A associée à la valeur propre 1. Par ailleurs,
on a       
0 1 1 −1 1
= =−
1 0 −1 1 −1
donc le vecteur t (1, −1) est vecteur propre de A associée à la valeur propre −1.
Le résultat suivant est une généralisation directe du résultat précédent.
Proposition 1.28. Soit λ ∈ K. Alors les assertions suivantes sont équivalentes :
1. λ est valeur propre de A,
2. Ker(A − λIn ) ̸= {0},
3. det(A − λIn ) = 0.
Soit λ une valeur propre de A. On appelle sous-espace propre associée à λ, dénoté
Eλ , l’ensemble formé des vecteurs propres associés à λ et du vecteur nul. On a donc
E = Ker(A − λIn ) et ainsi Eλ est un sous-espace vectoriel de Kn .
Proposition 1.29. Soit λ une valeur propre de A. Alors Eλ est stable par multiplication
par A. De plus, si µ est une autre valeur propre de A alors Eλ ∩ Eµ = {0}.
Démonstration. Soit v ∈ Eλ . On a Av = λv ∈ Eλ puisque Eλ est un espace vectoriel.
Maintenant, supposons que v ∈ Eλ ∩ Eµ . Alors, on a Av = λv = µv d’où (λ − µ)v = 0
et donc v = 0 puisque λ ̸= µ.
Ce résultat se généralise à plusieurs valeurs propres. Une conséquence est que la
matrice A a au plus n valeurs propres.
Proposition 1.30. Soient λ1 , . . . , λs des valeurs propres distinctes de A. Alors, les
sous-espaces propres Eλ1 , . . . , Eλs sont en somme directe.

18
1.4.2 Rappels sur les polynômes
On rappelle que K[T ] dénote l’ensemble des polynômes en coefficient dans K en la
variable T . Soit f (T ) ∈ K avec f ̸= 0, on a

f (T ) = ad T d + ad−1 T d−1 + · · · + a0

avec a0 , . . . , ad ∈ K et ad ̸= 0. L’entier d ≥ 0 est le degré de f . Le scalaire ad est le


coefficient dominant de f . On dit que f est unitaire si son coefficient dominant est égal
à 1.

Proposition 1.31 (Division euclidienne). Soient f (T ) ∈ K[T ] avec f (T ) ̸= 0. Alors,


pour tout polynôme g(T ) ∈ K[T ], il existe deux polynômes q(T ), r(T ) ∈ K[T ] tels que
g(T ) = f (T )q(T ) + r(T ) et r(T ) = 0 ou deg(r) < deg(f ). De plus, les polynômes q et
r sont uniques. On les appelle le quotient et le reste de la division (euclidienne) de g
par f .

Si le reste de la division de f par g est 0, on dit que f divise g. Supposons que


deg(f ) ≥ 1. On dit que f est irréductible si, pour factorisation f = gh avec g, h ∈ K[T ],
on a deg(g) = 0 ou deg(h) = 0. Sinon, f est dit réductible.

Théorème 1.32 (PGCD). Soient f et g deux polynômes dans K[T ] tels que l’un des
deux au moins est non nul. Alors, il existe un unique polynôme unitaire d(T ) ∈ K[T ] tel
que d divise f et d divise g, et si h(T ) ∈ K[T ] est un polynôme tel que h divise f et g,
alors h divise d. On appelle d le plus grand commun diviseur (PGCD) de f et g.

Soient f et g deux polynômes dans K[T ] tels que l’un des deux au moins est non nul.
On dit que f et g sont premiers entre eux si leur PGCD est 1.

Théorème 1.33 (Relation de Bezout). Soient f et g deux polynômes dans K[T ] tels
que l’un des deux au moins est non nul. Alors, f et g sont premiers entre eux si et
seulement si il existe deux polynômes u, v ∈ K[T ] tels que

f (T )u(T ) + g(T )v(T ) = 1.

Soit f ∈ K[T ] avec f ̸= 0. On dit que α ∈ K est racine ou zéro de f si on a


f (α) = 0.

Proposition 1.34. Soit f ∈ K[T ] avec f ̸= 0 et soit α ∈ K. Alors, α est racine de f si


et seulement si (T − α) divise f .

Démonstration. On fait la division de f (T ) par T − α

f (T ) = (T − α)q(T ) + r

avec r ∈ K puisque deg(T − α) = 1. Puisque α est racine de T − α, on trouve que α est


racine de f si et seulement si r = 0 si et seulement T − α divise f (T ).

19
Soit α une racine du polynôme f (T ) ∈ K[T ]. On peut écrire de manière unique

f (T ) = (T − α)m g(T )

avec m ≥ 1, un entier, et g un polynôme tel que g(α) = 0. On appelle l’entier m la


multiplicité de la racine α.
Un polynôme f (T ) ∈ K[T ], non nul et de degré ≥ 1, est dit scindé sur K si f possède
toutes ses racines dans K ; en d’autres termes, il existe α1 , . . . , αt dans K et des entiers
m1 . . . , mt ≥ 1 tels que

f (T ) = (T − α1 )m1 · · · (T − αt )mt . (1.1)

Théorème 1.35. Tout polynôme est scindé sur C.

1.4.3 Polynôme caractéristique


Soit A ∈ Mn (K), le polynôme caractéristique de A est défini par

CA (T ) = det(A − T In ).

C’est un polynôme de degré n dont le terme dominant est (−1)n .


Proposition 1.36. Deux matrices semblables ont le même polynôme caractéristique.
De plus, on a det(A) = CA (0) = a0 et T r(A) = −an−1 où CA (T ) = a0 + a1 T + · · · +
an−1 T n−1 + (−1)n T n .
Démonstration. On montre juste la première affirmation ; l’affirmation concernant le
déterminant est directe à montrer. Soient A et B deux matrices semblables. Par hy-
pothèse, il existe une matrice inversible P telle que B = P −1 AP . On calcule

CB (T ) = det(P −1 AP − T In )
= det(P −1 (A − T In )P )
= det(P )−1 det(A − T In ) det(P ) = CA (T ).

Théorème 1.37. Un nombre λ ∈ K est valeur propre de A si et seulement si λ est une


racine de CA (T ).
 
0 2
Exemple. On considère la matrice A = . On calcule
1 0
 
−T 2
CA (T ) = det = T 2 − 2.
1 −T
√ √
√ racines sont − 2 et 2, ce sont donc les deux valeurs propres de A. On vérifie
Les deux
que 2 est bien une valeur propre en cherchant un vecteur propre correspondant. On
cherche donc v = t (x, y) tel que
( √
√ x
    
0 2 x 2y = 2x
= 2 ⇐⇒ √
1 0 y y x = 2y
√ √
Une solution est t ( 2, 1), c’est bien un vecteur propre de valeur propre 2.

20
1.4.4 Polynôme minimal et théorème de Cayley-Hamilton
Soit f (T ) = λm T m + · · · + λ1 T + λ0 ∈ K[T ] un polynôme à coefficients dans K et
soit A ∈ Mn (K) une matrice carrée. On définit

f (A) = λm Am + · · · + λ1 A + λ0 In ∈ Mn (K).

Proposition 1.38. Soient f et g deux polynômes dans K[T ] et soit A ∈ Mn (K), on a


1. (f + g)(A) = f (A) + g(A),
2. (f g)(A) = f (A)g(A) = g(A)f (A).

Soit A ∈ Mn (K). On appelle polynôme annulateur de A tout polynôme non nul


f ∈ K[T ] vérifiant f (A) = 0 (matrice nulle).

Exemple. Soit A ∈ M2 (K). Le polynôme caractéristique de A est

CA (T ) = T 2 − Tr(A)T + det(A).

On montre que CA (T ) est un polynôme annulateur de A.

Proposition 1.39. Toute matrice carrée possède un polynôme annulateur.

Démonstration. Soit A ∈ Mn (K). Posons m = dim(Mn (K)) = n2 . On considère la


famille de matrices (In , A, A2 , · · · , Am ) Cette famille possède m + 1 et donc elle est liée.
Ainsi, il existe λ0 , . . . , λm ∈ K, non tous nuls, tels que

λ0 In + · · · + λm Am = 0.

Il suit que le polynôme λm T m + · · · + λ0 est un polynôme annulateur de A.

Soit A ∈ Mn (K). On appelle polynôme minimal de A, le polynôme unitaire mA (T )


annulateur de A et de plus petit degré.

Proposition 1.40. Soit A ∈ Mn (K). Le polynôme minimal mA (T ) de A est unique et


divise tout polynôme annulateur de A.

Démonstration. On montre pour commencer la deuxième assertion. Soit f (T ) un po-


lynôme annulateur de A. Par division euclidienne, on peut écrire

f (T ) = mA (T )q(T ) + r(T )

avec r(T ) = 0 ou deg(r) < deg(mA ). Supposons que r ̸= 0. Puisque f (A) = mA (A) = 0,
on en déduit que r(A) = 0 et donc r est un polynôme annulateur de A avec deg(r) <
deg(mA ). Ceci est une contradiction car le degré de mA est minimal. Ainsi, on a r = 0
et mA (T ) divise f (T ).
Maintenant, supposons que m0 (T ) ∈ K[T ] est un autre polynôme unitaire annulateur
de A avec deg(mA ) = deg(m0 ). Alors, on a que mA (T ) divise m0 (T ). Comme ils sont
de même degré, il suit qu’il existe λ ∈ K tel que m0 (T ) = λ mA (T ). Mais, comme les
polynômes m0 (T ) et mA (T ) sont unitaires, on trouve que λ = 1 et donc m0 (T ) = mA (T ).
Donc le polynôme minimal est bien unique.

21
Le résultat fondamental sur les polynômes annulateurs est le suivant.
Théorème 1.41 (Cayley-Hamilton). Le polynôme caractéristique d’une matrice carrée
est un polynôme annulateur de cette matrice. En d’autres termes, pour A ∈ Mn (K), on
a CA (A) = 0.
Corollaire 1.42. Soit A ∈ Mn (K). Soit f (T ) est un polynôme annulateur de A, alors
les valeurs propres de A sont parmi les racines de f . En particulier, un scalaire λ ∈ K
est une valeur propre de A si et seulement si λ est une racine de mA (T ).
Démonstration. Soit λ ∈ K une valeur propre de A. Alors, il existe un vecteur non nul
x tel que Ax = λx. On pose f (T ) = an T n + · · · + a0 et on calcule

f (A)x = an An x + · · · + a1 Ax + a0 x = an λn x + · · · + a1 λx + a0 x = f (λ)x.

D’un autre côté, on a f (A) = 0 puisque f est un polynôme annulateur de A et donc on


a f (λ) = 0 puisque x ̸= 0. On a bien montré que λ est une racine de f .
Maintenant, le polynôme minimal mA divise le polynôme caractéristique puisque
le polynôme caractéristique est un polynôme annulateur par le théorème de Cayley-
Hamilton. Donc les racines de mA sont parmi les valeurs propres de A. En combinant
avec le premier point, on en déduit que les racines de mA sont exactement les valeurs
propres de A.

1.4.5 Valeurs propres d’un endomorphisme


Soit E un K-espace vectoriel de dimension n. Soit φ ∈ L(E) un endomorphisme de
E. Un scalaire λ ∈ K est un valeur propre de λ si l’une des conditions équivalentes
suivantes est vérifiée :
1. Il existe un vecteur v ∈ E, v ̸= 0, tel que φ(v) = λv,
2. Ker(u − λid) ̸= {0},
3. det(u − λid) = 0,
4. Soit B une base de E et soit A la matrice de φ sur cette base, alors λ est valeur
propre de A.
Comme précédemment, dans ce cas, on appelle vecteur propre associé à λ, tout
vecteur v non nul tel que φ(v) = λv.
Le polynôme caractéristique de φ est le polynôme caractéristique de la matrice
de A dans une base de E. Comme vu précédemment, ce polynôme ne dépend pas du
choix de la base et on le note Cφ (T ).
Proposition 1.43. L’ensemble des valeurs propres de φ, appelé le spectre de φ, est
égal à l’ensemble des racines dans K du polynôme caractéristique Cφ (T ).

1.5 Diagonalisation
1.5.1 Problème de la diagonalisation
Soit A ∈ Mn (K). On dit que A est diagonalisable si A est semblable à une matrice
diagonale, c’est-à-dire s’il existe une matrice P ∈ GLn (K) et une matrice diagonale D

22
de type n telles que
A = P DP −1 .
Supposons A diagonalisable, diagonaliser A consiste à calculer des matrices P et
D vérifiant cette relation. (En général, les matrices P et D ne sont pas uniques.)

Théorème 1.44. Soit A ∈ Mn (K). Alors, la matrice A est diagonalisable si et seulement


si il existe une base de Kn formée de vecteurs propres de A.

Démonstration. Supposons que la base (v1 , · · · , vn ) de E est formée de vecteurs propres


associées respectivement aux valeurs propres λ1 , . . . , λn . On pose P = (v1 | · · · |vn ). On
calcule
 
λ1 0 · · · 0
 0 λ2 · · · 0 
AP = (Av1 | · · · |Avn ) = (λ1 v1 | · · · |λn vn ) = P  . ..  .
 
.
 . ··· ··· . 
0 · · · 0 λn

et donc A est diagonalisable.


Réciproquement, supposons A diagonalisable. Soient P ∈ GLn (K) et D diagonale
telles que A = P DP −1 . Alors, on vérifie comme ci-dessus que les colonnes de P forment
une base de Kn composée de vecteurs propres de A.

Corollaire 1.45. Supposons A est diagonalisable. Soit (v1 , . . . , vn ) une base de Kn telle
que, pour i = 1, . . . , n, le vecteur vi est vecteur propre de A associée à la valeur propre
λi . On pose  
λ1 0 · · · 0
 0 λ2 · · · 0 
P = (v1 | · · · |vn ) et D =  . ..  .
 
.
 . ··· ··· . 
0 ··· 0 λn
Alors, on a A = P DP −1 .

Corollaire 1.46. Soit A ∈ Mn (K). Supposons que A possède n valeurs propres dis-
tinctes. Alors, A est diagonalisable.

Démonstration. Soient λ1 , . . . , λn les valeurs propres de A et soit v1 , . . . , vn des vecteurs


propres associés. Alors, on a les sous-espaces vectoriels Kv1 , . . . , Kvn sont en somme
directe et donc (v1 , . . . , vn ) est une base de Kn formée de vecteurs propres.

Attention : il peut exister des matrices dans Mn (K) avec strictement moins de valeurs
propres que n qui sont pourtant diagonalisables.

1.5.2 Caractérisation des matrices diagonalisables


Soit A ∈ Mn (K). On rappelle que, pour λ une valeur propre de A, on dénote par Eλ
le sous-espace propre associé à λ, c’est-à-dire

Eλ = Ker(A − λIn ).

23
Proposition 1.47. Soit λ une valeur propre de A et soit m la multiplicité de λ comme
racine du polynôme caractéristique CA (T ) de A. Alors, on a

1 ≤ dim Eλ ≤ m.

On en déduit la caractérisation des matrices diagonalisables.

Théorème 1.48. Soit A ∈ Mn (K) et soient λ1 , . . . , λs les valeurs propres de A. Les


assertions suivantes sont équivalentes :
1. A est diagonalisable,
2. On a Kn = Eλ1 ⊕ · · · ⊕ Eλs ,
3. Pour i = 1, . . . , s, on a dim Eλi = mi où mi est la multiplicité de λi comme
racine de CA (T ) et
m1 + · · · + ms = n.

Corollaire 1.49. Supposons que le polynôme caractéristique CA (T ) de A n’est pas


scindé sur K. Alors, A n’est pas diagonalisable.

Ce corollaire ne s’applique que quand K ̸= C car tout les polynôme sont scindés sur C.
De fait, il existe des exemples de matrices carrées réelles qui ne sont pas diagonalisables
sur R, mais sont diagonalisables sur C.

1.5.3 Méthode de diagonalisation


Soit A ∈ Mn (K). La méthode pour déterminer si la matrice A est diagonalisable et
la diagonaliser si c’est possible est la suivante :
1. Calculer le polynôme caractéristique CA (T ) de A.
2. Calculer les racines λ1 , . . . , λs de CA (T ) dans K et leur multiplicité m1 , . . . , ms .
3. Si m1 + · · · + ms < n alors CA (T ) n’est pas scindé et A n’est pas diagonalisable
et le processus s’arrête.
4. Pour i = 1, . . . , s, faire
(a) Calculer la dimension d de Eλi .
(b) Si d < mi , alors A n’est pas diagonalisable et le processus s’arrête.
(c) Calculer une base (vi,1 , . . . , vi,mi ) de Eλi .
5. La matrice A est diagonalisable. On pose
 
λ1 0 ··· 0 0
 0 λ1 0 ··· 0
P = (v1,1 | · · · |v1,m1 | · · · |vs,1 | · · · |vs,ms ) et D=
· · ·

··· ··· ··· · · ·
0 0 0 0 λs

la matrice P est obtenue en réunissant les bases calculées en 4.(c) et la matrice


D est la matrice diagonale avec sur la diagonale les valeurs propres λ1 , . . . , λs
répétées avec leur multiplicité. Alors, on a

A = P DP −1 .

24
Exemple. On cherche à diagonaliser la matrice
 
2 −1 1
A = 0 1 1 .
0 0 2

1. On calcule CA (T ) = T 3 − 5T 2 + 8T − 4.
2. La racine λ1 = 1 est évidente. On divise CA (T )/(T − 1) = T 2 − 4T + 4 = (T − 2)2 .
Donc on a m1 = 1 et l’autre racine est λ2 = 2 de multiplicité m2 = 2.
3. Puisque m1 + m2 = 3, il n’y a pas d’obstacle (pour l’instant) à diagonaliser A.
4. i = 1 : λ = 1 et m = 1.
(a) Le vecteur v = t (x, y, z) ∈ E1 ssi Av = v ssi
 
 2x − y + z = x  x−y+z =0 
x−y =0
y+z =y ssi z=0 ssi
z=0
2z = z z=0
 

(b-c) Donc E1 est de dimension 3 − 2 = 1 avec pour base (t (1, 1, 0)).


4. i = 2 : λ = 2 et m = 2.
(a) Le vecteur v = t (x, y, z) ∈ E2 ssi Av = 2v ssi
 
 2x − y + z = 2x  −y + z = 0
y + z = 2y ssi −y + z = 0 ssi − y + z = 0
2z = 2z 0=0
 

(b-c) Donc E2 est de dimension 3 − 1 = 2 avec pour base (t (0, 1, 1), t (1, 0, 0)).
5. La matrice A est diagonalisable. On pose
   
1 0 1 1 0 0
P = 1 1 0
  et D = 0 2
 0
0 1 0 0 0 2

et on a A = P DP −1 .

1.5.4 Applications de la diagonalisation des matrices


Proposition 1.50. Supposons que A est diagonalisable et que les valeurs propres de A
sont λ1 , . . . , λs de multiplicité m1 , . . . , ms . Alors, on a
Tr A = m1 λ1 + · · · + ms λs et det A = λm ms
1 · · · λs .
1

Démonstration. Soient P ∈ GLn (K) et D la matrice diagonale dont la diagonale est


(λ1 , . . . , λ1 , · · · , λs , . . . , λs )
| {z } | {z }
m1 ms

de telle sorte que A = P DP −1 . Alors, on a


Tr(A) = Tr(P DP −1 ) = Tr(D) = m1 λ1 + · · · + ms λs ,
det(A) = det(P ) det(D) det(P −1 ) = det(D) = λm ms
1 · · · λs .
1

25
Remarque. Pour K = C, le résultat est aussi vrai si la matrice A n’est pas diagonali-
sable.

Notons que diagonaliser une matrice n’est pas une méthode efficace pour calculer
le déterminant d’une matrice en général. De fait, pour cela, il est déjà nécessaire de
calculer le polynôme caractéristique CA (T ) de A est

CA (0) = det(A).

Proposition 1.51. Soit A ∈ Mn (K). Soient P ∈ GLn (K) et B ∈ Mn (K) telles que

A = P BP −1 .

Alors, pour tout k ≥ 1, on a


Ak = P B k P −1 .
Si, de plus, B est inversible alors A est inversible et, pour tout k ≥ 1, on a

A−k = P B −k P −1 .

Démonstration. Soit k ≥ 1, on a

Ak = (P BP −1 )(P BP −1 ) · · · (P BP −1 )
| {z }
k fois
= P B(P −1 P )B(P −1 P ) · · · (P −1 P )BP −1
· · B} P −1 = P B k P −1 .
= P |B ·{z
k fois

Dans le cas où B est inversible, on a

A(P B −1 P −1 ) = P BP −1 P B −1 P = P BB −1 P −1 = P P −1 = In

et donc A−1 = P B −1 P −1 . Le reste de la démonstration se fait de manière similaire au


cas précédent.

Soit D la matrice diagonale dont la diagonale est

(λ1 , . . . , λn )

avec λ1 , . . . , λn ∈ K. Alors, pour tout k ≥ 1, la matrice Dk est diagonale et sa diagonale


est
(λk1 , . . . , λkn ).
Si, de plus, λ1 · · · λn ̸= 0, alors D est inversible et, pour tout k ≥ 1, la matrice D−k est
diagonale et sa diagonale est
(λ−k −k
1 , . . . , λn ).

En combinant la proposition et cette remarque, on peut en déduire des formules pour


les puissances de matrices diagonalisables.

26
Exemple. Considérons la matrice
 
2 1
A= .
1 2

Les valeurs propres sont 1 et 3 et on trouve la diagonalisation


   
−1 −1 1 1 0
A = P DP avec P = et D = .
1 1 0 3

Notons que  
−1 1 −1 1
P = .
2 1 1
On en déduit que, pour tout k ∈ Z, on a
  k   
k −1 1 1 0 1 −1 1
A =
1 1 0 3k 2 1 1
1 3k + 1 3 k − 1
 
= .
2 3k − 1 3 k + 1

Une autre application de la diagonalisation est pour le calcul de l’exponentielle de


matrice. Pour A ∈ Mn (K), on pose
1 2 1 X 1
eA = exp(A) = In + A + A + A3 + · · · = Ak .
2! 3! k!
k≥0

L’exponentielle de matrices joue un rôle important notamment dans la résolution des


systèmes d’équations différentielles linéaires.

Remarque. La fonction classique exponentielle est donnée, pour z ∈ C, par


X zk
ez = .
k!
k≥0

Théorème 1.52. Pour tout A ∈ Mn (K), la matrice eA existe et vérifie les propriétés
suivantes :
1. La matrice eA est inversible et son inverse est e−A ,
2. Soient A, B ∈ Mn (K) deux matrices qui commutent, c’est-à-dire AB = BA, alors

eA+B = eA eB .

3. Soit P ∈ GLn (K), une matrice inversible, on a


−1
eP AP = P eA P −1 .

27
Démonstration. La preuve de 2. est similaire à la preuve de la formule classique eα+β =
eα eβ pour α, β ∈ C. Maintenant, on a

eA e−A = eA−A = e0 = In

donc eA est inversible et son inverse est e−A ce qui prouve 1. Finalement, pour la preuve
de 3, on a
!
−1
X 1 X 1 X 1
eP AP = (P AP −1 )k = P Ak P −1 = P Ak P −1 = P eA P −1 .
k! k! k!
k≥0 k≥0 k≥0

Comme dans le cas des puissances de matrices, le fait essentiel est que l’exponen-
tielle d’une matrice diagonale est facile à calculer. Plus précisément, soit la matrice
diagonale D dont la diagonale est (λ1 , . . . , λn ), alors la matrice eD est diagonale avec
pour diagonale
(eλ1 , . . . , eλn ).

Exemple. Considérons la matrice


 
2 1
A= .
1 2

Les valeurs propres sont 1 et 3 et on trouve la diagonalisation


   
−1 1 1 0
A = P DP −1 avec P = et D = .
1 1 0 3

Notons que  
−1 1 −1 1
P = .
2 1 1
On en déduit que
  1   
A −1 1 e 0 1 −1 1
e =
1 1 0 e3 2 1 1
1 e + e3 −e + e3
 
= .
2 −e + e3 e + e3

28
Chapitre 2

Algèbre bilinéaire

2.1 Formes bilinéaires


2.1.1 Définitions
Soit E un K-espace vectoriel. Une forme bilinéaire est un application Φ de E × E
dans K linéaire par rapport à chaque argument. C’est-à-dire, pour x, x′ , y, y ′ ∈ E et
λ ∈ K, on a :

Φ(x + x′ , y) = Φ(x, y) + Φ(x′ , y),


Φ(x, y + y ′ ) = Φ(x, y) + Φ(x, y ′ ),
Φ(λx, y) = Φ(x, λy) = λΦ(x, y).

Les formes bilinéaires constituent un K-espace vectoriel, noté L2 (E). Nous détermi-
nerons la structure de cet espace dans la prochaine section.

Exemples.
1. E = R, Φ(x, y) = xy.
Z 1
2. E = C([0, 1]), Φ(f, g) = f (t)g(1 − t) dt.
0

Dorénavant, on suppose E de dimension finie n. Soit B = (e1 , . . . , en ) une base de


E, on écrit les décompositions :
n
X
x = λi ei ,
i=1
n
X
y = µi ei .
i=1

Par la linéarité de Φ, on trouve alors que :


n X
X n
Φ(x, y) = λi µj Φ(ei , ej ).
i=1 j=1

29
On pose ai,j = Φ(ei , ej ) et on introduit la matrice A = (ai,j ) ∈ Mn (K). On appelle A la
matrice représentant Φ sur la base B. On note X (resp. Y ) le vecteur représentant
x (resp. y) sur la base B. L’expression matricielle de Φ est donnée par :

Φ(x, y) = t X A Y.

Remarque. La réciproque est aussi vraie, toute application de E × E dans K qui peut
s’écrire sous cette forme est une forme bilinéaire.

Théorème 2.1. L’application de L2 (K) dans Mn (K) définit par Φ 7→ A où A est la
matrice de Φ relativement à une base fixée de K, est un isomorphisme. En particulier,
L2 (K) est de dimension n2 .

Pour conclure cette section, on étudie la transformation de la matrice A quand on


change la base B. Ainsi, soit B ′ = (e′1 , . . . , e′n ) une autre base de E. Posons X ′ (resp. Y ′ )
le vecteur exprimant x (resp. y) sur B ′ . On note P la matrice de changement de base de
la base B à la base B ′ . (Rappel : c’est la matrice dont les colonnes sont les expressions
des vecteurs e′i sur la base B.) On a ainsi :

X = P X′ et Y = P Y ′,

d’où :
Φ(x, y) = t X A Y = t X ′ t P AP Y ′
et la matrice A′ représentant Φ sur la base B ′ est :

A′ = t P AP.

2.1.2 Formes bilinéaires symétriques ou alternées


Soit Φ une forme bilinéaire de E. On dit que Φ est symétrique si, pour tout x, y ∈ E,
on a
Φ(x, y) = Φ(y, x).
On dit que Φ est anti-symétrique si, pour tout x, y ∈ E, on a

Φ(x, y) = −Φ(y, x).

Finalement, on dit que Φ est alternée si, pour tout x ∈ E, on a

Φ(x, x) = 0.

Exemple. Soit E = Mn (K). On considère l’application Φ : E × E → K définie par


Φ(A, B) = Tr(AB). L’application Φ est une forme bilinéaire. Elle est symétrique car on
a la relation Tr(AB) = Tr(BA) pour toutes matrices A, B ∈ Mn (K).

Proposition 2.2. Toute forme bilinéaire est alternée si et seulement si elle est anti-
symétrique.

30
Démonstration. Soit Φ une forme bilinéaire alternée. Pour x, y ∈ E, on a Φ(x + y, x +
y) = 0 = Φ(x, x) + Φ(y, y) + Φ(x, y) + Φ(y, x) = Φ(x, y) + Φ(y, x). On en déduit que
Φ(x, y) = −Φ(y, x) et Φ est anti-symétrique.
Soit Φ une forme bilinéaire anti-symétrique. Soit x ∈ E. On a Φ(x, x) = −Φ(x, x)
d’où 2Φ(x, x) = 0 et Φ(x, x) = 0.

On fixe une base B de E. Soit Φ ∈ L2 (E) et soit A la matrice de Φ relativement


à la base B. La forme Φ est symétrique si et seulement si A est symétrique, c’est-à-
dire t A = A. La forme Φ est alternée si et seulement si t A = −A, on dit que A est
anti-symétrique ou alternée.
On note Sym2 (E) l’ensemble des formes bilinéaires symétriques et Alt2 (E) l’ensemble
des formes bilinéaires alternées. On vérifie facilement que ce sont des sous-espaces vec-
toriels de L2 (E).

Théorème 2.3. On a
L2 (E) = Sym2 (E) ⊕ Alt2 (E).

Démonstration. Le seul point qui n’est pas direct est le fait que L2 (E) = Sym2 (E) +
Alt2 (E). Soit Φ ∈ L2 (K). On pose

Φ(x, y) + Φ(y, x) Φ(x, y) − Φ(y, x)


Φ0 (x, y) = et Φ1 (x, y) = .
2 2
On vérifie facilement que Φ0 est symétrique et Φ1 est anti-symétrique. De plus, on a
directement Φ = Φ0 + Φ1 .

2.1.3 Noyau et rang des formes bilinéaires symétriques ou alternées


Soit Φ une forme bilinéaire. On peut définir deux notions de noyau à gauche et à
droite de la manière suivante

Ker Φg = {x ∈ E tel que Φ(x, y) = 0, ∀y ∈ E}


Ker Φd = {y ∈ E tel que Φ(x, y) = 0, ∀x ∈ E}.

En termes de matrice, étant donné une matrice A de type n, cela revient à considérer
d’une part l’ensemble des vecteurs X tels que t XA = 0 et d’un autre côté l’ensemble
des vecteurs Y tels que AY = 0. Si la matrice A est symétrique ou anti-symétrique, on
a
t
XA = 0 ⇐⇒ t (t XA) = 0 ⇐⇒ t AX = 0 ⇐⇒ AX = 0.
On en déduit résultat suivant.

Lemme 2.4. Soit Φ une forme bilinéaire symétrique ou alternée. On a Ker Φg = Ker Φd .

On peut donc définir, pour Φ symétrique ou alternée, le noyau de Φ comme

Ker Φ = {x ∈ E tel que Φ(x, y) = 0, ∀y ∈ E} = {y ∈ E tel que Φ(x, y) = 0, ∀x ∈ E}.

31
Soit Φ une forme bilinéaire symétrique ou alternée. Soit B une base de E. On note
A la matrice de Φ relativement à la base B. On montre que la dimension du noyau de
Φ est égale à la dimension du noyau de A. On a donc par la formule du rang

dim Ker Φ = n − rang A.

Le rang d’une forme bilinéaire symétrique ou alternée Φ est défini comme le rang d’une
matrice A représentant Φ relativement à une base arbitraire de E. On note rang Φ. La
formule ci-dessus donne le résultat suivant.
Proposition 2.5. Soit Φ une forme bilinéaire symétrique ou alternée de E, on a

dim E = rang Φ + dim Ker Φ.

Une forme bilinéaire symétrique ou alternée Φ est non dégénérée si son noyau est
l’espace nul, ce qui revient à dire que son rang est maximal. Dans le cas contraire, on
dit que Φ est dégénérée.
Proposition 2.6. Soit Φ une forme bilinéaire symétrique ou alternée. Soit A la matrice
représentant Φ dans une base arbitraire de E. Les conditions suivantes sont équivalentes :
1. Φ est non dégénérée,
2. det(A) ̸= 0.

Exemples. Soit Ψ la forme bilinéaire sur R2 définie par :

Ψ(t (x1 , x2 ), t (y1 , y2 )) = x1 y1 + x2 y1 + x1 y2 + x2 y2 ,


= x1 (y1 + y2 ) + x2 (y1 + y2 ) = (x1 + x2 )(y1 + y2 ).

La matrice de Ψ sur la base canonique est


 
1 1
B=
1 1
dont le déterminant est nul. Donc Ψ est dégénérée. Le noyau de Ψ est la droite d’équation
x1 + x2 = 0.
Soit Φ la forme bilinéaire sur R3 définie par :

Φ(t (x1 , x2 , x3 ), t (y1 , y2 , y3 )) = −2x1 y2 + x1 y3 + 2x2 y1 − x2 y3 − x3 y1 + x3 y2


= x1 (−2y2 + y3 ) + x2 (2y1 − y3 ) + x3 (−y1 + y2 ).

Ainsi, sous forme matricielle :


 
−2y2 + y3
Φ(t (x1 , x2 , x3 ), t (y1 , y2 , y3 )) = (x1 , x2 , x3 )  2y1 − y3 
−y1 + y2

D’où l’expression matricielle de Φ sur la base canonique de R3 est donnée par la matrice
 
0 −2 1
A= 2 0 −1
−1 1 0

32
La forme Φ est alternée. Le déterminant de A est 0, donc Φ est dégénérée. Pour trouver
le noyau, on résout le système

−2y2 + y3 = 0

2y1 − y3 = 0

−y1 + y2 = 0.

Donc Ker Φ = Vec(t (1, 1, 2)).

2.2 Orthogonalité
Soit Φ une forme bilinéaire de E. Soient x, y ∈ E. On dit que y est orthogonal à
x (relativement à Φ) si on a Φ(x, y) = 0. On note x ⊥Φ y ou x ⊥ y plus simplement
quand il n’y pas de risque de confusion. Si Φ est symétrique ou alternée, la relation
d’orthogonalité est symétrique : x ⊥ y si et seulement si y ⊥ x. Dans le cas où Φ est
symétrique ou alternée, tout élément de Ker Φ est orthogonal à tous les éléments de E.
On suppose pour la suite que Φ est symétrique ou alternée.
Pour tout x ∈ E, on pose :

x⊥ = {y ∈ E tel que x ⊥ y = 0}.

Plus généralement, si X est un sous-ensemble non vide de E, on pose :

X ⊥ = {y ∈ E tel que x ⊥ y pour tout x ∈ X },

ainsi x⊥ = {x}⊥ . On appelle x⊥ (resp. X ⊥ ) l’orthogonal de x (resp. de X ).

Proposition 2.7. Soit X un sous-ensemble non vide de E. Alors X ⊥ est un sous-espace


vectoriel de E contenant Ker Φ.

Démonstration. On montre facilement que x⊥ est un sous-espace vectoriel. Maintenant,


on a \
X⊥ = x⊥ .
x∈X

C’est donc bien un sous-espace vectoriel puisque l’intersection d’un nombre quelconque
(non nul) de sous-espaces vectoriels est toujours un sous-espace vectoriel. Le fait que X ⊥
contienne Ker Φ vient du fait que les éléments de Ker Φ sont orthogonaux à n’importe
quel élément de E par définition.

Les propriétés suivantes de l’orthogonal se montrent sans difficultés :


• Si X ⊂ Y, alors Y ⊥ ⊂ X ⊥ ,
⊥
• X ⊂ X⊥ .

33
2.2.1 Orthogonal d’un sous-espace vectoriel
Soit F un sous-espace vectoriel de E. L’orthogonal F ⊥ de F (toujours par rapport
à la forme bilinéaire fixée Φ) est un sous-espace vectoriel de E. Nous allons étudier les
relations entre F et F ⊥ . On a d’abord le premier résultat.
Proposition 2.8.
1. Soit X une partie de E. On a X ⊥ = Vec(X )⊥ .
2. Soient F et G deux sous-espaces vectoriels de E. On a (F + G)⊥ = F ⊥ ∩ G⊥ .
3. Soit H un sous-espace vectoriel de E et soit (h1 , . . . , hs ) une famille génératrice
de H. Alors, x ∈ H ⊥ si et seulement si x ⊥ hi pour i = 1, . . . , s.
Démonstration. On prouve le point 1. On a X ⊂ Vec(X ), d’où Vec(X )⊥ ⊂ X ⊥ . Pour
l’autre inclusion, soit u ∈ X ⊥ et soit x = λ1 x1 +· · ·+λs xs ∈ Vec(X ) avec x1 , . . . , xs ∈ X .
On a
Φ(x, u) = λ1 Φ(x1 , u) + · · · + λs Φ(xs , u) = 0
et donc X ⊥ ⊂ Vec(X )⊥ ce qui achève la preuve de ce point.
Pour le point 2, on a F ⊂ F + G et donc (F + G)⊥ ⊂ F ⊥ . De même, on a (F + G)⊥ ⊂
G et donc (F + G)⊥ ⊂ F ⊥ ∩ G⊥ . Pour l’inclusion inverse, on considère x ∈ F ⊥ ∩ G⊥ .

Soit a + b ∈ F + G avec a ∈ F et b ∈ G. On calcule Φ(x, a + b) = Φ(x, a) + Φ(x, b) = 0,


donc F ⊥ ∩ G⊥ ⊂ (F + G)⊥ et l’égalité est démontrée.
Finalement, pour le point 3, on voit directement que si x ∈ H ⊥ alors x ⊥ hi pour
i = 1, . . . , s. Réciproquement, supposons que x ⊥ hi pour i = 1, . . . , s. Soit y ∈ H, alors
il exists λ1 , . . . , λs ∈ K tels que y = λ1 h1 + · · · + λs hs . On a donc
Φ(x, y) = λ1 Φ(x, h1 ) + · · · + λs Φ(x, hs ) = 0.
Il suit que x ∈ H ⊥ et le résultat est démontré.
Exemple. Soit E = Mn (K) l’espace vectoriel des matrices carrées de type n et à
coefficients dans K. On considère la forme bilinéaire symétrique Φ : E × E → K définie
par Φ(A, B) = Tr(AB). Soit Mns (K) le sous-espace vectoriel des matrices symétriques.
On calcule Mns (K)⊥ . Soient i, j ∈ {1, . . . , n}, on note Mi,j la matrice élémentaire dont
le coefficient de la ligne i et colonne j est égal à 1 et tous les autres sont égaux à 0.
Les matrices Mi,j , pour 1 ≤ i, j ≤ n, forment une base de E et les matrices Mi,j + Mj,i
engendrent Mns (K). Soit A = (ai,j ) ∈ E. On regarde à quelles conditions A ⊥ (Mi,j +
Mj,i ). On a
Tr(A(Mi,j + Mj,i )) = Tr(AMi,j ) + Tr(AMj,i ) = ai,j + aj,i
et donc A ⊥ (Mi,j +Mj,i ) si et seulement si ai,j = −aj,i . Par la partie 2 de la proposition,
il suit que A ∈ Mns (K)⊥ si et seulement si on a ai,j = −aj,i pour tout 1 ≤ i, j ≤ n. Donc
l’orthogonal de Mns (K) pour Φ est le sous-espace vectoriel des matrices alternées.
Théorème 2.9. On a
dim F ⊥ = dim E − dim F + dim (F ∩ Ker Φ) .
En particulier, on a
dim F ⊥ ≥ dim E − dim F.
De plus, si Φ est non dégénérée, on a dim E = dim F + dim F ⊥ et (F ⊥ )⊥ = F .

34
Exemples. Sur R2 , on considère la forme bilinéaire :

Φ(t (x1 , x2 ), t (y1 , y2 )) = x1 y1 − x2 y2 .

Soit D la droite d’équation v1 = v2 . C’est un sous-espace vectoriel de R2 . Calculons son


orthogonal. Les éléments de D sont les vecteurs de la forme t (λ, λ) avec λ ∈ R. Donc le
vecteur t (y1 , y2 ) est dans D⊥ si et seulement si

Φ(t (λ, λ), t (y1 , y2 )) = λy1 − λy2 = 0

pour tout λ ∈ R. Clairement, cette condition est équivalente à y1 = y2 et donc D⊥ = D.


Sur R4 , on considère la forme bilinéaire :

Ψ(t (x1 , x2 , x3 , x4 ), t (y1 , y2 , y3 , y4 )) = x1 y1 − x2 y2 .

On note F le plan défini par les équations :



v1 − v2 = 0,
v4 = 0.

Ainsi, F est l’ensemble des vecteurs t (λ, λ, µ, 0) avec λ, µ ∈ R. Maintenant, un vecteur


t (y , y , y , y ) ∈ R4 est dans F ⊥ si et seulement si :
1 2 3 4

Ψ(t (λ, λ, µ, 0), t (y1 , y2 , y3 , y4 )) = λ(y1 − y2 ) = 0

pour tout λ, µ ∈ R. Donc l’orthogonal F ⊥ de F est l’hyperplan défini par l’équation

y1 = y2 ,

c’est-à-dire l’ensemble des vecteurs t (λ, λ, µ, ν) avec λ, µ, ν ∈ R. Maintenant, il est facile


de voir que l’orthogonal de F ⊥ est F ⊥ lui-même et donc F ⊥⊥ ̸= F . Notons que ceci
implique que Ψ est dégénérée par le théorème précédent, ce qui est facile à voir car, par
exemple, t (0, 0, 1, 0) est dans le noyau de Ψ.

Corollaire 2.10. Soit F un sous-espace vectoriel de E. On a E = F ⊕F ⊥ si et seulement


si F ∩ F ⊥ = {0}.

Démonstration. Supposons que E = F ⊕ F ⊥ . Alors, on a F ∩ F ⊥ = {0} par définition.


Réciproquement, supposons que F ∩F ⊥ = {0}. Il est facile de voir que F ∩Ker Φ ⊂ F ∩F ⊥
et donc F ∩ Ker Φ = {0}. Il suit par le théorème que dim E = dim F + dim F ⊥ ce qui
implique, avec F ∩ F ⊥ = {0}, que E = F ⊕ F ⊥ .

2.3 Formes quadratiques


2.3.1 Premières définitions
Soit E un K-espace vectoriel de dimension n. Une application de q : E → K est une
forme quadratique s’il existe une forme bilinéaire Φ sur E avec

q(x) = Φ(x, x)

35
pour tout x ∈ E.
On remarque qu’une forme quadratique n’est pas une application linéaire. En effet,
pour x ∈ E et λ ∈ K, on a :

q(λx) = Φ(λx, λx) = λ2 Φ(x, x) = λ2 q(x).

Notons que la forme quadratique q est nulle si et seulement si Φ est alternée.


On note Q(E) l’ensemble des formes quadratiques sur E. On vérifie directement que
Q(E) est un sous-espace vectoriel.
Exemple. Posons E = R2 et

Φ1 (x, y) = x1 y1 + x1 y2 − 2x2 y1

où x = t (x1 , x2 ) et y = t (y1 , y2 ) sont deux vecteurs de E. La forme quadratique corres-


pondante est

q(x) = Φ1 (x, x) = x1 x1 + x1 x2 − 2x2 x1 = x21 − x1 x2 .

Notons que la forme bilinéaire

Φ2 (x, y) = x1 y1 − x1 y2

définit la même forme quadratique.


Comme remarqué dans l’exemple précédent, plusieurs formes bilinéaires différentes
peuvent définir la même forme quadratique. Cependant, on peut associer à chaque forme
quadratique une unique forme bilinéaire symétrique.
Proposition 2.11. L’espace vectoriel Q(E) est isomorphe à Sym2 (E), l’espace vecto-
riel des formes bilinéaires symétriques sur E, par l’application qui associe à une forme
quadratique q la forme bilinéaire symétrique, appelée forme polaire de q, et définie par
1
Q(x, y) = (q(x + y) − q(x) − q(y)) .
2
Démonstration. On considère l’application d : L2 (E) → Q(E) qui associe à une forme
bilinéaire Φ la forme quadratique q(x) = Φ(x, x). On vérifie directement que c’est une
application linéaire. Elle est surjective par définition. Son noyau est clairement le sous-
espace vectoriel Alt2 (E) des formes bilinéaires alternées. Puisque L2 (E) = Sym2 (E) ⊕
Alt2 (E), on en déduit que la restriction de d à Sym2 (E) est un isomorphisme. Cela
montre qu’il existe une unique forme bilinéaire symétrique Q associée à q. Pour trouver
l’expression de Q, on calcule

q(x + y) = Q(x + y, x + y) = Q(x, x) + Q(x, y) + Q(y, x) + Q(y, y)


= q(x) + 2Q(x, y) + q(y).

Soit B = (e1 , . . . , en ) une base de E. Soit Φ une forme bilinéaire (arbitraire) telle
que q(x) = Φ(x, x) et A la matrice de Φ sur la base B. On a donc

q(x) = t XAX.

36
On calcule
1 t t t
 
Q(x, y) = 2  (X + Y )A(X + Y ) − XAX − Y AY 
1 t t t t
= 2 ( X + Y )A(X + Y ) − XAX − Y AY
1 t t t t t
− t Y AY

= 2  XAX + XAY + Y AX + Y AY − XAX
1 t t
= 2 XAY + Y AX .

Notons que t XAY et t Y AX sont en fait des matrices de type 1, c’est-à-dire des éléments
de K. En particulier, on a t Y AX = t (t Y AX) = t X t AY , et ainsi

Q(x, y) = t X 21 A + t A Y.


Donc la matrice de Q est 12 A + t A . La matrice de q sur une base B de E est par




définition la matrice de la forme bilinéaire Q sur B. Ainsi, cette matrice est toujours
symétrique.

Exemple. La forme polaire Q de la forme quadratique q définie dans l’exemple précédent


peut être calculée en utilisant la méthode donnée dans la preuve ci-dessus. On calcule
la matrice A1 de la forme bilinéaire Φ1 définissant q, on trouve
 
1 1
A1 = .
−2 0

Donc la matrice B de la forme polaire Q est donnée par


     
1 t
 1 1 1 1 −2 1 −1/2
B = 2 A1 + A1 = + = .
2 −2 0 1 0 −1/2 0

Ainsi on trouve
  
1 −1/2 y1
Q(x, y) = (x1 , x2 ) = x1 y1 − 12 x1 y2 − 21 x2 y1 .
−1/2 0 y2

On trouve évidemment la même expression si on part de la forme bilinéaire Φ2 puisqu’elle


définit aussi q.
Une autre manière de calculer la forme polaire à partir de l’expression de la forme
quadratique q est d’utiliser la règle suivante : on remplace dans l’expression les termes
de la forme λx2i (termes carrés) par λxi yi et les termes de la forme µxi xj avec i ̸= j
(termes rectangles) par 21 µ(xi yj + xj yi ). Ainsi dans l’expression

q(x) = x21 − x1 x2 ,

le terme x21 devient x1 y1 et le terme −x1 x2 devient − 21 x1 y2 − 12 x2 y1 .

On appelle espace quadratique un couple (E, q) formée d’un espace vectoriel E


(de dimension finie) et d’une forme quadratique q sur E.

37
2.3.2 Autres invariants d’une forme quadratique
On définit le noyau et le rang de q comme le noyau et le rang de Q. La forme
quadratique q est dégénérée si Ker q ̸= {0}, sinon q est non dégénérée (ou régulière).
Un vecteur x est dit isotrope si q(x) = 0. Si la forme quadratique q admet un vecteur
isotrope non nul, on dit que q est isotrope. L’ensemble C(q) formé des vecteurs isotropes
de q est le cône isotrope de q. En général, ce n’est pas un sous-espace vectoriel (mais
c’est un cône, c’est-à-dire stable par multiplication par un élément de K). Il contient
toujours le noyau de q.

Exemple. Soit q(x) = 2x21 + 2x1 x2 = 2x1 (x1 + x2 ). La matrice de q (sur la base
2 1
canonique) est . Puisqu’elle est de déterminant non nul, on a Ker q = {0}. D’un
1 0
autre côté, on voit que q est isotrope puisque les vecteurs t (0, 1) et t (1, −1) sont isotropes
pour q. (Remarque : le vecteur t (0, 1) + t (1, −1) = t (1, 0) n’est pas isotrope.)

2.4 Réduction des formes quadratiques


2.4.1 Bases duales et contraduales
On rappelle que E ∗ , appelé espace dual de E, est l’espace des formes linéaires de E.
Soit B = (e1 , . . . , en ) une base de E. Les formes coordonnées ξ1 , . . . , ξn pour la base
B sont les éléments de E ∗ définies de la manière suivante : pour tout x ∈ E, on peut
écrire de manière unique
x = λ1 e1 + · · · + λn en
et on pose pour 1 ≤ i ≤ n :
ξi (x) = λi .
On a donc
x = ξ1 (x)e1 + · · · + ξn (x)en .
Les formes coordonnées vérifient les équations

1 si i = j,
ξi (ej ) =
0 sinon.

Exemple. On pose E = R3 et on considère la base (e1 , e2 , e3 ) avec

e1 = t (1, 0, −1), e2 = t (0, 2, 1), e3 = t (0, 0, 1).

On calcule la forme ξ1 . Pour x = t (x1 , x2 , x3 ), comme ξ1 est une forme linéaire, elle est
de la forme ξ1 (x) = λ1 x1 + λ2 x2 + λ3 x3 avec λ1 , λ2 , λ3 ∈ R à déterminer. On doit avoir
  
ξ1 (e1 ) = 1
 λ1 − λ3 = 1
 λ1 = 1

ξ1 (e2 ) = 0 ⇐⇒ 2λ2 + λ3 = 0 ⇐⇒ λ2 = 0
  
ξ1 (e3 ) = 0 λ3 = 0 λ3 = 0
  

On a donc ξ1 (x) = x1 . On trouve de même ξ2 (x) = 21 x2 et ξ3 (x) = x1 − 21 x2 + x3 .

38
Proposition 2.12. La famille (ξ1 , . . . , ξn ) est une base de E ∗ . On l’appelle la base
duale de B et on la note B ∗ .

Démonstration. Montrons que c’est une famille libre de E ∗ . Soit une combinaison

λ1 ξ1 + · · · + λn ξn = 0E ∗

avec λ1 , . . . , λn ∈ K. La relation précédente signifie que

λ1 ξ1 (x) + · · · + λn ξn (x) = 0

pour tout x ∈ E. Maintenant, pour 1 ≤ i ≤ n, on trouve

λ1 ξ1 (ei ) + · · · + λn ξn (ei ) = λi = 0,

et donc tous les coefficients de la relation sont nuls, ce qui prouve que la famille est libre.
Montrons à présent que cette famille est génératrice. Soit f un élément de E ∗ . Pour
tout i = 1, . . . , n, on pose
µi = f (ei )
et on vérifie directement que

f = µ1 ξ1 + · · · + µn ξn .

Proposition 2.13. Soient B et C deux bases de E. Soient B ∗ et C ∗ les bases duales


correspondantes. On note P la matrice de passage de la base B à la base C. Alors, la
matrice de passage de la base B ∗ à la base C ∗ est t P −1 .

Démonstration. On note B = (e1 , . . . , en ), C = (e′1 , . . . , e′n ), B ∗ = (ξ1 , . . . , ξn ). Par


définition, on a pour tout j ∈ {1, . . . , n}

e′j = p1,j e1 + · · · + pn,j en

où P = (pi,j ). Pour j ∈ {1, . . . , n}, on définit

χj = q1,j ξ1 + · · · + qn,j ξn

où t P −1 = (qi,j ). On calcule


n
X n
X n
X n X
X n n
X
χi (e′j ) = qk,i ξk (e′j ) = qk,i pl,j ξk (el ) = qk,i pl,j ξk (el ) = qk,i pk,j .
k=1 k=1 l=1 k=1 l=1 k=1

Et ainsi on obtient χi (fj ) = δi,j donc la base (χ1 , . . . , χn ) est la base duale de C ce qui
prouve le résultat.

Corollaire 2.14. Soit F une base de E ∗ . Alors il existe une unique base B de E telle
que la base F est la base duale de B. La base B s’appelle la base contraduale de F.

Démonstration. On note C une base quelconque de E et C ∗ sa base duale. On note M la


matrice de passage de la base C ∗ à la base F. Alors, la base B de E telle que la matrice
de passage de la base C à la base B est t M −1 est la base contraduale de F.

39
Exemple. On pose E = R3 . On considère la base (f1 , f2 , f3 ) de E ∗ avec
f1 (x) = x1 − x2 f2 (x) = −x3 , f3 (x) = x1 + x2 + x3 .
On calcule la base contraduale (e1 , e2 , e3 ). On pose e1 = t (x1 , x2 , x3 ) avec x1 , x2 , x3 ∈ R
à déterminer. On doit avoir
  

 f1 (e 1 ) = 1 
 x 1 − x 2 = 1 x1 = 1/2

f2 (e1 ) = 0 ⇐⇒ −x3 = 0 ⇐⇒ x2 = −1/2
  
f3 (e1 ) = 0 x1 + x2 + x3 = 0 x3 = 0
  

On a donc e1 = t 21 , − 21 , 0 . On trouve de même e2 = t 12 , 12 , −1 et e3 = t 12 , 12 , 0 .


  

2.4.2 Formulations du problème


Soit q une forme quadratique sur E. Notons Q sa forme polaire. Le problème de la
réduction de q est de trouver une base B = (e1 , . . . , en ) de E dans laquelle la matrice
de q, c’est-à-dire par définition la matrice de Q, est diagonale. Dans une telle base, on
a alors
Q(ei , ej ) = 0 si i ̸= j,
c’est-à-dire ei ⊥ ej si i ̸= j. On dit que la base B est orthogonale (relativement à q).
Exemple. La base canonique de Kn est orthogonale pour la forme quadratique q(x) =
x21 + · · · + x2n .
En terme de matrices, notons A la matrice de q par rapport à une base fixée C de
E. Réduire q revient à chercher une matrice P inversible telle que la matrice
t
P AP
est diagonale. La matrice P est alors la matrice de passage de la base C à une base
orthogonale pour q.
Finalement, en termes algébriques, réduire q revient à trouver une base dans laquelle
l’expression de q sous la forme
q(x) = λ1 x21 + · · · + λn x2n .
Réduire q revient aussi à décomposer le polynôme quadratique homogène P (x1 , . . . , xn )
représentant q par rapport à une base fixée C en une somme de carrés de formes linéaires
indépendantes
P (x1 , . . . , xn ) = λ1 f1 (x1 , . . . , xn )2 + · · · + λn fn (x1 , . . . , xn )2 .
Dans ce cas, on dit que la forme q est décomposée en somme de carrées de formes
linéaires indépendantes ou juste décomposée.
Proposition 2.15. Soit q une forme quadratique et soient f1 , . . . , fn des formes linéaires
indépendantes telles que
q(x) = λ1 f1 (x)2 + · · · + λn fn (x)2 .
Alors, la base contraduale de la base (f1 , . . . , fn ) de E ∗ est une base orthogonale pour q.

40
Démonstration. Notons (e1 , . . . , en ) les vecteurs de la base contraduale de la base (f1 , . . . , fn ).
Pour i ∈ {1, . . . , n}, on a q(ei ) = λi . Maintenant, pour i ̸= j, on a
1 1
Q(ei , ej ) = [q(ei + ej ) − q(ei ) − q(ej )] = [λi + λj − λi − λj ] = 0.
2 2
Théorème 2.16. Toute forme quadratique admet une base orthogonale.
Démonstration. On démontre le résultat par récurrence sur la dimension de E. Suppo-
sons que dim E = 1. Alors toute base de E est orthogonale pour q et le résultat est
démontré.
Supposons à présent que le résultat est démontré pour la dimension m avec m ≥ 1
fixé. On considère q une forme quadratique sur un espace vectoriel E de dimension m+1.
On note Q la forme polaire associée à q. Si q est la forme quadratique nulle, c’est-à-
dire q(x) = 0 pour tout x ∈ E, alors toutes les bases de E sont orthogonales pour q.
Sinon, il existe un vecteur a ∈ E tel que q(a) ̸= 0. On pose H le sous-espace vectoriel
engendré par a et H ⊥ l’orthogonal de H par rapport à Q. Le sous-espace vectoriel H
est non isotrope car sinon il existe un élément b non nul dans H ∩ H ⊥ , d’où b = λa
pour λ ∈ K, λ ̸= 0 et Q(a, b) = λQ(a, a) = 0, ainsi q(a) = 0, contradiction. Donc H est
non isotrope et il suit par le Corollaire 2.10 que E = H ⊕ H ⊥ . Maintenant, notons p la
restriction de q à H ⊥ et P la forme polaire de p. En fait, il est facile de voir que P est
la restriction de Q à H ⊥ × H ⊥ . Puisque dim H ⊥ = dim E − dim H = m, l’hypothèse
de récurrence implique qu’il existe une base B ′ = (e1 , . . . , em ) de H ⊥ orthogonale pour
p. Alors, B = (a, e1 , . . . , em ) est une base orthogonale de E. En effet, B est une base de
E car c’est l’union d’une base de H et de H ⊥ . Puis on a Q(ei , ej ) = P (ei , ej ) = 0 pour
i ̸= j, et de plus Q(a, ei ) = 0 pour tout i puisque a ∈ H et ei ∈ H ⊥ . Donc B est bien
une base orthogonale pour q et le résultat est démontré pour la dimension m + 1.

2.4.3 Réduction de Gauss


L’algorithme suivant, inventé par Gauss, permet de décomposer n’importe quel po-
lynôme quadratique homogène en somme de carrés de formes linéaires indépendantes.
Nous commençons par expliquer cette méthode sur deux exemples.
Exemples. On considère le polynôme quadratique homogène

q(x) = x21 − 2x1 x2 + 4x1 x3 − 2x1 x4 + 5x22 − 8x2 x3 + 14x2 x4 + 5x23 − 8x3 x4 + 10x24 .

On commence par travailler avec les termes carrés, par exemple le terme x21 . On va
compléter le carré commençant par x21 . Pour cela on commence par mettre 2x1 en facteur

q(x) = x21 + 2x1 (−x2 + 2x3 − x4 ) + 5x22 − 8x2 x3 + 14x2 x4 + 5x23 − 8x3 x4 + 10x24

et on utilise la formule suivante

(a1 + · · · + ak )2 = (somme des carrés) + 2 (somme des doubles produits)


= a21 + · · · + a2k + 2a1 a2 + · · · + 2a1 ak + 2a2 a3 + · · · + 2ak−1 ak .

Ainsi les termes x21 + 2x1 (−x2 + 2x3 − x4 ) forment le début du développement de

(x1 −x2 +2x3 −x4 )2 = x21 +x22 +4x23 +x24 −2x1 x2 +4x1 x3 −2x1 x4 −4x2 x3 +2x2 x4 −4x3 x4 .

41
De surcroı̂t, les termes manquant ne font plus intervenir x1 et donc si on remplace, on
obtient

q(x) = (x1 − x2 + 2x3 − x4 )2 + 4x22 − 4x2 x3 + 12x2 x4 + x23 − 4x3 x4 + 9x24 ,

c’est-à-dire une expression de q sous la forme d’une somme entre le carré d’une forme
linéaire f1 (x) = x1 − x2 + 2x3 − x4 , plus un polynôme quadratique homogène qui ne fait
plus intervenir la variable x1 .
On continue le procédé avec la variable x2 . On écrit

q(x) = (x1 − x2 + 2x3 − x4 )2 + 4 x22 + 2x2 (− 21 x3 + 32 x4 ) + x23 − 4x3 x4 + 9x24 ,




et donc on a fait apparaı̂tre le début de

(x2 − 21 x3 + 23 x4 )2 = x22 + 14 x23 + 94 x24 − x2 x3 + 3x2 x4 − 23 x3 x4 .

En remplaçant dans l’expression de q, on trouve

q(x) = (x1 − x2 + 2x3 − x4 )2 + 4(x2 − 21 x3 + 32 x4 )2 + 2x3 x4 .

On ne peut plus à présent appliquer la même méthode puisqu’il n’y a plus de carrés
dans la partie à réduire. Dans ce cas, on utilise l’identité suivante
1
(a + b)2 − (a − b)2 ,

ab =
4
ce qui nous donne finalement

q(x) = (x1 − x2 + 2x3 − x4 )2 + 4(x2 − 21 x3 + 23 x4 )2 + 12 (x3 − x4 )2 − 12 (x3 + x4 )2 .

On peut vérifier sans difficultés que les formes linéaires de cette décomposition sont bien
indépendantes.
Considérons à présent le polynôme quadratique homogène

q(x) = x1 x2 + 2x1 x3 − x1 x4 + x2 x3 + 3x2 x4 + 9x3 x4 .

Il faut utiliser la deuxième technique puisqu’il n’y a pas de termes carrés. Cependant, ici
la situation est moins simple que dans le cas précédent puisqu’il ne suffit pas d’appliquer
la formule donnée ci-dessus pour faire “disparaı̂tre” les variables. On procède de la
manière suivante : on choisit deux variables, par exemple les variables x1 et x2 . On groupe
les termes en écrivant le terme en x1 x2 puis les termes où ces variables interviennent en
factorisant x1 et x2

q(x) = x1 x2 + x1 (2x3 − x4 ) + x2 (x3 + 3x4 ) + 9x3 x4 .

On utilise à présent l’identité

uv + ua + vb = (u + b)(v + a) − ab

et on déduit

x1 x2 +x1 (2x3 −x4 )+x2 (x3 +3x4 ) = (x1 +x3 +3x4 )(x2 +2x3 −x4 )−(2x3 −x4 )(x3 +3x4 ).

42
On remplace et on simplifie pour obtenir

q(x) = (x1 + x3 + 3x4 )(x2 + 2x3 − x4 ) − 2x23 + 4x3 x4 + 3x24

et on utilise la formule donnée ci-dessus

q(x) = 41 (x1 + x2 + 3x3 + 2x4 )2 − 41 (x1 − x2 − x3 + 4x4 )2 − 2x23 + 4x3 x4 + 3x24

On termine la réduction en utilisant la première méthode. Les termes −2x23 + 4x3 x4


forment le début de
−2(x3 − x4 )2 = −2x23 + 4x3 x4 − 2x24 .
On remplace et on obtient l’expression :

q(x) = 41 (x1 + x2 + 3x3 + 2x4 )2 − 41 (x1 − x2 − x3 + 4x4 )2 − 2(x3 − x4 )2 + 5x24 .

Pour un polynôme quadratique donné, la réduction de Gauss consiste donc à utiliser


plusieurs fois l’une ou l’autre des deux techniques suivantes jusqu’à ce que la réduction
soit terminée
• S’il existe un terme x2i dans l’expression, par exemple x21 , on écrit le polynôme
sous la forme

q(x1 , . . . , xn ) = λx21 + x1 f (x2 , . . . , xn ) + q ′ (x2 , . . . , xn )

avec λ ̸= 0, f une forme linéaire et q ′ un polynôme quadratique homogène. Puis


on fait les transformations suivantes
 
f (x2 , . . . , xn )
2
q(x1 , . . . , xn ) = λ x1 + x1 + q ′ (x2 , . . . , xn )
λ
f (x2 , . . . , xn ) 2 f (x2 , . . . , xn )2
 
= λ x1 + + q ′ (x2 , . . . , xn ) −
2λ 4λ
On pose
f (x2 , . . . , xn )2
s(x2 , . . . , xn ) = q ′ (x2 , . . . , xn ) −

et on est ramené à la réduction du polynôme quadratique homogène s qui com-
porte une variable de moins.
• S’il n’y a pas de termes carrés, on sélectionne un terme en xi xj avec i ̸= j, par
exemple x1 x2 , et on met q sous la forme

q(x1 , . . . , xn ) = λx1 x2 + x1 f (x3 , . . . , xn ) + x2 g(x3 , . . . , xn ) + q ′ (x3 , . . . , xn )

où λ ̸= 0, f et g sont des formes linéaires et q ′ est un polynôme quadratique


homogène. Puis, on fait les transformations suivantes
 
f (x3 , . . . , xn ) g(x3 , . . . , xn )
q(x1 , . . . , xn ) = λ x1 x2 + x1 + x2 + q ′ (x3 , . . . , xn )
λ λ
  
g f fg
= λ x1 + x2 + + q′ −
λ λ λ
" 2   #
λ f +g g−f 2
= x1 + x2 + − x1 − x2 + +s
4 λ λ

43
où s = q ′ − f g/λ est un polynôme quadratique homogène avec deux variables de
moins que s.
La validité de l’algorithme est assurée par le théorème suivant.
Théorème 2.17. L’algorithme de Gauss calcule une décomposition en somme de carrées
de formes linéaires indépendantes.
Démonstration. On procède par récurrence sur le nombre de variables. S’il y a une seule
variable, alors le résultat est démontré puisque dans ce cas tout polynôme quadratique
homogène est de la forme λx21 . Maintenant, soit n ≥ 1. Supposons que la méthode de
Gauss appliquée à un polynôme quadratique homogène avec au plus n variables renvoie
bien une décomposition en somme de carrés de formes linéaires indépendantes.
On considère un polynôme quadratique homogène q en n + 1 variables. On suppose
q non nul car sinon le résultat est évident. Supposons que l’on se trouve dans le pre-
mier cas, c’est-à-dire q contient un terme en x2i , par exemple x21 . Alors on calcule une
décomposition

q(x1 , . . . , xn+1 ) = λt(x1 , . . . , xn+1 )2 + s(x2 , . . . , xn+1 )

avec t une forme linéaire et s un polynôme quadratique homogène. D’après l’hypothèse de


récurrence, on peut décomposer s en somme de formes linéaires indépendantes f1 , . . . , fn
ne faisant intervenir que les variables x2 , . . . , xn+1 . Maintenant, en regardant l’expression
de t1 donnée par la méthode, on trouve que la matrice de la famille (t, f1 , . . . , fn ) sur
les variables x1 , . . . , xn+1 est de la forme
 
1 ∗ ··· ∗
 0 
M = .
 
.
 . A


0

où A est la matrice de la famille (f1 , . . . , fn ) sur les variables x2 , . . . , xn+1 . En parti-
culier, le déterminant de M est égal au déterminant de A qui est non nul puisque les
f1 , . . . , fn sont indépendantes. Donc les formes linéaires de la décomposition de q sont
indépendantes.
De même, dans le deuxième cas, on a une décomposition de la forme

q(x1 , . . . , xn+1 ) = λ t1 (x1 , . . . , xn+1 )2 − t2 (x1 , . . . , xn+1 )2 + s(x3 , . . . , xn+1 ).


 

L’hypothèse de récurrence affirme qu’on peut décomposer s en somme de formes linéaires


indépendantes f1 , . . . , fn−1 ne faisant intervenir que les variables x3 , . . . , xn+1 . Les formes
particulières de t1 et t2 donnent que la matrice de la famille (t1 , t2 , f1 , . . . , fn−1 ) sur les
variables x1 , . . . , xn+1 est de la forme
 
1 1 ∗ ··· ∗
 1 −1 ∗ · · · ∗ 
 
M = 0 0
 

 .. .. 
 . . A 
0 0

44
où A est la matrice de la famille (f1 , . . . , fn−1 ) sur les variables x3 , . . . , xn+1 . En particu-
lier, le déterminant de M est égal −2 det A qui est non nul puisque les f1 , . . . , fn−1 sont
indépendantes. Donc les formes linéaires de la décomposition de q sont indépendantes.

2.4.4 Classification des formes quadratiques sur R et sur C


Deux formes quadratiques sur un espace vectoriel E sont dites équivalentes si ils
existent des bases de E sur lesquelles elles ont la même matrice.
On commence par un résultat général sur le rang des formes quadratiques.

Théorème 2.18. Soit q une forme quadratique. Les trois quantités suivantes sont égales
a. Le rang de q ;
b. Le nombre de vecteurs non isotropes dans une base orthogonale de q ;
c. Le nombre de formes linéaires apparaissant avec un coefficient non nul dans une
décomposition de q en somme de carrés de formes linéaires indépendantes.

Démonstration. Commençons par démontrer que a. = b. On note Q la forme polaire de


q et r son rang. On a dim Ker Q = n − r par le théorème du rang. Soit B = (e1 , . . . , en )
une base de E orthogonale pour q. Notons t le nombre de vecteurs non isotropes et
ordonnons les vecteurs de la base de telle sorte que les t premiers vecteurs sont non
isotropes. La matrice de Q sur la base B est diagonale avec les premiers t coefficients
non nuls et les autres nuls. Il est donc clair que r = t.
On montre à présent que b. = c. Soit

q(x) = λ1 f1 (x)2 + · · · + λs fs (x)2

avec λ1 , . . . , λs non nuls, une décomposition de q en somme de carrés de formes linéaires


indépendantes. On complète la famille (f1 , . . . , fs ) en une base (f1 , . . . , fn ) de E ∗ . On
pose B = (e1 , . . . , en ) la base contraduale, c’est une base orthogonale pour q. Calculons

q(ei ) = λ1 f1 (ei )2 + · · · + λs fs (ei )2 .

On a fj (ei ) = 0 si i ̸= j et fi (ei ) = 1, et ainsi, on trouve que q(ei ) = 0 pour i > s et


q(ei ) = λi ̸= 0 pour i ≤ s. Ainsi le nombre de vecteurs non isotropes de la base B est s
et l’égalité est démontrée.

On en déduit la classification des formes quadratiques sur C.

Corollaire 2.19. Soit q une forme quadratique sur un C-espace vectoriel E de dimen-
sion finie. Soit r le rang de q. Alors il existe une base (e1 , . . . , en ) de E pour laquelle on
a
q(x) = x21 + · · · + x2r .
avec x = x1 e1 + · · · + xn en .
Ainsi, deux formes quadratiques de E sont équivalentes si et seulement si elles ont le
même rang.

45
Démonstration. Soit (e′1 , . . . , e′n ) une base orthogonale de E. Par le théorème, on peut
supposer que e′1 , . . . , e′r sont non isotropes et e′r+1 , . . . , e′n sont isotropes. Pour i =
1, . . . , r, il existe αi ∈ C, αi ̸= 0, tels que αi2 = q(e′i ). On pose ei = e′i /αi pour i = 1, . . . , r
et ei = e′i pour i = r + 1, . . . , n. Il est clair que q a bien l’expression voulue sur cette
base.

On s’intéresse à présent au cas des formes quadratiques sur R. Dans une décomposition
de q en somme de carrées de formes linéaires indépendantes, on note s le nombre de
formes avec un coefficient strictement positif et t le nombre de formes avec un coefficient
strictement négatif. On appelle le couple (s, t) la signature de q.

Théorème 2.20 (Sylvester). Soit q une forme quadratique de signature (s, t). Alors, la
signature ne dépend pas du choix de la décomposition. De plus, on a
1. Dans une base orthogonale pour q, il y a s vecteurs dont l’image par q est stric-
tement positive et t dont l’image par q est strictement négative.
2. Il existe des sous-espaces vectoriels E + et E − tels que
• dim(E + ) = s, dim(E − ) = t,
• E = E+ ⊕ E− ⊕ E⊥,
• q(x) > 0 pour tout x ∈ E + \ {0},
• q(x) < 0 pour tout x ∈ E − \ {0}.
3. Le rang de q est s + t.

On en déduit la classification des formes quadratiques réelles.

Proposition 2.21. Soit q une forme quadratique sur un R-espace vectoriel E de di-
mension finie. Soit (s, t) la signature de q. Alors il existe une base de E pour laquelle
on a
q(x) = x21 + · · · + x2s − x2s+1 − · · · − x2s+t
avec x = x1 e1 + · · · + xn en .
Ainsi, deux formes quadratiques de E sont équivalentes si et seulement si elles ont la
même signature.

Une forme quadratique q est dite positive (resp. négative) si elle vérifie q(x) ≥ 0
(resp. q(x) ≤ 0) pour tout x ∈ E. Si, de plus, la forme quadratique q vérifie q(x) ̸= 0
pour tout x ̸= 0, alors elle est dite définie positive (resp. définie négative).

Proposition 2.22. Soit q une forme quadratique sur un R-espace vectoriel de dimension
n.
• q est positive si et seulement si elle est de signature (m, 0) avec 0 ≤ m ≤ n.
• q est négative si et seulement si elle est de signature (0, m) avec 0 ≤ m ≤ n.
• q est définie positive si et seulement si elle est de signature (n, 0).
• q est définie négative si et seulement si elle est de signature (0, n).

Soit q une forme quadratique définie (positive ou négative), on remarque que q est
non dégénérée car sinon il existe un vecteur x non nul dans Ker q, donc x est isotrope,
c’est-à-dire x ̸= 0 et q(x) = 0 ce qui donne une contradiction.

46
2.5 Espaces euclidiens
2.5.1 Inégalité de Cauchy-Schwarz
Soit E un R-espace vectoriel.

Théorème 2.23. Soit q une forme quadratique de E. On suppose q positive et on note


Q sa forme polaire. Pour tous x, y ∈ E, on a

Q(x, y)2 ≤ q(x)q(y).

De plus, si q est définie positive, on a égalité si et seulement si x et y sont colinéaires.

Démonstration. Soit t ∈ R, on considère le polynôme f : R → R défini par

f (t) = q(x + ty) = Q(x + ty, x + ty)


= Q(x, x) + Q(ty, ty) + 2Q(x, ty)
= q(x) + t2 q(y) + 2tQ(x, y).

Puisque q est positive, on a f (t) ≥ 0 pour tout t ∈ R. Si y est isotrope, alors le polynôme
f est de degré ≤ 1 et ne change pas de signe. Ceci n’est possible que s’il est constant et
donc Q(x, y) = 0. On a alors trivialement l’inégalité. Si y n’est pas isotrope, f (t) est un
polynôme de degré deux qui ne change pas de signe et donc son discriminant est négatif.
On calcule
∆ = (2Q(x, y))2 − 4q(x)q(y) ≤ 0,
et le résultat suit en divisant par 4 l’inégalité.
Supposons que q est définie positive. Si q(x) = 0 alors x = 0 et tout vecteur est
colinéaire à x. Sinon, l’égalité implique que le discriminant s’annule et f (t) a une racine
dans R, disons t0 . On a donc f (t0 ) = q(x + t0 y) = 0 donc x = −t0 y, c’est-à-dire x et y
sont colinéaires.

Corollaire 2.24. Soit q une forme quadratique positive, alors le noyau de q est égal au
cône isotrope de q.

Démonstration. On sait déjà que tout vecteur de Ker q est isotrope, il reste donc à
montrer la réciproque : tout vecteur isotrope est dans Ker q. Soit x un vecteur isotrope,
on obtient par le précédent théorème que, pour tout y ∈ E, on a

Q(x, y)2 ≤ q(x)q(y) = 0

d’où Q(x, y) = 0 pour tout y ∈ E d’où x ∈ Ker q.

Une application directe de ce corollaire est le résultat suivant

Proposition 2.25. Soit q est une forme quadratique positive. Alors, q est non dégénérée
si et seulement si q est définie.

47
2.5.2 Définitions et premières propriétés
On appelle espace euclidien un espace vectoriel réel E de dimension finie muni
d’une forme quadratique définie positive q. On appelle la forme polaire de q le produit
scalaire de E et on la note
⟨x, y⟩.
Pour x ∈ E, on pose p p
∥x∥ = q(x) = ⟨x, x⟩
la norme de x.
Par les résultats précédents, on sait que le produit scalaire est une forme bilinéaire
symétrique non dégénérée.
La norme vérifie les propriétés suivantes :
1. ∥x∥ ≥ 0 pour tout x ∈ E,
2. ∥x∥ = 0 si et seulement si x = 0,
3. ∥λx∥ = |λ| · ∥x∥ pour tout x ∈ E et λ ∈ R,
4. |⟨x, y⟩| ≤ ∥x∥ · ∥y∥ pour tout x, y ∈ E,
5. ∥x + y∥ ≤ ∥x∥ + ∥y∥ pour tout x, y ∈ E.
La propriété 1 vient de la définition de la norme comme racine carrée. Pour 2, on
utilise le fait que q est définie. La propriété 3 vient du fait que q(λx) = λ2 q(x). L’inégalité
de Cauchy-Schwarz donne 4. Finalement l’inégalité 5 est le résultat suivant.

Théorème 2.26 (Inégalité triangulaire). Pour tous x, y ∈ E, on a

∥x + y∥ ≤ ∥x∥ + ∥y∥.

Démonstration. On a d’une part

∥x + y∥2 = q(x + y) = q(x) + q(y) + 2⟨x, y⟩


= ∥x∥2 + ∥y∥2 + 2⟨x, y⟩.

Et, par l’inégalité de Cauchy-Schwarz, on a d’autre part


p p p
⟨x, y⟩ ≤ |⟨x, y⟩| = ⟨x, y⟩2 ≤ q(x) q(y) = ∥x∥ ∥y∥.

En remplaçant, on trouve

∥x + y∥2 ≤ ∥x∥2 + ∥y∥2 + 2∥x∥ ∥y∥ = (∥x∥ + ∥y∥)2 .

Donc on obtient l’inégalité voulue en prenant les racines carrées de chaque côté.

48

Vous aimerez peut-être aussi