Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Algebre 2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 51

Algèbre linéaire -LPOA

FaST-UK

Pagdame TIEBEKABE

2021-2022
Résumé

Nous commencerons par donner les fondements qui faciliteront son étude à travers dans les deux
premiers chapitres : Systèmes d’équations linéaires et calcul matriciel. Nous aborderons ensuite les
espaces vectoriels sur deux chapitres : espaces vectoriels et espaces vectoriels de dimension finie avant
de revenir sur les matrices mais cette fois-ci étudiées conjointement avec les applications linéaires
à travers les représentations matricielles d’une application linéaire, les changements de bases etc.
Nous terminerons par les déterminants qui sont des formes multilinéaires et leurs utilisations dans la
résolution de systèmes linéaires, dans le calcul d’inverse d’une matrice etc.
Table des matières

1 Systèmes d’équations linéaires 3


1.1 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Résolution par combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Système homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Réduction des matrices et résolution des systèmes . . . . . . . . . . . . . . . . . . . 7
1.3.1 Résolution des systèmes homogènes . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Résolution des systèmes non homogènes . . . . . . . . . . . . . . . . . . . 11

2 Calcul matriciel 14
2.1 Activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6 Retour aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7 Autres opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.1 Addition de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.2 Produit d’une matrice par un nombre . . . . . . . . . . . . . . . . . . . . . 21
2.7.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Déterminants 23
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Matrices de permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Déterminant et permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Mineurs et cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.6 Inverses de matrices et déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7 Retour sur les systèmes d’équations : Règle de Cramer . . . . . . . . . . . . . . . . 31

4 Espaces vectoriels 34
4.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.3 Combinaisons linéaires de vecteurs . . . . . . . . . . . . . . . . . . . . . . 36
4.2 Bases d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . . . . 39

1
5 Reduction des endomorphismes 44
5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . 44
5.2 Recherche des valeurs propres et vecteurs propres. Polynômes caractéristiques . . . . 45
5.3 Caractérisation des endomorphismes diagonalisable . . . . . . . . . . . . . . . . . . 46
5.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5 Les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5.1 Calcul de la puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . 47
5.5.2 Résolution d’un système de suites récurrentes . . . . . . . . . . . . . . . . . 48
5.5.3 Système différentiel linéaire à coefficients constants . . . . . . . . . . . . . 48
5.6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

2
Chapitre 1

Systèmes d’équations linéaires

Sommaire
1.1 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Résolution par combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Système homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Réduction des matrices et résolution des systèmes . . . . . . . . . . . . . . . . 7
1.3.1 Résolution des systèmes homogènes . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Résolution des systèmes non homogènes . . . . . . . . . . . . . . . . . . 11

Objectifs
— Donner une méthode générale permettant de résoudre des systèmes d’équations linéaires (p
équations et n inconnues).
— Énoncer un théorème donnant des critères permettant de déterminer, a priori, le nombre de
solutions d’un tel système (0, 1 ou ∞)

1.1 Activités
L’intersection de 3 droites dans le plan correspond à la résolution d’un système. Ainsi :
 
2x − 3y = 4
 a11 x1 + a12 x2 = b1 (D1 )

5x + y =0 se codifiera par a21 x1 + a22 x2 = b2 (D2 )
 
x − 2y =1 a31 x1 + a32 x2 = b3 (D1 )
 

avec a11 = 2, a12 = −3, b1 = 4, . . . et pour assurer la cohérence des indices, on note x = x1 et
y = x2 .
Le système peut ne pas avoir de solution (x1 , x2 ) car en général 3 droites ne sont pas toujours
concourantes.
De même l’intersection de 2 plans correspond à la résolution d’un système
(
a11 x1 + a12 x2 + a13 x3 = b1 (P1 )
a21 x1 + a22 x2 + a23 x3 = b2 (P2 )

3
où x1 = x, x2 = y, x3 = z dans les notations traditionnelles et les aij les coefficients numériques
des plans.
Et l’intersection de 3 plans est donné par

a11 x1 + a12 x2 + a13 x3
 = b1 (P1 )
a21 x1 + a22 x2 + a23 x3 = b2 (P2 )

a31 x1 + a32 x2 + a33 x3 = b3 (P3 )

qui peut avoir une seule solution (x1 , x2 , x3 ).


L’étude des systèmes a pour but de préciser les méthodes de résolution et de donner des critères
permettant de déterminer le nombre exact de solutions.

1.2 Résolution par combinaison linéaire


On considère un système de p équations à n inconnues noté comme suit :


 a11 x1 + · · · + a1n xn = b1

a21 x1 + · · · + a2n xn = b2

.. .. ..


 . . .

ap1 x1 + · · · + apn xn = bp

Les aij sont les coefficients du système, les bi sont les seconds membres des équations.

1.2.1 Système homogène


Définition 1. Le système est dit homogène si et seulement si tous les bi sont nuls.
Remarque.
Si (x1 , . . . , xn ) est une solution d’un système homogène alors (kx1 , . . . , kxn ), k ∈ R est aussi solu-
tion du système et donc (0, . . . , 0) est toujours solution d’un système homogène.
Cette remarque a pour conséquence qu’un système homogène :
— ou bien a pour unique solution (0, . . . , 0), on dit alors que c’est un système de Cramer.
— ou bien a une infinité de solutions.
Ces sytèmes homogènes vont jouer un rôle important dans la suite et nous établirons un critère per-
mettant de déterminer si un système homogène est de Cramer ou non.

1.2.2 Combinaison linéaire


C’est un outil puissant qui va nous permettre de résoudre les systèmes et qui au coeur de l’algèbre
linéaire.
Une combinaison linéaire des équations est obtenue par multiplication de chacune des
équations par un nombre et par addition des résultats obtenus :

c1 (a11 x1 + · · · + a1n xn ) + · · · + cp (ap1 x1 + · · · + apn xn ) = c1 b1 + c2 b2 + · · · + cp bp

Remarque. Observons que si (x1 , . . . , xn ) est solution du système alors il est automatiquement so-
lution de la nouvelle équation.
On peut ainsi fabriquer une infinité de nouvelles équations.
Nous souhaitons préserver l’ensemble des solutions du système de départ. Introduisons pour cela :

4
Définition 2. Deux systèmes sont équivalents si toute équation de l’un est obtenue
comme combinaison linéaire des équations de l’autre.

Théorème 1.1.
Deux systèmes équivalents ont le même ensemble de solutions.

Démonstration. C’est clair par la remarque précédente : toute solution du premier est solution du
deuxième qui est obtenu par combinaison linéaire et réciproquement.

Exemple 1.
1. L’ensemble des solutions du système
(
x1 − x2 =0
est {(0, 0)} .
2x1 + x2 =0

2. de même pour (
3x1 + x2 =0
c’est {(0, 0)} .
x1 + x2 =0
Le second système s’obtient à partir du premier en formant
1 4

0 = (x1 − x2 ) + (2x1 + x2 ) = 3x1 + x2

3 3
0 = (2x1 + x2 ) − 1 (x1 − x2 ) = x1 + x2
 2
3 3
Exo 1. Trouver les combinaisons linéaires qui expriment le premier système à l’aide du second.

Remarque. On peut se poser une question naturelle : étant donné deux systèmes quelconques com-
ment déterminer s’ils sont équivalents ou non ?
On remarquera que l’on peut faire beaucoup de combinaisons linéaires entre équations ; il faut donc
codifier notre procédure.

Nous allons introduire pour cela la notion de matrice des coefficients du système :
 
a11 . . . a1n
 .. .. .. 
 . . . 
A=  .. ..

.. 
 . . . 
ap1 . . . apn

Définition 3. C’est un tableau de p lignes de nombres, chaque ligne comporte n nombres,


on parle de n colonnes, chaque colonne comportant p nombres. On dit que A est une matrice
p × n.

Exemple
 2. 
1 2 3
 est une matrice 2 × 3,
4 5 6

5
 
1
 2 est une matrice 3 × 1, on parle aussi de matrice unicolonne ou de vecteur.
3
 
 4 5 6 est une matrice 1 × 3, on parle aussi de matrice uniligne.
 
1 0 ... 0
.
0 1 . . . .. 

 diag(1)n =  .. . . . .
 est une matrice carrée n×n avec des 1 sur la diagonale et 0 ailleurs.

. . . 0
0 ... 0 1
On l’appelle la matrice identité. Elle est souvent notée In .

Notation : Nous écrivons le système sous la forme AX = B avec


   
x1 b1
 ..   .. 
X =  .  et B =  . 
xn bp

Pour le moment, ceci n’est rien d’autre qu’une écriture abrégée du système.

Pour simplifier, nous écrirons souvent (a) pour signifier une matrice unicolonne formée que de
a s’il n y a pas d’ambiguïté sur la taille. Sinon on pourra toujours préfixé par la taille : (0)n sera un
vecteur nul i.e une matrice n × 1.
Pour une matrice uniligne, les parenthèses sont remplacées par des crochets.

1.2.3 Opérations élémentaires


Nous définissons maintenant des opérations élémentaires sur les lignes d’une matrice A ; il y en a
trois :
— Multiplier une ligne par un nombre non nul c.
— Permuter deux lignes.
— Ajouter à une ligne, une autre ligne mutipliée par un nombre c.

Remarque. Observons que ces opérations sont réversibles :


— quand on a multiplié une ligne par c 6= 0, on peut revenir à l’état initial en multipliant encore
1
par .
c
— On peut effectuer la permutation inverse.
— On peut ajouter à la ligne modifée, la ligne qui la modifie multipliée par −c.

Définition 4. Deux matrices sont ligne-équivalentes si on passe de l’une à l’autre


par l’utilisation exclusive des trois opérations élémentaires décrites ci-dessus.

Théorème 1.2.
Si A est ligne-équivalente à B, les deux systèmes homogènes AX = (0) et BX = (0) ont les
mêmes solutions.
Exemple 3. Le système 
2x1 − x2 + 3x3 + 2x4
 =0
x1 + 4x2 − x4 =0

2x1 + 6x2 − x3 + 5x4 =0

6
 
2 −1 3 2
a pour matrice A = 1 4 0 −1.
2 6 −1 5
     
2 −1 3 2 0 −9 3 4 0 −9 3 4 − 12 L3
L1 −2L1 L −2L2
1 4 0 −1 −−−−−→ 1 4
  0 −1 −−3−−−→ 1 4 0 −1 −−− −→
2 6 −1 5 2 6 −1 5 0 −2 −1 7
     
0 −9 3 4 0 0 15/2 −55/2 0 0 15/2 −55/2 2
L1
L1 +9L3 L −4L3
1 4 0 −1  −−−−−→ 1 4 0 −1  −−2−−−→ 1 0 −2 13  −15
−−→
0 1 1/2 −7/2 0 1 1/2 −7/2 0 1 1/2 −7/2
     
0 0 1 −11/3 0 0 1 −11/3 L − 1 L 0 0 1 −11/3
L2 +2L1 3 2 1
1 0 −2 13  −−−−−→ 1 0 0 17/3  −−−−−→ 1 0 0 17/3 
0 1 1/2 −7/2 0 1 1/2 −7/2 0 1 0 −5/3
Le système initial est équivalent grâce au théorème à

x3 − 11/3 x4
 =0
x1 + 17/3 x4 =0

x2 − 5/3 x4 =0

ce qui est beaucoup plus simple.

1.3 Réduction des matrices et résolution des systèmes


Les notions de matrice réduite sur les lignes, matrices ligne-équivalentes et matrices échelonnées
ne sont utiles que pour suivre ce chapitre mais ne sont à retenir qu’uniquement pour la méthode qui
est-sous-jacente pour résoudre les systèmes notamment le Pivot de Gauss.

1.3.1 Résolution des systèmes homogènes


Nous allons étudier le processus qui consiste à faire apparaître un 1 sur une ligne puis nettoyer la
colonne correspondante i.e faire apparaître des 0 excepté le 1. Ce processus est général :
Définition 5 (Matrice réduite).
On dira qu’une matrice R est réduite sur ses lignes si :
(i) Le premier élément non nul d’une ligne, qui ne comporte pas uniquement des zéros, est 1
(ii) Toute colonne qui contient le premier terme non nul d’une ligne a tous ses autres éléments nuls.
Exemple
 4. 
0 1 0 2
1 0 0 3
0 0 1 0 est réduite suivant les lignes.
 

0 0 0 0
 
1 1 0 0 1 0
0 0 1 0 1 0 
0 0 0 1 0 0 est réduite suivant les lignes.
 

0 0 0 0 0 0
 
1 0 0 2
n’est pas réduite (le premier terme non nul de la ligne 2 est 3 et non 1).
0 3 0 0

7
 
0 1 −1
1 0 1 n’est pas réduite à cause de la troisième colonne.
0 0 1

Théorème 1.3.
Toute matrice est ligne-équivalente à une matrice réduite suivant les lignes.

Démonstration. Nous allons, en général, faire le travail de nettoyage des lignes et des colonnes en
suivant le processus suivant :
On fait apparaître un 1 dans la première colonne (pour cela il faut évidemment que tous ses éléments
ne soient pas nuls) puis, à l’aide de ce 1, on va par combinaison linéaire éliminer tous les autres termes
et ensuite on passe à la deuxième colonne et ainsi de suite... Ce processus ayant une fin, nous arrivons
ainsi à une matrice réduite.

Exemple 5. Réduisons  
3 −1 2
2 1 1 .
1 −3 0
On peut évidemment diviser la première ligne par 3, mais cela risque de faire apparaître des fractions,
ce qui n’est pas de tout repos. Il vaut mieux garder le 1 de la dernière ligne. pour nettoyer la première
colonne :      
3 −1 2 1
0 8 2 1
0 8 2
L1 =L1 −3L3 L =L2 −2L3
2 1 1 − −−−−−−−→ 2 1 1 −−2−−−−−−→ 0 7 1
1 −3 0 1 −3 0 1 −3 0
On fait apparaître un 1 sur la première ligne :


0 1 1/4
L21 = 81 L11
−−−−−→ 0 7 1 
1 −3 0

On nettoie la deuxième colonne :


   
0 1 1/4 0 1 1/4
L22 =L2 −7L21 L23 =L3 +3L21
−−−−−−−−→ 0 0 −3/4 −−−−−−−−→ 0 0 −3/4
1 −3 0 1 0 3/4

on fait apparaître un 1 sur la deuxième ligne :


 
0 1 1/4
L32 =− 34 L22
−−−−−−→ 0 0 1 
1 0 3/4

et on nettoie la dernière colonne :


   
3 2 1 3
L1 =L1 − 4 L2
0 1 0 3 2 3 3
L3 =L3 − 4 L2
0 1 0
−−−−−−− −→ 0 0 1  −−−−−−− −→ 0 0 1
1 0 3/4 1 0 0

Remarque.
— Penser toujours à nommer les changements Lji .

8
— On voit sur l’exemple ci-dessus qu’il serait intéressant de ranger les 1 pour obtenir la forme
 
1 0 0
0 1 0
0 0 1

C’est ce qui motive la définition suivante :

Définition 6.
Une matrice est dite échelonnée et réduite suivant ses lignes si :
a) elle est réduite suivant ses lignes.
b) Toute ligne n’ayant que des zéros est située en dessous des lignes ayant au moins un élément non
nul.
c) Si les lignes non nulles sont 1, . . . , p, si le terme valant 1, qui est en tête de la ligne i, se trouve
dans la colonne ki , la suite (ki ) est strictement croissante i.e k1 < k2 < · · · < kp .

Exemple 6. Les matrices suivantes sont-elles échelonnées et réduites suivant les lignes ?
     
1 0 2 0 0 1 0 2 0 0 1 0
A = 0 0 0 0 , B = 0 0 1 0 , C = 0 0 0 1 ,
0 0 1 0 0 0 0 0 1 0 0 0

Théorème 1.4.
Toute matrice est ligne-équivalente à une matrice échelonnée et réduite suivant les lignes.

Démonstration. Il suffit de montrer que toute matrice réduite suivant les lignes est ligne équivalente
à une matrice échelonnée et réduite suivant les lignes.
Soit A une matrice réduite suivant les lignes. Alors :
i) en permutant les lignes, on peut mettre celles ne contenant que des zéros en-dessous des lignes
ayant au moins un élément non nul.
ii) Parmi les lignes n’ayant pas que des zéros soit k1 , . . . , ki , la colonne du premier terme non nul
des lignes L1 , . . . , Li : les kj sont tous distincts puisque la matrice est réduite suivant les lignes,
on peut donc ranger les kj par ordre croissant et en permutant les lignes de manière à les ranger
dans cet ordre, on obtient une matrice réduite suivant les lignes et échelonnée.

Observons que ceci réduit considérablement les systèmes. Ainsi, soit :



3x1 − x2 + 2x3 = 0
 
 3 −1 2
2x1 + x2 + x3 = 0 de matrice 2 1 1
1 −3 0

x1 − 3x2 =0

On arrive à 
x1 = 0
 
1 0 0 
0 1 0 d’où x2 = 0 .
0 0 1

x3 = 0

9
En général pour n inconnues on obtiendra, en supposant que le terme valant 1 de la ligne i est
dans la colonne ki et qu’il y en a p :

Xn
x + α1j xj = 0



 k 1


 j=p+1
.. .. ..

. . .
n



 X
xkp + αpj xj = 0



j=p+1

On remarque que ceci impose p < n. Dans ce cas, on donnera des valeurs arbitraires à xp+1 , . . . , xn
et on en déduira xk1 , . . . , xkp par ces équations. Ceci conduit au théorème général suivant.
Théorème 1.5.
Soit le système AX = (0), p étant le nombre d’équations et n le nombre d’inconnues.
i) si n > p, alors il existe une infinité de solutions,
ii) si n = p et si A est équivalente à la matrice identité diag(1), alors il existe une unique
solution, le n-uplet composé de 0 ; si A n’est pas équivalente à la matrice identité, il y a une
infinité de solutions.
iii) si n < p, il faut regarder un sous système à n équations et n inconnues et se ramener au cas
ii), puis vérifier si les solutions obtenues satisfont les p − n équations restantes. Il peut y avoir
0, une seule ou une infinité de solutions.
Démonstration.
i) A est ligne-équivalente à une matrice réduite échelonnée B. Donc les solutions du système
AX = (0) sont les mêmes que celles du système BX = (0).
Si m est le nombre de lignes non nulles de B, on a m 6 p et donc m < n, on est dans la situation
décrite ci-dessus : il y a une infinité de solutions non nulles.
ii) Comme toujours, nous devons prouver que : si A est ligne-équivalente à la matrice identité In
alors AX = (0) n’a que (0) comme solution et inversement.
Si A est équivalente à In , alors AX = (0) et In X = (0) ont les mêmes solutions mais ce dernier
système s’écrit : x1 = 0; x2 = 0; . . . ; xn = 0.
Inversement, si AX = (0) n’a que (0) comme solution, soit B réduite et échelonnée, ligne-
équivalente à A. Comme AX = (0) n’a qu’une solution x1 = · · · = xn = 0, BX = (0)
aussi. Donc B ne peut avoir de ligne contenant uniquement des zéros (sinon il y aurait d’autres
solutions que celle nulle). D’où B = In .
iii) Dans le cas où n < p i.e qu’il y a plus d’équations que d’inconnues, on extrait un sous-système
de n équations à n inconnues. Deux cas peuvent alors se produire :
— La matrice d’un sous-système (n, n) est équivalente à la matrice identité : le sous système
admet alors pour unique solution le n − uplet : (0, . . . , 0) et le système également puisqu’il
est homogène.
— aucun sous-système de n équations à n inconnues n’a sa matrice équivalente à la matrice
identité, il y a donc indétermination et le système admet une infinité de solutions.

Exemple 7. Considérons le système



3x + 4y
 =0
S1 = 7x − 15y =0.

x + 8y =0

10
Ce système admet pour unique solution le couple (0, 0) puisque le sous-système composé des deux
premières équations a sa matrice équivalente à l’identité.

Exemple 8. Le système S2 : 
−3x − 4y
 =0
S2 = 15x + 20y =0.

6x + 8y =0

admet une infinité de solutions : les trois équations sont proportionnelles. Les solutions sont les
couples du type (4k, −3k).

Remarque.
— On peut faire le parallèle avec la géométrie analytique : un système homogène de deux équa-
tions à deux inconnues correspond à la recherche dans le plan de l’intersection de deux droites
passant par l’origine. Le cas où A est équivalente à l’identité est celui où les deux droites sont
distinctes car les vecteurs directeurs ne sont pas proportionnels. Ces deux droites ont alors un
unique point commun : l’origine (0, 0).
— Dans le théorème on parle d’une infinité de solutions, cette infinité est à préciser dans chaque
cas.

1.3.2 Résolution des systèmes non homogènes


Dans le cas d’un système non homogène on dispose également d’une méthode pour résoudre le
système, toujours la même, les combinaisons linéaires d’équations sur la matrice dite augmentée.

Définition 7. On appelle matrice augmentée d’un système d’équations linéaires de


matrice A la matrice obtenue en rajoutant à A une dernière colonne formée des coefficients
des seconds membres des équations.

Notation : On note    
b1 a11 . . . a1n b1
 = A ...  =  ... .. .. ..  .
  
. . .
bp ap1 . . . apn bp

Théorème 1.6.
i) Si la matrice A est carrée et si le système AX = (0) admet une solution unique, alors le
système AX = B admet une solution unique.
ii) Si le système AX = (0) admet une infinité de solutions alors le système AX = B ou bien
n’admet pas de solution ou bien admet une infinité de solutions.
Démonstration.
i) Si le système AX = (0) admet une unique solution et si A est carrée alors A est équivalente à la
matrice identité, 
donc en réduisant
 la matrice augmentée du système AX = B, on obtiendra une
c1
matrice du type In ...  qui donne immédiatement la solution du système : xi = ci , ∀i ∈
 

cn
[[1, n]].

11
ii) L’essentiel de la preuve réside dans cette remarque : si X est une solution de AX = (0) et X 0 une
solution de AX = B, alors X + X 0 est également une solution de AX = B. Pour comprendre
cette remarque, il faut se représenter la matrice somme X + X 0 obtenue de la manière suivante :
x1 + x01
 

X + X0 = 
 .. 
. 
xn + x0n

et remarquer que A(X + X 0 ) = AX + AX 0 . Nous reviendrons sur l’addition des matrices


au chapitre suivant. On peut noter le parallèle avec les résolutions d’équations différentielles
linéaires : les solutions sont obtenues en ajoutant une solution du système homogène et une
solution particulière.
Si le système AX = (0) admet une infinité de solutions alors ou bien AX = B n’admet pas de
solution ou bien s’il en admet une X 0 , il en admet une infinité, chaque solution étant obtenue en
ajoutant à X 0 une solution de AX = (0). Dans le cas où les coefficients du système dépendent
d’un paramètre apparaissent des conditions de compatibilité : si elles sont satisfaites, il y a une
infinité de solutions, sinon, il n’y a pas de solution.

Définition 8. La méthode d’élimination de Gauss consiste à transformer un système linéaire


en un système équivalent qui est sous forme triangulaire ou sous forme échelonnée. La résolution se
faisant ensuite par "remontée".
La méthode d’élimination de Gauss-Jordan consiste à transformer un système linéaire en
un système équivalent dont la matrice augmentée est sous forme échelonnée et réduite suivant les
lignes ; le procédé s’utilise aussi sur les matrices.
Exemple 9.
    
 x1 − 2x2 + x3 = b1 1 −2 1 1 −2 1 b1
2x1 + x2 + x3 = b2 A = 2 1 1 et  = 2 1 1 b2 
5x2 − x3 = b3 0 5 −1 0 5 −1 b3

que l’on réduit en suivant les opérations suivantes :


   
1 −2 1 b1 L22 = 51 L12
1 −2 1 b1
L12 =L2 −2L1
 −−−−−−−−→ 0 5 −1 b2 − 2b1  −−−−−→ 0 1 −1/5 15 b2 − 52 b1 
0 5 −1 b3 0 5 −1 b3
2
b2 + 15 b1
   
1 −2 1 b1 1 0 3/5 5
L13 =L3 −5L2 L1 =L +2L2
−−−−−−−−→ 0 1 −1/5 1 2  −−1−−−1−−−→ 2  1 2
5 b2 − 5 b1 0 1 −1/5 5 b2 − 5 b1

0 0 0 b3 − b2 + 2b1 0 0 0 b3 − b2 + 2b1
ce qui signifie que le système de départ est équivalent au suivant :
3 2 1

 x1 + 5 x3 = 5 b2 + 5 b1
x2 − 15 x3 = 1 2
5 b2 − 5 b1
0 = b3 − b2 + 2b1

Ceci met en évidence une condition nécessaire de résolution : b3 − b2 + 2b1 = 0.


Si ce n’est pas vérifié, le système est impossible. Dans le cas où ceci est vérifié, alors il y a une infinité
de solutions en prenant x3 arbitraire et
(
x1 = − 53 x3 + 52 b2 + 15 b1
.
x2 = 51 x3 + 15 b2 − 52 b1

12
Exemple 10. Utilisez la méthode d’élimination de Gauss-Jordan pour résoudre le système suivant

 x1 − 2x2 − 3x3 = −1
x1 − x2 − 2x3 = 1
−x1 + 3x2 + 5x3 = 2

13
Chapitre 2

Calcul matriciel

Sommaire
2.1 Activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6 Retour aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7 Autres opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.1 Addition de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.2 Produit d’une matrice par un nombre . . . . . . . . . . . . . . . . . . . . 21
2.7.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.1 Activité
Nous allons dégager un calcul simple sur les matrices qui va nous permettre de donner un sens à
l’écriture AX = B. Par exemple pour définir un produit de la matrice
   
4 −5 2 x1
A = 6 2 −1 par la matrice X = x2 
0 4 −1 x3

pour obtenir le système homogène d’où elles sont issues à savoir



4x1 − 5x2 + 2x3 = 0

6x1 + 2x2 − x3 = 0

+ 4x2 − x3 = 0

On multiplie successivement chacun des éléments de la première ligne de la matrice A par chacun
des éléments de la colonne X et on ajoute les résultats obtenus ; ceci donne le premier élément du
produit, puis on recommence avec la 2e ligne puis avec la 3e.

Remarque. Il doit y avoir autant d’éléments sur une ligne de A qu’il y a d’éléments de la colonne X.

14
2.2 Produit de deux matrices
Nous définirons ainsi le produit de deux matrices A(n × p) B(r × q).
a) Si p 6= r : le produit n’est pas défini.
b) Si p = r : on multiplie A par B suivant le processus précédent en construisant une matrice n × q
qui a autant de lignes que A et autant de colonnes que B. L’élément (i, j) est situé à l’intersection
de la ie ligne et de la j e colonne de la matrice considérée.
La nouvelle matrice est obtenue en multipliant le premier élément de la ie ligne de A par le premier
élément de la j e colonne de B puis le 2e élément de la ie ligne de A par le 2e élément de la j e colonne
de B et ainsi de suite jusqu’au dernier et en additionnant ces produits.
NB : Le produit est donc Ligne - Colonne (Li-Co).
 
  b11 b12
a11 a12 a13
Exemple 11. Soient A = et B = b21 b22 . Puisque le nombre de colonnes
a21 a22 a23
b31 b32
de A est égal au nombre de lignes de B, le produit AB est possible, soit C = AB, on utilise la
disposition suivante :
   
a11 a12 a13 a11 b11 + a12 b21 + a13 b31 a21 b11 + a22 b21 + a23 b32
a21 a22 a23 a11 b12 + a12 b22 + a
13 b32 a21b12 + a22 b21 + a23 b32
b11 b12
b21 b22 
b31 b32
Exemple 12. Peut-on multiplier les matrices suivantes ? Si oui effectuer les produits :
 
 2 2
1. A = 1 −1 2 et B =
−4 2
   
−1 2 2 2 −1
2. A = et B =
1 2 −4 2 0
 
 2
3. A = 1 −1 2 et B = 3
2

Définition 9. Deux matrices sont égales si elles ont même nombre de lignes et même
nombre de colonnes et si leurs éléments de même rang sont les mêmes.

Remarque. Si les produits AB et BA sont définis, on n’a pas en général AB = BA. Le produit
matriciel est non commutatif.

Notations
On définit alors l’écriture condensée de l’élément (i, j) du produit de la matrice A = (akl )m,n et
B = (bpq )n,s , avec les conditions 1 6 k 6 m, 1 6 l 6 n, 1 6 p 6 n, 1 6 q 6 s. Rappelons que
l’élément akl est à l’intersection de la k e ligne de A et de sa le colonne.
Soit C = AB = (cij )m,s . On a vu que 1 6 i 6 m et 1 6 j 6P s : A détermine le nombre de lignes de
C et B le nombre de colonnes de C. En utilisant le symbole , on a :
n
X
cij = aiu buj .
u=1

15
Théorème 2.1.
Soient A, B, C trois matrices telles que les produits BC et A(BC) soient définis. Alors on peut
définir (AB)C et on a : A(BC) = (AB)C “Associativité”.
Démonstration. Si B est n × s, puisque BC a un sens, C a autant de lignes que B de colonnes : soit
s. Donc C est une matrice s × p (p quelconque a priori).
Le produit BC est une matrice n × p. A est donc une matrice q × n (q quelconque) et A(BC) une
matrice q × p.
On peut multiplier A(q × n) par B(n × s) et on obtient AB(q × s) que l’on multiplie par C(s × p)
pour obtenir (AB)C matrice q × p.
Soient (αij ) = A(BC) et (βij ) = (AB)C. On a
n
X n
X s
X
αij = Air (BC)rj = Air Bru Cuj
r=1 r=1 u=1
n X
s s n
!
X X X
= Air Bru Cuj = Air Bru Cuj
r=1 u=1 u=1 r=1
Xs
= (AB)iu Cuj = βij
u=1

D’où le théorème.

Remarque. Le produit matriciel est une opération associative.

2.3 Puissance d’une matrice


Une fois que le produit matriciel est défini, on peut facilement définir les puissances positives
d’une matrice.
Ainsi, soit A une matrice n × n et soit m un entier naturel. La puissance me de A est définie par :

A0 = In et Am+1 = Am A.

2.4 Matrices élémentaires


Comme dans le cas des systèmes linéaires, on peut faire des combinaisons linéaires sur les lignes.
Nous allons donner une écriture matricielle de la transformation d’une matrice par combinaison li-
néaire des lignes. Ceci pour vous familiariser avec le calcul matriciel, mais aussi pour obtenir une
nouvelle forme du théorème de discussion des solutions d’un système linéaire AX = B.

Exemple 13.
   
0 1 2 −4
1. Multiplier par .
1 0 3 2

Observation :
     
0 1 2 −4 3 2
· = : on a permuté les deux lignes.
1 0 3 2 2 −4
   
1 t 2 −4
2. Multiplier par .
0 1 3 2

16
Observation :
     
1 t 2 −4 2 + 3t −4 + 2t
· = : on a ajouté à la première ligne t fois la seconde.
0 1 3 2 3 2
   
1 0 2 −4
3. Multiplier par .
t 1 3 2

Observation :
     
1 0 2 −4 2 −4
· = : on a ajouté à la deuxième ligne t fois la première.
t 1 3 2 2t + 3 −4t + 2
Remarque.
   
0 1 1 0
• est obtenue à partir de en permutant les deux lignes.
1 0 0 1
   
1 t 1 0
• est obtenue à partir de en ajoutant à la première ligne t fois la seconde.
0 1 0 1
 
1 0
• idem sur la deuxième ligne.
t 1

Définition 10. Une matrice élémentaire est une matrice obtenue à partir de la
matrice identité en lui faisant subir une opération élémentaire sur les lignes

Remarque. Une matrice élémentaire est toujours carrée.


Théorème 2.2.
Si e(A) est la matrice transformée de A(n × m) par l’opération élémentaire e et si E = e(In ) est
la transformée de la matrice identité In par e alors on a : e(A) = EA.
Autrement dit : pour modifier A par une opération élémentaire e, on la multiplie à gauche par la
transformée de la matrice identité par l’opération e.
Démonstration. Prouvons le théorème ( dans le cas de l’opération qui consiste à ajouter à la ligne i, la
0 si p 6= q
ligne j multipliée par c ; soit δpq = .
1 si p = q
!
δrk si r 6= i
Erk =
δik + cδjk si r = i

est la matrice Im modifiée par e.


m
!
X Apq si p 6= i
(EA)pq = Epu Auq =
u=1
Aiq + cAjq si p = i

En utilisant le chapitre précédent on a :


Théorème 2.3.
A est équivalente suivant les lignes à B s’il existe une matrice P , produit d’un certain nombre de
matrices élémentaires telles que : B = P A.
Démonstration. C’est clair : B = Ek Ek−1 . . . E2 E1 A où Ej désigne une opération élémentaire
permettant de passer de A à B.

17
Corollaire 2.4. Si A est une matrice m × n, il existe des matrices élémentaires m × m : E1 , E2 ,...,
Ek telles que la matrice Ek Ek−1 . . . E2 E1 A soit sous forme échelonnée réduite.
 
0 1 2
Exemple 14. Soit A = On peut facilement la mettre sous forme échelonnée réduite en
2 1 0
appliquant successivement les opérations élémentaires suivantes :

L1 ↔ L2 ; L1 → 1/2L1 ; L1 → L1 − 1/2L2 .
 
1 0 −1
pour obtenir B = . D’où B = E3 E2 E1 A avec
0 1 2
     
0 1 1/2 0 1 −1/2
E1 = ; E2 = ; E3 =
1 0 0 1 0 1

2.5 Matrices inversibles


On se limite aux matrices carrées A(n × n) et on doit faire attention au fait que le produit de
matrice n’est pas commutatif :

Définition 11. On dit que B est un inverse à gauche pour A (resp. un inverse à
droite) pour A si BA = In (resp. AB = In ).

Remarque. L’inverse à gauche et à droite de A s’ils existent sont toujours les mêmes.
Lemme 2.5. Si BA = AC = In alors B = C
Démonstration. En effet, B = BIn = B(AC) = (BA)C = In C = C.

Notation : Quand il existe, on note A−1 l’inverse (à droite et à gauche) de A.


Théorème 2.6.
On a alors :
a) (A−1 )−1 = A
b) (AB)−1 = B −1 A−1 (Attention à l’ordre des facteurs).
Démonstration.
a) Trivial.
b) (AB)(B −1 A−1 ) = A(BB −1 )A−1 = In .

Proposition 2.7. Toute matrice élémentaire est inversible.


Remarque. Si A est inversible, son inverse A−1 est unique.
Démonstration. L’inverse de la matrice élémentaire E est la matrice élémentaire obtenue à partir de
In en lui faisant subir l’opération élémentaire inverse qui a conduit à E.

Exemple 15.
 −1  
1 c 0 1 −c 0
0 1 0 = 0 1 0
0 0 1 0 0 1
On a aussi :  −1  
2 0 0 1/2 0 0
0 1 0 =  0 1 0
0 0 1 0 0 1

18
On a alors un théorème qui caractérise les matrices inversibles.
Théorème 2.8.
Si A est une matrice inversible n × n. Il est équivalent de dire que :
i) A est inversible
ii) A est équivalente pour les lignes à In .
iii) A est produit de matrices élémentaires.
Démonstration. On sait réduire A à une matrice N de la forme :
 
1 ... ... 0 ... 0
0 . . .
 .. .. 
 . .
 .. . . 
. . 0 
 
0 . . . 0 1 0 ... 0
 
0 . . . 0 ... 0
 
 .. .. .. 
.
 . . 
 .. 
 . 
0 ... ... ... 0
Donc N = Ek . . . E1 A où Ei est un matrice élémentaire pour tout i = 1..k.
D’où A = E1−1 E2−1 . . . Ek−1 N .
Par conséquent A est inversible si et seulement si N est inversible. Or N ne le sera que si et seulement
si N = In .

Définition 12. La matrice N définie dans la preuve ci-dessus est dite forme normale de A.
Remarque. A est ligne-équivalente à B si et seulement si il existe une matrice inversible P telle que
B = P A.
Corollaire 2.9. Si l’on applique à In la succession des opérations qui conduisent A à In , on obtiendra
A−1 .
Démonstration.
In = Ek . . . E2 E1 A
−1
équivaut à A = Ek . . . E2 E1 In

Remarque. Ce corollaire nous donne un moyen à la fois pour déterminer si une matrice est inversible
et pour calculer dans ce cas son inverse. C’est donc mieux qu’un théorème d’existence.
 
2 −1
Exemple 16. Inverser A = .
1 3
Méthode : Une disposition pratique consiste à travailler avec la matrice augmentée de la matrice
unité et faire d’une pierre deux coups. A gauche on cherche à réduire notre matrice A en la matrice
identité et ces mêmes opérations transforment notre matrice identité à droite en l’inverse de A d’après
le corollaire.
     
.. 0 0
.. (2) 0 0
..
2 −1 . 1 0 L1 =L−→ 1 3 . 0 1 2 −→ 1 3 . 0 1 
2 ;L2 =L1 L =L2 −2L1
.. .. .
1 3 . 0 1 2 −1 . 1 0 0 −7 .. 1 −2
   
(3) (2) .. (2) 0 −3L(3)
..
L2 =− 71 L2
1 3 . 0 1  1 1 0 . 3/7 1/7
L =L1 2
−→ .. −→ .
0 1 . −1/7 2/7 0 1 .. −1/7 2/7

19
 
3/7 1/7
Ainsi A−1 =
−1/7 2/7
Exo 2. Inverser :    
1 4 1 2 −1 0
2 5 5/2 ; −1 2 −1
3 6 4 0 −1 2

2.6 Retour aux systèmes linéaires


Nous allons maintenant énoncer le théorème qui permet de déterminer le nombre de solutions
d’un système linéaire de n équations à n inconnues.

Théorème 2.10.
Il y a équivalence entre :
1) A est inversible.
2) AX = 0 n’a que X = 0 comme solution.
3) AX = Y a une solution unique (X = A−1 Y ) pour toute matrice Y (n × 1).
4) A est produit de matrices élémentaires.
5) La forme normale de A est In .
Démonstration.
1) ⇒ 2) : Si A est inversible, alors AX = 0, en composant par A−1 , on a X = 0.
2)⇒ 1) : 2) signifie que A est ligne-équivalente à In . Ceci entraîne que A est inversible. Donc 1) et 2)
sont équivalentes.
1) ⇒ 3) : Si A est inversible, AX = Y a une solution X = A−1 Y
  soit R = P A une matrice réduite équivalente à A. Montrons que R = In .
Réciproquement,
0
 .. 
Soit Z =  . . Alors RX = Z ⇐⇒ P AX = Zet puisque P est inversible, on a AX = P −1 Z.
 
0
1
En considérant le second membre comme Y , cette équation a une solution X. Ceci montre que le
dernière ligne de R ne peut être formée de 0 car sinon dans le produit le dernier terme serait 0 : RX
  0
···  .. 
serait · · · 6=  .  et l’on ne pourrait trouver X, ce qui est l’hypothèse 3). D’où Rn = In .
 
0
0
1
Corollaire 2.11.
A = A1 · · · Ak est inversible si et seulement si Aj est inversible pour tout j.

Démonstration. Supposons A inversible. On montre que Ak est inversible en regardant un système


Ak X = 0 et en cherchant à voir que X = 0 est une solution :
Ak X = 0 implique A1 · · · Ak X = AX = 0.
Or A est inversible, donc X = 0 est une solution : d’où Ak est inversible.
Maintenant A1 · · · Ak−1 = AA−1k et on recommence avec Ak−1 et ainsi de suite jusqu’à A1 .
Réciproquement si chaque Aj est inversible alors A aussi et A = A−1 −1
k · · · A1 .

20
2.7 Autres opérations sur les matrices
Pour répondre au problème posé au chapitre précédent : la résolution des systèmes linéaires, il
a été commode d’introduire un nouvel objet mathématique : les matrices et une opération sur ces
matrices : le produit, défini moyennant une condition sur le nombre de colonnes de l’une et de lignes
de l’autre.
Il se trouve que les matrices ont beaucoup d’autres applications en algèbre linéaire comme nous
le verrons dans les chapitres à venir et nous aurons besoin de deux autres opérations sur les matrices.

2.7.1 Addition de deux matrices

Définition 13. Soient A et B deux matrices de même taille (n × m) d’élément générique


respectifs aij et bij , on définit leur somme comme étant la matrice (n × m) d’élément
générique cij tel que : cij = aij + bij pour tout i = 1, ..., n et j = 1, ..., m. Autrement dit,
la somme se fait terme à terme.

2.7.2 Produit d’une matrice par un nombre

Définition 14. Rappelons que les éléments d’une matrice sont des nombres réels ou com-
plexes, on peut donc définir le produit d’une matrice par un nombre réel ou complexe λ
de la manière suivante : l’élément générique cij du produit d’une matrice (n × m) par un
nombre réel ou complexe λ est donné par : cij = λaij .

Exemple 17.    
1/2 1 3 1 2 6
2 = .
2 1/4 4 4 1/2 8

2.7.3 Transposée d’une matrice

Définition 15. Soit A une matrice m × n. La transposée de A, notée AT est la matrice


n × m dont l’entrée (i, j) correspond à l’entrée (j, i) de la matrice A. Autrement dit, les
colonnes de A deviennent les lignes de AT .

 
1 2  
T 1 3 5
Exemple 18. Si A = 3 4 alors A =
2 4 6
5 6

Définition 16. Une matrice qui est égale à sa transposée i.e si AT = A alors on dit que A
est symétrique.
Si AT = −A, on dit que A est antisymétrique

Remarque.
Il est clair que les matrices symétriques comme antisymétriques sont des matrices carrées.

Proposition 2.12 (Propriétés).


i) A + B = B + A (commutativité de + )

21
ii) (A + B) + C = A + (B + C) (associativité de + )
iii) A + 0 = A
iv) A(B + C) = AB + AC (distributivité)
v) (A + B)C = AC + BC (distributivité)
vi) A − B = A + (−1)B
vii) (cd)A = c(dA)
viii) c(AB) = (cA)B = A(cB)
ix) c(A + B) = cA + cB
x) (c + d)A = cA + dA
xi) (A + B)T = AT + B T
xii) (AB)T = B T AT .

Ces propriétés sont des conséquences directes des définitions.

22
Chapitre 3

Déterminants

Sommaire
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Matrices de permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Déterminant et permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Mineurs et cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.6 Inverses de matrices et déterminants . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7 Retour sur les systèmes d’équations : Règle de Cramer . . . . . . . . . . . . . 31

A chaque matrice carrée on peut associer un scalaire appelé déterminant de celle-ci. Le détermi-
nant est très important et central en théorie matricielle. Grâce au déterminant on peut dire si oui ou
non une matrice est inversible. Une notion très importante est le polynôme caractéristique d’une ma-
trice qui est un déterminant. Grâce au polynôme caractéristique, on peut effectuer des manipulations
et opérations matricielles avancées telles que réduire des matrices etc.

3.1 Définitions
Soit A = (aij )n,n une matrice carrée sur un corps K (R ou C). Nous allons définir le déterminant
de la matrice A que nous noterons par

a11 a12 . . . a1n


a21 a22 . . . a2n
det A ou .. .. ..
. . ... .
an1 an2 . . . ann

Dans les cas particuliers : n = 1, n = 2, il est facile de définir le déterminant de A :


A = (a11 ) , det A = det(a11 ) = |a11 | = a11 .
a11 a12
A = (aij )2,2 , det A = = a11 a22 − a12 a21
a21 a22
Exemple 19.
• |−1| = −1
1 2
• = 1 × 4 − 2 × 3 = −2
3 4

23
Remarque. Qu’est-ce qui motive le choix de l’expression : a11 a22 − a21 a12 ?
Cela nous provient des systèmes linéaires. Supposons par exemple qu’on souhaite résoudre le sys-
tème : (
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
En utilisant la méthode par combinaison pour éliminer la variable x2 en additionnant les deux équa-
tions, on a :
(a11 a22 − a12 a21 )x1 = b1 a22 − a12 b2 .
Cette équation exprime x1 comme quotient de deux déterminants

b1 a12
b2 a22
x1 =
a11 a12
a21 a22

à condition bien sûr que le dénominateur ne s’annule pas. On peut avoir une expression similaire pour
x2 .
Pour un déterminant d’ordre 3, en utilisant la même idée, on arrive à la définition suivante :

a11 a12 a13


det(aij )3,3 = a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a32 a21
a31 a32 a33
− a12 a21 a33 − a13 a31 a22 − a11 a23 a32

3.2 Matrices de permutations


Avant de donner une définition formelle du déterminant, nous allons d’abord voir comment les
permutations peuvent être représentées par des matrices.

Définition 17. Une matrice n × n est appelée matrice de permutation si elle peut
être obtenue à partir de la matrice identité In en réarrangeant les lignes ou les colonnes.

Exemple 20. La matrice  


0 1 0
0 0 1 
1 0 0
est obtenue à partir de I3 en faisant une permutation circulaire : C1 → C2 → C3 → C1 .
Les matrices de permutation sont faciles à reconnaître du fait que chaque ligne comme chaque
colonne contient exactement un ‘1’ tandis que les autres entrées sont ‘0’.
Considérons une permutation (i1 i2 . . . in ) de (1 2 . . . n) et soit P la matrice de permutation dont
l’entrée (j, ij ) vaut 1 et les autres 0, j = 1, 2, . . . , n. On a Cj → Cij et
   
1 i1
 2   i2 
P . =  . 
   
 ..   .. 
n in

24
Donc le fait de multiplier le vecteur (1, 2, . . . , n) par une matrice de permutation à gauche fournit la
permutation correspondante (i1 i2 . . . in ).

Exemple 21. Considérons la permutation (4 2 1 3). La matrice de permutation correspondante est


obtenue par C1 → C4 , C2 → C2 , C3 → C1 , C4 → C3 . Elle vaut :
 
0 0 0 1
0 1 0 0
 
1 0 0 0
0 0 1 0

Et on verifie :      
0 0 0 1 1 4
0 1 0 0 2 2
 · = 
1 0 0 0 3 1
0 0 1 0 4 3

3.3 Déterminant et permutations


Nous pouvons maintenant définir le déterminant d’une matrice n × n.

Définition 18. Soit A = (aij )n,n


Xune matrice carrée. Le déterminant de A est défini par
la relation suivante : det A = sign(i1 i2 . . . in )a1i1 a2i2 . . . anin , où la somme est
i1 ,i2 ,...,in
définie sur toutes les permutations de Sn .

Remarque. D’après la définition, le déterminant de A est une somme de n! termes, chaque terme
étant un produit de n éléments de A : un sur chaque ligne et un sur chaque colonne.
Le signe d’un terme est déterminé par la parité de la permutation.
Un déterminant qu’on peut facilement calculer est celui de la matrice identité :

det In = 1

En effet, seule la permutation (1 2 . . . n) correspond à un terme non nul dans la définition du det In .

Exemple 22. Dans le cas n = 3 :


Les permutations paires sont : 1, 2, 3 2, 3, 1 3, 1, 2
Les permutations impaires sont : 2, 1, 3 3, 2, 1 1, 3, 2.
Si on écrit le déterminant avec l’ordre ci-dessus, on obtient :

a11 a22 a33 + a12 a23 a31 + a13 a21 a32


− a12 a21 a33 − a13 a22 a31 − a11 a23 a32

On pourrait de manière similaire écrire le déterminant d’une matrice d’ordre 4 comme somme de
4! = 24 termes : 12 termes de signes positifs et 12 termes de signes négatifs.

25
Règle de Sarrus
Pour calculer le déterminant d’une matrice carrée 3×3, on recopie les deux premières lignes de la
matrice au-dessous puis on forme les diagonales (produit de 3 éléments diagonaux) NO-SE affectées
de signe + et les diagonales NE-SO affectées de signe −. La somme de ces différents produits donne
le déterminant.
Disposition :

+
a11 a12 a13
+
a21 a22 a23
+
a31 a32 a33

a11 a12 a13

a21 a22 a13

Remarque. Il est clair que cette définition ne donne pas une méthode pratique pour calculer les
déterminants de matrices de tailles importantes.

3.4 Mineurs et cofacteurs

Définition 19.
I On appelle mineur de (i, j) de A, le nombre noté Mij défini comme étant le détermi-
nant de la sous-matrice de A obtenue en enlevant la ligne i et la colonne j de A.
I On appelle cofacteur de (i, j) de A, le nombre noté Aij = (−1)i+j Mij .

 
a11 a12 a13
Exemple 23. Si A = a21 a22 a23 
a31 a32 a33
a a
Alors M23 = 11 12 = a11 a32 − a12 a31 .
a31 a32
Et A23 = (−1)2+3 M23 = a12 a31 − a11 a32 .

Le théorème suivant nous montre l’utilité des cofacteurs.

Théorème 3.1.
Soit A = (aij ) une matrice n × n. Alors :
X n
i) det A = aik Aik , (développement suivant la ligne i).
k=1
Xn
ii) det A = akj Akj , (développement suivant la colonne j).
k=1

NB : En développant suivant la ligne i, on multiplie chaque élément de la ligne par son cofacteur (i.e
si l’élément se trouve à l’entrée (i, k), on le multiplie par Aik et on additionne tous ces produits.

26
Exemple 24. Calculer le déterminant suivant :

1 2 0
det A = 4 2 −1
6 2 2

— On peut développer suivant la ligne 1. On obtient :

2 −1 4 −1 4 2
1(−1)2 + 2(−1)3 + 0(−1)4 = 6 − 28 + 0 = −22
2 2 6 2 6 2

— Ou bien en développant suivant la colonne 2, on a :

4 −1 1 0 1 0
2(−1)3 + 2(−1)4 + 2(−1)5 = −28 + 4 + 2 = −22
6 2 6 2 4 −1

Remarque. On voit l’intérêt d’avoir beaucoup de 0 sur une ligne ou une colonne dans le calcul du
déterminant.

Proposition 3.2.
Le déterminant d’une matrice triangulaire supérieure ou inférieure est le produit des élé-
ments diagonaux de cette matrice.
Démonstration. Supposons que A = (aij )n,n est une matrice triangulaire supérieure. Développons
suivant le première colonne. Le résultat est a11 multiplié par le déterminant d’une matrice triangulaire
supérieure (n − 1) × (n − 1). On répète l’opération jusqu’au déterminant d’une matrice 1 × 1 (ou on
utilise la récurrence).

3.5 Propriétés
Nous allons présenter ici quelques propriétés efficaces sous forme de proposition, que nous ne
démontrerons pas, pour calculer un déterminant.

Proposition 3.3.
Si A est une matrice n × n, alors det AT = det A.
Démonstration. La preuve se fait par récurrence. La proposition est vraie pour n = 1 puisque AT =
A. Supposons pour n > 1 la proposition vraie pour n − 1. En développant suivant la première ligne
on a :
Xn
det A = a1j A1j
j=1

Notons B = AT . On a aij = bji . Par hypothèse d’induction, A1j correspond à sa transposée i.e Bj1
et la relation ci-dessus devient :
Xn
det A = bj1 Bj1 .
j=1

Le membre de droite de cette relation correspond au déterminant de B développé suivant la première


colonne. D’où det A = det B

Proposition 3.4.
Si une matrice A a deux lignes identiques ou deux colonnes identiques, alors det A = 0.

27
Proposition 3.5.
i) Si on multiplie une ligne (ou une colonne) d’une matrice A par un nombre c, le déterminant de
la matrice obtenue vaut c det A.
ii) Lorsqu’on échange deux lignes (ou colonnes) d’une matrice, le déterminant change de signe.
iii) Le déterminant d’une matrice ne change pas lorsqu’on ajoute à une ligne (resp. une colonne)
une autre ligne (resp. une autre colonne).
Nous allons voir comment ces propriétés peuvent nous faciliter la vie dans le calcul de détermi-
nant.
Si A est une matrice carrée, on peut toujours la réduire grâce à la méthode d’élimination de Gauss en
une matrice échelonnée B suivant les lignes. On a par exemple une matrice carrée triangulaire
supérieure :  
α11 α12 · · · · · · α1n
 0 α22 α23 · · · α2n 
 
 .. . . . . . . .. 
B= . . . . . 
 .. .. .. 
 . . . αn−1 n 
0 ··· ··· 0 αnn
et on sait que det B = α11 α22 · · · αnn . On tire la valeur de det A si on a pris la précaution de bien
noter les changements produits par les opérations élémentaires suivant les lignes.

Exemple 25. Calculer le déterminant de la matrice


 
0 1 2 3
1 1 1 1
A= −2 −2 3

3
1 −2 −2 −3
On a :
0 1 2 3 1 1 1 1 1 1 1 1
1 1 1 1 L1 ↔L2 0 1 2 3 L3 →L3 +2L1 0 1 2 3
det A = −−−−→ − −−−−−−−−→ −
−2 −2 3 3 −2 −2 3 3 0 0 5 5
1 −2 −2 −3 1 −2 −2 −3 1 −2 −2 −3
1 1 1 1 1 1 1 1 1 1 1 1
L →L −L1 0 1 2 3 L4 →L4 +3L2 0 1 2 3 L3 → 51 L3 0 1 2 3
−−4−−−4−−→ − −−−−−−−−→ − −−−−−→ −5
0 0 5 5 0 0 5 5 0 0 1 1
0 −3 −3 −4 0 0 3 5 0 0 3 5
1 1 1 1
L4 →L4 −3L3 0 1 2 3
−−−−−−−−→ −5 = −5 × 2 = −10.
0 0 1 1
0 0 0 2

Exemple 26.
Considérons le déterminant d’une matrice n × n,
2 1 0 ... 0 0 0
1 2 1 ... 0 0 0
Dn = ... ... ... · · · .. .. ..
. . .
0 0 0 ... 1 2 1
0 0 0 ... 0 1 2

28
a) Calculez D1 , D2 et D3 . Etablissez la relation Dn = 2Dn−1 − Dn−2 pour tout n > 3.
b) En déduire Dn en fonction de n.
Solution.
a) D1 = 2, D2 = 3, D3 = 4. En développant Dn suivant la première colonne, on a :

2 1 0 ... 0 0 0 1 0 0 ... 0 0 0
1 2 1 ... 0 0 0 1 2 1 ... 0 0 0
Dn = 2 ... ... ... · · · .. .. ..
. . . − ... ... ... · · · .. .. ..
. . .
0 0 0 ... 1 2 1 0 0 0 ... 1 2 1
0 0 0 ... 0 1 2 n−1
0 0 0 ... 0 1 2 n−1

Le premier déterminant est Dn−1 et en développant le second suivant la première ligne il devient
Dn−2 et on obtient la relation cherchée : Dn = 2Dn−1 − Dn−2 .
b) Dn = 2Dn−1 − Dn−2 ⇒ Dn − Dn−1 = Dn−1 − Dn−2 = · · · D2 − D1 = 1. D’où Dn = n + 1

Exo 3. Prouver que le déterminant de la matrice suivante vaut 0 :


 
a+2 b+2 c+2
x+1 y+1 z+1
2x − a 2y − b 2z − c

Exemple de calculs de matrices par blocs


Proposition 3.6.
Soient A une matrice r × r, B une matrice r × n − r et C une matrice (n − r) × (n − r). Alors
A B
= det(A) det(C).
0n−r,r C
Démonstration. On peut écrire

A B Ir 0n−r,r A B
= .
0n−r,r C 0n−r,r C 0n−r,r In−r,r

Le calcul de ces déterminants en développant suivant par exemple les r premières lignes donne le
résultat (ou les n − r dernières lignes).

Remarque. Le résultat de la proposition reste vraie dans le cas d’une matrice triangulaire par blocs
avec plus de 2 blocs diagonaux. Cependant il n’est plus vrai en général dans le cas des matrices qui
ne sont pas triangulaires par blocs.

3.6 Inverses de matrices et déterminants


Une propriété fondamentale des déterminants est qu’elle nous dit si ou non une matrice donnée
est inversible.

Théorème 3.7.
Une matrice carrée A est inversible si et seulement si det A 6= 0.

Démonstration.

Proposition 3.8.
Si A et B sont deux matrices carrées d’ordre n, alors det(AB) = det(A) det(B).

29
Démonstration.

Corollaire 3.9. Si A et B sont deux matrices carrées d’ordre n et si AB = In alors BA = In et on


a B = A−1 .
1
Corollaire 3.10. Si A est une matrice inversible alors det(A−1 ) = .
det A

Matrice adjointe

Définition 20.
Soit A = (aij ) une matrice carrée d’ordre n. La matrice adjointe de A, notée adj(A)
(ou bien Ã), est la matrice carrée n × n dont l’entrée (i, j) est le cofacteur Aji de A.
Autrement dit, adj(A) est la matrice transposée des cofacteurs de A.

Exemple 27. Soit  


1 2 1
A = 6 −1 3
2 −3 4
On a  
5 −11 7
à = −18 2 3 
−16 7 −13
Proposition 3.11.
Soit A une matrice carrée n × n. Alors AÃ = ÃA = (det A)In .
Démonstration. L’entrée (i, j) de la matrice produit AÃ est :
n
X n
X
aik Ãkj = aik Ajk .
k=1 k=1

Si i = j, ça correspond au developpement du déterminant suivant la ligne i ;


i 6= j, la somme est nulle car c’est le développement du déterminant de la matrice qui a pour lignes
celles de A sauf la k e qui est égale à la ie.
Par conséquent les entrées hors diagonales de AÃ sont nulles tandis que les entrées (i, i) sont égales
à det A. D’où le résultat.
1
Corollaire 3.12. Si A est une matrice inversible, alors A−1 = Ã.
det A
Exemple 28. Soit A la matrice  
3 2 1
2 4 2 
1 2 3
On a : det A = 16 et  
8 −4 0
à = −4 8 −4
0 −4 8
D’où  
1/2 −1/4 0
A−1 = −1/4 1/2 −1/4
0 −1/4 1/2

30
Remarque. Malgré le fait qu’on ait une formule toute faite pour déterminer l’inverse d’une matrice
avec la matrice adjointe et le déterminant, il est souvent plus efficace d’utiliser les opérations élémen-
taires pour calculer l’inverse d’une matrice carrée de taille grande (plus grande que 4 par exemple).

3.7 Retour sur les systèmes d’équations : Règle de Cramer


Pour une seconde utilisation des déterminants, on revient sur les systèmes linéaires. Considérons
le système linéaire de n équations à n inconnues :

AX = B

avec A une matrice telle que det A 6= 0. Le système possède une unique solution : X = A−1 B. Ainsi
on peut écrire
1
X = A−1 B = Ã B
det A
A partir du produit à B, on peut identifier les inconnues :
n n
1 X 1 X
xi = Ãij bj = bj Aji
det A det A
j=1 j=1

Il est clair que la deuxième somme est un déterminant, c’est le déterminant de la matrice Mi obtenue
à partir de A en remplaçant la colonne i par le vecteur B. Ainsi, les solutions d’un système linéaire
peuvent s’exprimer sous la forme

det Mi
xi = , i = 1, ..., n.
det A
D’où le théorème suivant :

Théorème 3.13 (Règle de Cramer).


Si AX = B est un système linéaire de n équations à n inconnues avec det A 6= 0, alors
l’unique solution du système linéaire est donnée par :
det Mi
xi = , i = 1, ..., n.
det A
où Mi est la matrice obtenue à partir de A en remplaçant sa ie colonne par B.

Exemple 29. Résoudre le système ci-dessus en utilisant la Règle de Cramer.



x1 − x2 − x3
 =4
x1 + 2x2 − x3 = 2

2x1 =1

   
1 −1 −1 4
On a A = 1 2 −1 et B = 2.
2 0 1 1

31
On a det A = 9 et la Règle de Cramer nous donne

4 −1 −1
1 13
x1 = 2 2 −1 = ,
9 9
1 0 1
1 4 −1
1 −2
x2 = 1 2 −1 = ,
9 3
2 1 1
1 −1 4
1 −17
x3 = 1 2 2 = .
9 9
2 0 1

Exemple 30 (Vandermonde). Soient a1 , a2 , . . . , an des nombres réels ou complexes.


Considérons le déterminant de Vandermonde défini par

1 a1 . . . a1n−1
.. .. ..
. . .
Vn (a1 , . . . , an ) = . . .. .
.. .. .
1 an . . . ann−1

Pour i = n jusqu’à 2, Faisons : Ci ← Ci − a1 Ci−1 . On obtient :

1 0 ... 0
.. n
!
. a2 − a1 an−2
2 (a2 − a1 ) Y
.. .. .. = (ai − a1 ) Vn (a2 , . . . , an ).
. . . i=2
1 an − a1 an−2
n (an − a1 )

Et par récurrence on obtient que


Y
Vn (a1 , . . . , an ) = (aj − ai ).
j>i

Exemple 31 (Utilisation d’une fonction polynomiale). On peut se servir du fait que par définition le
déterminant est une fonction polynomiale de chacun de ses coefficients.
Soient a, b, c des nombres réels. Calculons le déterminant D de la matrice A définie par :
 
a c ... c
.
 b . . . . . . .. 

A = . .

.

. . . . . . c

b ... b a

Pour ce faire, on introduit la fonction polynomiale

a + x c + x ... c + x
.. .. ..
b+x . . .
f : x 7→ .. .. ..
. . . c+x
b + x ... b + x a + x

En faisant Cj ← Cj − C1 pour j > 2, on vérifie que f est de degré 6 1.

32
— Si b 6= c, on a f (−b) = (a − b)n et f (−c) = (a − c)n car ce sont des déterminants de matrices
triangulaires. On en déduit ainsi l’expression de f et donc la valeur de D = f (0).

(a − c)n b − (a − b)n c
D= .
b−c
— Si b = c, on fait tendre c → b puisque D est une fonction polynomiale (donc continue en b).
Ainsi
D = (a − b)n−1 (a + (n − 1)b).

33
Chapitre 4

Espaces vectoriels

Sommaire
4.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.3 Combinaisons linéaires de vecteurs . . . . . . . . . . . . . . . . . . . . . 36
4.2 Bases d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . . 39

Dans toute la suite de ce chapitre, sauf mention contraire, K désignera un corps commutatif (en
général : R ou C).

4.1 Espaces vectoriels


4.1.1 Structure d’espace vectoriel

Définition 21. Soit E un ensemble muni d’une loi interne notée + et d’une loi externe
notée · : K × E → E, (λ, x) 7→ λx.
On dit que E est un K−espace vectoriel si :
(I) (E, +) est un groupe commutatif
(II) • ∀(λ, µ) ∈ K2 , ∀x ∈ E, (λ + µ)x = λx + µx
• ∀λ ∈ K, ∀(x, y) ∈ E 2 , λ(x + y) = λx + λy
• ∀(λ, µ) ∈ K2 , ∀x ∈ E, λ(µx) = (λµ)x
• ∀x ∈ E, 1x = x.
Lorsqu’il n’y a pas de risque de confusion sur le corps K, on parle simplement d’espace
vectoriel.
Les éléments d’un K− espace vectoriel sont appelés vecteurs, ceux de K sont dits
scalaires.

Notation : Nous écrirons souvent ev pour signifier espace vectoriel.

Exemple 32.
1. L’ensemble des vecteurs du plan de la géométrie usuelle forment un R−ev.
2. L’ensemble Rn = {(a1 , a2 , . . . , an )|ai ∈ R} est un R−ev, ses lois sont définies comme suit :

(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn )

34
et
α(a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan )

3. L’ensemble M2 (Q) des matrices 2 × 2 à coefficients dans Q est un Q−ev.


4. K est un K−ev
5. RN est un R−ev pour les lois usuelles.
6. Soit X un ensemble non vide, KX est un K−ev.
7. Rn [X], l’ensemble des fonctions polynômes à coefficients dans R de degré 6 n, est un R−ev.

4.1.2 Sous-espaces vectoriels

Définition 22. Soit E un K−ev. Soit F ⊂ E. On dit que F est un sous-espace


vectoriel (on écrira sev) de E si et seulement si :
• F 6= ∅,
• ∀(x, y) ∈ F 2 , x + y ∈ F
• ∀λ ∈ K, ∀x ∈ F, λx ∈ F .

Exemple 33.
1. Soit E un espace vectoriel . {0E } et E sont des sev de E.
2. L’ensemble des vecteurs d’une droite (droite vectorielle) est un sev de l’ensemble des vecteurs
du plan.
3. L’ensemble des fonctions réelles d’une variable réelle continues est un sev de RR .
4. L’ensemble des suites arithmétiques est un sev de RN .

Proposition 4.1.
Soit F un sev d’un K−ev E. F est un K−ev pour les lois + et · induites par celles de E.

Démonstration. Les preuve est aisée.

Proposition 4.2. \
Soient E un K−ev et (Fi )i∈I une famille de sev de E. Alors Fi est un sev de E.
i∈I

Démonstration. Les preuve est immédiate.

Proposition 4.3 (Définition). Soient E un K−ev, F1 , F2 deux sev de E. On note

F1 + F2 = {x ∈ E; ∃(x1 , x2 ) ∈ F1 × F2 , x = x1 + x2 } = {x1 + x2 ; (x1 , x2 ) ∈ F1 × F2 }

appelé somme de F1 et F2 et F1 + F2 est un sev de E.

35
Proposition 4.4.
Soient E un K−ev et F1 , F2 et F3 des sev de E. On a :

1. F1 + F2 = F2 + F1 1’. F1 ∩ F2 = F2 ∩ F1
2. F1 ⊂ F1 + F2 2’. F1 ∩ F2 ⊂ F1
( (
F1 ⊂ F3 F3 ⊂ F1
3. ⇐⇒ F1 + F2 ⊂ F3 3’. ⇐⇒ F3 ⊂ F1 ∩ F2
F2 ⊂ F3 F3 ⊂ F2
4. F1 ⊂ F2 =⇒ F1 + F3 ⊂ F2 + F3 4’. F1 ⊂ F2 =⇒ F1 ∩ F3 ⊂ F2 ∩ F3
5. F1 + F1 = F1 5’. F1 ∩ F1 = F1
6. F1 + {0} = F1 6’. F1 ∩ {0} = {0}
7. F1 + E = E 7’. F1 ∩ E = F1
8. (F1 + F2 ) + F3 = F1 + (F2 + F3 ) 8’. (F1 ∩ F2 ) ∩ F3 = F1 ∩ (F2 ∩ F3 ).

Définition 23. Soient E un K−ev et F1 , F2 deux sev de E.


On dit que F1 et F2 sont en somme directe si et seulement si F1 ∩ F2 = {0}. Lorsque
F1 et F2 sont en somme directe, on note la somme par F1 ⊕ F2 .

Exemple 34. Soit K = R, E = R2 , les sev F1 = R × {0} et F2 = {0} × R sont en somme directe.

Définition 24. Deux sev F1 et F2 sont dits supplémentaires dans E si et seulement


si F1 ∩ F2 = {0} et F1 + F2 = E. Autrement dit F1 et F2 sont somme directe et on a
F1 ⊕ F2 = E

Exemple 35. Dans l’exemple précédent, F1 et F2 sont supplémentaires dans R2 .

4.1.3 Combinaisons linéaires de vecteurs


Familles liées, familles libres

Définition 25. Une combinaison linéaire de vecteurs x1 , x2 , . . . , xn de E est un


vecteur de la forme λ1 x1 + λ2 x2 + · · · + λn xn où les λi sont des scalaires (∈ K). Une
combinaison linéaire de vecteurs de E est un vecteur de E.
Plus généralement, si (xi )i∈I est une famille (éventuellement infinie) d’éléments d’un K−ev
E, on appelle combinaison linéaire de la famille (xi )i∈I tout élément x de E tel
X qu’il existe
une partie finie J ⊂ I et une famille (λi )i∈J d’éléments de K telles que x = λ i xi .
X i∈J
Convention : xi = 0.
i∈∅

Théorème 4.5 (Caractérisation).


Soient E un K−ev et F ⊂ E.
Pour que F soit un sev de E, il faut et il suffit que F soit non vide et que F soit stable par
combinaison linéaire i.e
∀(λ, µ) ∈ K2 , ∀(x, y) ∈ F 2 , λx + µy ∈ F.

36
Démonstration. En exo !

Remarque. Pour qu’une partie F d’un ev soit un sev de E, il faut et il suffit que :
(
F 6= ∅
∀λ ∈ K, ∀(x, y) ∈ F 2 , λx + y ∈ F.

Ceci est une autre formulation du théorème de caractérisation.

Exemple 36 (Application).
Montrer que P = (x, y, z) ∈ R3 / x + y − z = 0 est un sev de R3 .


1. (0, 0, 0) ∈ P
2. Soient λ, µ ∈ R et u, v ∈ P . Montrons que λu + v ∈ P .
u ∈ P =⇒ ∃(x1 , y1 , z1 ) ∈ R3 tel que u = (x1 , y1 , z1 ) avec x1 + y1 − z1 = 0. De même, v ∈ P =⇒
∃(x2 , y2 , z2 ) ∈ R3 tel que v = (x2 , y2 , z2 ) avec x2 + y2 − z2 = 0.
On a λu + v = (λx1 + x2 , λy1 + y2 , λz1 + z2 ) et on a

(λx1 + x2 ) + (λy1 + y2 ) − (λz1 + z2 ) = λ(x1 + y1 − z1 ) + x2 + y2 − z2 = 0

Donc λu + v ∈ P .
Par conséquent P est un sev de R3 .

Définitions. Soient E un K−ev, n ∈ N∗ , (x1 , . . . , xn ) ∈ E n .


• On dit que la famille finie (x1 , . . . , xn ) est liée si et seulement si :
X n
∃(λ1 , . . . , λn ) ∈ Kn \ {(0, . . . , 0)} , λi xi = 0.
i=1
• On dit que la famille (x1 , . . . , xn ) est libre si et seulement si elle n’est pas liée, i.e :
n
!
X
∀(λ1 , . . . , λn ) ∈ Kn , λi xi = 0 =⇒ λi = 0, ∀i
i=1
• Une famille infinie d’éléments d’un ev est dite liée, s’il existe une sous-famille finie de
celle-ci qui soit liée.
• Une famille infinie d’éléments d’un ev est dite libre, si et seulement si elle n’est pas liée
i.e toute sous-famille finie de celle-ci est libre.
• Une partie A de E est dite libre si et seulement si la famille (x)x∈A est libre.
• Deux vecteurs x et y de E sont colinéaires si et seulement si (x, y) est lié i.e si et
seulement si il existe un scalaire λ ∈ K tel que y = λx.

Exemple 37.
1. E = R3 , n = 2, x1 = (1, 0, 1), x2 = (2, 1, −1) ; la famille (x1 , x2 ) est libre.
2. E = R2 , n = 3, x1 = (1, 1), x2 = (2, 1), x3 = (−1, 0) ; la famille (x1 , x2 , x3 ) est liée.
3. E = RR et pour α ∈ R, fα : R −→ R , la famille (fα )α∈R) est libre.
x 7−→ eαx

37
Familles génératrices

Définition 26. Soit E un K−ev et A une partie de E. On appelle sev engendré par
A l’intersection de tous les sev de\E contenant A. On le note par Vect(A).
Vect(A) = F
F ⊃A
F sev E

Proposition 4.6.
Soient E un K−ev et A, B des parties de E.
• Vect(A) est le plus petit (au sens de l’inclusion) sev de E contenant A.
 Si A 6= ∅, alors Vect(A) est l’ensemble des combinaisons linéaires d’éléments de A.
 Vect(∅) = {0}.
• Si A ⊂ B, alors Vect(A) ⊂ Vect(B)
• A est un sev de E si et seulement si Vect(A) = A
• Vect(A ∪ B) = Vect(A) + Vect(B)

Remarque. Si F1 et F2 sont des sev de E, alors

Vect(F1 ∪ F2 ) = F1 + F2

Définition 27. Soient E un K−ev et G une famille d’éléments de E.


On dit que G est une famille génératrice de E (ou G engendre E) si et seule-
ment si Vect(G) = E.

Dans le cas où G est une famille finie d’un K−ev E, on a la proposition suivante :

Proposition 4.7 (Définition). G = {x1 , x2 , . . . , xn } ⊂ E engendre E si et seulement si :


n
X
∀x ∈ E, ∃(λ1 , . . . , λn ) ∈ Kn , x= λ i xi .
i=1

Exo 4. Soient v1 = (1, 1, −2, 0), v2 = (0, 1, 1, −2) et v3 = (1, 0, −1, −3) des vecteurs de R4 . Est-ce
que v = (1, 3, −2, 1) ∈ Vect(v1 , v2 , v3 ) ?

Exo 5. Soient v1 = (1, 1, 1), v2 = (1, 0, 1), v3 = (1, −1, 0) trois vecteurs de R3 . Montrer {v1 , v2 , v3 }
engendre R3 .

Définition 28. On appelle base d’une espace vectoriel E toute famille qui est à la fois
libre et génératrice de l’espace vectoriel E.

38
4.2 Bases d’un espace vectoriel de dimension finie

Définition 29. Un espace vectoriel est dit de dimension finie, s’il admet une famille
génératrice finie. Sinon il est de dimension infinie.

Proposition 4.8.
Une famille B = {b1 , b2 , . . . , bn } d’éléments d’un K−ev E (de dimension finie) est une base de
E si et seulement si :
Xn
Tout vecteur x de E s’écrit de façon unique sous la forme : x = xi bi
i=1
où les xi sont des scalaires appelés composantes (ou coordonnées) de x dans la base B.
On dit aussi que x se décompose de façon unique sur les bi .

Exemple 38 (Bases canoniques).


— L’espace vectoriel Rn est souvent rapporté à sa base dite “canonique”, formée par les vecteurs

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).

— La famille B = {1, x, x2 , . . . , xn } est une base de Rn [x] dite base canonique de celle-ci. En
effet, tout polynôme P s’écrit P = an xn + an−1 xn−1 + · · · + a1 x + a0 avec ai ∈ R, B est
donc génératrice.
D’autre part : λ0 1 + λ1 x + · · · + λn xn = 0 =⇒ λ0 = λ1 = · · · = λn = 0.
— Dans M  2 (R),notons :      
1 0 0 1 0 0 0 0
E1 = , E2 = , E3 = , E4 =
0 0 0 0 1 0 0 1
 
a b
Soit A = = aE1 + bE2 + cE3 + dE4
c d
Donc B = {E1 , E2 , E3 , E4 } est une famille génératricede M2 (R).
  
λ1 λ2 0 0
D’autre part, λ1 E1 + λ2 E2 + λ3 E3 + λ4 E4 = 04 ⇐⇒ = ⇐⇒ λ1 = λ2 = λ3 =
λ3 λ4 0 0
λ4 = 0. Par suite B est une base de M2 (R).

Théorème 4.9 (Théorème fondamental).


Soit E un K−ev de dimension finie. Toutes ses bases ont le même nombre de vecteurs. Ce nombre
s’appelle la dimension de E sur K.

Caractérisation :
Une base est une famille libre et génératrice. On doit donc a priori vérifier ces deux propriétés.
On peut également montrer qu’un vecteur quelconque s’écrit de manière unique comme combinaison
linéaire des vecteurs donnés.
Très souvent, on connaît la dimension n de l’espace vectoriel et l’on veut montrer qu’une famille
{b1 , . . . , bn }, avec le même nombre d’éléments n est une base de E.
— {b1 , . . . , bn } est une base si et seulement si c’est une famille libre dans E.
— {b1 , . . . , bn } est une base si et seulement si c’est une famille génératrice de E.

Remarque.

39
— 0n dit qu’une base est une famille libre maximale et une famille génératrice minimale.
— Dès qu’on ajoute à une base un vecteur, elle n’est plus libre.
— Dès qu’on retire à une base un vecteur, elle n’est plus génératrice.

Remarque.
Soit E un K−ev de dimension finie.
— E = {0} ⇐⇒ dimK E = 0
— dimK Kn = n
— La dimension de E dépend non seulement de E mais aussi de K d’où l’écriture dimK E.
si on considère E = C et K = R, alors dimR C = 2 par contre si K = C alors dimC C = 1
— Si E1 , . . . , Ep sont des sev de dimension finie sur le même corps K, alors

dimK (E1 × · · · × Ep ) = dimK E1 + · · · + dimK Ep

— dimC Cn = n, dimR Cn = 2n.

Exemple 39. Montrons que la famille {(x − 1)(x − 2), x(x − 1), x(x − 2)} est une base de R2 [x]
(espace vectoriel des polynômes de degré 6 2, espace vectoriel dont on sait qu’il est de dimension 3).
Il suffit donc de montrer que c’est une famille libre.
λ1 (x − 1)(x − 2) + λ2 x(x − 1) + λ3 x(x − 2) = 0 (polynôme nul) entraîne que λ1 = λ2 = λ3 = 0.

Théorème 4.10 (Théorème de la base incomplète).


Soit E 6= {0} un espace vectoriel de dimension finie n. Une famille libre {u1 , . . . , up },
p < n peut toujours être complétée par une famille {vp+1 , . . . , vn } de façon que le système
{u1 , . . . , up , vp+1 , . . . , vn } soit libre i.e une base de E.
Proposition 4.11.
Soient E un espace vectoriel et E1 , E2 deux sev de E.
E1 et E2 sont supplémentaires i.e E = E1 ⊕ E2 si et seulement si pour toute base B1 de E1 et
toute base B2 de E2 , alors B = B1 ∪ B2 est une base de E.
NB : Il n’y a pas unicité du supplémentaire d’un sev. En dimension finie tous les supplémentaires
ont même dimension.

Proposition 4.12.
Soit E un espace vectoriel de dimension finie. Alors E = E1 ⊕ E2 si et seulement si
(i) E1 ∩ E2 = {0}
(ii) dimE1 ⊕ E2 = dimE1 + dimE2 .
Plus généralement, on a le théorème suivant :

Théorème 4.13.
Soient E un espace vectoriel de dimension finie et E1 et E2 deux sev de E. Alors
dim(E1 + E2 ) = dimE1 + dimE2 − dimE1 ∩ E2 .

Rang d’une famille de vecteurs

Définition 30. On appelle rang d’une famille de vecteurs {u1 , . . . , up } d’un espace vec-
toriel E, la dimension r du sev F de E engendré par ces vecteurs. Le rang d’une famille
de vecteurs est donc inférieur ou égal au nombre de vecteurs qu’il compte. Il lui est égal
(r = p) si et seulement si c’est une famille libre.

40
Remarque.
— Dans un espace vectoriel de dimension n, le rang d’une famille de vecteurs est inférieur ou
égal à n.
— Une famille est de rang 1 si et seulement si tous les vecteurs sont proportionnels.
— Une famille est de rang supérieur ou égal à 2 si et seulement si il contient deux vecteurs non
proportionnels.

Calcul du rang par échelonnement


La méthode de Gauss qui permet d’échelonner une matrice nous donne le rang d’une famille
finie de vecteurs. On représente la famille de vecteurs par sa matrice sur une base quelconque, on
échelonne cette matrice, le rang de la famille de vecteurs ou de la matrice ainsi formée est égale au
nombre de lignes non nulles dans la matrice échelonnée.

Exemple 40. Soit G = {(1, 2, 3), (2, 0, 4), (1, 6, 5), (4, 12, 5)} une famille de vecteurs de R3 . Déter-
minons son rang.
Il est clair que son rang est 6 3 car la dimension de l’espace est 3.
Utilisons la méthode d’échelonnement.

       
1 2 3 1 2 3 1 2 3 1 2 3
2 0 4  0 −4 −2
 0 1 1/2 
 0 1 1/2 
 → → → 
1 6 5 0 5 2 0 0 −1/2 0 0 −1/2
4 12 5 0 4 −7 0 0 −9 0 0 0
Le rang de G est 3.

Pratique
Extraction d’une base
Nous allons montrer à l’aide d’un exemple comment extraire une base d’une famille génératrice.
Nous donnerons par la même occasion une relation liant les vecteurs de cette famille génératrice.

Exemple 41. Déterminons une base du sev de R4 engendré par les vecteurs v1 = (1, 1, 0, −1),
v2 = (−1, 1, 1, 0), v3 = (0, 2, 1, −1).
     
1 1 0 −1 1 1 0 −1 1 1 0 −1
v21 =v1 +v2 v31 =v21 −v3
−1 1 1 0  −−−−−−→ 0 2 1 −1 −−−−−−→ 0 2 1 −1
0 2 1 −1 0 2 1 −1 0 0 0 0
Ainsi v1 , v21 constitue une base de la famille génératrice Vect(v1 , v2 , v3 ).
D’autre part v31 = 04 , i.e v21 − v3 = 04 i.e v1 + v2 − v3 = 0 ce qui donne la relation cherchée.

Compléter une famille libre en une base


Il s’agira ici de compléter une famille libre en une base en choisissant un supplémentaire conve-
nable.

41
Exemple 42.
Montrer que les vecteurs v1 = (1, 2, −1, 0, 1), v2 = (2, 1, 1, 1, 1) et v3 = (3, 2, 0, 1, 2) forment un
système libre de R5 . Déterminer deux vecteurs w1 et w2 de R5 de manière à ce que {v1 , v2 , v3 , w1 , w2 }
soit une base de R5 .
     
1 2 −1 0 1 1
1 2 −1 0 1 2 1 1
1 2 −1 0 1
v2 =v2 −2v1 v =3v −4v2
2 1 1 1 1 − −−−−−−→ 0 −3 3 1 −1 −−3−−−3−−−→ 0 −3 3 1 −1
1
v3 =v3 −3v1
3 2 0 1 2 0 −4 3 1 −1 0 0 −3 −1 1
Puisqu’on a pas de ligne nulle dans la matrice échelonnée, la dimension de l’espace vectoriel G
engendré par {v1 , v2 , v3 } est 3. Donc {v1 , v2 , v3 } est libre. Donc c’est une base de G. A noter que
v1 , v21 , v32 est aussi une base de G.


Considérons maintenant la matrice suivante :


 
1 2 −1 0 1
0 −3 3 1 −1
 
0 0 −3 −1 1 
 
0 0 0 1 0
0 0 0 0 1
Cette matrice est échelonnée. On pose w1 = (0, 0, 0, 1, 0) et w2 = (0, 0, 0, 0, 1). La famille v1 , v21 , v32 , w1 , w2


est ainsi une base de R5 .


Le complété {w1 , w2 } est une base d’un supplémentaire F de G. On a
R5 = G ⊕ F

Détermination d’une base de la somme de sev


Soient F1 et F2 deux sev d’un K−ev E et G1 , G2 deux familles génératrices respectivement de
F1 et F2 . On sait que la famille G1 ∪ G2 engendre F1 + F2 .
Exemple 43.
Soient F1 = Vect(v1 , v2 , v3 ) avec v1 = (1, −1, 0, 2), v2 = (2, 1, 3, 1), v3 = (4, 5, 9, −1) et
F2 = Vect(w1 , w2 ) avec w1 = (1, 1, 1, 1) et w2 = (3, −4, 4, 2).
Déterminer une base de F1 + F2 .

On sait que F1 + F2 = Vect(v1 , v2 , v3 , w1 , w2 ). On commence par extraire une base de F1 et une


base de F2 .

Base de F1

     
1 −1 0 2 1
1 −1 0 2 2 1
1 −1 0 2
v2 =v2 −2v1 v2 =v2 /3
2 1 3 1  − −−−−−−→ 0 3 3 −3 −−− −−−−→ 0 1 1 −1
1
v3 =v3 −4v1 v3 =v31 −3v21
2
4 5 9 −1 0 9 9 −9 0 0 0 0
Ainsi B1 = v1 , v22 est une base de F1 .


Base de F2
Il est clair que {w1 , w2 } est libre. Donc B2 = {w1 , w2 } est une base de F2 . D’où
F1 + F2 = Vect(v1 , v22 , w1 , w2 ).

42
Base de F1 + F2

   
1 −1 0 2 1 −1 0 2
0 1 1 −1 w11 =w1 −v1 0 1 1 −1 w12 =w11 −2v22
1 1 1 1  −
 −−−−−−→ 
0 2 1 −1 −−
  −−−−−−→
w21 =w2 −3v1 w22 =w21 +v22
3 −4 4 2 0 −1 4 −4
et    
1 −1 0 2 1 −1 0 2
0 1 1 −1 w13 =w1 −2v22 0 1 1 −1
0 0 −1 1  −
  −−−− −−−−−−−−−−→  
w23 =w21 +v22 +5(w1 −2v22 )
 0 0 −1 1 
0 0 5 −5 0 0 0 0
Donc une base de F + G est donnée par les vecteurs (1, −1, 0, 2), (0, 1, 1, −1) et (0, 0, −1, 1).

Détermination d’une base de F1 ∩ F2


Exemple 44.
Considérons deux sev F1 et F2 de R4 engendrés respectivement par {v1 , v2 } et {w1 , w2 }, avec

v1 = (1, −1, 0, 2), v2 = (2, 1, 3, 1), w1 = (1, 1, 1, 1), w2 = (3, −4, 4, 2).

Déterminons une base de F1 ∩ F2 .


Soit u ∈ F1 ∩ F2 . u = α1 v1 + α2 v2 et u = β1 w1 + β2 w2 , avec αi , βi ∈ R, i = 1, 2.

α1 v1 + α2 v2 = β1 w1 + β2 w2

i.e
(α1 + 2α2 , −α1 + α2 , 3α2 , 2α1 + α2 ) = (β1 + 3β2 , β1 − 4β2 , β1 + 4β2 , β1 + 2β2 )
ce qui donne le système : 
α1 + 2α2 = β1 + 3β2



−α + α
1 2 = β1 − 4β2


3α2 = β1 + 4β2

2α + α
1 2 = β1 + 2β2
En résolvant ce système on aboutit à β1 = 5β2 , α2 = 3β2 , α1 = 2β2 .

F1 ∩ F2 = {(8β2 , β2 , 9β2 , 7β2 ), β2 ∈ R}

i.e
F1 ∩ F2 = Vect {(8, 1, 9, 7)}

43
Chapitre 5

Reduction des endomorphismes

Sommaire
5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . 44
5.2 Recherche des valeurs propres et vecteurs propres. Polynômes caractéristiques 45
5.3 Caractérisation des endomorphismes diagonalisable . . . . . . . . . . . . . . . 46
5.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5 Les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5.1 Calcul de la puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . 47
5.5.2 Résolution d’un système de suites récurrentes . . . . . . . . . . . . . . . . 48
5.5.3 Système différentiel linéaire à coefficients constants . . . . . . . . . . . . 48
5.6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

Définition 31. Soient E un espace vectoriel sur un corps commutatif K de dimension finie
n, B = (ei )16i6n une base de E et u un endomorphisme de E.

1. On dit que u est diagonalisable s’il existe une base de E tel que la matrice MB(u) de u est
diagonalisable, c’est-à-dire :
 
a11 0
MB(u) = diag(aij ) = 
 .. 
. 
0 ann

2. On dit que u est diagonalisable s’il existe une base B = (ei )16i6n telle que la matrice de u est
triangulaire, c’est-à-dure :
   
a11 · · · a1n a11 0
MB(u) = 
 ..  ou MB(u) = 
  .. 
. . 
0 ann 0 ann

5.1 Valeurs propres et vecteurs propres d’un endomorphisme

Définition 32. Soit u un endomorphisme de E. Un vecteur x de E est dit vecteur propre de u si :

i x 6= 0
ii ∃α ∈ K; u(x) = αx. Le scalaire α est appelé valeur propre de u.

44
Remarques. • α peut être nul (par exemple si x ∈ keru.
• Si x est un vecteur propre de u associé à la valeur propre α, alors ∀λ ∈ K∗ , λx est aussi
vecteur propre de u associé à α.
• 0 est vecteur propre de tout endomorphisme de E.

Théorème 5.1. Un endomorphisme u de E est diagonalisable si et seulement si il existe une base de


E formée de vecteurs propres de u.

Démonstration. Si u est diagonalisable alors il existe B = (e1 , e2 , · · · , en ) telle que MB(u) =


diag(α1 , α2 , · · · , αn ) c’est-à-dire u(ei ) = αi ei =⇒ (ei )16i6n est une base formée de vecteurs
propres de u. L’inverse est trivial.

5.2 Recherche des valeurs propres et vecteurs propres. Polynômes ca-


ractéristiques
Proposition 5.2. Soient E un K espace vectoriel de dimension finie n et u un endomorphisme de E.
Alors les valeurs propres de u sont les zéros du polynôme Pu (α) = det(u − αIdE ). Pu (α) est un
polynôme de degré n en α appelé polynôme caractéristique.

Démonstration. α est une valeur propre de u s’il existe x ∈ E∗ tel que u(x) = αx c’est-à-dire
(u − αIdE )(x) = 0. Comme x 6= 0 alors u − αIdE n’est pas un endomorphisme injectif, ce qui est
équivalent en dimension finie det(u − αIdE ) = 0.
Soit B = (ei )16i,j6n . La condition précédente s’écrit

a11 − α a12 ... a1n


a21 a22 − α
det(u − αIdE ) = .. .. .. .. =0
. . . .
an1 an2 . . . ann − α
En développant, on trouve une équation de type

(−1)n αn + an−1 αn−1 + . . . + a1 α + a0 = 0

dont les zéros dans K sont les valeurs propres de u, où (a0 , a1 , . . . , an−1 ) ∈ Kn
 
1 2
Exemple 5.3. u : R −→ R2 , M(e1 ,e2 ) = . Déterminer Pu (α) et en déduire des valeurs
−1 4
propres de u.

Remarques. Si A = MB (u), Pu (α) = det(u − αIdE ) = PA (α). L’ensemble des valeurs pripres de
u est appelé spectre de u noté SPK (u).

Définition 33. Soit P ∈ K[X] de dégré n, on dit que P est scindé dans K si P admet n
racines dans K (en comptant chaque racine avec son nombre de multiplicité ).

Remarques. 1. Un polynôme scindé dont les racines (deux à deux distinctes) sont a1 , a2 , . . . , an
de multiplicité α1 , α2 , . . . , αn respectivement s’écrit :
p
Y
P (x) = a (x − ai )αi , avec α ∈ K, α1 + α2 + . . . + αp = degP.
i=1

45
2. Si dimK (E) = n alors u ∈ EndK (E) admet au plus n valeurs propres et si Pu (x) est scindé
dans K il s’écrit :
Yn
Pu (x) = (−1)n (x − λi )αi
i=1

où α1 , α2 , . . . , αp sont les valeurs propres deux à deux distinctes de u.


3. Une fois les valeurs propres trouvés, on détermine les vecteurs propres associés à chaque valeur
propre α en resolvant dans le cas où la dimension est finie, un système linéaire de la forme
(A − xI)x = 0.
 
2 2 1 2
Exemple 5.4. 1. Soit u : R −→ R , M(ei ) = A = . Déterminer SPR(u) , une base
−1 4
formée de vecteurs propres.
2. Soit u : R2 −→ R2 .
 
2 0 4
(a) A = 3 −4 12,
1 −2 5
 
−1 1 1
(b) A =  1 −1 1 ,
1 1 −1
 
−4 0 −2
(c) A =  0 1 0 
5 1 3
Déterminer dans chacun des cas précédents, le polynôme caractéristique, l’ensemble des va-
leurs propres

5.3 Caractérisation des endomorphismes diagonalisable

Définition 34. Soit α ∈ K, on note Eα = {x ∈ E; u(x) = αx}. Eα est un sous-espace


vectoriel de E appelé sous-espace propre de E associé à α.

Remarques. 1. Si α n’est pas valeur propre, alors Eα = {0}.


2. Si α est valeur propre, alors Eα = {→−v p de E associé à α} ∪ {0}, dim{Eα } > 1.

Proposition 5.5. Soient α1 , α2 , . . . , αp ∈ K deux à deux distincts, alors les espaces propres Eα1 , Eα2 , . . . , Eαp
sont en somme directe.

Corollaire 5.6. u est diagonalisable si et seulement si E est somme directe d’espaces vectoriels
c’est-à-dire en notant α1 , α2 , . . . , αp les valeurs propres deux à deux distinctes de u.
u est diagonalisable si et seulement si

E = Eα1 ⊕ Eα2 ⊕ . . . ⊕ Eαp

ou encore si et seulement si

dim E = dim Eα1 + dim Eα2 + . . . + dim Eαp .

46
Démonstration. Supposons que E = Eα1 ⊕ Eα2 ⊕ . . . ⊕ Eαp , alors si B∞ , B∈ , . . . , B√ sont des bases
respectives de Eα1 , Eα2 , . . . , Eαp ; B = (B1 , B2 , . . . , Bp ) est une base de E. Puisque B est formée de
vecteurs propres de u alors u est diagonalisable.
Reciproquement, supposons qu’il existe une base B formée de vecteur propres. Soit

B = (v1 , v2 , . . . , vn1 , . . . , w1 , w2 , . . . , wnp )


| {z } | {z }
∈Eα1 Eαp

On voit que dim E = dim Eα1 + dim Eα2 + . . . + dim Eαp , donc E = Eα1 ⊕ Eα2 ⊕ . . . ⊕ Eαp .

Proposition 5.7. Soit u ∈ EndK (E) et λ une valeur propre de multiplicité α alors dim Eα 6 α

5.4 Diagonalisation
Théorème 5.8. Soit u un endomorphisme de u, u est diagonalisable si et seulement si :
a Pu (x) est scindé dans K c’est-à-dire
n
Y p
X
Pu (x) = (−1)n (x − λi )αi , avec (λ1 , λ2 , . . . , λp ) ∈ Kp , αi = n.
i=1 i=1

b Pour chaque λi de multiplicité αi on a dim Eλi = αi .

Corollaire 5.9. Si u admet n valeurs propres deux à deux dustinctes, alors u est diagonalisable.

Exemple 5.10. 1. La matrice A est-elle diagonalisable dans les cas suivants :


     
2 0 4 −1 1 1 −4 0 −2
A = 3 −4 12 B =  1 −1 1  C =  0 1 0 
1 −2 5 1 1 −1 5 1 3

2. Déterminer dans chacun des cas précédent les sous espaces propres.

5.5 Les applications


5.5.1 Calcul de la puissance d’une matrice
Soit A ∈ Mn (K). Supposons A diagonalisable ; il existe alors deux matrices D diagonale et P
inversible telles que : D = P −1 DP , c’est-à-dire A = P DP −1 .
Donc An = (P DP −1 )(P DP −1 ) . . . (P DP −1 ) = P Dn P −1 .
| {z }
n fois
   n   n 
α1 0 . . . 0 α1 0 . . . 0 α1 0 . . . 0
 0 α2 . . . 0   0 αn . . . 0   0 αn . . . 0
2 2
Si D =   , alors Dn =   et donc An = P   P.
     
 0 0 ... 0  0 0
..
. 0   0 0
..
. 0
0 0 0 αn 0 αnn 0 0 0 0 0 αnn
 
n 1 −1
Exemple 5.11. Calcul A pour tout n ∈ N, où A =
2 4

47
5.5.2 Résolution d’un système de suites récurrentes
Illustrons cela sur un exemple. Il s’agit de déterminer deux suites (un )n∈N , (vn )n∈N telles que :
( (
un+1 = a11 un + a12 vn u0 = a
et telles que
vn+1 = a21 un + a22 vn v0 = b
   
un a11 a12
On pose Xn . Le système s’écrit : Xn+1 = AXn avec A = , d’où, par
vn a21 a22
 
a
récurrence Xn = An X0 avec X0 =
b

5.5.3 Système différentiel linéaire à coefficients constants


Soit à résoudre le système différentiel :

dx1


 = a11 x1 + a12 x2 + . . . + a1n xn



 dt



 dx2 = a21 x1 + a22 x2 + . . . + a2n xn



dt



...





 dxn = an1 x1 + an2 x2 + . . . + ann xn



dt
avec aij ∈ R et xi : R −→ R dérivables. Sous forme matricielle le système s’écrit
 
x1
dX  .. 
= AX où A = (aij ), X =  .  (5.1)
dt
xn

Supposons A diagonalisable. Il existe alors D matrice diagonale et P matrice inversible telles que
D = P −1 AP . Si on considère A comme la matrice d’un endomorphisme f dans la base canonique
B, D est la matrice de f dans la base des vecteurs propres B 0 .
De même X est la matrice d’un vecteur x dans la base canonique B et X 0 = M (x)B0 est liée à X par
X 0 = P −1 X.
dX 0 dX
En dérivant cette dernière relation = P −1 (car A et P sont à coefficient constants).
dt dt
Donc
dX 0
= P −1 AX = (P −1 AP )X = DX 0
dt
Le système (5.1) est donc équivalent au système

dX 0
= DX 0 .
dt
Le système s’intègre facilement, car D est diagonalisable.
dX
Ainsi, on peur résoudre le système = AX de la manière suivante.
dt
1. On diagonalise A, soit D = P −1 AP une matrice diagonale semblable à A.
dX 0
2. On intègre le système = DX 0 .
dt

48
3. On revient à X par X = P X 0 .
Exemple 5.12. Résoudre le système différentiel suivant :
dx


 =x−y
 dt

 dy


= 2x + 4y

dt

5.6 Trigonalisation
Toute matrice A ∈ Mn (C) complexe est trigonalisable, c’est-à-dire est semblable à une matrice
triangulaire de Mn (C).

Démonstration. La condition nécéssaire et triviale, dans ce cas, on a Pu (x) = (a11 − x)(a22 −


x) . . . (ann − x).
Réciproquement, supposons Pu (x) scindé. Démontrons par récurrence que u est diagonalisable.
Pour n = 1 il est évident.
Supposons le résulat vérifié jusqu’à l’ordre n − 1, puisque Pu (x) est scindé, il admet au moins une
racine λ ∈ K, donc il existe au moins un vecteur propre 1 ∈ Eλ . Completons 1 en une base de E,
B = (1 , 2 , . . . , n ), on a
 .. 
λ . a12 . . . a1n
 .. 
. . . . . . . . . . . . .
 
 
 .. 
0 .
 


 0 .. . 
 B 

..
0 .
où B Mn (C). Soit F = V ect(2 , 3 , . . . , n ) et g : F −→ F un endomorphisme de F dont la matrice
dans la base (2 , 3 , . . . , n ) est B, on a

Pu (x) = det(A − xIn ) = (λ − x) det(B − xIn ) = (λ − x)Pg (x).

Puisque Pu (x) est scindé, Pg (x) l’est aussi et donc d’après l’hypothèse de recurrence, B est trigonali-
sable, c’est-à-dire, il existe une base (e1 , e2 , . . . , en ) de F telle que M(e1 ,e2 ,...,en ) (g) soit triangulaire.
Ainsi dans la base (e1 , e2 , . . . , en ) de E la matrice de u est triangulaire.

Remarques. 1. Si A est trigonalisable, alors la matrice A0 triangulaire semblable à A a sur les


diagonales les valeurs propres
2. Toute matrice A ∈ Mn (K) est trigonalisable sur la clôture algébrique de K.
Corollaire 5.13. Soit A ∈ Mn (K) et SPK (A) = {λ1 , λ2 , . . . , λn }. Les λi étant toutes les racines
du polynôme caractéristique. En prenant dans la clôture algébrique de K, on a
n
X n
Y
trace(A) = λi et det A = λi
i=1 i=1
 
−4 0 −2
Exemple 5.14. La matrice A =  0 1 0  est-elle trigonalisable ? Si oui, déterminer la ma-
5 1 5
trice semblable A0 , ainsi que la matrice P de passage.

49

Vous aimerez peut-être aussi