Algebre 2
Algebre 2
Algebre 2
FaST-UK
Pagdame TIEBEKABE
2021-2022
Résumé
Nous commencerons par donner les fondements qui faciliteront son étude à travers dans les deux
premiers chapitres : Systèmes d’équations linéaires et calcul matriciel. Nous aborderons ensuite les
espaces vectoriels sur deux chapitres : espaces vectoriels et espaces vectoriels de dimension finie avant
de revenir sur les matrices mais cette fois-ci étudiées conjointement avec les applications linéaires
à travers les représentations matricielles d’une application linéaire, les changements de bases etc.
Nous terminerons par les déterminants qui sont des formes multilinéaires et leurs utilisations dans la
résolution de systèmes linéaires, dans le calcul d’inverse d’une matrice etc.
Table des matières
2 Calcul matriciel 14
2.1 Activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6 Retour aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7 Autres opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.1 Addition de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.2 Produit d’une matrice par un nombre . . . . . . . . . . . . . . . . . . . . . 21
2.7.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Déterminants 23
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Matrices de permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Déterminant et permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Mineurs et cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.6 Inverses de matrices et déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7 Retour sur les systèmes d’équations : Règle de Cramer . . . . . . . . . . . . . . . . 31
4 Espaces vectoriels 34
4.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.3 Combinaisons linéaires de vecteurs . . . . . . . . . . . . . . . . . . . . . . 36
4.2 Bases d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . . . . 39
1
5 Reduction des endomorphismes 44
5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . . . . 44
5.2 Recherche des valeurs propres et vecteurs propres. Polynômes caractéristiques . . . . 45
5.3 Caractérisation des endomorphismes diagonalisable . . . . . . . . . . . . . . . . . . 46
5.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5 Les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5.1 Calcul de la puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . 47
5.5.2 Résolution d’un système de suites récurrentes . . . . . . . . . . . . . . . . . 48
5.5.3 Système différentiel linéaire à coefficients constants . . . . . . . . . . . . . 48
5.6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2
Chapitre 1
Sommaire
1.1 Activités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Résolution par combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Système homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Réduction des matrices et résolution des systèmes . . . . . . . . . . . . . . . . 7
1.3.1 Résolution des systèmes homogènes . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Résolution des systèmes non homogènes . . . . . . . . . . . . . . . . . . 11
Objectifs
— Donner une méthode générale permettant de résoudre des systèmes d’équations linéaires (p
équations et n inconnues).
— Énoncer un théorème donnant des critères permettant de déterminer, a priori, le nombre de
solutions d’un tel système (0, 1 ou ∞)
1.1 Activités
L’intersection de 3 droites dans le plan correspond à la résolution d’un système. Ainsi :
2x − 3y = 4
a11 x1 + a12 x2 = b1 (D1 )
5x + y =0 se codifiera par a21 x1 + a22 x2 = b2 (D2 )
x − 2y =1 a31 x1 + a32 x2 = b3 (D1 )
avec a11 = 2, a12 = −3, b1 = 4, . . . et pour assurer la cohérence des indices, on note x = x1 et
y = x2 .
Le système peut ne pas avoir de solution (x1 , x2 ) car en général 3 droites ne sont pas toujours
concourantes.
De même l’intersection de 2 plans correspond à la résolution d’un système
(
a11 x1 + a12 x2 + a13 x3 = b1 (P1 )
a21 x1 + a22 x2 + a23 x3 = b2 (P2 )
3
où x1 = x, x2 = y, x3 = z dans les notations traditionnelles et les aij les coefficients numériques
des plans.
Et l’intersection de 3 plans est donné par
a11 x1 + a12 x2 + a13 x3
= b1 (P1 )
a21 x1 + a22 x2 + a23 x3 = b2 (P2 )
a31 x1 + a32 x2 + a33 x3 = b3 (P3 )
Les aij sont les coefficients du système, les bi sont les seconds membres des équations.
Remarque. Observons que si (x1 , . . . , xn ) est solution du système alors il est automatiquement so-
lution de la nouvelle équation.
On peut ainsi fabriquer une infinité de nouvelles équations.
Nous souhaitons préserver l’ensemble des solutions du système de départ. Introduisons pour cela :
4
Définition 2. Deux systèmes sont équivalents si toute équation de l’un est obtenue
comme combinaison linéaire des équations de l’autre.
Théorème 1.1.
Deux systèmes équivalents ont le même ensemble de solutions.
Démonstration. C’est clair par la remarque précédente : toute solution du premier est solution du
deuxième qui est obtenu par combinaison linéaire et réciproquement.
Exemple 1.
1. L’ensemble des solutions du système
(
x1 − x2 =0
est {(0, 0)} .
2x1 + x2 =0
2. de même pour (
3x1 + x2 =0
c’est {(0, 0)} .
x1 + x2 =0
Le second système s’obtient à partir du premier en formant
1 4
0 = (x1 − x2 ) + (2x1 + x2 ) = 3x1 + x2
3 3
0 = (2x1 + x2 ) − 1 (x1 − x2 ) = x1 + x2
2
3 3
Exo 1. Trouver les combinaisons linéaires qui expriment le premier système à l’aide du second.
Remarque. On peut se poser une question naturelle : étant donné deux systèmes quelconques com-
ment déterminer s’ils sont équivalents ou non ?
On remarquera que l’on peut faire beaucoup de combinaisons linéaires entre équations ; il faut donc
codifier notre procédure.
Nous allons introduire pour cela la notion de matrice des coefficients du système :
a11 . . . a1n
.. .. ..
. . .
A= .. ..
..
. . .
ap1 . . . apn
Exemple
2.
1 2 3
est une matrice 2 × 3,
4 5 6
5
1
2 est une matrice 3 × 1, on parle aussi de matrice unicolonne ou de vecteur.
3
4 5 6 est une matrice 1 × 3, on parle aussi de matrice uniligne.
1 0 ... 0
.
0 1 . . . ..
diag(1)n = .. . . . .
est une matrice carrée n×n avec des 1 sur la diagonale et 0 ailleurs.
. . . 0
0 ... 0 1
On l’appelle la matrice identité. Elle est souvent notée In .
Pour le moment, ceci n’est rien d’autre qu’une écriture abrégée du système.
Pour simplifier, nous écrirons souvent (a) pour signifier une matrice unicolonne formée que de
a s’il n y a pas d’ambiguïté sur la taille. Sinon on pourra toujours préfixé par la taille : (0)n sera un
vecteur nul i.e une matrice n × 1.
Pour une matrice uniligne, les parenthèses sont remplacées par des crochets.
Théorème 1.2.
Si A est ligne-équivalente à B, les deux systèmes homogènes AX = (0) et BX = (0) ont les
mêmes solutions.
Exemple 3. Le système
2x1 − x2 + 3x3 + 2x4
=0
x1 + 4x2 − x4 =0
2x1 + 6x2 − x3 + 5x4 =0
6
2 −1 3 2
a pour matrice A = 1 4 0 −1.
2 6 −1 5
2 −1 3 2 0 −9 3 4 0 −9 3 4 − 12 L3
L1 −2L1 L −2L2
1 4 0 −1 −−−−−→ 1 4
0 −1 −−3−−−→ 1 4 0 −1 −−− −→
2 6 −1 5 2 6 −1 5 0 −2 −1 7
0 −9 3 4 0 0 15/2 −55/2 0 0 15/2 −55/2 2
L1
L1 +9L3 L −4L3
1 4 0 −1 −−−−−→ 1 4 0 −1 −−2−−−→ 1 0 −2 13 −15
−−→
0 1 1/2 −7/2 0 1 1/2 −7/2 0 1 1/2 −7/2
0 0 1 −11/3 0 0 1 −11/3 L − 1 L 0 0 1 −11/3
L2 +2L1 3 2 1
1 0 −2 13 −−−−−→ 1 0 0 17/3 −−−−−→ 1 0 0 17/3
0 1 1/2 −7/2 0 1 1/2 −7/2 0 1 0 −5/3
Le système initial est équivalent grâce au théorème à
x3 − 11/3 x4
=0
x1 + 17/3 x4 =0
x2 − 5/3 x4 =0
0 0 0 0
1 1 0 0 1 0
0 0 1 0 1 0
0 0 0 1 0 0 est réduite suivant les lignes.
0 0 0 0 0 0
1 0 0 2
n’est pas réduite (le premier terme non nul de la ligne 2 est 3 et non 1).
0 3 0 0
7
0 1 −1
1 0 1 n’est pas réduite à cause de la troisième colonne.
0 0 1
Théorème 1.3.
Toute matrice est ligne-équivalente à une matrice réduite suivant les lignes.
Démonstration. Nous allons, en général, faire le travail de nettoyage des lignes et des colonnes en
suivant le processus suivant :
On fait apparaître un 1 dans la première colonne (pour cela il faut évidemment que tous ses éléments
ne soient pas nuls) puis, à l’aide de ce 1, on va par combinaison linéaire éliminer tous les autres termes
et ensuite on passe à la deuxième colonne et ainsi de suite... Ce processus ayant une fin, nous arrivons
ainsi à une matrice réduite.
Exemple 5. Réduisons
3 −1 2
2 1 1 .
1 −3 0
On peut évidemment diviser la première ligne par 3, mais cela risque de faire apparaître des fractions,
ce qui n’est pas de tout repos. Il vaut mieux garder le 1 de la dernière ligne. pour nettoyer la première
colonne :
3 −1 2 1
0 8 2 1
0 8 2
L1 =L1 −3L3 L =L2 −2L3
2 1 1 − −−−−−−−→ 2 1 1 −−2−−−−−−→ 0 7 1
1 −3 0 1 −3 0 1 −3 0
On fait apparaître un 1 sur la première ligne :
0 1 1/4
L21 = 81 L11
−−−−−→ 0 7 1
1 −3 0
Remarque.
— Penser toujours à nommer les changements Lji .
8
— On voit sur l’exemple ci-dessus qu’il serait intéressant de ranger les 1 pour obtenir la forme
1 0 0
0 1 0
0 0 1
Définition 6.
Une matrice est dite échelonnée et réduite suivant ses lignes si :
a) elle est réduite suivant ses lignes.
b) Toute ligne n’ayant que des zéros est située en dessous des lignes ayant au moins un élément non
nul.
c) Si les lignes non nulles sont 1, . . . , p, si le terme valant 1, qui est en tête de la ligne i, se trouve
dans la colonne ki , la suite (ki ) est strictement croissante i.e k1 < k2 < · · · < kp .
Exemple 6. Les matrices suivantes sont-elles échelonnées et réduites suivant les lignes ?
1 0 2 0 0 1 0 2 0 0 1 0
A = 0 0 0 0 , B = 0 0 1 0 , C = 0 0 0 1 ,
0 0 1 0 0 0 0 0 1 0 0 0
Théorème 1.4.
Toute matrice est ligne-équivalente à une matrice échelonnée et réduite suivant les lignes.
Démonstration. Il suffit de montrer que toute matrice réduite suivant les lignes est ligne équivalente
à une matrice échelonnée et réduite suivant les lignes.
Soit A une matrice réduite suivant les lignes. Alors :
i) en permutant les lignes, on peut mettre celles ne contenant que des zéros en-dessous des lignes
ayant au moins un élément non nul.
ii) Parmi les lignes n’ayant pas que des zéros soit k1 , . . . , ki , la colonne du premier terme non nul
des lignes L1 , . . . , Li : les kj sont tous distincts puisque la matrice est réduite suivant les lignes,
on peut donc ranger les kj par ordre croissant et en permutant les lignes de manière à les ranger
dans cet ordre, on obtient une matrice réduite suivant les lignes et échelonnée.
On arrive à
x1 = 0
1 0 0
0 1 0 d’où x2 = 0 .
0 0 1
x3 = 0
9
En général pour n inconnues on obtiendra, en supposant que le terme valant 1 de la ligne i est
dans la colonne ki et qu’il y en a p :
Xn
x + α1j xj = 0
k 1
j=p+1
.. .. ..
. . .
n
X
xkp + αpj xj = 0
j=p+1
On remarque que ceci impose p < n. Dans ce cas, on donnera des valeurs arbitraires à xp+1 , . . . , xn
et on en déduira xk1 , . . . , xkp par ces équations. Ceci conduit au théorème général suivant.
Théorème 1.5.
Soit le système AX = (0), p étant le nombre d’équations et n le nombre d’inconnues.
i) si n > p, alors il existe une infinité de solutions,
ii) si n = p et si A est équivalente à la matrice identité diag(1), alors il existe une unique
solution, le n-uplet composé de 0 ; si A n’est pas équivalente à la matrice identité, il y a une
infinité de solutions.
iii) si n < p, il faut regarder un sous système à n équations et n inconnues et se ramener au cas
ii), puis vérifier si les solutions obtenues satisfont les p − n équations restantes. Il peut y avoir
0, une seule ou une infinité de solutions.
Démonstration.
i) A est ligne-équivalente à une matrice réduite échelonnée B. Donc les solutions du système
AX = (0) sont les mêmes que celles du système BX = (0).
Si m est le nombre de lignes non nulles de B, on a m 6 p et donc m < n, on est dans la situation
décrite ci-dessus : il y a une infinité de solutions non nulles.
ii) Comme toujours, nous devons prouver que : si A est ligne-équivalente à la matrice identité In
alors AX = (0) n’a que (0) comme solution et inversement.
Si A est équivalente à In , alors AX = (0) et In X = (0) ont les mêmes solutions mais ce dernier
système s’écrit : x1 = 0; x2 = 0; . . . ; xn = 0.
Inversement, si AX = (0) n’a que (0) comme solution, soit B réduite et échelonnée, ligne-
équivalente à A. Comme AX = (0) n’a qu’une solution x1 = · · · = xn = 0, BX = (0)
aussi. Donc B ne peut avoir de ligne contenant uniquement des zéros (sinon il y aurait d’autres
solutions que celle nulle). D’où B = In .
iii) Dans le cas où n < p i.e qu’il y a plus d’équations que d’inconnues, on extrait un sous-système
de n équations à n inconnues. Deux cas peuvent alors se produire :
— La matrice d’un sous-système (n, n) est équivalente à la matrice identité : le sous système
admet alors pour unique solution le n − uplet : (0, . . . , 0) et le système également puisqu’il
est homogène.
— aucun sous-système de n équations à n inconnues n’a sa matrice équivalente à la matrice
identité, il y a donc indétermination et le système admet une infinité de solutions.
10
Ce système admet pour unique solution le couple (0, 0) puisque le sous-système composé des deux
premières équations a sa matrice équivalente à l’identité.
Exemple 8. Le système S2 :
−3x − 4y
=0
S2 = 15x + 20y =0.
6x + 8y =0
admet une infinité de solutions : les trois équations sont proportionnelles. Les solutions sont les
couples du type (4k, −3k).
Remarque.
— On peut faire le parallèle avec la géométrie analytique : un système homogène de deux équa-
tions à deux inconnues correspond à la recherche dans le plan de l’intersection de deux droites
passant par l’origine. Le cas où A est équivalente à l’identité est celui où les deux droites sont
distinctes car les vecteurs directeurs ne sont pas proportionnels. Ces deux droites ont alors un
unique point commun : l’origine (0, 0).
— Dans le théorème on parle d’une infinité de solutions, cette infinité est à préciser dans chaque
cas.
Notation : On note
b1 a11 . . . a1n b1
 = A ... = ... .. .. .. .
. . .
bp ap1 . . . apn bp
Théorème 1.6.
i) Si la matrice A est carrée et si le système AX = (0) admet une solution unique, alors le
système AX = B admet une solution unique.
ii) Si le système AX = (0) admet une infinité de solutions alors le système AX = B ou bien
n’admet pas de solution ou bien admet une infinité de solutions.
Démonstration.
i) Si le système AX = (0) admet une unique solution et si A est carrée alors A est équivalente à la
matrice identité,
donc en réduisant
la matrice augmentée du système AX = B, on obtiendra une
c1
matrice du type In ... qui donne immédiatement la solution du système : xi = ci , ∀i ∈
cn
[[1, n]].
11
ii) L’essentiel de la preuve réside dans cette remarque : si X est une solution de AX = (0) et X 0 une
solution de AX = B, alors X + X 0 est également une solution de AX = B. Pour comprendre
cette remarque, il faut se représenter la matrice somme X + X 0 obtenue de la manière suivante :
x1 + x01
X + X0 =
..
.
xn + x0n
12
Exemple 10. Utilisez la méthode d’élimination de Gauss-Jordan pour résoudre le système suivant
x1 − 2x2 − 3x3 = −1
x1 − x2 − 2x3 = 1
−x1 + 3x2 + 5x3 = 2
13
Chapitre 2
Calcul matriciel
Sommaire
2.1 Activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.6 Retour aux systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7 Autres opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.1 Addition de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.2 Produit d’une matrice par un nombre . . . . . . . . . . . . . . . . . . . . 21
2.7.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1 Activité
Nous allons dégager un calcul simple sur les matrices qui va nous permettre de donner un sens à
l’écriture AX = B. Par exemple pour définir un produit de la matrice
4 −5 2 x1
A = 6 2 −1 par la matrice X = x2
0 4 −1 x3
On multiplie successivement chacun des éléments de la première ligne de la matrice A par chacun
des éléments de la colonne X et on ajoute les résultats obtenus ; ceci donne le premier élément du
produit, puis on recommence avec la 2e ligne puis avec la 3e.
Remarque. Il doit y avoir autant d’éléments sur une ligne de A qu’il y a d’éléments de la colonne X.
14
2.2 Produit de deux matrices
Nous définirons ainsi le produit de deux matrices A(n × p) B(r × q).
a) Si p 6= r : le produit n’est pas défini.
b) Si p = r : on multiplie A par B suivant le processus précédent en construisant une matrice n × q
qui a autant de lignes que A et autant de colonnes que B. L’élément (i, j) est situé à l’intersection
de la ie ligne et de la j e colonne de la matrice considérée.
La nouvelle matrice est obtenue en multipliant le premier élément de la ie ligne de A par le premier
élément de la j e colonne de B puis le 2e élément de la ie ligne de A par le 2e élément de la j e colonne
de B et ainsi de suite jusqu’au dernier et en additionnant ces produits.
NB : Le produit est donc Ligne - Colonne (Li-Co).
b11 b12
a11 a12 a13
Exemple 11. Soient A = et B = b21 b22 . Puisque le nombre de colonnes
a21 a22 a23
b31 b32
de A est égal au nombre de lignes de B, le produit AB est possible, soit C = AB, on utilise la
disposition suivante :
a11 a12 a13 a11 b11 + a12 b21 + a13 b31 a21 b11 + a22 b21 + a23 b32
a21 a22 a23 a11 b12 + a12 b22 + a
13 b32 a21b12 + a22 b21 + a23 b32
b11 b12
b21 b22
b31 b32
Exemple 12. Peut-on multiplier les matrices suivantes ? Si oui effectuer les produits :
2 2
1. A = 1 −1 2 et B =
−4 2
−1 2 2 2 −1
2. A = et B =
1 2 −4 2 0
2
3. A = 1 −1 2 et B = 3
2
Définition 9. Deux matrices sont égales si elles ont même nombre de lignes et même
nombre de colonnes et si leurs éléments de même rang sont les mêmes.
Remarque. Si les produits AB et BA sont définis, on n’a pas en général AB = BA. Le produit
matriciel est non commutatif.
Notations
On définit alors l’écriture condensée de l’élément (i, j) du produit de la matrice A = (akl )m,n et
B = (bpq )n,s , avec les conditions 1 6 k 6 m, 1 6 l 6 n, 1 6 p 6 n, 1 6 q 6 s. Rappelons que
l’élément akl est à l’intersection de la k e ligne de A et de sa le colonne.
Soit C = AB = (cij )m,s . On a vu que 1 6 i 6 m et 1 6 j 6P s : A détermine le nombre de lignes de
C et B le nombre de colonnes de C. En utilisant le symbole , on a :
n
X
cij = aiu buj .
u=1
15
Théorème 2.1.
Soient A, B, C trois matrices telles que les produits BC et A(BC) soient définis. Alors on peut
définir (AB)C et on a : A(BC) = (AB)C “Associativité”.
Démonstration. Si B est n × s, puisque BC a un sens, C a autant de lignes que B de colonnes : soit
s. Donc C est une matrice s × p (p quelconque a priori).
Le produit BC est une matrice n × p. A est donc une matrice q × n (q quelconque) et A(BC) une
matrice q × p.
On peut multiplier A(q × n) par B(n × s) et on obtient AB(q × s) que l’on multiplie par C(s × p)
pour obtenir (AB)C matrice q × p.
Soient (αij ) = A(BC) et (βij ) = (AB)C. On a
n
X n
X s
X
αij = Air (BC)rj = Air Bru Cuj
r=1 r=1 u=1
n X
s s n
!
X X X
= Air Bru Cuj = Air Bru Cuj
r=1 u=1 u=1 r=1
Xs
= (AB)iu Cuj = βij
u=1
D’où le théorème.
A0 = In et Am+1 = Am A.
Exemple 13.
0 1 2 −4
1. Multiplier par .
1 0 3 2
Observation :
0 1 2 −4 3 2
· = : on a permuté les deux lignes.
1 0 3 2 2 −4
1 t 2 −4
2. Multiplier par .
0 1 3 2
16
Observation :
1 t 2 −4 2 + 3t −4 + 2t
· = : on a ajouté à la première ligne t fois la seconde.
0 1 3 2 3 2
1 0 2 −4
3. Multiplier par .
t 1 3 2
Observation :
1 0 2 −4 2 −4
· = : on a ajouté à la deuxième ligne t fois la première.
t 1 3 2 2t + 3 −4t + 2
Remarque.
0 1 1 0
• est obtenue à partir de en permutant les deux lignes.
1 0 0 1
1 t 1 0
• est obtenue à partir de en ajoutant à la première ligne t fois la seconde.
0 1 0 1
1 0
• idem sur la deuxième ligne.
t 1
Définition 10. Une matrice élémentaire est une matrice obtenue à partir de la
matrice identité en lui faisant subir une opération élémentaire sur les lignes
17
Corollaire 2.4. Si A est une matrice m × n, il existe des matrices élémentaires m × m : E1 , E2 ,...,
Ek telles que la matrice Ek Ek−1 . . . E2 E1 A soit sous forme échelonnée réduite.
0 1 2
Exemple 14. Soit A = On peut facilement la mettre sous forme échelonnée réduite en
2 1 0
appliquant successivement les opérations élémentaires suivantes :
L1 ↔ L2 ; L1 → 1/2L1 ; L1 → L1 − 1/2L2 .
1 0 −1
pour obtenir B = . D’où B = E3 E2 E1 A avec
0 1 2
0 1 1/2 0 1 −1/2
E1 = ; E2 = ; E3 =
1 0 0 1 0 1
Définition 11. On dit que B est un inverse à gauche pour A (resp. un inverse à
droite) pour A si BA = In (resp. AB = In ).
Remarque. L’inverse à gauche et à droite de A s’ils existent sont toujours les mêmes.
Lemme 2.5. Si BA = AC = In alors B = C
Démonstration. En effet, B = BIn = B(AC) = (BA)C = In C = C.
Exemple 15.
−1
1 c 0 1 −c 0
0 1 0 = 0 1 0
0 0 1 0 0 1
On a aussi : −1
2 0 0 1/2 0 0
0 1 0 = 0 1 0
0 0 1 0 0 1
18
On a alors un théorème qui caractérise les matrices inversibles.
Théorème 2.8.
Si A est une matrice inversible n × n. Il est équivalent de dire que :
i) A est inversible
ii) A est équivalente pour les lignes à In .
iii) A est produit de matrices élémentaires.
Démonstration. On sait réduire A à une matrice N de la forme :
1 ... ... 0 ... 0
0 . . .
.. ..
. .
.. . .
. . 0
0 . . . 0 1 0 ... 0
0 . . . 0 ... 0
.. .. ..
.
. .
..
.
0 ... ... ... 0
Donc N = Ek . . . E1 A où Ei est un matrice élémentaire pour tout i = 1..k.
D’où A = E1−1 E2−1 . . . Ek−1 N .
Par conséquent A est inversible si et seulement si N est inversible. Or N ne le sera que si et seulement
si N = In .
Définition 12. La matrice N définie dans la preuve ci-dessus est dite forme normale de A.
Remarque. A est ligne-équivalente à B si et seulement si il existe une matrice inversible P telle que
B = P A.
Corollaire 2.9. Si l’on applique à In la succession des opérations qui conduisent A à In , on obtiendra
A−1 .
Démonstration.
In = Ek . . . E2 E1 A
−1
équivaut à A = Ek . . . E2 E1 In
Remarque. Ce corollaire nous donne un moyen à la fois pour déterminer si une matrice est inversible
et pour calculer dans ce cas son inverse. C’est donc mieux qu’un théorème d’existence.
2 −1
Exemple 16. Inverser A = .
1 3
Méthode : Une disposition pratique consiste à travailler avec la matrice augmentée de la matrice
unité et faire d’une pierre deux coups. A gauche on cherche à réduire notre matrice A en la matrice
identité et ces mêmes opérations transforment notre matrice identité à droite en l’inverse de A d’après
le corollaire.
.. 0 0
.. (2) 0 0
..
2 −1 . 1 0 L1 =L−→ 1 3 . 0 1 2 −→ 1 3 . 0 1
2 ;L2 =L1 L =L2 −2L1
.. .. .
1 3 . 0 1 2 −1 . 1 0 0 −7 .. 1 −2
(3) (2) .. (2) 0 −3L(3)
..
L2 =− 71 L2
1 3 . 0 1 1 1 0 . 3/7 1/7
L =L1 2
−→ .. −→ .
0 1 . −1/7 2/7 0 1 .. −1/7 2/7
19
3/7 1/7
Ainsi A−1 =
−1/7 2/7
Exo 2. Inverser :
1 4 1 2 −1 0
2 5 5/2 ; −1 2 −1
3 6 4 0 −1 2
Théorème 2.10.
Il y a équivalence entre :
1) A est inversible.
2) AX = 0 n’a que X = 0 comme solution.
3) AX = Y a une solution unique (X = A−1 Y ) pour toute matrice Y (n × 1).
4) A est produit de matrices élémentaires.
5) La forme normale de A est In .
Démonstration.
1) ⇒ 2) : Si A est inversible, alors AX = 0, en composant par A−1 , on a X = 0.
2)⇒ 1) : 2) signifie que A est ligne-équivalente à In . Ceci entraîne que A est inversible. Donc 1) et 2)
sont équivalentes.
1) ⇒ 3) : Si A est inversible, AX = Y a une solution X = A−1 Y
soit R = P A une matrice réduite équivalente à A. Montrons que R = In .
Réciproquement,
0
..
Soit Z = . . Alors RX = Z ⇐⇒ P AX = Zet puisque P est inversible, on a AX = P −1 Z.
0
1
En considérant le second membre comme Y , cette équation a une solution X. Ceci montre que le
dernière ligne de R ne peut être formée de 0 car sinon dans le produit le dernier terme serait 0 : RX
0
··· ..
serait · · · 6= . et l’on ne pourrait trouver X, ce qui est l’hypothèse 3). D’où Rn = In .
0
0
1
Corollaire 2.11.
A = A1 · · · Ak est inversible si et seulement si Aj est inversible pour tout j.
20
2.7 Autres opérations sur les matrices
Pour répondre au problème posé au chapitre précédent : la résolution des systèmes linéaires, il
a été commode d’introduire un nouvel objet mathématique : les matrices et une opération sur ces
matrices : le produit, défini moyennant une condition sur le nombre de colonnes de l’une et de lignes
de l’autre.
Il se trouve que les matrices ont beaucoup d’autres applications en algèbre linéaire comme nous
le verrons dans les chapitres à venir et nous aurons besoin de deux autres opérations sur les matrices.
Définition 14. Rappelons que les éléments d’une matrice sont des nombres réels ou com-
plexes, on peut donc définir le produit d’une matrice par un nombre réel ou complexe λ
de la manière suivante : l’élément générique cij du produit d’une matrice (n × m) par un
nombre réel ou complexe λ est donné par : cij = λaij .
Exemple 17.
1/2 1 3 1 2 6
2 = .
2 1/4 4 4 1/2 8
1 2
T 1 3 5
Exemple 18. Si A = 3 4 alors A =
2 4 6
5 6
Définition 16. Une matrice qui est égale à sa transposée i.e si AT = A alors on dit que A
est symétrique.
Si AT = −A, on dit que A est antisymétrique
Remarque.
Il est clair que les matrices symétriques comme antisymétriques sont des matrices carrées.
21
ii) (A + B) + C = A + (B + C) (associativité de + )
iii) A + 0 = A
iv) A(B + C) = AB + AC (distributivité)
v) (A + B)C = AC + BC (distributivité)
vi) A − B = A + (−1)B
vii) (cd)A = c(dA)
viii) c(AB) = (cA)B = A(cB)
ix) c(A + B) = cA + cB
x) (c + d)A = cA + dA
xi) (A + B)T = AT + B T
xii) (AB)T = B T AT .
22
Chapitre 3
Déterminants
Sommaire
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Matrices de permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Déterminant et permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Mineurs et cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.6 Inverses de matrices et déterminants . . . . . . . . . . . . . . . . . . . . . . . . 29
3.7 Retour sur les systèmes d’équations : Règle de Cramer . . . . . . . . . . . . . 31
A chaque matrice carrée on peut associer un scalaire appelé déterminant de celle-ci. Le détermi-
nant est très important et central en théorie matricielle. Grâce au déterminant on peut dire si oui ou
non une matrice est inversible. Une notion très importante est le polynôme caractéristique d’une ma-
trice qui est un déterminant. Grâce au polynôme caractéristique, on peut effectuer des manipulations
et opérations matricielles avancées telles que réduire des matrices etc.
3.1 Définitions
Soit A = (aij )n,n une matrice carrée sur un corps K (R ou C). Nous allons définir le déterminant
de la matrice A que nous noterons par
23
Remarque. Qu’est-ce qui motive le choix de l’expression : a11 a22 − a21 a12 ?
Cela nous provient des systèmes linéaires. Supposons par exemple qu’on souhaite résoudre le sys-
tème : (
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
En utilisant la méthode par combinaison pour éliminer la variable x2 en additionnant les deux équa-
tions, on a :
(a11 a22 − a12 a21 )x1 = b1 a22 − a12 b2 .
Cette équation exprime x1 comme quotient de deux déterminants
b1 a12
b2 a22
x1 =
a11 a12
a21 a22
à condition bien sûr que le dénominateur ne s’annule pas. On peut avoir une expression similaire pour
x2 .
Pour un déterminant d’ordre 3, en utilisant la même idée, on arrive à la définition suivante :
Définition 17. Une matrice n × n est appelée matrice de permutation si elle peut
être obtenue à partir de la matrice identité In en réarrangeant les lignes ou les colonnes.
24
Donc le fait de multiplier le vecteur (1, 2, . . . , n) par une matrice de permutation à gauche fournit la
permutation correspondante (i1 i2 . . . in ).
Et on verifie :
0 0 0 1 1 4
0 1 0 0 2 2
· =
1 0 0 0 3 1
0 0 1 0 4 3
Remarque. D’après la définition, le déterminant de A est une somme de n! termes, chaque terme
étant un produit de n éléments de A : un sur chaque ligne et un sur chaque colonne.
Le signe d’un terme est déterminé par la parité de la permutation.
Un déterminant qu’on peut facilement calculer est celui de la matrice identité :
det In = 1
En effet, seule la permutation (1 2 . . . n) correspond à un terme non nul dans la définition du det In .
On pourrait de manière similaire écrire le déterminant d’une matrice d’ordre 4 comme somme de
4! = 24 termes : 12 termes de signes positifs et 12 termes de signes négatifs.
25
Règle de Sarrus
Pour calculer le déterminant d’une matrice carrée 3×3, on recopie les deux premières lignes de la
matrice au-dessous puis on forme les diagonales (produit de 3 éléments diagonaux) NO-SE affectées
de signe + et les diagonales NE-SO affectées de signe −. La somme de ces différents produits donne
le déterminant.
Disposition :
+
a11 a12 a13
+
a21 a22 a23
+
a31 a32 a33
−
a11 a12 a13
−
a21 a22 a13
−
Remarque. Il est clair que cette définition ne donne pas une méthode pratique pour calculer les
déterminants de matrices de tailles importantes.
Définition 19.
I On appelle mineur de (i, j) de A, le nombre noté Mij défini comme étant le détermi-
nant de la sous-matrice de A obtenue en enlevant la ligne i et la colonne j de A.
I On appelle cofacteur de (i, j) de A, le nombre noté Aij = (−1)i+j Mij .
a11 a12 a13
Exemple 23. Si A = a21 a22 a23
a31 a32 a33
a a
Alors M23 = 11 12 = a11 a32 − a12 a31 .
a31 a32
Et A23 = (−1)2+3 M23 = a12 a31 − a11 a32 .
Théorème 3.1.
Soit A = (aij ) une matrice n × n. Alors :
X n
i) det A = aik Aik , (développement suivant la ligne i).
k=1
Xn
ii) det A = akj Akj , (développement suivant la colonne j).
k=1
NB : En développant suivant la ligne i, on multiplie chaque élément de la ligne par son cofacteur (i.e
si l’élément se trouve à l’entrée (i, k), on le multiplie par Aik et on additionne tous ces produits.
26
Exemple 24. Calculer le déterminant suivant :
1 2 0
det A = 4 2 −1
6 2 2
2 −1 4 −1 4 2
1(−1)2 + 2(−1)3 + 0(−1)4 = 6 − 28 + 0 = −22
2 2 6 2 6 2
4 −1 1 0 1 0
2(−1)3 + 2(−1)4 + 2(−1)5 = −28 + 4 + 2 = −22
6 2 6 2 4 −1
Remarque. On voit l’intérêt d’avoir beaucoup de 0 sur une ligne ou une colonne dans le calcul du
déterminant.
Proposition 3.2.
Le déterminant d’une matrice triangulaire supérieure ou inférieure est le produit des élé-
ments diagonaux de cette matrice.
Démonstration. Supposons que A = (aij )n,n est une matrice triangulaire supérieure. Développons
suivant le première colonne. Le résultat est a11 multiplié par le déterminant d’une matrice triangulaire
supérieure (n − 1) × (n − 1). On répète l’opération jusqu’au déterminant d’une matrice 1 × 1 (ou on
utilise la récurrence).
3.5 Propriétés
Nous allons présenter ici quelques propriétés efficaces sous forme de proposition, que nous ne
démontrerons pas, pour calculer un déterminant.
Proposition 3.3.
Si A est une matrice n × n, alors det AT = det A.
Démonstration. La preuve se fait par récurrence. La proposition est vraie pour n = 1 puisque AT =
A. Supposons pour n > 1 la proposition vraie pour n − 1. En développant suivant la première ligne
on a :
Xn
det A = a1j A1j
j=1
Notons B = AT . On a aij = bji . Par hypothèse d’induction, A1j correspond à sa transposée i.e Bj1
et la relation ci-dessus devient :
Xn
det A = bj1 Bj1 .
j=1
Proposition 3.4.
Si une matrice A a deux lignes identiques ou deux colonnes identiques, alors det A = 0.
27
Proposition 3.5.
i) Si on multiplie une ligne (ou une colonne) d’une matrice A par un nombre c, le déterminant de
la matrice obtenue vaut c det A.
ii) Lorsqu’on échange deux lignes (ou colonnes) d’une matrice, le déterminant change de signe.
iii) Le déterminant d’une matrice ne change pas lorsqu’on ajoute à une ligne (resp. une colonne)
une autre ligne (resp. une autre colonne).
Nous allons voir comment ces propriétés peuvent nous faciliter la vie dans le calcul de détermi-
nant.
Si A est une matrice carrée, on peut toujours la réduire grâce à la méthode d’élimination de Gauss en
une matrice échelonnée B suivant les lignes. On a par exemple une matrice carrée triangulaire
supérieure :
α11 α12 · · · · · · α1n
0 α22 α23 · · · α2n
.. . . . . . . ..
B= . . . . .
.. .. ..
. . . αn−1 n
0 ··· ··· 0 αnn
et on sait que det B = α11 α22 · · · αnn . On tire la valeur de det A si on a pris la précaution de bien
noter les changements produits par les opérations élémentaires suivant les lignes.
Exemple 26.
Considérons le déterminant d’une matrice n × n,
2 1 0 ... 0 0 0
1 2 1 ... 0 0 0
Dn = ... ... ... · · · .. .. ..
. . .
0 0 0 ... 1 2 1
0 0 0 ... 0 1 2
28
a) Calculez D1 , D2 et D3 . Etablissez la relation Dn = 2Dn−1 − Dn−2 pour tout n > 3.
b) En déduire Dn en fonction de n.
Solution.
a) D1 = 2, D2 = 3, D3 = 4. En développant Dn suivant la première colonne, on a :
2 1 0 ... 0 0 0 1 0 0 ... 0 0 0
1 2 1 ... 0 0 0 1 2 1 ... 0 0 0
Dn = 2 ... ... ... · · · .. .. ..
. . . − ... ... ... · · · .. .. ..
. . .
0 0 0 ... 1 2 1 0 0 0 ... 1 2 1
0 0 0 ... 0 1 2 n−1
0 0 0 ... 0 1 2 n−1
Le premier déterminant est Dn−1 et en développant le second suivant la première ligne il devient
Dn−2 et on obtient la relation cherchée : Dn = 2Dn−1 − Dn−2 .
b) Dn = 2Dn−1 − Dn−2 ⇒ Dn − Dn−1 = Dn−1 − Dn−2 = · · · D2 − D1 = 1. D’où Dn = n + 1
A B Ir 0n−r,r A B
= .
0n−r,r C 0n−r,r C 0n−r,r In−r,r
Le calcul de ces déterminants en développant suivant par exemple les r premières lignes donne le
résultat (ou les n − r dernières lignes).
Remarque. Le résultat de la proposition reste vraie dans le cas d’une matrice triangulaire par blocs
avec plus de 2 blocs diagonaux. Cependant il n’est plus vrai en général dans le cas des matrices qui
ne sont pas triangulaires par blocs.
Théorème 3.7.
Une matrice carrée A est inversible si et seulement si det A 6= 0.
Démonstration.
Proposition 3.8.
Si A et B sont deux matrices carrées d’ordre n, alors det(AB) = det(A) det(B).
29
Démonstration.
Matrice adjointe
Définition 20.
Soit A = (aij ) une matrice carrée d’ordre n. La matrice adjointe de A, notée adj(A)
(ou bien Ã), est la matrice carrée n × n dont l’entrée (i, j) est le cofacteur Aji de A.
Autrement dit, adj(A) est la matrice transposée des cofacteurs de A.
30
Remarque. Malgré le fait qu’on ait une formule toute faite pour déterminer l’inverse d’une matrice
avec la matrice adjointe et le déterminant, il est souvent plus efficace d’utiliser les opérations élémen-
taires pour calculer l’inverse d’une matrice carrée de taille grande (plus grande que 4 par exemple).
AX = B
avec A une matrice telle que det A 6= 0. Le système possède une unique solution : X = A−1 B. Ainsi
on peut écrire
1
X = A−1 B = Ã B
det A
A partir du produit à B, on peut identifier les inconnues :
n n
1 X 1 X
xi = Ãij bj = bj Aji
det A det A
j=1 j=1
Il est clair que la deuxième somme est un déterminant, c’est le déterminant de la matrice Mi obtenue
à partir de A en remplaçant la colonne i par le vecteur B. Ainsi, les solutions d’un système linéaire
peuvent s’exprimer sous la forme
det Mi
xi = , i = 1, ..., n.
det A
D’où le théorème suivant :
1 −1 −1 4
On a A = 1 2 −1 et B = 2.
2 0 1 1
31
On a det A = 9 et la Règle de Cramer nous donne
4 −1 −1
1 13
x1 = 2 2 −1 = ,
9 9
1 0 1
1 4 −1
1 −2
x2 = 1 2 −1 = ,
9 3
2 1 1
1 −1 4
1 −17
x3 = 1 2 2 = .
9 9
2 0 1
1 a1 . . . a1n−1
.. .. ..
. . .
Vn (a1 , . . . , an ) = . . .. .
.. .. .
1 an . . . ann−1
1 0 ... 0
.. n
!
. a2 − a1 an−2
2 (a2 − a1 ) Y
.. .. .. = (ai − a1 ) Vn (a2 , . . . , an ).
. . . i=2
1 an − a1 an−2
n (an − a1 )
Exemple 31 (Utilisation d’une fonction polynomiale). On peut se servir du fait que par définition le
déterminant est une fonction polynomiale de chacun de ses coefficients.
Soient a, b, c des nombres réels. Calculons le déterminant D de la matrice A définie par :
a c ... c
.
b . . . . . . ..
A = . .
.
. . . . . . c
b ... b a
a + x c + x ... c + x
.. .. ..
b+x . . .
f : x 7→ .. .. ..
. . . c+x
b + x ... b + x a + x
32
— Si b 6= c, on a f (−b) = (a − b)n et f (−c) = (a − c)n car ce sont des déterminants de matrices
triangulaires. On en déduit ainsi l’expression de f et donc la valeur de D = f (0).
(a − c)n b − (a − b)n c
D= .
b−c
— Si b = c, on fait tendre c → b puisque D est une fonction polynomiale (donc continue en b).
Ainsi
D = (a − b)n−1 (a + (n − 1)b).
33
Chapitre 4
Espaces vectoriels
Sommaire
4.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.3 Combinaisons linéaires de vecteurs . . . . . . . . . . . . . . . . . . . . . 36
4.2 Bases d’un espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . . 39
Dans toute la suite de ce chapitre, sauf mention contraire, K désignera un corps commutatif (en
général : R ou C).
Définition 21. Soit E un ensemble muni d’une loi interne notée + et d’une loi externe
notée · : K × E → E, (λ, x) 7→ λx.
On dit que E est un K−espace vectoriel si :
(I) (E, +) est un groupe commutatif
(II) • ∀(λ, µ) ∈ K2 , ∀x ∈ E, (λ + µ)x = λx + µx
• ∀λ ∈ K, ∀(x, y) ∈ E 2 , λ(x + y) = λx + λy
• ∀(λ, µ) ∈ K2 , ∀x ∈ E, λ(µx) = (λµ)x
• ∀x ∈ E, 1x = x.
Lorsqu’il n’y a pas de risque de confusion sur le corps K, on parle simplement d’espace
vectoriel.
Les éléments d’un K− espace vectoriel sont appelés vecteurs, ceux de K sont dits
scalaires.
Exemple 32.
1. L’ensemble des vecteurs du plan de la géométrie usuelle forment un R−ev.
2. L’ensemble Rn = {(a1 , a2 , . . . , an )|ai ∈ R} est un R−ev, ses lois sont définies comme suit :
34
et
α(a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan )
Exemple 33.
1. Soit E un espace vectoriel . {0E } et E sont des sev de E.
2. L’ensemble des vecteurs d’une droite (droite vectorielle) est un sev de l’ensemble des vecteurs
du plan.
3. L’ensemble des fonctions réelles d’une variable réelle continues est un sev de RR .
4. L’ensemble des suites arithmétiques est un sev de RN .
Proposition 4.1.
Soit F un sev d’un K−ev E. F est un K−ev pour les lois + et · induites par celles de E.
Proposition 4.2. \
Soient E un K−ev et (Fi )i∈I une famille de sev de E. Alors Fi est un sev de E.
i∈I
35
Proposition 4.4.
Soient E un K−ev et F1 , F2 et F3 des sev de E. On a :
1. F1 + F2 = F2 + F1 1’. F1 ∩ F2 = F2 ∩ F1
2. F1 ⊂ F1 + F2 2’. F1 ∩ F2 ⊂ F1
( (
F1 ⊂ F3 F3 ⊂ F1
3. ⇐⇒ F1 + F2 ⊂ F3 3’. ⇐⇒ F3 ⊂ F1 ∩ F2
F2 ⊂ F3 F3 ⊂ F2
4. F1 ⊂ F2 =⇒ F1 + F3 ⊂ F2 + F3 4’. F1 ⊂ F2 =⇒ F1 ∩ F3 ⊂ F2 ∩ F3
5. F1 + F1 = F1 5’. F1 ∩ F1 = F1
6. F1 + {0} = F1 6’. F1 ∩ {0} = {0}
7. F1 + E = E 7’. F1 ∩ E = F1
8. (F1 + F2 ) + F3 = F1 + (F2 + F3 ) 8’. (F1 ∩ F2 ) ∩ F3 = F1 ∩ (F2 ∩ F3 ).
Exemple 34. Soit K = R, E = R2 , les sev F1 = R × {0} et F2 = {0} × R sont en somme directe.
36
Démonstration. En exo !
Remarque. Pour qu’une partie F d’un ev soit un sev de E, il faut et il suffit que :
(
F 6= ∅
∀λ ∈ K, ∀(x, y) ∈ F 2 , λx + y ∈ F.
Exemple 36 (Application).
Montrer que P = (x, y, z) ∈ R3 / x + y − z = 0 est un sev de R3 .
1. (0, 0, 0) ∈ P
2. Soient λ, µ ∈ R et u, v ∈ P . Montrons que λu + v ∈ P .
u ∈ P =⇒ ∃(x1 , y1 , z1 ) ∈ R3 tel que u = (x1 , y1 , z1 ) avec x1 + y1 − z1 = 0. De même, v ∈ P =⇒
∃(x2 , y2 , z2 ) ∈ R3 tel que v = (x2 , y2 , z2 ) avec x2 + y2 − z2 = 0.
On a λu + v = (λx1 + x2 , λy1 + y2 , λz1 + z2 ) et on a
Donc λu + v ∈ P .
Par conséquent P est un sev de R3 .
Exemple 37.
1. E = R3 , n = 2, x1 = (1, 0, 1), x2 = (2, 1, −1) ; la famille (x1 , x2 ) est libre.
2. E = R2 , n = 3, x1 = (1, 1), x2 = (2, 1), x3 = (−1, 0) ; la famille (x1 , x2 , x3 ) est liée.
3. E = RR et pour α ∈ R, fα : R −→ R , la famille (fα )α∈R) est libre.
x 7−→ eαx
37
Familles génératrices
Définition 26. Soit E un K−ev et A une partie de E. On appelle sev engendré par
A l’intersection de tous les sev de\E contenant A. On le note par Vect(A).
Vect(A) = F
F ⊃A
F sev E
Proposition 4.6.
Soient E un K−ev et A, B des parties de E.
• Vect(A) est le plus petit (au sens de l’inclusion) sev de E contenant A.
Si A 6= ∅, alors Vect(A) est l’ensemble des combinaisons linéaires d’éléments de A.
Vect(∅) = {0}.
• Si A ⊂ B, alors Vect(A) ⊂ Vect(B)
• A est un sev de E si et seulement si Vect(A) = A
• Vect(A ∪ B) = Vect(A) + Vect(B)
Vect(F1 ∪ F2 ) = F1 + F2
Dans le cas où G est une famille finie d’un K−ev E, on a la proposition suivante :
Exo 4. Soient v1 = (1, 1, −2, 0), v2 = (0, 1, 1, −2) et v3 = (1, 0, −1, −3) des vecteurs de R4 . Est-ce
que v = (1, 3, −2, 1) ∈ Vect(v1 , v2 , v3 ) ?
Exo 5. Soient v1 = (1, 1, 1), v2 = (1, 0, 1), v3 = (1, −1, 0) trois vecteurs de R3 . Montrer {v1 , v2 , v3 }
engendre R3 .
Définition 28. On appelle base d’une espace vectoriel E toute famille qui est à la fois
libre et génératrice de l’espace vectoriel E.
38
4.2 Bases d’un espace vectoriel de dimension finie
Définition 29. Un espace vectoriel est dit de dimension finie, s’il admet une famille
génératrice finie. Sinon il est de dimension infinie.
Proposition 4.8.
Une famille B = {b1 , b2 , . . . , bn } d’éléments d’un K−ev E (de dimension finie) est une base de
E si et seulement si :
Xn
Tout vecteur x de E s’écrit de façon unique sous la forme : x = xi bi
i=1
où les xi sont des scalaires appelés composantes (ou coordonnées) de x dans la base B.
On dit aussi que x se décompose de façon unique sur les bi .
— La famille B = {1, x, x2 , . . . , xn } est une base de Rn [x] dite base canonique de celle-ci. En
effet, tout polynôme P s’écrit P = an xn + an−1 xn−1 + · · · + a1 x + a0 avec ai ∈ R, B est
donc génératrice.
D’autre part : λ0 1 + λ1 x + · · · + λn xn = 0 =⇒ λ0 = λ1 = · · · = λn = 0.
— Dans M 2 (R),notons :
1 0 0 1 0 0 0 0
E1 = , E2 = , E3 = , E4 =
0 0 0 0 1 0 0 1
a b
Soit A = = aE1 + bE2 + cE3 + dE4
c d
Donc B = {E1 , E2 , E3 , E4 } est une famille génératricede M2 (R).
λ1 λ2 0 0
D’autre part, λ1 E1 + λ2 E2 + λ3 E3 + λ4 E4 = 04 ⇐⇒ = ⇐⇒ λ1 = λ2 = λ3 =
λ3 λ4 0 0
λ4 = 0. Par suite B est une base de M2 (R).
Caractérisation :
Une base est une famille libre et génératrice. On doit donc a priori vérifier ces deux propriétés.
On peut également montrer qu’un vecteur quelconque s’écrit de manière unique comme combinaison
linéaire des vecteurs donnés.
Très souvent, on connaît la dimension n de l’espace vectoriel et l’on veut montrer qu’une famille
{b1 , . . . , bn }, avec le même nombre d’éléments n est une base de E.
— {b1 , . . . , bn } est une base si et seulement si c’est une famille libre dans E.
— {b1 , . . . , bn } est une base si et seulement si c’est une famille génératrice de E.
Remarque.
39
— 0n dit qu’une base est une famille libre maximale et une famille génératrice minimale.
— Dès qu’on ajoute à une base un vecteur, elle n’est plus libre.
— Dès qu’on retire à une base un vecteur, elle n’est plus génératrice.
Remarque.
Soit E un K−ev de dimension finie.
— E = {0} ⇐⇒ dimK E = 0
— dimK Kn = n
— La dimension de E dépend non seulement de E mais aussi de K d’où l’écriture dimK E.
si on considère E = C et K = R, alors dimR C = 2 par contre si K = C alors dimC C = 1
— Si E1 , . . . , Ep sont des sev de dimension finie sur le même corps K, alors
Exemple 39. Montrons que la famille {(x − 1)(x − 2), x(x − 1), x(x − 2)} est une base de R2 [x]
(espace vectoriel des polynômes de degré 6 2, espace vectoriel dont on sait qu’il est de dimension 3).
Il suffit donc de montrer que c’est une famille libre.
λ1 (x − 1)(x − 2) + λ2 x(x − 1) + λ3 x(x − 2) = 0 (polynôme nul) entraîne que λ1 = λ2 = λ3 = 0.
Proposition 4.12.
Soit E un espace vectoriel de dimension finie. Alors E = E1 ⊕ E2 si et seulement si
(i) E1 ∩ E2 = {0}
(ii) dimE1 ⊕ E2 = dimE1 + dimE2 .
Plus généralement, on a le théorème suivant :
Théorème 4.13.
Soient E un espace vectoriel de dimension finie et E1 et E2 deux sev de E. Alors
dim(E1 + E2 ) = dimE1 + dimE2 − dimE1 ∩ E2 .
Définition 30. On appelle rang d’une famille de vecteurs {u1 , . . . , up } d’un espace vec-
toriel E, la dimension r du sev F de E engendré par ces vecteurs. Le rang d’une famille
de vecteurs est donc inférieur ou égal au nombre de vecteurs qu’il compte. Il lui est égal
(r = p) si et seulement si c’est une famille libre.
40
Remarque.
— Dans un espace vectoriel de dimension n, le rang d’une famille de vecteurs est inférieur ou
égal à n.
— Une famille est de rang 1 si et seulement si tous les vecteurs sont proportionnels.
— Une famille est de rang supérieur ou égal à 2 si et seulement si il contient deux vecteurs non
proportionnels.
Exemple 40. Soit G = {(1, 2, 3), (2, 0, 4), (1, 6, 5), (4, 12, 5)} une famille de vecteurs de R3 . Déter-
minons son rang.
Il est clair que son rang est 6 3 car la dimension de l’espace est 3.
Utilisons la méthode d’échelonnement.
1 2 3 1 2 3 1 2 3 1 2 3
2 0 4 0 −4 −2
0 1 1/2
0 1 1/2
→ → →
1 6 5 0 5 2 0 0 −1/2 0 0 −1/2
4 12 5 0 4 −7 0 0 −9 0 0 0
Le rang de G est 3.
Pratique
Extraction d’une base
Nous allons montrer à l’aide d’un exemple comment extraire une base d’une famille génératrice.
Nous donnerons par la même occasion une relation liant les vecteurs de cette famille génératrice.
Exemple 41. Déterminons une base du sev de R4 engendré par les vecteurs v1 = (1, 1, 0, −1),
v2 = (−1, 1, 1, 0), v3 = (0, 2, 1, −1).
1 1 0 −1 1 1 0 −1 1 1 0 −1
v21 =v1 +v2 v31 =v21 −v3
−1 1 1 0 −−−−−−→ 0 2 1 −1 −−−−−−→ 0 2 1 −1
0 2 1 −1 0 2 1 −1 0 0 0 0
Ainsi v1 , v21 constitue une base de la famille génératrice Vect(v1 , v2 , v3 ).
D’autre part v31 = 04 , i.e v21 − v3 = 04 i.e v1 + v2 − v3 = 0 ce qui donne la relation cherchée.
41
Exemple 42.
Montrer que les vecteurs v1 = (1, 2, −1, 0, 1), v2 = (2, 1, 1, 1, 1) et v3 = (3, 2, 0, 1, 2) forment un
système libre de R5 . Déterminer deux vecteurs w1 et w2 de R5 de manière à ce que {v1 , v2 , v3 , w1 , w2 }
soit une base de R5 .
1 2 −1 0 1 1
1 2 −1 0 1 2 1 1
1 2 −1 0 1
v2 =v2 −2v1 v =3v −4v2
2 1 1 1 1 − −−−−−−→ 0 −3 3 1 −1 −−3−−−3−−−→ 0 −3 3 1 −1
1
v3 =v3 −3v1
3 2 0 1 2 0 −4 3 1 −1 0 0 −3 −1 1
Puisqu’on a pas de ligne nulle dans la matrice échelonnée, la dimension de l’espace vectoriel G
engendré par {v1 , v2 , v3 } est 3. Donc {v1 , v2 , v3 } est libre. Donc c’est une base de G. A noter que
v1 , v21 , v32 est aussi une base de G.
Base de F1
1 −1 0 2 1
1 −1 0 2 2 1
1 −1 0 2
v2 =v2 −2v1 v2 =v2 /3
2 1 3 1 − −−−−−−→ 0 3 3 −3 −−− −−−−→ 0 1 1 −1
1
v3 =v3 −4v1 v3 =v31 −3v21
2
4 5 9 −1 0 9 9 −9 0 0 0 0
Ainsi B1 = v1 , v22 est une base de F1 .
Base de F2
Il est clair que {w1 , w2 } est libre. Donc B2 = {w1 , w2 } est une base de F2 . D’où
F1 + F2 = Vect(v1 , v22 , w1 , w2 ).
42
Base de F1 + F2
1 −1 0 2 1 −1 0 2
0 1 1 −1 w11 =w1 −v1 0 1 1 −1 w12 =w11 −2v22
1 1 1 1 −
−−−−−−→
0 2 1 −1 −−
−−−−−−→
w21 =w2 −3v1 w22 =w21 +v22
3 −4 4 2 0 −1 4 −4
et
1 −1 0 2 1 −1 0 2
0 1 1 −1 w13 =w1 −2v22 0 1 1 −1
0 0 −1 1 −
−−−− −−−−−−−−−−→
w23 =w21 +v22 +5(w1 −2v22 )
0 0 −1 1
0 0 5 −5 0 0 0 0
Donc une base de F + G est donnée par les vecteurs (1, −1, 0, 2), (0, 1, 1, −1) et (0, 0, −1, 1).
v1 = (1, −1, 0, 2), v2 = (2, 1, 3, 1), w1 = (1, 1, 1, 1), w2 = (3, −4, 4, 2).
α1 v1 + α2 v2 = β1 w1 + β2 w2
i.e
(α1 + 2α2 , −α1 + α2 , 3α2 , 2α1 + α2 ) = (β1 + 3β2 , β1 − 4β2 , β1 + 4β2 , β1 + 2β2 )
ce qui donne le système :
α1 + 2α2 = β1 + 3β2
−α + α
1 2 = β1 − 4β2
3α2 = β1 + 4β2
2α + α
1 2 = β1 + 2β2
En résolvant ce système on aboutit à β1 = 5β2 , α2 = 3β2 , α1 = 2β2 .
i.e
F1 ∩ F2 = Vect {(8, 1, 9, 7)}
43
Chapitre 5
Sommaire
5.1 Valeurs propres et vecteurs propres d’un endomorphisme . . . . . . . . . . . . 44
5.2 Recherche des valeurs propres et vecteurs propres. Polynômes caractéristiques 45
5.3 Caractérisation des endomorphismes diagonalisable . . . . . . . . . . . . . . . 46
5.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5 Les applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.5.1 Calcul de la puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . 47
5.5.2 Résolution d’un système de suites récurrentes . . . . . . . . . . . . . . . . 48
5.5.3 Système différentiel linéaire à coefficients constants . . . . . . . . . . . . 48
5.6 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Définition 31. Soient E un espace vectoriel sur un corps commutatif K de dimension finie
n, B = (ei )16i6n une base de E et u un endomorphisme de E.
1. On dit que u est diagonalisable s’il existe une base de E tel que la matrice MB(u) de u est
diagonalisable, c’est-à-dire :
a11 0
MB(u) = diag(aij ) =
..
.
0 ann
2. On dit que u est diagonalisable s’il existe une base B = (ei )16i6n telle que la matrice de u est
triangulaire, c’est-à-dure :
a11 · · · a1n a11 0
MB(u) =
.. ou MB(u) =
..
. .
0 ann 0 ann
i x 6= 0
ii ∃α ∈ K; u(x) = αx. Le scalaire α est appelé valeur propre de u.
44
Remarques. • α peut être nul (par exemple si x ∈ keru.
• Si x est un vecteur propre de u associé à la valeur propre α, alors ∀λ ∈ K∗ , λx est aussi
vecteur propre de u associé à α.
• 0 est vecteur propre de tout endomorphisme de E.
Démonstration. α est une valeur propre de u s’il existe x ∈ E∗ tel que u(x) = αx c’est-à-dire
(u − αIdE )(x) = 0. Comme x 6= 0 alors u − αIdE n’est pas un endomorphisme injectif, ce qui est
équivalent en dimension finie det(u − αIdE ) = 0.
Soit B = (ei )16i,j6n . La condition précédente s’écrit
dont les zéros dans K sont les valeurs propres de u, où (a0 , a1 , . . . , an−1 ) ∈ Kn
1 2
Exemple 5.3. u : R −→ R2 , M(e1 ,e2 ) = . Déterminer Pu (α) et en déduire des valeurs
−1 4
propres de u.
Remarques. Si A = MB (u), Pu (α) = det(u − αIdE ) = PA (α). L’ensemble des valeurs pripres de
u est appelé spectre de u noté SPK (u).
Définition 33. Soit P ∈ K[X] de dégré n, on dit que P est scindé dans K si P admet n
racines dans K (en comptant chaque racine avec son nombre de multiplicité ).
Remarques. 1. Un polynôme scindé dont les racines (deux à deux distinctes) sont a1 , a2 , . . . , an
de multiplicité α1 , α2 , . . . , αn respectivement s’écrit :
p
Y
P (x) = a (x − ai )αi , avec α ∈ K, α1 + α2 + . . . + αp = degP.
i=1
45
2. Si dimK (E) = n alors u ∈ EndK (E) admet au plus n valeurs propres et si Pu (x) est scindé
dans K il s’écrit :
Yn
Pu (x) = (−1)n (x − λi )αi
i=1
Proposition 5.5. Soient α1 , α2 , . . . , αp ∈ K deux à deux distincts, alors les espaces propres Eα1 , Eα2 , . . . , Eαp
sont en somme directe.
Corollaire 5.6. u est diagonalisable si et seulement si E est somme directe d’espaces vectoriels
c’est-à-dire en notant α1 , α2 , . . . , αp les valeurs propres deux à deux distinctes de u.
u est diagonalisable si et seulement si
ou encore si et seulement si
46
Démonstration. Supposons que E = Eα1 ⊕ Eα2 ⊕ . . . ⊕ Eαp , alors si B∞ , B∈ , . . . , B√ sont des bases
respectives de Eα1 , Eα2 , . . . , Eαp ; B = (B1 , B2 , . . . , Bp ) est une base de E. Puisque B est formée de
vecteurs propres de u alors u est diagonalisable.
Reciproquement, supposons qu’il existe une base B formée de vecteur propres. Soit
On voit que dim E = dim Eα1 + dim Eα2 + . . . + dim Eαp , donc E = Eα1 ⊕ Eα2 ⊕ . . . ⊕ Eαp .
Proposition 5.7. Soit u ∈ EndK (E) et λ une valeur propre de multiplicité α alors dim Eα 6 α
5.4 Diagonalisation
Théorème 5.8. Soit u un endomorphisme de u, u est diagonalisable si et seulement si :
a Pu (x) est scindé dans K c’est-à-dire
n
Y p
X
Pu (x) = (−1)n (x − λi )αi , avec (λ1 , λ2 , . . . , λp ) ∈ Kp , αi = n.
i=1 i=1
Corollaire 5.9. Si u admet n valeurs propres deux à deux dustinctes, alors u est diagonalisable.
2. Déterminer dans chacun des cas précédent les sous espaces propres.
47
5.5.2 Résolution d’un système de suites récurrentes
Illustrons cela sur un exemple. Il s’agit de déterminer deux suites (un )n∈N , (vn )n∈N telles que :
( (
un+1 = a11 un + a12 vn u0 = a
et telles que
vn+1 = a21 un + a22 vn v0 = b
un a11 a12
On pose Xn . Le système s’écrit : Xn+1 = AXn avec A = , d’où, par
vn a21 a22
a
récurrence Xn = An X0 avec X0 =
b
dx1
= a11 x1 + a12 x2 + . . . + a1n xn
dt
dx2 = a21 x1 + a22 x2 + . . . + a2n xn
dt
...
dxn = an1 x1 + an2 x2 + . . . + ann xn
dt
avec aij ∈ R et xi : R −→ R dérivables. Sous forme matricielle le système s’écrit
x1
dX ..
= AX où A = (aij ), X = . (5.1)
dt
xn
Supposons A diagonalisable. Il existe alors D matrice diagonale et P matrice inversible telles que
D = P −1 AP . Si on considère A comme la matrice d’un endomorphisme f dans la base canonique
B, D est la matrice de f dans la base des vecteurs propres B 0 .
De même X est la matrice d’un vecteur x dans la base canonique B et X 0 = M (x)B0 est liée à X par
X 0 = P −1 X.
dX 0 dX
En dérivant cette dernière relation = P −1 (car A et P sont à coefficient constants).
dt dt
Donc
dX 0
= P −1 AX = (P −1 AP )X = DX 0
dt
Le système (5.1) est donc équivalent au système
dX 0
= DX 0 .
dt
Le système s’intègre facilement, car D est diagonalisable.
dX
Ainsi, on peur résoudre le système = AX de la manière suivante.
dt
1. On diagonalise A, soit D = P −1 AP une matrice diagonale semblable à A.
dX 0
2. On intègre le système = DX 0 .
dt
48
3. On revient à X par X = P X 0 .
Exemple 5.12. Résoudre le système différentiel suivant :
dx
=x−y
dt
dy
= 2x + 4y
dt
5.6 Trigonalisation
Toute matrice A ∈ Mn (C) complexe est trigonalisable, c’est-à-dire est semblable à une matrice
triangulaire de Mn (C).
Puisque Pu (x) est scindé, Pg (x) l’est aussi et donc d’après l’hypothèse de recurrence, B est trigonali-
sable, c’est-à-dire, il existe une base (e1 , e2 , . . . , en ) de F telle que M(e1 ,e2 ,...,en ) (g) soit triangulaire.
Ainsi dans la base (e1 , e2 , . . . , en ) de E la matrice de u est triangulaire.
49