Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Matrices Mias 2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 19

Chapitre 2

Matrices et
systèmes linéaires

Dans tout ce chapitre, n et p sont deux entiers naturels non nuls et K est un corps commutatif.
En pratique, K = ou .

1. Généralités
Définition 1.1

Une matrice A de type (n, p) est une application de {1, ... , n} × {1, ... , p} dans K.
On note ai, j l'image du couple (i, j) par l'application A.
Les aij sont appelés les coefficients de la matrice A.
On écrit alors A = (ai, j)i = 1..n, j = 1..p.

Notation 1.2

• On note Mn×p(K), Mn,p(K) ou Mnp(K) l'ensemble des matrices de type (n, p) à coefficients dans K.
• Pour décrire un élément A de Mn×p(K), on dispose les coefficients dans un tableau à n lignes et p
colonnes, le coefficient ai, j venant se placer à l'intersection de la i-ème ligne et de la j-ème
colonne.
• Par exemple, la matrice A de type (3, 2) définie par :
5 3
a1,1 = 5, a1,2 = 3, a2,1 = 0, a2,2 = 7, a3,1 = 4 et a3,2 = 1 se note A = 0 7 .
4 1
• Finalement, c'est ce tableau lui-même qu'on finit par appeler une matrice.
On dit donc qu'un élément M de Mn×p(K) est une matrice à n lignes et à p colonnes.
a 11 a 12 £ a 1p
a 21 a 22 £ a 2p
• A= = (aij)i=1,n j=1,p
§ § • §
a n1 a n2 £ a np

Remarque 1.3

Si A = (ai, j)i = 1..n, j = 1..p, on dit aussi moins formellement que A est la matrice de terme général aij.

Définition 1.4

Soient A = (aij)i=1,n j=1,p une matrice de Mnp(K) et B = (bij)i=1,n' j=1,p' une matrice de Mn'p'(K).
 n = n∏

On dit que A = B si et seulement si  p = p ∏
 a =b ≤i = 1, n ≤j = 1, p
 ij ij
Francis Wlazinski 1
Définition 1.5

Les coefficients ai,i (l'indice de colonne est égal à l'indice de ligne) d'une matrice A de Mn(K) sont appelés
coefficients diagonaux.
Ils forment ce qu'on appelle la diagonale de A.
Les coefficients ai,j tels que i > j sont dit en dessous de cette diagonale, alors que les coefficients ai,j tels
que j > i sont dit au dessus de celle-ci.

Définitions 1.6

On dit que A = (aij)i=1,n j=1,p ∈Mnp(K) est :


• une matrice ligne si et seulement si n = 1.
• une matrice colonne si et seulement si p = 1.
• une matrice carrée si et seulement si n = p.
• une matrice diagonale si et seulement si A est une matrice carrée A telle que aij = 0 si i ≠ j.
• une matrice unité si et seulement si A est une matrice diagonale telle que aii = 1 ∀i=1,n.
• une matrice scalaire si et seulement si A est une matrice diagonale telle que aii = ajj ∀i=1,n ∀j=1,n.
• une matrice triangulaire supérieur si et seulement si A est une matrice carrée telle que aij = 0 si i > j.
• une matrice triangulaire inférieur si et seulement si A est une matrice carrée telle que aij = 0 si i < j.
• une matrice strictement triangulaire supérieur ssi A est une matrice carrée telle que aij = 0 si i ≥ j.
• une matrice strictement triangulaire inférieur ssi A est une matrice carrée telle que aij = 0 si i ≤ j.

Remarques 1.7

• L'ensemble des matrices carrées d'ordre n est noté Mn(K).


• On identifie les éléments suivants :
Les matrices colonnes et les vecteurs colonnes c'est-à-dire Mn1(K) et Kn.
Les matrices lignes et les vecteurs lignes c'est-à-dire M1p(K) et Kp.
Les matrices carrées d'ordre 1 et les éléments de K c'est-à-dire M1,1(K) et K.

Définition 1.8

Soit A = (aij)i=1,n j=1,p une matrice de Mnp(K).


On appelle vecteur colonne de A, toute colonne extraite de A identifiée à un vecteur de Kn.
On appelle vecteur ligne de A, toute ligne extraite de A identifiée à un vecteur de Kp.

Définition 1.9

On appelle matrice nulle de Mnp(K) notée 0 la matrice n × p composée uniquement de 0.

Définition 1.10

Soient A = (aij)i=1,n j=1,p et B = (bij)i=1,n j=1,p deux matrices de Mnp(K).


On définit la loi + sur Mnp(K) par A + B = (aij + bij)i=1,n j=1,p

Remarque 1.11

Ce qui peut s'exprimer en disant que, si A est la matrice de terme général aij et si B est la matrice de terme
général bij, alors A + B est la matrice de terme général aij + bij.
Francis Wlazinski 2
Propriété 1.12

(Mnp(K),+) est un groupe abélien c'est-à-dire


1. ∀A,B∈Mnp(K), A + B∈Mnp(K) (loi de composition interne).
2. ∀A,B,C∈Mnp(K), A + (B + C) = (A + B) + C (associativité).
3. ∀A∈Mnp(K), A + 0 = 0 + A = A (élément neutre).
4. ∀A∈Mnp(K), ∃ Ã∈Mnp(K) / A + Ã = Ã + A = 0 (symétrique).
5. ∀A,B∈Mnp(K), A + B = B + A (commutativité).

Remarques 1.13

• On note − A la matrice à du 4°).


Si A = (aij)i=1,n j=1,p , on a alors − A = (− aij)i=1,n j=1,p.
• On peut définir A − B par A + (−B).

Définition 1.14

Soit A = (aij)i=1,n j=1,p une matrice de Mnp(K). Soit λ∈K.


On définit la loi externe . sur Mnp(K) à domaine d'opérateur K par λ.A = (λ × aij)i=1,n j=1,p

Remarques 1.15

• La loi . n'est généralement pas notée.


• (−1) × A = −A.
• Si A est la matrice de terme général aij, λ A est la matrice de terme général λ × aij.

Propriété 1.16

(Mnp(K),+,.) est un K-e.v.

Remarque 1.17

L'espace vectoriel Mn,p(K) est de dimension n × p sur K.


Une base de Mn,p(K) est formée des matrices Ei, j où pour tout i dans {1, ... , n} et tout j dans {1, ... , p}
tous les coefficients de Ei, j sont nuls sauf celui situé en ligne i et colonne j qui vaut 1.
Cette base est dite canonique.
Par exemple, une base de M3,2(K) est formée des matrices :
1 0 0 1 0 0 0 0 0 0 0 0
E 1,1 = 0 0 , E 1,2 = 0 0 , E 2,1 = 1 0 , E 2,2 = 0 1 , E 3,1 = 0 0 et E 3,2 = 0 0 .
0 0 0 0 0 0 0 0 1 0 0 1

Définition 1.18

Soit A = (aij)i=1,n j=1,p une matrice de Mnp(K) .


Soit B = (bij)i=1,p j=1,q une matrice de Mpq(K).
On appelle produit de A par B et on note A × B la matrice de Mnq(K) définie par
p
A × B = (cij)i=1,n j=1,q où cij =  a ik b kj .
k=1

Francis Wlazinski 3
Remarques 1.19

• Le nombre de colonnes de A doit être égal au nombre de lignes de B.


On peut donc résumer en écrivant :
[matrice de type (n, p)] × [matrice de type (p, q)] → [matrice de type (n, q)].
• Si A∈Mnp(K), on peut calculer à la fois A × B et B × A que si B∈Mpn(K).
Dans ce cas, A × B∈Mn(K) et B × A∈Mp(K).
Si n ≠ p, les matrices A × B et B × A, de formats différents, ne sauraient être égales.
• La loi × est une loi de composition interne que si l'on considère un ensemble de matrices carrées.
C'est-à-dire, si A et B sont deux matrices carrées d'ordre n, alors A × B et B × A sont aussi deux
matrices carrées d'ordre n.
Mais, en général, on a A × B ≠ B × A. Dans le cas contraire, on dit que A et B commutent.
• On note aussi A.B ou simplement AB le produit de la matrice A par la matrice B.

Propriété 1.20

Soient λ∈K, A∈Mnp(K) et B∈Mpq(K).


On a : λ(A × B) = (λA) × B = A × (λB).

Propriété 1.21

La loi × est distributive par rapport à la loi + c'est-à-dire :


∀A,B,C∈Mn(K), A × (B + C) = (A × B) + (A × C) (distributivité à gauche)
(B + C) × A = (B × A) + (C × A) (distributivité à droite).

Propriété 1.22

(Mn(K),×) est un monoïde c'est-à-dire


1. ∀A,B∈Mn(K), A × B∈Mn(K) (loi de composition interne).
2. ∀A,B,C∈Mn(K), A × (B × C) = (A × B) × C (associativité).
3. ∃ I∈Mn(K) / ∀A∈Mn(K), A × I = I × A = A (élément neutre).

Remarques 1.23

• (Mn(K),+,×) est un anneau unifère.


• Le produit des matrices n'est pas commutatif.
• Les matrices scalaires λ In commutent avec toutes les matrices de Mn(K).
• Dans Mn(K), les puissances entières positives de matrices sont définies par
A0 = I, A1 = A et An = A × A × .... × A (n fois) pour tout entier n ≥ 2.
p
• Dans Mn(K), on peut utiliser la formule du binôme : (A + B) =  C kp A p−k B k , à l'unique condition
p
k=0
que les matrices A et B commutent!
• Si n ≥ 2, l'anneau Mn(K) contient des diviseurs de zéro.
L'égalité AB = 0 n'implique donc pas A = 0 ou B = 0.
0 1 1 −1 0 0
Par exemple, % = .
0 0 0 0 0 0
De même, les égalités AB = AC ou BA = CA n'impliquent pas nécessairement B = C.
Un diviseur de zéro (resp. à gauche, à droite) n'est pas simplifiable (resp. à gauche, à droite).

Francis Wlazinski 4
Propriété 1.24

Le produit de deux matrices triangulaires supérieures (resp. inférieures) est une matrice triangulaire
supérieure (resp. inférieure).

Démonstration

Soient A = (aij)i=1,n j=1,n et B = (bij)i=1,n j=1,n deux matrices triangulaires supérieures.


On a donc aij = 0 et bij = 0 dès que i > j.
n
A × B = (cij)i=1,n j=1,q où cij =  a ik b kj .
k=1
n j n
Si i > j, j  n et cij =  a ik b kj =  a ik b kj +  a ik b kj .
k=1 k=1 k=j+1

Or, si k ≤ j alors i > k et aik = 0.


j
Donc  a ik b kj = 0.
k=1
n
De même, si k > j alors bkj = 0 et donc  a ik b kj = 0.
k=j+1

D'où cij = 0 si i > j c'est-à-dire A × B triangulaire supérieure.

Propriété 1.25

Soit A une matrice triangulaire supérieure.


Alors, pour tout entier naturel k, Ak est triangulaire supérieure et ses coefficients diagonaux sont les aiik.

Remarques 1.26

• On a le même résultat si on remplace triangulaire supérieure par triangulaire inférieure ou par


diagonale.
• Ce résultat s'étend aussi aux entiers relatifs si la matrice A est inversible (notion vue plus loin).

Démonstration

On montre trivialement (par récurrence par exemple) que les matrices Ak sont triangulaires supérieures.
Il reste à montrer le résultat sur les coefficients diagonaux.

Soit A = (aij)i=1,n j=1,n une matrice triangulaire supérieure.


• Vrai au rang 0 et au rang 1.
• On suppose vrai au rang p c'est-à-dire Ap = (bij)i=1,n j=1,n avec bij = 0 dès que i > j et bii = aiip.
On pose Ap+1 = (cij)i=1,n j=1,n.
n
On a Ap+1 = A × Ap. Donc cij =  a ik b kj .
k=1
On a déjà similairement montré que cij = 0 si i > j c'est-à-dire Ap+1 triangulaire supérieure.
Il reste à calculer cii.
n i−1 n
cii =  a ik b ki =  a ik b ki + a ii b ii +
ab. ik ki
k=1 k=1 k=i+1
i−1
Lorsque k < i, on a aik = 0 et donc  a b = 0. ik ki
k=1
n
Lorsque k > i, on a bki = 0 et donc  a b = 0. ik ki
k=i+1
D'où cii = aii bii = aii aiip = aiip+1.

Francis Wlazinski 5
Rappel 1.27

On dit qu'un élément a d'un groupe (noté multiplicativement) est nilpotent d'ordre k (entier non nul)
lorsque a k−1 ≠ 0 et a k = 0.
On dit qu'un élément a d'un groupe est nilpotent s'il existe un entier k tel que a soit nilpotent d'ordre k.

Propriété 1.28

Toute matrice A strictement triangulaire est nilpotente.

Démonstration

Soit A = (aij)i=1,n j=1,n une matrice strictement triangulaire supérieure.


Soit p un entier naturel non nul, nous allons montrer que si Ap = (bij)i=1,n j=1,n alors, pour tout entier i
compris entre 1 et n, bij = 0 si i ≥ j − p + 1.
• Vrai au rang 1.
• On suppose vrai au rang p c'est-à-dire Ap = (bij)i=1,n j=1,n avec bij = 0 dès que i ≥ j − p + 1.
On pose Ap+1 = (cij)i=1,n j=1,n.
On a Ap+1 = A × Ap.
n
Donc cij =  a ik b kj .
k=1
j−p n
Si i ≥ j − p (≥ 1), cij =  a ik b kj +  a ik b kj .
k=1 k=j−p+1
j−p
Lorsque k ≤ j − p, on a i ≥ k et aik = 0. Donc  a ik b kj = 0.
k=1
n
Lorsque k ≥ j − p + 1, on a bkj = 0 et donc  a ik b kj = 0.
k=j−p+1

Remarques 1.29

• Plus précisément, si A appartient à Mn(K) et si A est strictement triangulaire, alors An = 0.


0 1
Par exemple, si A = on a bien A2 = 0.
0 0
• Pour qu'une matrice carrée soit nilpotente, il n'est pas nécessaire qu'elle soit strictement
triangulaire.
1 −1
Par exemple, la matrice A = vérifie A2 = 0.
1 −1
• Si une matrice carrée A d'ordre n est nilpotente, il est certain que An = 0.
Inversement, si A est carrée d'ordre n et si An ≠ 0, alors toutes les puissances de A sont non nulles.

2. Matrice et inverse
Définition 2.1

Soit A une matrice de Mn(K).


On dit que A est inversible si et seulement s'il existe une matrice à telle que A × Ã = Ã × A = In.
On note A−1 la matrice Ã.

Francis Wlazinski 6
Remarques 2.2

• Il y a unicité de la matrice inverse A−1 lorsqu’elle existe.


• Bien que le produit dans Mn(K) ne soit pas commutatif, l'une des deux égalités AB = In ou BA = In
implique l'autre, et donc B = A−1.
• Soit A une matrice de Mn(K).
A est inversible ⇔ A est simplifiable
⇔ A n'est pas un diviseur de 0.

Propriété-Définition 2.3

L'ensemble des matrices inversibles de Mn(K) est un groupe pour la loi produit appelé groupe linéaire
d'indice n et noté GLn(K).

Propriété 2.4

Soient A et B deux matrices inversibles de Mn(K). On a (A × B)−1 = B−1 × A−1.

Remarque 2.5

Soit A une matrice inversible de Mn(K).


On peut donc définir Ak pour tout entier négatif k de la façon suivante : Ak = (A−1)−k avec − k ≥ 0.

Propriété 2.6

a b
Soit A = une matrice de M2().
c d
1 d −b
A est inversible si et seulement si ad − bc ≠ 0 et dans ce cas, A −1 = .
ad − bc −c a

3. Matrices équivalentes et matrices semblables


Définition 3.1

Deux matrices A et B de Mn×p(K) sont dites équivalentes s'il existe une matrice inversible Q d'ordre n et
une matrice inversible P d'ordre p telles que B = Q A P.

Définition 3.2

Deux matrices A et B de Mn(K) sont dites semblables s'il existe une matrice inversible P d'ordre n telle
que B = P −1A P.

Remarques 3.3

• Si deux matrices sont semblables, elles sont équivalentes. La réciproque est fausse.
• Si B = P−1A P, alors pour tout entier naturel n on a : B n = P −1AnP.
Cette relation s'étend aux exposants négatifs si A et (donc) B sont inversibles.

Francis Wlazinski 7
Propriétés 3.4

• La relation définie par "A est équivalente à B'' est une relation d'équivalence dans Mn×p(K).
• La relation définie par "A est semblable à B'' est une relation d'équivalence dans Mn(K).

4. Transposée d'une matrice


Définition 4.1

Soit A = (aij)i=1,n j=1,p une matrice de Mnp(K).


On appelle transposée de A et on note tA la matrice deMpn(K) définie par :
t
A = (αij)i=1,p j=1,n où αij = aji ∀i=1,p ∀j=1,n

Remarques 4.2

• Lorsque l'on transpose, les vecteurs colonnes de la matrice sont changés en vecteurs lignes et
inversement.
• Lorsque l'on transpose une matrice carrée, les éléments diagonaux (ceux qui appartiennent à la
diagonale) sont inchangés.

Propriété 4.3

Soient A et B deux matrices de Mnp(K) et soit λ∈K.


Alors on a :
• ( A) = A
t t

• t
(A + B) = tA + tB
• t
(λ A) = λ(tA)

Remarque 4.4

On peut résumer ses propriétés en disant que la transposition est un isomorphisme de Mn×p(K) dans
Mp×n(K) et que, si on se restreint à Mn(K), la transposition est un automorphisme involutif.
Propriété 4.5

Soient A une matrice de Mnp(K) et B une matrice de Mpq(K).


On a t(A × B) = tB × tA.

Remarque 4.6

B est une matrice de Mqp(K) et tA est une matrice de Mpn(K).


t

Donc tB × tA est une matrice de Mqn(K).

Propriété 4.7

Soit A une matrice carrée.


Si A est inversible, alors tA est inversible et (tA)−1 = t(A−1).

Francis Wlazinski 8
Propriété 4.8

∀A∈Mn(K), ∀k∈, t(Ak) = (tA)k. Si A est inversible, cette égalité est valable pour tout entier relatif k.

Démonstration

• Par récurrence pour les entiers positifs.


• Vrai pour k = −1.
• Ak = (A−1)−k pour k < 0.

Définition 4.9

Soit A une matrice carrée de Mn(K).


On dit que A est symétrique si et seulement si tA = A.
On dit que A est antisymétrique si et seulement si tA = −A.

Remarques 4.10

Si A = (aij)i,j=1,n est un matrice de Mn(K),


• A est symétrique si aji = aij ∀i,j = 1,n.
• A est antisymétrique si aji = − aij ∀i,j = 1,n.
• La diagonale d'une matrice antisymétrique est forcement nulle.

Notation

On note Sn(K) l'ensemble des matrices de Mn(K) qui sont symétriques.


On note An(K) l'ensemble des matrices de Mn(K) qui sont antisymétriques.

Corollaire 4.11

Si A est inversible et symétrique alors A−1 est symétrique.


Si A est inversible et antisymétrique alors A−1 est antisymétrique.

Démonstration

Voir propriété 4.7.

Corollaire 4.12

Si A est symétrique alors, pour tout entier naturel k, Ak est symétrique.


Si A est inversible, cette propriété est valable pour tout entier relatif k.

Démonstration
En effet, t(Ak) = (tA)k = Ak.

Corollaire 4.13

Si A est antisymétrique, les puissances paires de A sont symétriques et les puissances impaires de A sont
antisymétriques.
Francis Wlazinski 9
Démonstration

En effet, t(Ak) = (tA)k = (−1)k Ak.

Propriété 4.14

Sn(K) et An(K) sont deux sous-espaces vectoriels supplémentaires de Mn(K).


La dimension de Sn(K) est 1 n(n + 1) et celle de An(K) est 1 n(n − 1).
2 2
Toute matrice M de Mn(K) s'écrit de manière unique comme la somme d'une matrice symétrique S et
d'une matrice antisymétrique A.
S et A sont respectivement données par S = M + M et A = M − M .
t t

2 2

Démonstration

On a bien : S + A = M, tS = S et tA = − A.
De plus, soit P une matrice qui est à la fois symétrique et antisymétrique.
P = tP = − P c'est-à-dire 2P = 0 et enfin P = 0.

5. Trace d'une matrice


Définition 5.1

Soit A une matrice carrée d'ordre n (i.e. A∈Mn(K)).


On appelle trace de A la somme des éléments diagonaux de A.
n
C'est-à-dire si A = (aij)i,j=1,n , on a tr(A) =  a ii .
i=1

Propriétés 5.2

Soit A et B deux matrices carrées de même ordre et λ un scalaire.


1. tr( tA) = tr(A).
2. tr(A + B) = tr(A) + tr(B).
3. tr(λ A) = λ tr(A).
4. tr(A × B) = tr(B × A).

Remarques 5.3

• En général, tr(A × B) ≠ tr(A) × tr(B).


• L'application ''trace'' est donc une forme linéaire sur l'espace vectoriel Mn(K), c'est-à-dire une
application linéaire de Mn(K) dans K.
• Soient A une matrice de Mn×p(K) et B une matrice de Mp×n(K).
La matrice AB est donc carrée d'ordre n, tandis que BA est carrée d'ordre p.
On a aussi tr(A × B) = tr(B × A).
• On ne doit pas généraliser abusivement à des produits de plus de deux matrices.
Par exemple, il n'y a aucune raison pour qu'on ait l'égalité tr(ABC) = tr(CBA).
En revanche, on peut écrire tr(ABC) = tr(CAB) = tr(BCA).

Francis Wlazinski 10
• Deux matrices semblables ont la même trace.
Plus précisément, si A et P appartiennent à Mn(K), et si P est inversible, alors la matrice B définie
par B = P−1AP possède la même trace que A.
En effet, tr(P−1AP) = tr((P−1A)P) = tr(P(P−1A)) = tr(A).
Pour reprendre la remarque précédente, on n'écrira pas : tr(P−1AP) = tr(P−1PA) = tr(A)!

6. Matrices et bases
6.1 Matrice d'une famille de vecteurs dans une base
Définition 6.1

Soit E un K-espace vectoriel, de dim n ≥ 1, muni d'une base (e) = (e1, e2, ... , en).
Soit (v) = (v1, v2, ... , vp) une famille de p vecteurs de E.
n
Pour i = 1,n et j = 1, p, soit aij la iième composante du vecteur vj dans la base (e) c'est-à-dire vj = aij ei.
i=1
Soit A la matrice de Mn×p(K), de terme général aij.
A est appelée matrice de la famille (v) dans la base (e).

Remarques 6.2

• Dans un K-espace vectoriel E de dimension finie, muni d'une base (e), on note parfois [u]e la
matrice-colonne des coordonnées d'un vecteur u de E dans la base (e).
• Avec ces notations, la j-ième colonne de A est formée des composantes de v dans (e).
Supposons par exemple que (e) = (e1, e2, e3) soit une base de E (donc dim(E) = 3).
Soient v1 = 3e1 + 5e2 + e3 et v2 = 2e1 + 4e2 + 7e3.
3 2
C'est-à-dire [v1]e  5 et [v2]e  4 .
1 7
3 2
Alors la matrice de la famille (v) = (v1, v2) dans la base (e) est 5 4 .
1 7

6.2 Matrices associées à une application linéaire


Dans tout ce paragraphe, E et E' sont deux K-e.v. de dimension respective p et n, (e) = (e1,e2,......,ep) est
une base de E et (e') = (e'1,e'2,......,e'n) est une base de E'.

Rappel 6.3

Soient f et g deux applications linéaires de E dans E'.


Si ∀i = 1,p, f (ei) = g(ei) alors f = g.

Remarque 6.4

Cela signifie que f est entièrement déterminé par les images des vecteurs de la base.
C'est-à-dire la connaissance des (f (ei))i=1,p suffit pour connaître f.

Francis Wlazinski 11
Définition 6.5

Soit f∈L K(E,E').


On appelle matrice représentative ou matrice associée ou matrice image dans les bases (e) et (e') et on
note Mee'(f) la matrice n × p à coefficients dans K dont les vecteurs colonnes sont les coordonnées des
images par f de chacun des ei dans la base (e').
f(e 1) f(e 2 ) £ f(e p )
 11  12 ¢  1p e ∏1 n
C'est-à-dire Mee'(f) =  21  22 ¢  2p e ∏2 où f(e j ) =   ij e ∏i ≤j = 1, p.
i=1
§ § • § §
 n1  n2 £  np e ∏n

Remarque 6.6

La matrice de f dans les bases (e) et (e') est la matrice de la famille des vecteurs (f (e1), f (e2), ... , f (ep))
dans la base (e').

Exemple 6.7

Soit f : 2 → 3
(x,y)  (x − y,−3x + 2y,5x + y)
On vérifie aisément que f est une application linéaire.
Soit (e) la base canonique de 2 et soit (e') la base canonique de 3.
1 −1
On a Mee'(f) = −3 2 .
5 1

Propriété 6.8

Soit f∈L K(E,E') et soit M = Mee'(f).


Si u a pour coordonnées U dans (e) alors f (u) a pour coordonnées M × U dans (e’).

Remarque 6.9

Ce que l'on peut aussi écrire [f (u)]e' = Mee'(f) × [u]e.

Exemple 6.10

Soit (e) la base canonique de2 et soit (e') la base canonique de 3.
Soit f : 3 → 2
(x,y,z)  (y − z,2x + 3y + 5z)
0 1 −1
On a Mee'(f) = .
2 3 5
x
Soit u = (x,y,z)∈ et U = y .
3

z
y−z
On a Mee'(f) × U = = (y − z,2x + 3y + 5z) = f(u).
2x + 3y + 5z

Francis Wlazinski 12
Propriété 6.11

L'application ϕ : L K(E,E') → Mnp(K)


f  Mee'(f) est un isomorphisme d'e.v.

Remarques 6.12

• On a donc ϕ(f + g) = ϕ(f) + ϕ(g),


ϕ(kf) = kϕ(f )
et ϕ bijective.
• On peut donc bien définir une application linéaire par sa matrice dans deux bases données.

Propriété 6.13

Soient E,F et G trois K-e.v. Soient (e), (e’) et (e") les bases respectives de E,F et G.
Soient f∈L K(E,F) et g∈L K(F,G).
On a Mee"(g ο f) = Me’e’’(g) × Mee’(f)

Démonstration

D'après la propriété 6.7, en posant M = Mee'(f) et M' = Me'e''(f).


Alors, si u a pour coordonnées U dans (e), f (u) a pour coordonnées M × U dans (e').
Et g(f (u)) a pour coordonnées M' × (M × U) dans (e'').
C'est-à-dire (g o f)(u) a pour coordonnées (M' × M) × U dans (e'').
D'après l'unicité de la matrice représentative, on a Mee"(g o f) = M' × M.

Propriété 6.14

Soient E,F deux K-e.v. de même dimension et soient (e) et (e’) les bases respectives de E et F .
Soit f∈L K(E,F).
f est inversible si et seulement si Mee’(f) est inversible et Me’e(f −1) = (Mee’(f))−1.

Démonstration

In = Me'e"(Id) = Me'e"(f −1 o f) = Me’e(f −1) × Mee’(f).


In = Mee(Id) = Mee(f o f −1) = Mee'(f) × Me'e(f −1).

Propriété 6.15

Soit E un K-espace vectoriel de dimension n ≥ 1, muni d'une base (e).


Soit v une famille de n vecteurs de E (autant donc que la dimension de E).
Soit A (∈Mn(K)) la matrice de la famille (v) dans la base (e).
Alors la famille (v) est une base de E si et seulement si la matrice A est inversible.

Démonstration

A peut être considérée comme la matrice d'un endomorphisme f de E.


Or A inversible ⇔ f inversible ⇔ f bijective ⇔ f surjective (même dim) ⇔ (v) famille génératrice de E.
Or dim E = n, donc (v) famille génératrice de E ⇔ (v) base.
Francis Wlazinski 13
6.3 Matrice de passage
Définition 6.16

Soit E un K-e.v. de dimension n et soient (e) et (e') deux bases de E.


On appelle matrice de passage de (e) à (e') et on note Pe → e' la matrice formée des vecteurs colonnes
correspondants aux coordonnées des vecteurs de (e') dans la base (e).
C'est-à-dire si (e) = (e1, e2, ...., ei, ... , en) et (e') = (e'1, e'2, ...., e'j, ... , e'n)
n
avec e'j = a1j.e1 + a2j.e2 + ... + aij.ei + ... + anj.en =  a ij e i pour tout j = 1,n
i=1
alors on a Pe →e' = (aij)i=1,n j=1,n

Remarques 6.17

• La matrice de passage de (e) à (e') est la matrice de la famille (e') dans la base (e).
• La matrice de passage de (e) à (e') est Pe → e' = Me'e(IdE).

Propriété 6.18

Soit E un K-e.v. de dimension n.


Soient (e) = ( e1,e2,......,en ) et (e') = ( e'1,e'2,......,e'n ) deux bases de E.
n
Soit u un vecteur de E tel que u = x1.e1 + x2.e2 + ... + xj.ej + ... + xn.en =  x j e j
j=1
n
et u = x'1.e'1 + x'2.e'2 + ... + x'j.e'j + ... + x'n.e'n =  x ∏k e ∏k
k=1
x1 x ∏1
Soient Xe = § et Xe' = § . On a Xe = Pe → e' × Xe'.
xn x ∏n

Remarque 6.19

On peut aussi écrire [u]e = Pe → e' × [u]e'

Propriété 6.20

Soit E un K-e.v. de dimension finie.


Soient (e) et (e') deux bases de E.
La matrice de passage de (e) à (e') est inversible.
De plus, (Pe → e')−1 = Pe' → e.

Démonstration

D'après la propriété 6.13, une matrice de passage est inversible.


Pour tout vecteur, on a Xe = Pe → e' × Xe' et Xe' = Pe' → e × Xe.
D'où Xe' = (Pe → e')−1 × Xe' et (Pe → e')−1 = Pe' → e.

Remarque 6.21

Si (α), (β) et (γ) sont trois bases de E, alors on a la relation :


Pα → γ = Pα → β Pβ → γ.

Francis Wlazinski 14
Propriété 6.22

Soit (ε) une autre base de E et soit (ε') une autre base de E'.
Soit P la matrice de passage de (e) à (ε) et soit Q la matrice de passage de (e') à (ε').
Soit f une application linéaire de E dans E'.
Soit A la matrice de f dans les bases (e) et (e') et soit B la matrice de f dans les bases (ε) et (ε').
Alors on a l'égalité : B = Q−1 A P.

Démonstration

Soit u un vecteur quelconque de E.


On a [u]e = P × [u]ε et [f (u)]e' = Q × [f (u)]ε'.
De plus, [f (u)]e' = A × [u]e. Donc Q × [f (u)]ε' = A × [u]e = A × P × [u]ε. D'où [f (u)]ε' = Q−1 × A × P × [u]ε.

Remarques 6.23

• Les matrices représentatives d'une même application linéaire sont équivalentes.


• Réciproquement, toute matrice équivalente à une matrice représentative d'une application linéaire
est aussi une matrice représentative de cette application linéaire.

Corollaire 6.24

Si f est un endomorphisme de E, de matrice A dans (e) et de matrice B dans (ε).


Soit P la matrice de passage de (e) à (ε). Alors on a l'égalité : B = P−1 A P.

Définition 6.25

Soit E un K-espace vectoriel de dimension finie n ≥ 1. Soit f un endomorphisme de E.


On appelle trace de f et on note tr(f) la trace de la matrice de f dans une base quelconque de l'espace
vectoriel E.

Remarques 6.26

• Puisque tr(P−1AP) = tr((P−1A)P) = tr(P(P−1A)) = tr(A), la trace de f ne dépend pas de la base (e)
choisie dans E pour représenter matriciellement f.
• Si f et g sont deux endomorphismes de E, on a : tr(g o f) = tr(f o g).
• Si p est une projection vectorielle de E sur un sous-espace F de dimension r, alors
tr(p) = rg(p) = r.
Pour s'en persuader, il suffit de choisir un supplémentaire G de F dans E et de se placer dans une
base adaptée à la somme directe E = F ⊕ G. La matrice de p dans cette base est diagonale, les r
premiers coefficients diagonaux valant 1 et les n − r derniers valant 0.

6.4 Rang
Définition 6.27

Soit A une matrice de Mn×p(K).


On appelle rang de A, et on note rg(A), le rang de la famille des p vecteurs colonnes de A, considérés
comme éléments de Kn.

Francis Wlazinski 15
Remarques 6.28

• rg(A) est nul ⇔ A est la matrice nulle.


• rg(A) est égal à 1 si et seulement si les différentes colonnes de A sont proportionnelles deux à
deux, l'une d'elles au moins n'étant pas nulle.
• Le rang de la matrice A est égal au rang de toute application linéaire susceptible d'être représentée
par A.

Propriété 6.29

Le rang d'une matrice est aussi le rang de la famille composée de ses vecteurs lignes.

Démonstration

Non trivial (euphémisme).

Propriété 6.30

Soit f∈L K(E,E') et soit M = Mee'(f).


On a rg(f) (= dim Im f) = rg(Mee'(f)).

Corollaire 6.31

Deux matrices semblables ont même rang.

Corollaire 6.32

Soit A une matrice de Mn(K). A est inversible si et seulement si rg(A) = n.

7. Opérations élémentaires
Définition 7.1

Soit A = (aij)i=1,n j=1,p une matrice de Mn×p(K).


On note L1, ... , Ln les lignes successives de A.
Pour chaque ligne Li de A, soit d(i) le plus petit indice j, s'il existe, tel que aij ≠ 0.
On dit que A est échelonnée supérieurement s'il existe un entier r de {0, ... , n} tel que :
• Pour tout indice i inférieur ou égal à r, la ligne Li est non nulle.
• Pour tout indice i strictement supérieur à r, la ligne Li est nulle.
• La suite d(1), d(2), ... , d(r) est strictement croissante.
Les r coefficients non nuls situés aux positions (i, d(i)) sont appelés les pivots de A.

Remarque 7.2

Une rang d'une telle matrice est r.

Francis Wlazinski 16
Exemple 7.3

0 1 2 3 4 5 0
0 0 3 4 5 0 0
A= 0 0 0 1 2 0 3 est échelonnée, avec quatre pivots.
0 0 0 0 0 1 1
0 0 0 0 0 0 0
Donc rg(A) = 4.

Définition 7.4

Soient n, p, r trois entiers tels que 1 ≤ r ≤ min (n, p).


On note Jr(n, p) la matrice de Mn×p(K), de coefficients aij définie par :
• Pour tout indice i compris entre 1 et r, aii = 1.
• Les autres coefficients de Jr(n, p) sont nuls.

Exemples 7.5

Les matrices Jr(n, p) sont bien sûr des cas particuliers de matrices échelonnées.
1 0 0 0 0
0 1 0 0 0
Par exemple, dans M4, 5(K), J2 (4,5) =
0 0 0 0 0
0 0 0 0 0
1 0 0 0 0
0 1 0 0 0
J3 (4,5) =
0 0 1 0 0
0 0 0 0 0

Propriété 7.6

Une matrice A de Mn×p(K) est de rang r si et seulement si elle est équivalente à la matrice Jr(n, p).

Propriété 7.7

Deux matrices A et B de Mn×p(K) sont équivalentes si et seulement si elles ont le même rang.

Rappel 7.8

Le rang d'une matrice A est égal au rang de la matrice transposée tA.

Remarque 7.9

Soit A une matrice de Mn×p(K).


Le rang de A est inférieur ou égal au minimum de n et de p.
Il est égal au nombre maximum de colonnes libres dans A.
Il est aussi égal au nombre maximum de lignes libres dans A.

Francis Wlazinski 17
Définition 7.10

Soit (v) = (v1, v2, ... , vn) une famille de n vecteurs de Kp.
On appelle opération élémentaire sur les vecteurs de cette famille l'une des opérations suivantes :
• Multiplier un des vecteurs de la famille par un scalaire non nul.
• Ajouter à l'un des vecteurs un multiple d'un autre vecteur de la famille.
• Echanger deux vecteurs de la famille.

Propriété 7.11

Soit (v') la famille de vecteurs obtenue en appliquant une opération élémentaire à une famille (v).
Les deux familles (v) et (v') ont le même rang.

Remarque 7.12

On ne modifie donc pas le rang d'une famille de vecteurs en lui appliquant une succession d'opérations
élémentaires. Il en est ainsi quand on ajoute à l'un des vecteurs une combinaison linéaire des autres
vecteurs de la famille.

Définition 7.13

Soit A une matrice de Mn×p(K). Notons L1, L2, ... , Ln les lignes de A.
On appelle opération élémentaire sur les lignes de A l'une des opérations suivantes :
• Multiplier une ligne Li par un scalaire non nul α.
On note cette opération : Li ← α Li.
• Ajouter à l'une des lignes Li un multiple d'une autre ligne Lj.
On note cette opération : Li ← Li + β Lj.
• Echanger deux lignes Li et Lj.
Cette opération est notée : Li ↔ Lj.

Remarques 7.14

• On définit de même les opérations élémentaires sur les colonnes de la matrice A.


Ces opérations sont notées : Ci ← α Ci,
Ci ← Ci + β Cj
et Ci ↔ Cj.
• Toute opération élémentaire (ou toute suite d'opérations élémentaires) transforme une matrice A
en une matrice de même rang.
• Dans toute opération Li ← α Li, il est absolument indispensable que α soit non nul.
On veillera notamment au cas où α dépend d'un paramètre. Pour les valeurs de celui-ci qui
annuleraient α, l'opération se traduit par Li ← 0 et modifie en général le rang de A.
• On note Li ← α Li + β Lj la composée de Li ← α Li puis de Li ← Li + β Lj.

Propriété 7.15

Soit A une matrice de Mn×p(K), transformée en une matrice B par une suite d'opérations élémentaires sur
les lignes. Alors il existe une matrice inversible P telle que B = PA.
De même, si C est obtenue à partir de A par une ou plusieurs opérations élémentaires sur les colonnes,
alors il existe une matrice inversible Q telle que B = AQ.

Francis Wlazinski 18
Remarques 7.16

On peut interpréter ces résultats en disant que :


• Toute opération élémentaire sur les lignes équivaut à une multiplication à gauche par une matrice
inversible.
• Toute opération élémentaire sur les colonnes équivaut à une multiplication à droite par une
matrice inversible.

Propriété 7.17

On peut transformer une matrice quelconque A en une matrice échelonnée B, par une succession
d'opérations élémentaires sur les lignes de A.

Remarques 7.18

• Le calcul du rang d'une famille de vecteurs (ou d'une application linéaire) peut toujours se
ramener au calcul du rang d'une matrice.
• Les opérations élémentaires ne modifiant pas le rang de la matrice initiale, on peut ainsi calculer
le rang de A : c'est celui de la matrice échelonnée finale, c'est-à-dire le nombre de ses pivots non
nuls.

Exemple 7.19
1 2 −1 −3 5
3 1 3 −3 7
On veut calculer le rang de la matrice A = .
2 5 −3 1 4
−1 −2 1 2 1
On applique à A les opérations suivantes : L2 ← L2 − 3 L1
L3 ← L3 − 2 L1
L4 ← L4 + L1
1 2 −1 −3 5
0 −5 6 6 −8
On obtient la matrice B = .
0 1 −1 7 −6
0 0 0 −1 6
On applique à B les opérations suivantes : L2 ← L2 + 5 L3
L2 ↔ L3
1 2 −1 −3 5
0 1 −1 7 −6
On obtient la matrice C = . La matrice initiale A est donc de rang 4.
0 0 1 41 −38
0 0 0 −1 6

Définition 7.20

On appelle matrice par blocs toute matrice découpée en un certain nombre de sous-matrices.
Chacune de ces sous-matrices est appelée un bloc.

Propriété 7.21

Les règles des opérations d'addition, de multiplication de matrice sont applicables sur les blocs de la
même façon que sur les coefficients.

Francis Wlazinski 19

Vous aimerez peut-être aussi