Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Determinants - Complements Sur Les Matrices - Systemes D'Equations Lineaires

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 38

DETERMINANTS - COMPLEMENTS SUR LES MATRICES - SYSTEMES D’EQU

Dans ce chapitre, | est un corps commutatif (en général | = R ou | =


C); E est un |-espace vectoriel de dimension …nie n; L (E) est l’ensemble des
endomorphisme de E; Mn (|) est l’ensemble des matrices carrées d’ordre n à
coe¢ cients dans | et Mm;n (|) est l’ensemble des matrices de format (m; n)
c.à.d de m lignes n colonnes à coe¢ cients dans |:

1 DETERMINANTS
1.1 Outils de base
1.1.1 Signature d’une permutation

Nous exposons sommairement ici les notions et résultats de la théorie des


groupes symétriques utiles à la dé…nition, à la compréhension et au calcul du
déterminant. L’approfondissement de ces notions et la preuve des résultats pro-
duits se font en 3 eme année de licence dans le cours de Théorie des Groupes et
Anneaux.

Le groupe symétrique d’indice n


Dé…nition 2.1: Soit ; = 6 X un ensemble …ni; on apelle permutation de X
toute bijection de X dans X:
On note S(X) l’ensemble des permutations de X:

Proposition 2.1: Soit ; = 6 X un ensemble …ni de n éléments; alors on a:


- Card(S(X)) = n!
- (S(X); ) est un groupe.

Dé…nition 2.2: le groupe (S(X); ) avec X = f1; 2; :::; ng (n 2 N ) est


appelé le groupe symétrique d’indice n et noté Sn

Notation: un élément de Sn est noté

1 2 : : : n
= avec 8k 2 X = f1; 2; :::; ng; ik = (k) :
i1 i2 : : : in

1 1 2 1 2 1 2 3 1 2 3 1 2
Exemple 2.1: S1 = f g; S2 = f ; g; S3 = f ; ;
1 1 2 2 1 1 2 3 1 3 2 2 1
Dans le reste de cette section (jusqu’à l’exemple 2.2) on suppose n > 1

1
Cycles -transpositions Dé…nitions 2.3: - Un cycle de longueur p (2
p n) ou un p-cycle de Sn est un élément de Sn pour lequel il existe une
partie F = fi1 ; i2 ; :::ip g de X appelée support de véri…ant:

(ij ) = ij+1 pour 1 j p 1; (ip ) = i1 et (k) = k;pour k 2


= F:

(on prend p 6= 1 car un cycle de longueur 1 serait simplement égal à IdX et


serait de support vide).
On note alors = i1 i2 ip
(exemple: le cycle = ( 2 3 5 ) de S5 est la permutation de f1; 2; 3; 4; 5g
dé…nie par: (2) = 3; (3) = 5; (5) = 2; (1) = 1; (4) = 4 qui pouvait donc
1 2 3 4 5
être notée:
1 3 5 4 2
- une transposition est un 2-cycle.

Proposition 2.2: un p-cycle est un produit de p 1 transpositions. Plus


précisément on a:
i1 i2 ip = i1 i2 i2 i3 ::: ip i ip :

Proposition 2.3: Toute permutation 6= IdX s’écrit de manière unique


comme produit de cycles de supports disjoints (modulo une permutation des
cycles).

Corollaire: Toute permutation est produit de transpositions

Proposition 2.4 (et dé…nition) La parité du nombre de transpositions


dans la décomposition d’une permutation en produit de transpositions est in-
dépendante de la décomposition choisie.
Une permutation est dite paire (resp. impaire) si elle est produit d’un nombre
pair (resp impair) de transpositions

Signature d’une permutation Soit un élément de Sn : On apelle signature


de l’entier
1 si est une permutation paire
Sgn =
1 si est une permutation impaire

Sn ! f 1; 1g
Proposition 2.5: L’application " : est un morphisme de
7 ! Sgn
groupe.

Corollaire et dé…nition : L’ensemble des permutations paires est un sous


groupe de Sn appelé le groupe alterné d’indice n et noté An :
Pour toute transposition de Sn ; l’application 7 ! (resp )
réalise une bijection de l’ensemble des permutations paires dans l’ensemble des
permutations impaires.

2
En conséquence, il y a autant de permutations paires.que de permutations
impaires.dans Sn :

1 2 3 4 5 6 7 8 9 10 11 12
Exemple 2.2: Soit =
4 2 8 10 7 5 12 3 11 1 9 6
Décomposer en produit de cycles de supports disjoints, en produit de
transpositions et calculer sa signature.
en produit de cycles de supports disjoints:
= 1 4 10 3 8 5 7 12 6 9 11
en produit de transpositions:
= ( 1 4 )( 4 10 )( 3 8 )( 5 7 )( 7 12 )( 12 6 )( 9 11 )
est produit de 7 transpositions, donc elle est impaire; alors Sgn = 1

1.2 Forme p-linéaire


1.2.1 Dé…nitions
Ep ! |
- une forme p-linéaire sur E (p 2 N ) est une application f :
(v1 ; v2 ; :::; vp ) 7 ! f (v1 ; v2 ; :::; vp )
linéaire par rapport à chaque composante c.à.d telle que pour chaque j 2 1; p; si
E !|
on …xe vi pour i 6= j; alors la fonction fj :
v 7 ! fj (v) = f (v1 ; :::; vj 1 ; v; vj+1 ; :::; vp )
est linéaire.
En d’autres termes f : E p ! | est p-linéaire si pour chaque j 2 1; p et
8vi 2 E; i 2 1; p r fjg; 8v; w 2 E; 8 2 | on a:
f (v1 ; :::vj 1 ; v + w; vj+1 ; :::; vp ) = f (v1 ; :::vj 1 ; v; vj+1 ; :::; vp )+f (v1 ; :::vj 1 ; w; vj+1 ; :::; vp ) ;
f (v1 ; :::vj 1 ; v; vj+1 ; :::; vp ) = f (v1 ; :::vj 1 ; v; vj+1 ; :::; vp )
- Une forme p-linéaire f sur E est dite alternée si f (v1 ; v2 ; :::; vp ) = 0 dès
que deux termes quelconques de la suite (vi )1 i p sont identiques c.à.d dès qu’il
existe i 6= j tel que vi = vj :

1.2.2 Propriétés
Soient f une forme p-linéaire alternée sur E; (v1 ; v2 ; :::; vp ) 2 E p ; alors:
a) f (v1 ; v2 ; :::; vp ) = 0 dès que l’un des vi est nul;
b) f (v1 ; v2 ; :::; vp ) = 0 dès que deux termes quelconques de la suite (vi )1 i p
sont colinéaires;
c) f (v1 ; v2 ; :::; vp ) = 0 si un terme de la suite (vi )1 i p est une combinaison
linéaire des autres;
d) f (v1 ; :::; vj ; :::; vi ; :::; vp ) = f (v1 ; v2 ; :::; vp ) ; (étant entendu que dans
(v1 ; :::; vj ; :::; vi ; :::; vp ) ; vj est la ieme composante et vi la j eme );en d’autres
termes, lorsqu’on échange deux termes de la suite (vi )1 i p ; l’image est trans-
formée en son opposé.
e) 8 2 Sp ; f v (1) ; v (2) ; :::; v (p) = sgn( ) f (v1 ; v2 ; :::; vp )

Preuve

3
a) Lorsque pour j 6= i vj est …xé et que vi seul varie, alors la fonction
'(vi ) = f (v1 ; v2 ; :::; vp ) est une forme linéaire sur E; donc s’annulle en 0E d’où
le résultat.
b) S’il existe i 6= j 2 1; p et 2 | tels que vj = vi ; alors on a f (v1 ; :::; vi ; :::; vj ; :::; vp ) =
f (v1 ; :::; vi ; :::; vi ; :::; vp ) = f (v1 ; :::; vi ; :::; vi ; :::; vp ) = 0 puisque f est al-
ternée.
c) Pour simpli…er on suppose que vp est une combinaison linéaire de v1 ; v2 ; :::; vp 1
p 1
X
ce qui en réalité n’est pas une restriction; on suppose donc que vp = i vi ;
! i=1
p 1
X p 1
X
alors on a f (v1 ; v2 ; :::; vp ) = f v1 ; v2 ; :::; i vi = if (v1 ; v2 ; :::; vi ) = 0
i=1 i=1
car chaque p-uplet (v1 ; v2 ; :::; vi ) comporte deux termes identiques en l’occurrence
le ieme et le peme :
d) Par linéarité par rapport à la ieme et à la j eme composante, et étant
entendu que dans les expressions qui suivent les termes écrits après les premiers
points de suspension et les deuxième points de suspension sont respectivement
les ieme et les j eme composantes, on a:
f (v1 ; :::; vi + vj ; :::; vi + vj ; :::; vp ) = f (v1 ; :::; vi ; :::; vi ; :::; vp )+f (v1 ; :::; vi ; :::; vj ; :::; vp )+
f (v1 ; :::; vj ; :::; vi ; :::; vp ) + f (v1 ; :::; vj ; :::; vj ; :::; vp ) : Comme f est alternée, alors
les termes f (v1 ; :::; vi + vj ; :::; vi + vj ; :::; vp ) ; f (v1 ; :::; vi ; :::; vi ; :::; vp ) et f (v1 ; :::; vj ; :::; vj ; :::; vp )
sont nuls et le résultat s’ensuit.
e) 8 2 Sp ; posons [(v1 ; v2 ; :::; vp )] = v (1) ; v (2) ; :::; v (p) ; d’après le
corollaire de la proposition 2.3, on a = 1 2 ::: r où 1 ; 2 ; :::; r sont
des transpositions; il s’ensuit f v (1) ; v (2) ; :::; v (p) = f [ (v1 ; v2 ; :::; vp )] =
f[ 1 2 ::: r (v1 ; v2 ; :::; vp )] : or d’àprès d), si est la tansposition i j ;
on a f [ (v1 ; v2 ; :::; vp )] = f (v1 ; v2 ; :::; vp ) ; par conséquent on a f [ (v1 ; v2 ; :::; vp )] =
( 1r ) f (v1 ; v2 ; :::; vp ) = sgn ( ) f (v1 ; v2 ; :::; vp ) :

Théorème 2.1 : Soient f une forme n-linéaire alternée sur E; B = (e1 ; e2 ; :::; en )
n
X
une base de E; (v1 ; v2 ; :::; vn ) 2 E n ; posons pour 1 i n; vi = aij ej ; alors
j=1
on a :
!
X
f (v1 ; v2 ; :::; vn ) = Sgn a1 (1) a2 (2) :::an (n) f (e1 ; e2 ; :::; en ) :
2Sn

Par conséquent, f est entièrement déterminée par la donnée de l’image d’une


base donnée de E:

Preuve
n
X
Par souci de clarté, posons plutôt vi = aiji eji pour associer la variable
ji =1
j (qui est muette) à chaque i; alors on a:

4
0 1
n
X n
X n
X
f (v1 ; v2 ; :::; vn ) = f @ a1j1 ej1 ; a2j2 ej2 ; :::; anjn ejn A
j1 =1 j2 =1 jn =1
0 1
n
X n
X n
X
= a1j1 f @ej1 ; a2j2 ej2 ; :::; anjn ejn A (linéarité par rapport à la
j1 =1 j2 =1 jn =1
1ère composante) 0 1
Xn X n n
X n
X
= a1j1 a2j2 f @ej1 ; ej2 ; a3j3 ej3 ; :::; anjn ejn A (linéarité par
j1 =1 j2 =1 j3 =1 jn =1
rapport à la 2ème composante) et de proche en proche on obtient
n
X n
X n
X
f (v1 ; v2 ; :::; vn ) = a1j1 a2j2 ::: anjn f (ej1 ; ej2 ; :::; ejn ) :
j1 =1 j2 =1 jn =1
f étant alternée, alors si pour deux indices p 6= q on a ejp = ejq dans la suite
(ej1 ; ej2 ; :::; ejn ) alors f (ej1 ; X
ej2 ; :::; ejn ) = 0; Par conséquent on a:
f (v1 ; v2 ; :::; vn ) = a1j1 a2j2 :::anjn f (ej1 ; ej2 ; :::; ejn ) :
1 j1 6=j2 6=:::6=jn n
Du fait que j1 ; j2 ; :::; jn sont n éléments distincts de 1; n; on a fj1 ; j2 ; :::; jn g =
1; n et par suite 9! 2 Sn tel que ji = (i) pour 1 i n; réciproquement
8 2 Sn ; (1) ; (2) ; :::; (n) sont n éléments distincts de 1; n; Par conséquent
on a: X
f (v1 ; v2 ; :::; vn ) = a1 (1) a2 (2) :::an (n) f e (1) ; e (2) ; :::; e (n) ; or comme
2Sn
en vertu de la propriété e) on a f e (1) ; e (2) ; :::; e (n) = Sgn( ) f (e1 ; e2 ; :::; en ) ;
alors le résultat s’ensuit.

NB : Pour l’étude des formes p-linéaires symétriques voir TD

1.3 Déterminant d’une matrice


Une matrice A = (aij )1 i;j n 2 Mn (|) est constituée de lignes et de colonnes,
chaque ligne et chaque colonne étant assimilable à un vecteur de |n :
0 1
a11 a1j a1n
L1 B . .. .. C
B .. . . C
B C
A = Li B a
B i1 a ij ain C
C
B . . . C
@ .. .. .. A
Ln
an1 anj ann
C1 Cj Cn
A ce titre A ' (L1 ; L2 ; :::; Ln ) ou A ' (C1 ; C2 ; :::; Cn ) peut être identié à
n
un élément de (|n ) = |n |n ::: |n :
n n
Mn (|) ! (|n ) Mn (|) ! (|n )
Alors les applications et
A 7 ! (L1 ; L2 ; :::; Ln ) A 7 ! (C1 ; C2 ; :::; Cn )

5
n
sont des isomorphismes qui permettent d’identi…er Mn (|) à (|n ) respective-
ment au moyen des lignes et des colonnes.
Alors on a le résultat suivant:

Théorème 2.2: - Il existe une unique forme n-linéaire alternée f sur


;n
Mn (|) (identi…é à (|n ) au moyen des lignes ou des colonnes) telle que f (In ) =
1;
- Si A = (aij )1 i;j n 2 Mn (|) ; alors f (A) =
X
Sgn a1 (1) a2 (2) :::an (n) :
2Sn

Preuve
Le théo 2.1 a¢ rme l’unicité de f dès qu’une telle f existe. Assurons l’existence
MXn (|) ! |
de f en montrant que l’application f A = (aij )
1 i;j n 7 ! Sgn a1 (1) a2 (2) :::an (n)
2Sn
n
est une forme n-linéaire alternée sur Mn (|) : Identi…ons ici Mn (|) à (|n ) au
moyen des lignes. Alors
f (A) = f (L1 ; L2 ; :::; Ln ) avec pour 1 i n; Li = (ai1 ; ai2 ; :::; ain ) : Mon-
trons la linéarité de f par rapport à la ieme ligne: supposons donc que pour j 6= i;
Lj est …xée et soient Li = (ai1 ; ai2 ; :::; ain ) ; Hi = (bi1 ; bi2 ; :::; bin ) 2 |n ; 2 |;
posons Li + Hi = (ci1 ; ci2 ; :::; cin ) ; on a donc pour 1 j n; cij = aij + bij :
Il s’ensuit : X
f (L1 ; :::; Li + Hi ; :::Ln ) = Sgn a1 (1) :::ci (i) :::an (n)
2Sn
X
= Sgn a1 (1) :::( ai (i) + bi (i) ):::an (n)
2Sn
X X
= Sgn a1 (1) :::ai (i) :::an (n) + Sgn a1 (1) :::bi (i) ):::an (n)
2Sn 2Sn
= f (L1 ; :::; Li ; :::; Ln ) + f (L1 ; :::; Hi ; :::; Ln ):
Montrons l’alternance: supposons que dans la suite (L1 ; :::; Hi ; :::; Ln ); il
existe 1 p < q n tels que Lp = Lq ; il s’ensuit apj = aqj ; pour 1 j n:
Maintenant en vertu du corollaire de la proposition 2.5 l’application 7 ! ;
où est la transposition p q réalise une bijection de l’ensemble An des
permutations paires dans l’ensemble X des permutations impaires; il s’ensuit :
f (L1 ; :::; Lp ; :::; Lq ; :::; Ln ) = Sgn a1 (1) :::ap (p) :::aq (q) :::an (n)
2Sn
X X
= Sgn ( ) a1 (1) :::ap (p) :::aq (q) :::an (n) + Sgn( )a1 (1) :::ap (p) :::aq (q) :::an (n)
2An 2An
X X
= a1 (1) :::ap (p) :::aq (q) :::an (n) a1 (1) :::ap (q) :::aq (p) :::an (n) (car
2An 2An
d’une part 2 An =) Sgn( ) = 1 et Sgn( )= 1; et d’autre part per-
mute p et q et laisse les autres indices invariants)
= 0 car ap (p) = aq (p) et ap (q) = aq (q) :

6
Dé…nition 2.4: L’unique n-forme linéaire alternée dé…nie dans le théorème
précédent est appelé le determinant. Pour tout A = (aij )1 i;j n 2 Mn (|) ;
X
det A = jAj = Sgn a1 (1) a2 (2) :::an (n) est appelé le déterminant de A:
2Sn

n = 1 A = (a11 ) = a 2 |:
det A = det a = a
a11 a12
n=2 A=
a21 a22
X
det A = Sgn a1 (1) a2 (2) =1 a11 a22 + ( 1) a12 a21 = a11 a22
2S2
a12 a21
a b
Ou plus simplement = ad bc
c d
0 1
a11 a12 a13
n = 3 A = @ a21 a22 a23 A
a31 a32 a33
X
det A = Sgn a1 (1) a2 (2) a3 (3) =1 a11 a22 a33 + ( 1) a11 a23 a32 +
2S3
( 1) a12 a21 a33 + 1 a12 a23 a31 + 1 a13 a21 a32 + ( 1) a13 a22 a31 :
donc det A = (a11 a22 a33 +a12 a23 a31 +a13 a21 a32 ) (a13 a22 a31 + a23 a32 a11 + a33 a12 a21 )
(règle de Sarus)

1.4 Propriétés du déterminant


Soit A 2 Mn (|) ; alors:
a ) jAj = 0 dès que:
- un vecteur ligne (ou colonne ) est nul;
- deux vecteurs lignes (ou colonnes ) sont colinéaires
- un vecteur ligne (ou colonne) est combinaison linéaire des autres.
b) jAj ne change pas lorsque:
- on ajoute à une ligne (ou colonne) un multiple d’une autre
- on ajoute à une ligne (ou colonne) une combinaison linéaire des autres.
c) jt Aj = jAj :
d) - jBj = jAj si B s’obtient par la multiplication d’une ligne (ou colonne)
de A par 2 |;
-.jBj = Sgn jAj si B s’obtient par une permutation des lignes (ou colonnes)
de A: En particulier,
jBj = jAj si B s’obtient par permutation de deux lignes (ou colonnes) de
A:
e) j Aj = n jAj ; 2 |;
f ) Si A est une matrice triangulaire, alors jAj est égal au produit des élé-
ments de la diagonale.

Preuve

7
Les propriétés a), b), d) et e) découlene directement de la dé…nition et des
propriétes d’une forme n-linéaire alternée.
c) posons
XA = (aij ) et B = (bij ) ; alors 81 Xi; j n; bij = aji ; Il s’ensuit:
t
j Aj = Sgn b1 (1) b2 (2) :::bn (n) = Sgn a (1)1 a (2)2 :::a (n)n :
2Sn 2Sn
1
Posons = ; comme est une permutation de 1; n; alors on a : a (1)1 a (2)2 :::a (n)n =
a1 (1) a2 (2) :::an
(n) ; en outre du fait que = Id et donc que Sgn Sgn = 1;
X
on a Sgn = Sgn ; Il s’ensuit jt Aj = Sgn a1 (1) a2 (2) :::an (n) =
2Sn
X
1
Sgn a1 (1) a2 (2) :::an (n) (car l’application 7 ! = étant une
2Sn
bijection dans Sn ; faire varier dans Sn revient à faire varier dans Sn ) = jAj
(la variable de sommation est muette): X
f) Soit A = (aij ) 2 Mn (|) ; on a jAj = Sgn a1 (1) a2 (2) :::an (n) ;
2Sn
si 6= Id; alors dans le terme a1 (1) a2 (2) :::an (n) il existe au moins un ai (i)
et un aj (j) de part et d’autre de la diagonale; Par suite si A est une matrice
triangulaire, alors l’un au moins des deux termes ai (i) et aj (j) est nul et donc
a1 (1) a2 (2) :::an (n) = 0; donc le seul terme eventuellement non nul est celui
obtenu avec c = Id qui est a11 a22 :::ann c.à.d le produit des éléments de la
diagonale.

1.5 Mineur, cofacteur, comatrice, matrice adjointe clas-


sique
Dans cette section, A = (aij )1 i;j n est une matrice donnée de Mn (|) :

1.5.1 Mineur, cofacteur d’un coe¢ cient


Dé…nition 2.5: Pour (p; q) donné avec 1 p; q n; on apelle miineur de apq
le déterminant de la matrice carrée d’ordre n 1 obtenue een supprimant la
ligne Lp et la colonne Cq de A c.à d. la ligne et la colonne de apq : On note
minpq le mineur de apq
p+q
Dé…nition 2.6: On appelle cofacteur de apq le scalaire cofpq = ( 1) minpq

Théorème 2.3: (formules de developpement suivant la ieme ligne et


la j eme colonne)
Avec les considérations qui précèdent, on a:
Xn n
X
i+j
Pour i …xé avec 1 i n, on a: jAj = ( 1) aij minij = aij cofij
j=1 j=1
(suivant Li )

8
n
X n
X
i+j
Pour j …xé avec 1 j n; on a: jAj = ( 1) aij minij = aij cofij
i=1 i=1
(suivant Cj )

Preuve X
Soient A = (aij ) 2 Mn (|) et i 2 1; n; dans l’expression jAj = Sgn
2Sn
a1 (1) a2 (2) :::an (n) ; chaque terme contient un et un seul élément de la ieme
ligne de A Li = (ai1 ; ai2 ; :::; ain ) ; Donc nous pouvons écrire jAj sous la forme
: jAj = ai1 Ai1 + ai2 Ai2 + ::: + ain Ain où 81 j n; Aij est une somme de
produits de n 1 éléments de A dont aucun n’appartient à Li ; le théorème sera
démontré si nous établissons que Aij = ( 1)i+j minij (= cofij ), pour 1 j n:
Considéons d’abord le cas Xoù i = j = n; la somme des termes contenant
ann est ann Ann = ann Sgn a1 (1) a2 (2) :::an 1 (n 1) : Sommer
2Sn ; (n)=n
sur toutes les permutations de 1; n tels que (n) = n est équivalent à som-
mer sur toutes les permutations de 1; n 1: Il s’ensuit que Ann = minnn =
( 1)n+n minnn :
Considérons maintenant i et j quelconques; échangeons Li avec la ligne qui
luisuccède et ainsi de suite jusqu’à ce qu’elle soit la dernière; ensuite échangeons
la j eme colonne avec la colonne qui lui succède jusqu’à ce qu’elle soit la dernière.
Remarquons que minij n’est pas modi…é par ces opérations car les position
relatives des autres lignes et colonnes ne sont pas pas a¤ectées par ces opérations.
Cependant d’après la propriété d) du déterminant, jAj est transformé en son
opposé à chaque opération; il en est donc de même de Aij : A la …n des opérations
jAj aura changé (n i) + (n j) fois de signe (de la ieme ligne à la neme ; puis
de la j eme colonne à la neme ). En conséquence:

Aij = ( 1)(n i)+(n j)


minij = ( 1)i+j minij :
0 1
2 1 5
Exemple 2.3: Calculer le determinant de M = @ 0 2 3 A en devel-
1 0 4
oppant suivant la 3eme colonne.
0 2 2 1 2 1
jM j = 5 3 + ( 4) = 9:
1 0 1 0 0 2

1.5.2 Comtrice, matrice adjointe classique

Dé…nition 2.7: la comatrice de A est la matrice de Mn (|) obtenue en rem-


plaçant chaque coe¢ cient de A par son cofacteur; On note ComA la comatrice
de A:
On a donc ComA = (cofij )1 i;j n :

9
Dé…nition 2.8: la matrice adjointe classique de A est e =t ComA =
A
Com (t A) :

e = AA
Théorème 2.4: On a: AA e = jAj In :

Preuve
posons A = (aij ) et AA e = (bij ) ; 81 i; j n; bij est le produit de la ieme
ligne de A par la j eme
colonne de A: e Ae étant la transposée de ComA; la j eme
e
colonne de A est la i eme
ligne de ComA = (cofij )1 i;j n ; en conséquence:
Xn n
X
bij = aik cofjk : En particulier bii = aik cofik = jAj :
k=1 k=1
Maintenant pour j 6= i; soit H la matrice obtenue en raplaçant la j eme ligne
de A par sa ieme ligne. Alors jHj = 0 puisque H possède deux lignes identiques
(la ieme et la j eme ). Mais en développant jHj suivant la j eme ligne on a 0 =
Xn
jHj = aik cofjk = bij : En somme on a:
k=1

jAj si i = j e = jAj In :
bij = d’où AA
0 si i 6= j

e = jAj In :
On obtient de façon analogue AA

Une conséquence de ce résultat est le théorème suivant:

Théorème 2.5: - A est inversible si et seulement si jAj =


6 0
Dans ce ce cas on a:
1 1 e 1 t 1 t 1 1
A = jAj A = jAj ComA = jAj Com ( A) ; A = jAj

Théorème 2.6: 8A; B 2 Mn (|) ; on a: jABj = jAj jBj

Pour démontrer ce théorème nous allons nous servir du lemme suivant qui
utilise des notions et des résultats relatifs aux opérations élémentaires sur les
matrices que le lecteur trouvera dans le paragraphe suivant:

Lemme : Soit A 2 Mn (|) ; alors pour toute matrice d’opération élémentaire


E 2 Mn (|) ; on a jEAj = jEj jAj

Preuve du lemme
Les trois types de matrice d’opération élémentaire sont Di ( ); Tij ( ) et
Pij transformées respectives de In par les opérations élémentaires Li Li ;
Li Li + Lj et Li ! Lj qui transforment respectivement A en (i; ) (A) =

10
Di ( ) A; (ij; ) (A) = Tij ( ) A; ij (A) = Pij A (prop 2.12): Or d’après
les propriétés b) et d) du déterminant on a (i; ) (A) = jAj et jDi ( )j =
(i; ) (In ) = jIn j = d’où jDi ( ) Aj = jDi ( )j jAj ; (ij; ) (A) = jAj et
jTij ( )j = (ij; ) (Im ) = jIn j = 1 d’où jTij ( ) Aj = jTij ( )j jAj ; j ij (A)j =
jAj et jPij j = j ij (In )j = jIn j = 1 d’où jPij Aj = jPij j jAj :

Preuve du théorème
Soient A; B 2 Mn (|) ; - Si A n’est pas inversible alors AB n’est pas inversible
( si AB était inversible il existerait une matrice M 2 Mn (|) tel que (AB)M = In
d’où A(BM ) = In et A serait inversible d’inverse BM; contradictoire); dans ce
cas on a jABj = 0 = jAj jBj :
- Si A est inversible alors en vertu du corollaire de la proposition 2.17, A
est produit de matrices d’opérations élémentaires; on a donc A = E1 E2 :::Ek où
pour 1 i k; Ei est une matrice d’opération élémentaire; il s’ensuit jABj =
jE1 E2 :::Ek Bj = jE1 (E2 :::Ek B)j = jE1 j jE2 :::Ek Bj (d’après le lemme) =
jE1 j jE2 j jE3 :::Ek Bj et de proche en proche on obtient jABj = jE1 j jE2 j
::: jEk j jBj = jAj jBj :

2 COMPLEMENTS SUR LES MATRICES

2.1 Matrices equivalentes et rang


2.1.1 Rang d’une matrice
Mineur d’une matrice
Dé…nition 2.9: Soit A 2 Mm;n (|) : On appelle mineur d’ordre p de A
(p minfm; ng) le déterminant d’une matrice carrée d’ordre p extaite de A
c.à.d obtenue en supprimant des lignes et des colonnes de A:
Rang d’une matrice
Dé…nition 2.10: Le rang d’une matrice A 2 Mm;n (|) noté rg(A) est:
- le nombre maximal de lignes linéairement indépendantes de A:
- le nombre maximal de colonnes linéairement indépendantes de A:
- l’ordre maximal des mineurs non nuls de A:

NB: Pour la preuve de l’équivalence des trois éléments de cette dé…nition,


voir TD

Propriétés 2.1 Soit A 2 Mm;n (|) : Alors :


a) rg(A) minfm; ng;
b) rg(A) = 0 () A = 0;
c) rg(A) = rg(t A);
d) Le rang de A ne change pas lorsqu’on multiplie A à droite ou à gauche
par une matrice inversible.

11
Preuve
a); b) et c) découlent directement de la dé…nition du rang d’une matrice. d)
est une conséquense conjuguée de la dé…nition deux matrices équivalentes et du
corollaire du théo 2.9.(voir la prochaine section "matrices équivalentes")

Proposition 2.6 : Soit A 2 Mn (|) : Alors A inversible () rg(A) = n:

Preuve
Soit f l’endomorphisme canoniquement associé à A; alors:
A inversible () f inversible () f bijective () les vecteurs colonnes de
A sont linéairement indépendants () rg(A) = n:

2.1.2 Rang d’une application linéaire


Dé…nition 2.11: soit f : E ! E 0 linéaire. Le rang de f est rg(f ) =
dim(Im f )

Propriété.2.2: soit f : E ! E 0 linéaire. Alors:


- le rang de f est le rang de sa matrice relativement à une base quelconque
de E et une base queconque de E 0 :

En e¤et si A est la matrice de f relativement à une base B de E et une base


B 0 de E 0 ; alors la dimension de Im f est égale au nombre maximal de colonnes
linéairement indépendantes de A:

Théorème 2.7: soient f : E ! E 0 linéaire et r 1. Alors les CSSE:


i) rg(f ) = r;
ii) Il existe une base B de E et une base B 0 de E 0 relativement auxquelles
la matrice de f est la matrice :
1 pour 1 i = j r
Jr = ( ij ) 2 Mm;n (|) dé…nie par ij = (où
0 sinon
n = dim E et m = dim E 0 ).
Ir 0
c.à.d A est la matrice par blocs où Ir est la matrice unité d’ordre
0 0
r et les 0 sont des matrices nulles.

Preuve
Il est clair en vertu de la propriété 2.2 que ii) =) i) car rg(Jr ) = r: Montrons
i) =) ii) : supposons donc que rg(f ) = r: Alors on a dim (Im f ) = r: Soient
(e01 ; e02 ; :::; e0r ) une base de Im f et pour 1 i r; ei un antécédent de e0i : Alors
r
X
la famille (e1 ; e2 ; :::; er ) est libre. En e¤et 8 1 ; 2 ; :::; r 2 |; i ei = 0E =)
i=1

12
r
! r r
X X X
0
f i ei = 0E 0 =) if (ei ) = 0E 0 =) i ei = 0E 0 =) i = 0 pour
i=1 i=1 i=1
1 i r car (e01 ; e02 ; :::; e0r ) base
de Im f =) (e01 ; e02 ; :::; e0r )
est une famille libre;
alors la famille (e1 ; e2 ; :::; er ) est libre. Complétons cette famille en une base
F = (e1 ; e2 ; :::; er ; vr+1 ; :::; vn ) de E:.8r + 1 j n; f (vj ) 2 Im f donc on a
Xr
f (vj ) = aij e0i ( )avec aij 2 | pour 1 i r. 8r + 1 j n; posons
i=1
Xr
ej = v j aij ei : alors la famille B = (e1 ; e2 ; :::; er ; er+1 ; :::; en ) est une base
i=1
de E: En e¤et la matrice de B dans la base F est une matrice triangulaire
supérieure ayant rien que des 1 sur ladiagonale donc de déterminant égal à 1:
Maintenant pour r + 1 j !n; on a:
Xr Xr r
X
f (ej ) = f vj aij ei = f (vj ) aij f (ei ) = f (vj ) aij e0i = 0E 0
i=1 i=1 i=1
d’après ( ): On a donc :
e0j si 1 i r
f (ej ) =
0E si r + 1 j n
0

Alors si on complète (e01 ; e02 ; :::; e0r ) en une base B 0 = e01 ; e02 ; :::; e0r ; e0r+1 ; :::; e0m
de E 0 ; on a bien matBB 0 (f ) = Jr :

Proposition 2.7 (formule du rang): On a dim(ker f ) + rg(f ) = dim E.

Preuve
La formule de la dimension s’écrit:
dim(ker f ) + dim(Im f ) = dim E d’où le résultat car dim(Im f ) = rg(f ):

2.1.3 Rang d’un système d’équations linéaires


Dé…nition 2.12: Le rang d’un système d’équations linéaires est égal au rang
de la matrice associée.

2.1.4 Rang d’une famille de vecteurs


Dé…nition 2.13: Le rang d’une famille Fde vecteurs de E noté rg(F) est égal
à la dimension du sous espace vectoriel de E engendré par cette famille.
Le rang de F est aussi le rang de sa matrice dans une base quelconque de
E (qui est la matrice dont les colonnes sont les mcc respectives des éléments de
Fdans B):

Théorème 2.8: Soit F une famille de p vecteurs de E (de dimension …nie


n); B une base de E et A 2 Mn;p (|) la matrice de F dans la base B: Alors pour
l’étude de l’indépendance linéaire des éléments de F trois cas se présentent:

13
1er cas : p > n
Alors F est une famille liée;
2eme cas : p = n
Alors F est une famille libre () det(A) 6= 0: () F est une base de E:
3eme : p < n
Alors F est libre si et seulement s’il existe un mineur d’ordre p non nul de
A:

Preuve
1er cas : p > n : on sait que si dim E = n; alors une famille de plus de n
vecteurs de E est liée.
2eme cas : p = n : dans cas cardF = dim E et A est une matrice carrée ;
alors F est une base de E () F est une famille libre () les vecteurs colonnes
de A sont linéairements indépendants () rg(A) = n () det(A) 6= 0:
3eme : p < n : F est une famille libre () rg(A) = p () existe un mineur
d’ordre p non nul de A (puisque A 2 Mn;p (|) =) rg(A) p):

2.2 Matrices équivalentes


Dé…nition 2.14: Deux matrices A; B 2 Mm;n (|) sont dites équivalentes s’il
existe une matrice Q 2 Mm (|) et une matrice P 2 Mn (|); inversibles telles
que:

B = QAP:

Le résultat suivant découle directement du théo 2.7

Théorème 2.9 : Une matrice A 2 Mm;n (|) est de rang r si et seulement


si elle est équivalente à la matrice
1 pour 1 i = j r
Jr = ( ij ) 2 Mm;n (|) dé…nie par ij =
0 sinon
Ir 0
c.à.d A est la matrice par blocs où Ir est la matrice unité d’ordre
0 0
r et les 0 sont des matrices nulles.

Corollaire: Deux matrices de même format sont équivalentes si et seulement


si elles ont même rang.

2.3 Matrices semblables


Dé…nition: Deux matrices A; B 2 Mn (|) sont dites semblables s’il existe une
matrice inversible P telle que

14
1
B=P AP:

Exemple 2.4 Soit u 2 L(E); B; B 0 deux bases de E; P = PBB 0 ; A =


matB (u) et A0 = matB 0 (u): Alors on a A0 = P 1 AP: Donc A et A0 sont sem-
blables. D’où le résultat:

Proposition 2.8 : Les matrices d’un même endomorhisme dans des bases
di¤ érentes sont semblables

Proposition 2.9 : Soit A; B 2 Mn (|) deux matrices semblables.Alors on a:


tr(A) = tr(B); det(A) = det(B)

Preuve
A et B étant semblables, alors il existe une matrice P inversible telle que
B = P 1 AP: Il s’ensuit:
tr(B) = tr P 1 AP = tr AP P 1 (car 8A; B 2 Mn (|); tr(AB) = tr(BA)
voir TD) = tr(A)
det(B) = det(P 1 AP ) = det(P 1 ) det(A) det(P ) = det(A) car det(P 1 ) =
1
det(P ) :

D’après les deux propositions précédentes, tr(matB (u)) et det(matB (u)) sont
indépendantes de la base B choisie d’où les dé…nitions.

Dé…nitions 2.15: (Trace et déterminant d’un endomorphisme). Soit


u 2 L(E):
- La trace de u est la trace de sa matrice dans une base quelconque de E:
- Le déterminant de u est le déterminant de sa matrice dans une base quel-
conque de E:

2.4 Matrice par blocs


2.4.1 Description
Dé…nition 2.16: Soit A 2 Mm;n (|): Une disposition par blocs de A est une
écriture:
0 1
A11 A12 A1s
B A21 A22 A2s C
B C
A = (Ai;j ) 1 i r = B . . .. C
1 j s @ .
. . . . A
Ar1 Ar2 Ars

où 81 i r; 1 j s; Ai;j est une matrice, véri…ant:


- Pour chaque i 2 1; r; les matrices Ai1 ; Ai2 ; :::; Ais ont toutes le même
nombre de lignes;

15
- Pour chaque j 2 1; s; les matrices A1j ; A2j ; :::; Arj ont toutes le même
nombre de colonnes.

Remarque 2.1: Une même matrice peut avoir plusieurs dispositions par
blocs comme le montre l’exemple suivant:
0 1
1 0 2 1 6
B 0 2 1 1 3 C
Soit A = B@ 2
C
3 0 2 0 A
4 1 7 5 1

Alors on peut écrire:

A11 A12 A13


A=
A21 A22 A23

1 0 2 1 6 2 3
avec A11 = ; A12 = ; A13 = ; A21 = ; A22 =
0 2 1 1 3 4 1
0 2 0
; A23 =
7 5 1
Ou encore
B11 B12
A=
B21 B22

1 0 2 1 6 2 3 0
avec B11 = ; B12 = ; B21 = ; B22 =
0 2 1 1 3 4 1 7
2 0
5 1
et la liste de dispositions par blocs de A peut encore continuer.

Dé…nitions 2.17: -Une disposition par blocs A = (Ai;j ) 1 i r est dite une
1 j s
disposition carrée par blocs si r = s:
On a alors A = (Ai;j )1 i;j r
- A 2 Mn (|) est dite diagonale par blocs s’il existe une disposition carrée par
blocs A = (Ai;j )1 i;j r : de A telle que 81 i r; Ai;i est une matrice carrée
et Ai;j = 0 pour i 6= j:
- A 2 Mn (|) est dite triangulaire supérieure(resp. inférieure) par blocs
s’il existe une disposition carrée par blocs A = (Ai;j )1 i;j r : de A telle que
81 i r; Ai;i est une matrice carrée et Ai;j = 0 pour i > j (resp.i < j):

Remarque 2.2 : Une matrice peut être diagonale ou triangulaire par blocs
sans être diagonale ou triangulaire:

16
0 1
2 3 0
A11 A12
Par exemple la matrice A = @ 1 5 0 A = avec A11 =
A21 A22
0 0 4
2 3
; A12 = 0; A21 = 0 (matrices nulle) ; A22 = (4) est une matrice
1 5
diagonale par blocs mais elle n’est ni diagonale ni triangulaire.

2.4.2 Opérations par blocs


Combinaison linéaire

Proposition 2.10 : Soit A; B 2 Mm;n (|) disposées par blocs de même


format c.à.d A = (Ai;j ) 1 i r et B = (Bi;j ) 1 i r : Alors 8 ; 2 |; la matrice
1 j s 1 j s
C = A + B admet une disposition par blocs de même format :

C = (Ci;j ) 1 i r avec 81 i r; 1 j s; Ci;j = Ai;j + Bi;j :


1 j s

Produit
Proposition 2.11 : Soient A 2 Mm;n (|) ; B 2 Mn;p (|) disposées par blocs
A = (Ai;j ) 1 i r ; B = (Bi;j ) 1 i r :
1 j s 1 j s
On suppose que 1 i r; 1 k s; 1 l t; le nombre de colonnes de
Ai;k est égal au nombre de lignes de Bk;l : Alors le produit D = AB admet une
représentation par blocs
s
X
D = (Di;j ) 1 i r avec 1 i r; 1 l t; Di;l = Ai;k Bk;l :
1 j s k=1

Remarque 2.3 : Les deux propositions précédentes a¢ rment que les opéra-
tions par blocs se font comme avec les scalaires.
Par suite;
- Le produit de deux matrices diagonales par blocs est une matrice diagonale
par blocs.
- Le produit de deux matrices triangulaires supérieures (resp. inférieures)
par blocs est une matrice triangulaire (resp. inférieure) par blocs dont les blocs
diagonaux sont les produits des blocs diagonaux correspondants.

Exemple
0 2.5 :Soient
1 les matrices
0 : 1
1 2 1 1 2 3 1
A = @ 3 4 0 A et B = @ 4 5 6 1 A
0 0 2 0 0 0 1
On peut calculer AB en utlisant une décomposition par blocs en posant:
A11 A12 1 2 1
A= avec A11 = ; A12 = ; A21 = 0 0 =
A21 A22 3 4 0
0M12 (R) et A22 = 2;

17
B11 B12 1 2 3 1
B = avec B11 = ; B12 = ; B21 =
B21 B22 4 5 6 1
0 0 0 = 0M13 (R) et B22 = 1:
On véri…e bien que les conditions qui rendent possible la multiplication par
blocs sont satisfaites par A; B et les Aij et les Bkl : Alors on a:
A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22
AB = =
0 A 21 A 22 B 21 B22 A 21 B11 + A22 B21 A21 B12 + A22 B22
1
1 2 1 2 3 1 2 1 1
+ 0M23 (R) + 1 A
=@ 3 4 4 5 6 3 4 1 0 =
0M13 (R) + 0M13 (R) 0+2 1
0 1
9 12 15 4
@ 19 26 33 7 A
0 0 0 2
0 1
9 12 15 4
Donc AB = @ 19 26 33 7 A
0 0 0 2
Déterminant d’une matrice triangulaire par blocs

Théorème 2.10 : Soit A 2 Mn (|) triangulaire par blocs avec


0 1
A11 A12 A1r
B 0 A A C
B 22 2r C
A=B . .. .. C:
@ .. 0 . . A
0 0 Arr
Alors on a: det A = det A11 det A22 ::: det Arr :

Exemple 2.6 : calculer le déterminant de la matrice


0 1
a 0 0 b
B 0 a 0 0 b 0 C
B C
B .. . C
B . 0 a b 0 .. C
A=B B .
C 2 M2n (|):
.. C
B .. 0 b a 0 . C
B C
@ 0 b 0 0 a 0 A
b 0 0 a

(a sur la diagonale, b sur l’antidiagonale et les autres coe¢ cients nuls).


Soit B = (ei )1 i 2n ; la base canonique de |2n et f l’endomorphisme canon-
iquement associé à A: Soit B 0 la base (e01 ; e02 ; :::; e02n ) = (e1 ; e2n ; e2 ; e2n 1 e3 ; e2n 2 ; :::; en ; en+1 )
(on a pour 1 k n; e02k 1 = ek ; e02k = e2n+1 k ): Alors la matrice de f dans
la base B 0 est la matrice diagonale par blocs:

18
0 1
a b 0 0
B b a 0 0 C
B C
B ..C
B 0 0 .C
B C
B . .. C
B .. . 0 0 C
B C
@ 0 a b A
0 0 0 b a

d’où det A = (a2 b2 ) n

2.4.3 Représentation matricielle par blocs

Dans cette sous section, u est un endomorphisme de E:

Sous espace vectoriel stable


Dé…nition 2.18: Un sous espace vectoriel F de E est dit stable par u si
u(F ) F:

Endomorphisme induit
Dé…nition 2.19: Soit F un sous espace vectoriel de E stable par u: Alors
F !F
l’application uF : qui est la restriction et la corestriction de u à
x 7 ! u(x)
F est un endomorphisme de F appelé l’endomorphime de F induit par u:

Base adaptée à un sous espace vectoriel


Dé…nition 2.20: Soit F un sous espace vectoriel de E de dimension p < n:
Une base de E adaptée à F est une base (e;1 ; e2 ; :::ep ; ep+1 ; :::; en ) de E telle
que (e1 ; e2 ; :::; ep ) est une base de F:

Théorème 2.11: Soit F un sous espace vectoriel de E de dimension p < n:


Les CSSE:
i) F est stable par u;
ii) Pour toute base B = (e1 ; e2 ; :::; en ) de E adaptée à F c.à.d telle que
F = (e1 ; e2 ; :::; ep ) est une base de F; la matrice de u dans la base B est une
matrice triangulaire par bloc de la forme:
A11 A12
A= où A11 et A22 sont des matrices carrées d’ordre respec-
0 A22
tifs p et n p: ( A11 est alors la matrice de uF ; l’endomorphisme de F induit
par u; dans la base F):

Preuve
Posons matB (u) = A = (aij )1 i;j n : F stable par u () u(ej ) 2 F; pour
Xp
1 j p , u(ej ) = aij ei ; pour 1 j p () :aij = 0 dans le cadran
i=1

19
A11 A12
[i > p; 1 j p] () A est de la forme A = où A11 est une
0 A22
matrice carrée d’ordre p dont pour 1 j p; la j eme colonne est u(ej ) =
p
X
uF (ej ) = aij ei d’où A11 = matF (uF ):
i=1

Somme directe d’endomorphismes


On suppose E = E1 E2 ::: Ep et que 81 k p; Ek est stable par u:
on note uk = uEk l’endomorphisme de Ek induit par u:
Comme E = E1 E2 ::: Ep ; alors 8x 2 E; x s’écrit de manière unique
x = x1 + x2 + ::: + xp ; avec xk 2 Ek ; 81 k p; alors on a:
u(x) = u(x1 + x2 + ::: + xp ) = u(x1 ) + u(x2 ) + ::: + u(xp ) = u1 (x1 ) + u2 (x2 ) +
::: + up (xp ):
Mp
On dit alors que u est somme directe des uk et on écrit u = ui
i=1

Base adaptée à une somme directe


Dé…nition 2.21: On suppose E = E1 E2 ::: Ep : une base de E
adaptée à la somme directe E = E1 E2 ::: Ep ; est une base de E de la
forme B = (B1 ; B2 ; :::; Bp ) où pour 1 k p; Bk une base de Ek :

Théorème 2.12:On suppose E = E1 E2 ::: Ep et que 81 k p; Ek est


stable par u: on note uk = uEk l’endomorphisme de Ek induit par u: Soit B =
(B1 ; B2 ; :::; Bp ) une base de E adaptée à la somme directe E = E1 E2 ::: Ep;
Ak la matrice de uk dans la base Bk : Alors la matrice de u dans la base B est
la matrice diagonale par bloc
0 1
A1 0 0
B .. C
B 0 A2 . C
A=B .B C:
.. C
@ .. . 0 A
0 0 Ap

Preuve
En procédant comme dans la preuve du théo 2.11, il su¢ t d’écrire la matrice
de u dans la base B en délimitant les bases Bk des uk :

Corollaire : On suppose E = E1 E2 ::: Ep et que 81 k p; Ek est


stable par u: on note uk = uEk l’endomorphisme de Ek induit par u; alors on
a
p
Y
det u = det uk
k=1

20
2.5 Opérations élémentaires sur les matrices.
Dé…nitions 2.22: Soit A 2 Mm;n (|) : On apelle opération élémentaire sur les
lignes de A, l’une des opérations suivantes:
1) Multiplier la ieme ligne par 2 |; 6= 0, dite opération élémentaire de
dilatation notée Li Li ;
2) ajouter à la ieme ligne, fois la j eme ligne ( 2 |; i 6= j) dite opération
élémentaire de transvection, notée Li Li + Lj ;
3) Echanger la ieme et la j eme ligne dite opération élémentaire de transpo-
sition notée Li ! Lj :

Remarque 2.4: La famille des opérations 1 et 2 est équivalente à la famille


des opérations:
4) Remplacer la ieme ligne par fois la ieme ligne ( 6= 0) + fois la j eme
ligne Li Li + Lj :

Dé…nition 2.23 : On dé…nit de même les opérations de dilatation, de


transvection et de transposition élémentaire sur les colonnes de A notées re-
spectivement:

Ci Ci ; Ci Ci + Cj ; Ci ! Cj

dont les propriétés sont analogues à celles des opérations sur les lignes et
s’en déduisent par transposition.

Dé…nition 2.24 et notation : Soient i 6= j 2 1; m; ; 2 |; 6= 0 et


A 2 Mm;n (|) : Alors:
Les matrices de Mm (|) transformées de A par les opérations Li Li ;
Li Li + Lj ; Li ! Lj sont notées respectivement:

(i; ) (A); (ij; ) (A); ij (A):

Les matrices de Mm (|) transformées de Im par les opérations Li Li ;


Li Li + Lj ; Li ! Lj sont notées respectivement:

Di ( ); Ti;j ( ); Pi;j

et dites respectivement matrice élémentaire de dilation, de transvection et de


transposition.

Une matrice d’opération élémentaire est une matrice élémentaire soit de


dilatation, soit de transvection,soit de transposition.
Proposition 2.12: Les opétations respectives Li Li ; Li Li + Lj ;
Li ! Lj transforment A en:

Di ( ) A; Ti;j ( ) A; Pi;j A.

En d’autre termes on a:

21
(i; ) (A) = (i; ) (Im ) A; (ij; ) (A) = (ij; ) (Im ) A; ij (A) = ij (Im ) A:

Preuve
Simples véri…cations.

Remarque 2.5
a) Pour résumer la proposition 2.12, on retiendra que si e(A) désigne la trans-
formée d’une matrice quelconque A 2 Mm;n (|) par une opération élémentaire
sur les lignes, alors on a:

e(A) = e(Im ) A:

b) Les opérations Li Li ; Li Li + Lj ; Li ! Lj sont inversibles


d’inverses respectives:
1
Li Li ; Li Li Lj ; Li ! Lj

donc les matrices d’opération élémentaire sont inversibles et plus précisément


on a:
1 1
[Di ( )] = Di ( 1 ); [Ti;j ( )] = Ti;j ( ); Pi;j1 = Pi;j :

c) Les opérations respectives Ci Ci ; Ci Ci + Cj ; Ci ! Cj


transforment A en

A Di0 ( ); A 0
Tj;i ( ); A 0
Pi;j

où Di0 ( ); Tj;i
0 0
( ); Pi;j sont les matrices de Mn (|) transformées de In par
les opérations Ci Ci ; Ci Ci + Cj ; Ci ! Cj :

3 SYSTEMES D’EQUATIONS LINEAIRES

3.1 Echelonnement d’une matrice


3.1.1 Matrice échelonnée
Dé…nition 2.25: - Une Matrice A = (aij ) 2 Mm;n (|) est dite échelonnée
par ligne si le nombre de zéros précédant le 1er élément non nul d’une ligne
augmente de ligne en ligne tant qu’il y a des lignes non nuls c.à.d. s’il existe
des coe¢ cients non nuls a1j1 ; :::; arjr de A ( r m) avec j1 < j2 < ::: < jr tels
que:
aij = 0 pour ( i r et j < ji ) et i > r:
- Les coe¢ cients non nuls a1j1 ; :::; arjr sont alors appelés les éléments dis-
tingués ou pivots de A:

22
- Une matrice A est dite échelonnée réduite par ligne (en abrégé erl) si elle
est échelonnée par ligne et si chaque élément distingué de A est égal à 1 et est
le seul élément non nul sur sa colonne.

Exemple
0 2.7: 1 0 1
2 3 2 0 4 5 6 0 1 3 0 0 4 0
B 0 0 7 0 3 2 0 C B 0 0 0 1 0 3 0 C
A=B C
@ 0 0 0 0 0 6 2 A; B = @ 0 0 0
B C
0 1 8 0 A
0 0 0 0 0 0 0 0 0 0 0 0 0 1
A est une matrice échelonnée (non réduite), B est une matrice erl:
Les éléments distingués sont ceux qui sont entourés.

Proposition 2.13: Soit A une matrice échelonnée par ligne; alors le rang
de A est égal au nombre de lignes non nulles de A:

Preuve
Il s’agit de montrer que les lignes non nulles d’une matrice échelonnée par
ligne sont linéairement indépendantes ce qu’on véri…e facilement.

3.1.2 Matrices équivalentes ligne


Dé…nition 2.26: Deux matrices A et B sont dites équivalentes ligne si B
s’obtient à partir de A par un nombre …ni d’opérations élémentaires sur les
lignes.
On écrit alors A~B

Proposition 2.14: Si A et B sont équivalentes ligne, alors rg (A) =


rg (B) :

Preuve
Si A et B sont équivalentes ligne, alors B s’obtient à partir de A par un
nombre …ni d’opérations élémentaires sur les lignes.Par suite d’après la remarque
2.5a), B est égal au produit de A par un nombre …ni de matrices d’opération
élémentaire. comme chaque matrice d’opération élémentaire est inversible alors
la propriété 2.1d) assure le résultat

Proposition 2.15: Toute matrice est équivalente ligne à une matrice éche-
lonnée par ligne.
Plus précisément, pour tout A 2 Mm;n (|); il existe une matrice inversible
P 2 Mm (|) et une matrice échelonnée par ligne E 2 Mm;n (|) telles que P A =
E:

Preuve

23
D’après l’algorithme d’échelonnement d’une matrice (voir un peu plus bas),
A est transformée en une matrice échelonnée par ligne E par des opérations
élémentaires successives sur les lignes. Soient e1 ; e2 ; :::; ek la suite d’opérations
élémentaires qui transforme A en E et E1 ; E2 ; :::; Ek les matrices d’opération
élémentaire correspondant. Alors:
e1 transforme A en e1 (A) = E1 A qui est transformée à son tour par e2 en
e2 [e1 (A)] = E2 E1 A et ainsi de suite on obtient E = ek [ek 1 ::: [e2 [e1 (A)]]] =
Ek Ek 1 ::: E2 E1 A: On pose P = Ek Ek 1 ::: E2 E1 ; alors
P est inversible car produit de matrices d’opérations élémentaires qui d’après
la remarque 2.5b), sont inversibles et on a P A = E:

Proposition 2.16 (et dé…nition): Toute matrice A est équivalente ligne


à une unique matrice erl appelée la forme ligne canonique de A:
Plus précisément, pour tout A 2 Mm;n (|); il existe une unique matrice
inversible P 2 Mm (|) et une unique matrice erl E 2 Mm;n (|) telles que
P A = E:

Proposition 2.17: Une matrice de Mn (|) est inversible si et seulement si


sa forme ligne canonique est égale à In :

Preuve
Si la forme ligne canonique de A est égal à In ; alors en vertu de la proposition
2.14, A et In ont le même rang donc A est inversible. Réciproquement si A est
inversible, alors pour la même raison que précédemment la forme ligne canonique
E de A est inversible. Alors pour achever la preuve il su¢ t de remarquer que
In est la seule matrice erl inversible de Mn (|) : En e¤et Si une matrice erl de
Mn (|) est inversible, alors aucune de ses lignes n’est nulle, donc il y a un élément
distingué sur chaque ligne. Par conséquent E possède n éléments distingués et
la condition 1 j1 < j2 < ::: < jn n de la dé…nition 2.24 implique que
jk = k pour 1 k n et donc que ces éléments distingués sont les éléments de
la diagonale de E: Comme en plus E est réduite, alors ces éléments sont tous
égaux à 1 et sont les seuls éléments non nuls sur leurs colonnes respectives. En
somme, les coe¢ cients de E sont égaux à 1 sur la diagonale et à 0 ailleurs donc
on a E = In :

Application au calcul de l’inverse d’une matrice


Corollaire 1 : Soit A 2 Mn (|) une matrice inversible. Alors A 1 est égal
au produit des matrices d’opérations élémentaires correspondant à la suite des
opérations élémentaires qui transforme A en In :
En conséquence A 1 est égale à la transformée de In par cette suite d’opéra-
tions élémentaires sul les lignes

Preuve
Soient e1 ; e2 ; :::; ek la suite d’opérations élémentaires qui transforme A en In
et E1 ; E2 ; :::; Ek les matrices d’opération élémentaire correspondant. Alors on
a:

24
1
Ek Ek 1 ::: E2 E1 A = In d’où A = Ek Ek 1 ::: E2 E1 =
ek [ek 1 ::: [e2 [e1 (In )]]] :

Exemple 2.8 :
NB : Avant de suivre cet exemple lire d’abord l’algorithme d’échelonnement
d’une matrice et l’exemple 2.9

Calculons l’inverse de la matrice suivante en utilisant les opérations élémen-


taires sur0les lignes. 1
1 0 2
A=@ 2 1 3 A
4 1 8
On échelonne A et on applique simultanément les mêmes opérations sur les
lignes
0 de I3 : 10 1 0 10 1
1 0 2 1 0 0 1 0 2 1 0 0
@ 2 1 3 A @ 0 1 0 A ! L2 2L1 @ 0 1 1 A@ 2 1 0 A !
4 1 8 0 0 1 L3 4L1 0 1 0 4 0 1
0 10 1
1 0 2 1 0 0
@ 0 1 1 A@ 2 1 0 A
L3 + L2 0 0 1 6 1 1
0 10 1 0 10 1
1 0 0 11 2 2 1 0 0 11 2 2
L + 2L3 @
! 1 0 1 0 A@ 4 0 1 A ! L2 @ 0 1 0 A@ 4 0 1 A
L2 L3
0 0 0 1 1 6 1 1 L3 0 0 1 6 1 1
11 2 2
Donc A 1 = @ 4 0 1 A
6 1 1

Corollaire 2 : Une matrice est inversible si et seulement si elle est produit


…ni de matrices d’opération élémentaire.

Preuve
Si A 2 Mn (|) est produit …ni de matrices d’opération élémentaire, alors A
est inversible puisque toute matrice d’opération élémentaire est inversible. Ré-
ciproquement si A est inversible, alors A 1 est inversible et d’après le corollaire
1
1, A (= A 1 ) est égal au produit des matrices d’opérations élémentaires
correspondant à la suite des opérations élémentaires qui transforme A 1 en In :

Dé…nition 2.27 : Echelonner une matrice A (par ligne) c’est construire


une matrice échelonnée par ligne équivalente ligne à A:

3.1.3 Algorithme d’échelonnement d’une matrice


Soit A = (aij ) 2 Mm;n (|): On construit une matrice échelonnée par ligne équiv-
alente ligne à A de la manière suivante:

25
* Si la j1 eme colonne est la 1 ere colonne de A possédant au moins un
élément non nul par exemple apj1 situé sur la p eme ligne, alors:
- Si p = 1; alors on e¤ectue successivement pour 2 i m; l’opération
Li a1j1 Li aij1 L1 pour annuler tous les éléments de la j1 eme colonne à
l’exception de a1j1 qui est non nul (c’est le pivot de la 1ere ligne).
- Si p 6= 1; alors on permute les lignes Lp et L1 (Lp ! L1 ) avant
d’e¤ectuer les opérations.
Supposons que les opérations ci-avant soient e¤ctuées au rang k (k 1) :
* Si la jk+1 eme colonne est la 1 ere colonne après la jk eme colonne
possédant au moins un élément non nul en dessous de la k eme ligne, par exemple
qjk+1 (nouvelle valeur de aqjk+1 après les opérations précédentes) situé sur la
q eme colonne, alors:
- Si q = k + 1; alors on e¤ectue successivement pour k + 2 i m les
opérations Li k+1jk+1 Li ijk+1 Lk+1 pour annuler tous les éléments de
la jk+1 eme colonne en dessous de k+1jk+1 :
- Si q 6= k + 1; alors on permute les (nouvelles) lignes Lq et Lk+1 avant
d’e¤ectuer les opérations.
On obtient …nalement une matrice échelonnée par ligne équivalente ligne à
A:
0 1
0 1 2 2 0
B 0 2 4 4 2 C
Exemple 2.9: Echelonner la matrice A = B @ 0
C
3 6 5 0 A
0 1 2 2 3
puis donner sa forme ligne canonique.
Echelonnons A :
0 1 0 1
0 1 2 2 0 0 1 2 2 0
L2 + 2L1 B B 0 0 0 0 2 C
C
B 0 0 0 1 0 C
A L2 ! L3 B C
L3 3L1 @ 0 0 0 1 0 A @ 0 0 0 0 2 A
L4 + L1 0 0 0 4 3 0 0 0 4 3
0 1 0 1
0 1 2 2 0 0 1 2 2 0
B 0 0 0 1 0 C B 0 0 0 1 0 C
B C B C
@ 0 0 0 0 2 A @ 0 0 0 0 2 A
L4 + 4L2 0 0 0 0 3 2L4 + 3L2 0 0 0 0 0
On a ainsi échelonné la matrice A. Donnons sa forme ligne canonique c.à.d
poursuivons l’échelonnement jusqu’à sa forme erl:
A partir de la forme obtenue par l’algorithme précédent, on poursuit les com-
binaisons pour éliminer les éléments non nuls au dessus des éléments distingués
de A:
Dans cette phase on opère dans le sens inverse de la 1ere phase de l’échelonnement,
donc de la dernière ligne à la première, et de bas en haut.
Lorsque la colonne de chaque élément distingué est débarassée des éléments
non nuls, on procède à la dernière phase qui consiste à multiplier la ligne de

26
chaque élément distingué a de A par a1 pour rendre les éléments distingués tous
égaux à 1 :
L’élément distingué 2 de la 3ème ligne est le seul élément de sa colonne
ainsi que l’élément distingué 1 de la 1ère ligne; il reste seulement à éliminer le
2 au0dessus de l’élément distingué
1 de la 2ème 0 ligne: 1 0 1
0 1 2 2 0 0 1 2 0 0 0 1 2 0 0
B 0 0 L + 2L L1
B 0 1 0 C C~
1 2 B
B 0 0 0 1 0 C C~
B 0
B 0 0 1 0 C
C:
@ 0 0 L2
0 0 2 A @ 0 0 0 0 2 A 1
@ 0 0 0 0 1 A
0 0 0 0 0 2 L3
0 0 0 0 10 0 0 0 0 0 0
0 1 2 0 0
B 0 0 0 1 0 C
La forme ligne canonique de A est donc B @ 0 0 0 0 1 A
C

0 0 0 0 0

3.2 Résolution des systèmes d’équations linéaires


3.2.1 Méthode de pivot de Gauss
Soit le système linéaire de m équations et à n inconnes x1 ; x2 ; :::; xn
8
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
(S) ..
>
> .
>
:
am1 x1 + am2 x2 + ::: + amn xn = bm

avec aij 2 |; 81 i m; 1 j n:

La matrice associée à (S) est:


0 1
a11 a1n
B .. .. C 2 M
A=@ . . A m;n (|) :
am1 amn

Di¤érentes écritures de (S) Ecriture matricielle


On pose :
0 1 0 1
x1 b1
B C B C
X = @ ... A 2 |n ; B = @ ... A 2 |m :
xn bm

l’écriture matricielle de (S) est:

AX = B:

27
Ecriture vectorielle
0 Soient
1 C1 ; C2 ; :::; Cn les colonnes respectives de A (81 j n; Cj =
a1j
B a2j C
B C
B .. C 2 |m ):
@ . A
amj
L’écriture vectorielle de (S) est:

x1 C1 + x2 C2 + ::: + xn Cn = B:

Ecriture sous forme d’application linéaire:


Soit f l’endomorphisme canoniquement associé à A: On pose v = (x1 ; x2 ; :::xn ) 2
|n et b = (b1 ; b2 ; :::bm ) 2 |m : Alors:
l’écriture de (S) sous forme d’application linéaire est:

f (v) = b

Dé…nitions et propriétés Dé…nition 2.28: On appelle matrice complète du


système (S) la matrice
0 1
a11 a1n b1
B .. C 2 M
A = @ ... ..
. . A m;n+1 (|)
am1 amn bm

Dé…nition: 2.29- Le système (S) est dit dit compatible s’il admet au moins
une solution; sinon, elle est dite incompatible.
- (S) est dit déterminé s’il admet une solution unique et indéterminé sinon.

Dé…nition 2.30 : (S) est dite homogène si B = 0 c.à.d. si bi = 0; 81


i m

NB:Un système homogène est toujours compatible (en e¤et, (0; 0; :::; 0) est

solution)
Dé…nition 2.31 : Deux systèmes linéaires sont dits équivalents s”ils ont les
mêmes solutions.

On a les résultats suivants:

Proposition 2.18: (S) est compatiple si et seulement si rg (A) = rg A

Preuve
(S) compatible () (S) possède au moins une solution () il existe (x1 ; x2 ; :::; xn ) 2
|n tel que x1 C1 + x2 C2 + ::: + xn Cn = B (écriture vectorielle de (S)) () B est

28
une combinaison linéaire de C1 ; C2 ; :::; Cn () rg(C1 ; C2 ; :::; Cn ) = rg (C1 ; C2 ; :::; Cn ; B) ()
rg (A) = rg A :

Proposition 2.19: Deux systèmes linéaires sont équivalents si et seulement


si leurs matrices complètes sont équivalentes ligne.

Preuve
Soient (S) et (S 0 ) deux systèmes linéaires A et A0 leurs matrices complètes
respectives.A~A0 () A0 s’obtient à partir de A par un nombre …ni d’opérations
élémentaires sur les lignes. Maintenant (x1 ; x2 ; :::; xn ) 2 |n est solution de
(S) équivaut à x1 C1 + x2 C2 + ::: + xn Cn = B où C1 ; C2 ; :::; Cn ; B sont les
colonnes de A (écriture vectorielle de (S)): On véri…e que si C10 ; C20 ; :::; Cn0 ; B 0
sont les colonnes de la transformée de A par l’un quelconque des trois types
d’opération élémentaire sur les lignes alors on a x1 C10 + x2 C20 + ::: + xn Cn0 = B 0 :
En conséquence, toute solution de A est solution de A0 et vice versa par symétrie
d’où le résultat.

Résolution des systèmes d’équations linéaires par la méthode de Gauss

Donnons d’abord ce résultat général utile dans toutes les structutes


abéliennes en commençant par la dé…nition d’un Truc:

Dé…nition 2.32 : On appelle Truc l’une des structures abéliennes suivantes:


un groupe abélien, un anneau commutatif, un corps commutatif, un espace vecto-
riel sur un corps commutatif, un module sur un anneau commutatif, une algèbre
sur un anneau (ou un corps) commutatif.

NB: Sauf mention contraire, la loi de groupe d’un Truc est notée +; et son
élément neutre 0

Lemme : Soit f : T ! T 0 un morphisme de Truc et soit b 2 T 0 :


Soit l’équation (E) x 2 T; f (x) = b: Alors:
- Si b 2= Im f; (E) n’a pas de solution;
- Si b 2 Im f; l’ ensemble des solutions de (E) est: S(E) = x0 + ker f; où
x0 est une solution particulière de (E)

Preuve
8x 2 T; x solution de (E) () f (x) = b () x est un antécédent de b:
- Si b 2
= Im f; alors b n’a pas d’antécédent, alors (E) n’a pas de solution;
- Si b 2 Im f; alors b a au moins un antécédent x0 qui est donc une solution
de (E) : Alors 8x 2 T; x solution de (E) () f (x) = b () f (x) = f (x0 ) ()
f (x) f (x0 ) = 0 () f (x x0 ) = 0 () x x0 2 ker f () x 2 x0 + ker f d’où
le résultat.

Théorème 2.13

29
8
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
soit (S) ..
>
> .
>
:
am1 x1 + am2 x2 + ::: + amn xn = bm
avec aij 2 |; 81 i m; 1 j n; bi 2 |; 81 i m; un système linéaire
de m équations 0à n inconnes x1 ; x21
; :::; xn :
a11 a1n
B .. C 2 M
Soient A = @ ... . A m;n (|) la matrice associée à (S) :
am1 amn
Alors l’ensemble des solutions de (S) est soit l’ensemble vide, soit un sous
espace a¢ ne de |n de dimension n rg(A):

Preuve
Soit f l’endomorphisme caqnoniquement associé à A: On pose v = (x1 ; x2 ; :::xn ) 2
|n et b = (b1 ; b2 ; :::bm ) 2 |m :
L’écriture de (S) sous forme d’application linéaire est l’équation : v 2 |n ;
f (v) = b:
D’après le lemme si b admet au moins un antécédent c..à.d si (S) est com-
patible, alors la solution de (S) est
S|n = v0 +ker f où v0 est une solution particulière de (S): D’après la formule
du rang, ker f est un sous espace vectoriel de |n de dimension n rg (f ) =
n rg(A); par suite v0 + ker f est un sous espace a¢ ne de |n de dimension
n rg(A):

L’essentiel de notre approche et des résultat de cette section se résume au


théorème suivant:

Théorème82.14:
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
Soit (S) ..
>
> .
>
:
am1 x1 + am2 x2 + ::: + amn xn = bm
avec aij 2 |; 81 i m; 1 j n; bi 2 |; 81 i m; un système linéaire
de m équations 0à n inconnes x1 ; x2 1 ; :::; xn :
a11 a1n
B .. C 2 M
Soient A = @ ... . A m;n (|) la matrice associée à (S) et
am1 a
0 1 mn
a11 a1n b1
B .. C 2 M
A = @ ... ..
. . A m;n+1 (|) sa matrice complète.
am1 amn bm
On échelonne A pour obtenir une matrice A0 et soit (S 0 ) le système as-
socié à A0 ; et A0 la matrice associée à (S 0 ) : (Alors d’après les propositions

30
ci-avant, d’une part (S) et (S 0 ) sont équivalents, d’autre part rg (A) = rg (A0 )
et rg A = rg A0 :
Trois cas se présentent:
1er cas: rg A > rg (A)
Alors (S) est incompatible: S|n = ?
2eme cas: rg A = rg (A) = n (nombre d’inconnues)
Alors (S) est déterminée et donc admet une solution unique qu’on détermine
en résolvant (S 0 ) en escalier à partir de la dernière ligne.
3eme cas: rg A = rg (A) = r < n
Alors (S) admet une in…nité de solutions. Les inconnues xj1 ; :::; xjr de
mêmes colonnes que les r éléments distingués de A0 ; appelées les inconnues
principales,.sont fonctions a¢ nes des n r autres inconnues xjr+1 ; :::; xjn , ap-
pelées inconnues secondaires et mises en paramètre.
L’ensemble
80 des solutions de (S) 1est donc de la forme: 9
>
> x j1 x j r+1 ; :::; x jn >
>
>
> B .. C >
>
>
>B C >
>
>
> B . C >
>
<B C =
B x jr x jr+1 ; :::; x jn C
S|n = B C ; xj ; :::; x j 2 | sous réserve d’une per-
>
> B xjr+1 C
r+1 n
>
>
>
>B .. C >
>
>
> @ A >
>
>
> . >
>
: ;
xjn
mutation de Sn qui remet les composantes à leur place initiale

Preuve
Ce théorème précise le théo 2.13
1 Si rg A > rg (A) alors d’après la proposition 2.18, (S) est incompatible;
2 Si rg A = rg (A) alors (S) est compatible et d’après le théo 2.13, la
solution de (S) est un sous espace a¢ ne F de dimension n rg(A): Par suite:
a) si rg(A) = n; alors dim F = 0 et par suite F est réduit à un point c.à.d
que (S) admet une unique solution;
b) si rg(A) < n; alors dim F > 0 et par suite F possède une in…nité
déléments c.à.d que (S) admet une in…nité de solutions. En outre la matrice A0
étant échelonnée de rang r; alors les r lignes non nulles de A0 sont linéairement
indépendantes et l’expression de S|n dans l’énoncé de ce théo est une écriture
paramétrique de F:

Remarque 2.6
1) Le choix des inconnues principales n’est pas unique mais dépend de la
façon dont l’échelonnement de A a été e¤ectué.
Plus généralement, on peut prendre comme suite d’inconnues principales
toute suite d’inconnues situées sur les colonnes utilisées pour obtenir un mineur
non nul de A d’ordre r = rg (A).

Exemple 210: Résoudre par la méthode de Gauss le système d’équations


linéaires:

31
8
< x + 2y z = 3
2x y + 3z = 0
(S) :
x + y + 2z = 3
0 1
1 2 1
la matrice associée à (S) est A = @ 2 1 3 A et la matrice augmen-
1 1 2
0 1
1 2 1 3
tée est A = @ 2 1 3 0 A:
1 1 2 3
Echelonnée A 0 1 0 1
1 2 1 3 1 2 1 3
A L2 + 2L1 @ 0 3 1 6 A @ 0 3 1 6 A:
L3 + L1 0 3 1 6 L3 L2 0 0 0 0
On a rg A = rg (A) = 2 < 3 donc (S) admet une in…nité de solutions; x
et y sont les inconnues principales et z devient un paramètre.
x + 2y = 3 + z x = 1 + 35 z
(S) () (S 0 ) ()
3y = 6 z y = 2 13 z
5 1
SR3 = 1 + 3 z; 2 3 z; z ; z 2 R

3.2.2 Autres méthodes


Méthode de Cramer La méthode de Cramer n’est pas pratique car longue
et fastidieuse (surtout lorsque le nombre d’inconnues est > 3) et ne s’applique
qu’au cas où le nombre d’équations est égal au nombre d’inconnues. Par contre,
son intérêt théorique nécessite son rappel.

Résolution des systèmes d’équations linéaires par la méthode de Cramer


Théorème 2.15
: 8
< a11 x1 + ::: + a1n xn = b1
>
Soit ..
(S) > .
:
an1 x1 + :::ann xn = bn
un système de n équations linéaires à n inconnues, A 2 Mn (|) la matrice
associée. Alors
(S) est déterminé c.à.d. (S) admet une solution unique si et seulement si
4 = det A 6= 0:
Dans ce cas la solution unique (x1 ; :::; xn ) est donnée par:
4j
xj = 4 ;

où 81 jn; 4j est le déterminant de la matrice


0 obtenue
1 en remplaçant
b1
B C
la j eme colonne de A par la colonne des constantes @ ... A
bn

32
8
< a11 x1 + ::: + a1n xn = 0
>
Cas des systèmes d’équations homogènes Soit ..
(S) > .
:
am1 x1 + :::amn xn = 0
un système d’équations homogènes et A la matrice associée.
Dans le cas où rg(A) = r < n; il est souvent plus rapide d’e¤ectuer des com-
binaisons directes de lignes qu’un échelonnement formel en procédant comme
suit:
On choisit comme inconnues principales les inconnues situées sur les colonnes
utilisées pour calculer un mineur non nul d’ordre r de A qu’on exprime directe-
ment en fonction des autres inconnues devenues paramètres, par des combi-
naisons directes de lignes.

8 2.11: Résoudre le système d’équations homogènes


Exemple
< x + 2y z = 0
2x y + 3z = 0
(S) :
x + y + 2z = 0 0 1
1 2 1
La matrice associée à (S) est A = @ 2 1 3 A:
1 1 2
On a jAj = 0 car L3 = L1 + L2 donc rg (A) < 3: Par contre le mineur
1 1
est non nul. Donc rg (A) = 2 et x et z sont des inconnues princi-
1 2
pales qui s’expriment en fonction du paramètre z:
L1 + L3 =) 3y + z = 0 =) z = 3y; 2L1 + L3 =) x + 5y = 0 =) x = 5y
Donc SR3 = f( 5y; y; 3y) ; y 2 Rg

Méthodes imaginatives Certaines méthodes imaginatives (changement de


variables, combinaisons remarquables de lignes etc...) se révèlent plus rapides
et plus e¢ caces dans la résolution de certaines types de systèmes linéaires.

8 2.12 : Résoudre le système


Exemple
> x2 + x3 + ::: + xn = a1
>
>
< x1 + x3 + ::: + xn = a2
(S) .. n 2
>
> .
>
:
x1 + x2 + ::: + xn 1 = an
On a : L1 + L2 + ::: + Ln =) (n 1) x1 + (n 1) x2 + ::: (n 1) xn =
a1 + a2 + ::: + an =)
L0 : x1 + x2 + ::: + xn = a1 +an2 +:::+a
1
n

a1 +a2 +:::+an
81 j n; L0 Lj =) xj = n 1 aj :

33
3.3 Application au calcul de l’inverse d’une matrice
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
Soit A = (aij ) 2 Mn (|) inversible. Soient X = B .. C et Y = B .. C deux
@ . A @ . A
xn yn
suites de variables dans |:
Lorsque Y est donné, l0 égalité AX = Y exprime y1 ; y2 ; :::; yn en fonction de
x1 ; x2 ; :::; xn : C’est un système linéaire.ayant une unique solution (x1 ; x2 ; :::; xn )
qu’on exprime en fonction de (y1 ; y2 ; :::; yn ) en résolvant le système. Or AX =
Y =) X = A 1 Y: Donc A 1 est la matrice du système qui exprime x1 ; x2 ; :::; xn
en fonction de y1 ; y2 ; :::; yn :
0 1
2 5 4
Exemple 2.13 : Montrer que la matrice M = @ 0 1 3 A est in-
0 0 6
versible et calculer son inverse.

M est une matrice triangulaire donc det(M ) = 2 ( 1) 6 = 12 6= 0;


donc M est inversible. 0 1 0 0 1
x x
Maintenant, soient X = @ y A ; X 0 = @ y 0 A : Le système M X = X 0
z z0
s’écrit:
8
< 2x + 5y 4z = x0
y + 3z = y 0
:
6z = z 0
La résolution en cascade du système donne:
8
< x = 21 x0 + 52 y 0 1112 z
0
0 1 0
y = y + 2z
:
z = 16 z 0
0 1 5 11
1 0 1
2 2 12 6 30 11
d’où M 1 = @ 0 1 1
2
A= 1 @ 0
12
12 6 A
1
0 0 6
0 0 2

4 Exercices du chapitre 2

Exercice 1
1 Parmi les produits donnés, dire ceux qui entrent dans le calcul des déter-
minants d’ordres correspondants et préciser avec quel signe:
i) a43 a21 a35 a12 a54 ; ii) a61 a23 a45 a36 a12 a54 ; iii) a27 a36 a51 a74 a25 a43 a62 :
1 2 3 4 5 6 7 8 9 10 11 12
2 Soit la permutation =
6 12 1 10 9 11 7 3 4 5 8 2
de S12

34
Décomposer en produits de cycles de supports disjoints puis en produits
de transpositions et donner la signature de .
3 Soit 2 Sn (n 2).
1
a) comparer Sgn ( ) et Sgn
Sn ! Sn
b) Montrer que l’application f : est bijective.
7 !
c) On suppose que est impaire. Montrer que f induit une bijection du
groupe An des permutations paires sur l’ensemble In des permutations impaires.
En déduire Card (An ) et Card (In ) :
Exercicice 2
1 Soient E un espace vectoriel réel, f une forme trilinéaire alternée sur E
et u; v; w 2 E:
Calculer f (2u v + 5w; u 3w; 2v + w) en fonction de f (u; v; w)
2 Soient E un |-espace vectoriel non nul (| = R ou | = C), p un entier 2
et f une forme p-linéaire f sur E:
Ep ! |
Pour tout élément de Sp ; on note f l’application :
(x1 ; :::; xp ) 7 ! f (x1 ; :::; xp ) = f (x (1) ; :::; x (p) )
a) Montrer que f une forme p-linéaire sur E.
f est dit symétrique si on a f = f; 8 2 Sp : elle est dite antisymétrique si
on a f = Sgn( ) f; 8 2 Sp :
b) Montrer f est antisymétrique si et seulement siXelle est alternée.
On appelle symétrisé de f l’application S(f ) = f : On appelle anti-
2Sp
X
symétrisé de f l’application A(f ) = Sgn( ) f :
2Sp
c) Montrer que S(f ) est une forme p-linéaire symétrique sur E et A(f ) est
une forme p-linéaire antisymétrique sur E:
Ep ! |
Soient f1 ; :::; fp p formes linéaires sur E, et ' :
(x1 ; :::; xp ) 7 ! f1 (x1 ) ::: fp (xp )
d) Montrer que f est une forme p-linéaire sur E: Est-elle symétrique? an-
tisymétrique?
On pose E = R2 [X] ; l’ensemble des polynômes de degré 2: Soit :
E E !R
(P; Q) 7 ! P (1) Q( 1)
e) Montrer que est une forme bilinéaire sur E et déterminer S ( ) ainsi
que A ( ) :
Exercicice 3
1 Trouver très rapidement les déterminants suivants :
4 17 9 7 7 4 5 12 11 0 0 0
1 23 6 12 8 1 0 3 2 2 0 0
A= ;B= ;C =
0 0 0 0 5 2 14 6 7 3 1 0
21 11 5 36 3 0 9 0 0 5 8 3

35
3 11 8 0 0
0 5 9 0 0
;D= 0 0 6 0 0
15 27 5 1 1
7 41 0 3 2
2 En utilisant la forme la décomposition par blocs après éventuellement
quelques opérations de lignes ou de colonnes, calculer les déterminants suivants:
1 2 3 3 3 3 10 6 2 3
0 1 1 0 0 1 7 2 4 0
A= 0 0 1 1 1 ; B= 5 1 1 2 5
1 1 1 2 3 2 5 2 1 1
1 1 1 1 2 2 5 4 1 2
2 Montrer sans le calculer que le déterminant
1 9 6 2
2 0 5 2
= est un entier divisible par 5:
3 1 1 7
4 3 3 7
Exercicice 4
Soit A = (aij )1 i;j n 2 Mn (R) véri…ant:
aij 2 Z; 81 i; j n; pour 1 i n; aii est impair; pour 1 i < j n;
aij est pair.
Montrer que A est une matrice inversible.
Exercicice 5
Montrer que les familles suivantes de vecteurs de R5 sont libres:
F1 = fu1 ; u2 ; u3 ; u4 ; u5 g ;F2 = fv1 ; v2 ; v3 g avec :
u1 = ( 1; 0; 0; 1; 1) ; u2 = ( 2; 1; 0; 1; 1) ; u3 = ( 3; 1; 1; 1; 1) ; u4 =
( 3; 0; 1; 2; 1) ; u5 = ( 3; 0; 1; 3; 2) ; v1 = ( 1; 0; 2; 2; 1) ; v2 = (2; 0; 1; 3; 1) ;
v3 = (1; 0; 0; 1; 0)

Exercice 6
1 Réduire à la forme échelonnée puis à la forme ligne canonique les matrices
suivantes :
0 1
2 3 4 0 1
B 3 C 0 3 2 1
1 5 C
A1 = B
@ 1 0 ; A2 = @ 2 5 1 6 A
1 A
1 3 4 2
0 2 4
Si pour i = 1; 2; Bi est la forme ligne canonique de Ai , déterminer la matrice
Pi telle que Bi = Pi Ai :
Exercice 7 0 1
1 2 0
Montrer que la matrice A = @ 2 1 0 A est inversible et calculer son
0 5 1
inverse par trois méthodes di¤érentes.

36
Exercicice 8
Déterminer
0 le rang de la matrice de Mn (C) : 1
1 z2 z 0 0
B .. .. C
B z 1 z2 z . . C
B C
B .. C
M (z) = B 0 z 1 z2 . 0 C
B C
B .. .. .. .. C
@ . . . . z A
0 0 z2 z 1
:
Exercice 9
Soit Dn = jaij j le déterminant d’ordre n tel que aii = 0 et aij = 1 pour
i 6= j:
On désigne par n le déterminant d’ordre n obtenu en remplaçant a11 par
1 dans Dn :
a) Exprimer Dn et n en fonction de Dn 1 et n 1 :
b) En déduire le calcul de Dn et n en fonction de n:
Exercice 10
Pour n > 0 …xé, on donne le déterminant d’ordre p + 1 (1 p n)

1 Cn1 Cn2 Cnp


1 2 p
1 Cn+1 Cn+1 Cn+1
p = .. .. .. ..
. . . .
1 2 p
1 Cn+p Cn+p Cn+p
k
dans lequel les Cn+r sont les coe¢ cients du binôme de Newton. Etablir une
relation entre p et p 1 . En déduire p :
Exercice 11
1 x1 x21 xn1 1
1 x2 x2 2
xn2 1
Soient x1 ; x2 ; :::; xn n réels (n 2). Montrer que . . .. =
.. .. .
1 xn x2n xnn 1
Y
(xj xi )
1 i<j n
(Le determinant d’ordre n ci-dessus est appelé le determinant de Van Der
Monde associé à la suite (x1 ; x2 ; :::; xn )
Exercice 12
1 Discuter suivant les valeurs de a et le rang des matrices suivantes :
0 1 0 1
1 1 2 a 1 1+a 0
M =@ 2 1 5 A;P =@ a a 0 2a A
1 10 6 1 a 2+a 2 + 2a 2a

2 a) Résoudre le système homogène suivant :

37
8
>
> x + 3y z + 2t = 0
<
11y 5z 3t = 0
>
> 2x 5y + 3z + t = 0
:
4x + y + z + 5t = 0

b) Résoudre et discuter suivant les valeurs de a; b et les systèmes


d’équations linéaires suivantes :
8 8
< x+ y z =2 < x+y+z =0
2x y + z = 5 ; x + a2 y + b2 z =
: :
x + 10y 6z = 1 x + ay + bz = 0

Exercice 13
Discuter et résoudre le système:
8
>
> x1 + x2 = a1
<
(S) :
>
> xn 1 + xn = an 1
:
xn + x1 = a n

38

Vous aimerez peut-être aussi