Determinants - Complements Sur Les Matrices - Systemes D'Equations Lineaires
Determinants - Complements Sur Les Matrices - Systemes D'Equations Lineaires
Determinants - Complements Sur Les Matrices - Systemes D'Equations Lineaires
1 DETERMINANTS
1.1 Outils de base
1.1.1 Signature d’une permutation
1 2 : : : n
= avec 8k 2 X = f1; 2; :::; ng; ik = (k) :
i1 i2 : : : in
1 1 2 1 2 1 2 3 1 2 3 1 2
Exemple 2.1: S1 = f g; S2 = f ; g; S3 = f ; ;
1 1 2 2 1 1 2 3 1 3 2 2 1
Dans le reste de cette section (jusqu’à l’exemple 2.2) on suppose n > 1
1
Cycles -transpositions Dé…nitions 2.3: - Un cycle de longueur p (2
p n) ou un p-cycle de Sn est un élément de Sn pour lequel il existe une
partie F = fi1 ; i2 ; :::ip g de X appelée support de véri…ant:
Sn ! f 1; 1g
Proposition 2.5: L’application " : est un morphisme de
7 ! Sgn
groupe.
2
En conséquence, il y a autant de permutations paires.que de permutations
impaires.dans Sn :
1 2 3 4 5 6 7 8 9 10 11 12
Exemple 2.2: Soit =
4 2 8 10 7 5 12 3 11 1 9 6
Décomposer en produit de cycles de supports disjoints, en produit de
transpositions et calculer sa signature.
en produit de cycles de supports disjoints:
= 1 4 10 3 8 5 7 12 6 9 11
en produit de transpositions:
= ( 1 4 )( 4 10 )( 3 8 )( 5 7 )( 7 12 )( 12 6 )( 9 11 )
est produit de 7 transpositions, donc elle est impaire; alors Sgn = 1
1.2.2 Propriétés
Soient f une forme p-linéaire alternée sur E; (v1 ; v2 ; :::; vp ) 2 E p ; alors:
a) f (v1 ; v2 ; :::; vp ) = 0 dès que l’un des vi est nul;
b) f (v1 ; v2 ; :::; vp ) = 0 dès que deux termes quelconques de la suite (vi )1 i p
sont colinéaires;
c) f (v1 ; v2 ; :::; vp ) = 0 si un terme de la suite (vi )1 i p est une combinaison
linéaire des autres;
d) f (v1 ; :::; vj ; :::; vi ; :::; vp ) = f (v1 ; v2 ; :::; vp ) ; (étant entendu que dans
(v1 ; :::; vj ; :::; vi ; :::; vp ) ; vj est la ieme composante et vi la j eme );en d’autres
termes, lorsqu’on échange deux termes de la suite (vi )1 i p ; l’image est trans-
formée en son opposé.
e) 8 2 Sp ; f v (1) ; v (2) ; :::; v (p) = sgn( ) f (v1 ; v2 ; :::; vp )
Preuve
3
a) Lorsque pour j 6= i vj est …xé et que vi seul varie, alors la fonction
'(vi ) = f (v1 ; v2 ; :::; vp ) est une forme linéaire sur E; donc s’annulle en 0E d’où
le résultat.
b) S’il existe i 6= j 2 1; p et 2 | tels que vj = vi ; alors on a f (v1 ; :::; vi ; :::; vj ; :::; vp ) =
f (v1 ; :::; vi ; :::; vi ; :::; vp ) = f (v1 ; :::; vi ; :::; vi ; :::; vp ) = 0 puisque f est al-
ternée.
c) Pour simpli…er on suppose que vp est une combinaison linéaire de v1 ; v2 ; :::; vp 1
p 1
X
ce qui en réalité n’est pas une restriction; on suppose donc que vp = i vi ;
! i=1
p 1
X p 1
X
alors on a f (v1 ; v2 ; :::; vp ) = f v1 ; v2 ; :::; i vi = if (v1 ; v2 ; :::; vi ) = 0
i=1 i=1
car chaque p-uplet (v1 ; v2 ; :::; vi ) comporte deux termes identiques en l’occurrence
le ieme et le peme :
d) Par linéarité par rapport à la ieme et à la j eme composante, et étant
entendu que dans les expressions qui suivent les termes écrits après les premiers
points de suspension et les deuxième points de suspension sont respectivement
les ieme et les j eme composantes, on a:
f (v1 ; :::; vi + vj ; :::; vi + vj ; :::; vp ) = f (v1 ; :::; vi ; :::; vi ; :::; vp )+f (v1 ; :::; vi ; :::; vj ; :::; vp )+
f (v1 ; :::; vj ; :::; vi ; :::; vp ) + f (v1 ; :::; vj ; :::; vj ; :::; vp ) : Comme f est alternée, alors
les termes f (v1 ; :::; vi + vj ; :::; vi + vj ; :::; vp ) ; f (v1 ; :::; vi ; :::; vi ; :::; vp ) et f (v1 ; :::; vj ; :::; vj ; :::; vp )
sont nuls et le résultat s’ensuit.
e) 8 2 Sp ; posons [(v1 ; v2 ; :::; vp )] = v (1) ; v (2) ; :::; v (p) ; d’après le
corollaire de la proposition 2.3, on a = 1 2 ::: r où 1 ; 2 ; :::; r sont
des transpositions; il s’ensuit f v (1) ; v (2) ; :::; v (p) = f [ (v1 ; v2 ; :::; vp )] =
f[ 1 2 ::: r (v1 ; v2 ; :::; vp )] : or d’àprès d), si est la tansposition i j ;
on a f [ (v1 ; v2 ; :::; vp )] = f (v1 ; v2 ; :::; vp ) ; par conséquent on a f [ (v1 ; v2 ; :::; vp )] =
( 1r ) f (v1 ; v2 ; :::; vp ) = sgn ( ) f (v1 ; v2 ; :::; vp ) :
Théorème 2.1 : Soient f une forme n-linéaire alternée sur E; B = (e1 ; e2 ; :::; en )
n
X
une base de E; (v1 ; v2 ; :::; vn ) 2 E n ; posons pour 1 i n; vi = aij ej ; alors
j=1
on a :
!
X
f (v1 ; v2 ; :::; vn ) = Sgn a1 (1) a2 (2) :::an (n) f (e1 ; e2 ; :::; en ) :
2Sn
Preuve
n
X
Par souci de clarté, posons plutôt vi = aiji eji pour associer la variable
ji =1
j (qui est muette) à chaque i; alors on a:
4
0 1
n
X n
X n
X
f (v1 ; v2 ; :::; vn ) = f @ a1j1 ej1 ; a2j2 ej2 ; :::; anjn ejn A
j1 =1 j2 =1 jn =1
0 1
n
X n
X n
X
= a1j1 f @ej1 ; a2j2 ej2 ; :::; anjn ejn A (linéarité par rapport à la
j1 =1 j2 =1 jn =1
1ère composante) 0 1
Xn X n n
X n
X
= a1j1 a2j2 f @ej1 ; ej2 ; a3j3 ej3 ; :::; anjn ejn A (linéarité par
j1 =1 j2 =1 j3 =1 jn =1
rapport à la 2ème composante) et de proche en proche on obtient
n
X n
X n
X
f (v1 ; v2 ; :::; vn ) = a1j1 a2j2 ::: anjn f (ej1 ; ej2 ; :::; ejn ) :
j1 =1 j2 =1 jn =1
f étant alternée, alors si pour deux indices p 6= q on a ejp = ejq dans la suite
(ej1 ; ej2 ; :::; ejn ) alors f (ej1 ; X
ej2 ; :::; ejn ) = 0; Par conséquent on a:
f (v1 ; v2 ; :::; vn ) = a1j1 a2j2 :::anjn f (ej1 ; ej2 ; :::; ejn ) :
1 j1 6=j2 6=:::6=jn n
Du fait que j1 ; j2 ; :::; jn sont n éléments distincts de 1; n; on a fj1 ; j2 ; :::; jn g =
1; n et par suite 9! 2 Sn tel que ji = (i) pour 1 i n; réciproquement
8 2 Sn ; (1) ; (2) ; :::; (n) sont n éléments distincts de 1; n; Par conséquent
on a: X
f (v1 ; v2 ; :::; vn ) = a1 (1) a2 (2) :::an (n) f e (1) ; e (2) ; :::; e (n) ; or comme
2Sn
en vertu de la propriété e) on a f e (1) ; e (2) ; :::; e (n) = Sgn( ) f (e1 ; e2 ; :::; en ) ;
alors le résultat s’ensuit.
5
n
sont des isomorphismes qui permettent d’identi…er Mn (|) à (|n ) respective-
ment au moyen des lignes et des colonnes.
Alors on a le résultat suivant:
Preuve
Le théo 2.1 a¢ rme l’unicité de f dès qu’une telle f existe. Assurons l’existence
MXn (|) ! |
de f en montrant que l’application f A = (aij )
1 i;j n 7 ! Sgn a1 (1) a2 (2) :::an (n)
2Sn
n
est une forme n-linéaire alternée sur Mn (|) : Identi…ons ici Mn (|) à (|n ) au
moyen des lignes. Alors
f (A) = f (L1 ; L2 ; :::; Ln ) avec pour 1 i n; Li = (ai1 ; ai2 ; :::; ain ) : Mon-
trons la linéarité de f par rapport à la ieme ligne: supposons donc que pour j 6= i;
Lj est …xée et soient Li = (ai1 ; ai2 ; :::; ain ) ; Hi = (bi1 ; bi2 ; :::; bin ) 2 |n ; 2 |;
posons Li + Hi = (ci1 ; ci2 ; :::; cin ) ; on a donc pour 1 j n; cij = aij + bij :
Il s’ensuit : X
f (L1 ; :::; Li + Hi ; :::Ln ) = Sgn a1 (1) :::ci (i) :::an (n)
2Sn
X
= Sgn a1 (1) :::( ai (i) + bi (i) ):::an (n)
2Sn
X X
= Sgn a1 (1) :::ai (i) :::an (n) + Sgn a1 (1) :::bi (i) ):::an (n)
2Sn 2Sn
= f (L1 ; :::; Li ; :::; Ln ) + f (L1 ; :::; Hi ; :::; Ln ):
Montrons l’alternance: supposons que dans la suite (L1 ; :::; Hi ; :::; Ln ); il
existe 1 p < q n tels que Lp = Lq ; il s’ensuit apj = aqj ; pour 1 j n:
Maintenant en vertu du corollaire de la proposition 2.5 l’application 7 ! ;
où est la transposition p q réalise une bijection de l’ensemble An des
permutations paires dans l’ensemble X des permutations impaires; il s’ensuit :
f (L1 ; :::; Lp ; :::; Lq ; :::; Ln ) = Sgn a1 (1) :::ap (p) :::aq (q) :::an (n)
2Sn
X X
= Sgn ( ) a1 (1) :::ap (p) :::aq (q) :::an (n) + Sgn( )a1 (1) :::ap (p) :::aq (q) :::an (n)
2An 2An
X X
= a1 (1) :::ap (p) :::aq (q) :::an (n) a1 (1) :::ap (q) :::aq (p) :::an (n) (car
2An 2An
d’une part 2 An =) Sgn( ) = 1 et Sgn( )= 1; et d’autre part per-
mute p et q et laisse les autres indices invariants)
= 0 car ap (p) = aq (p) et ap (q) = aq (q) :
6
Dé…nition 2.4: L’unique n-forme linéaire alternée dé…nie dans le théorème
précédent est appelé le determinant. Pour tout A = (aij )1 i;j n 2 Mn (|) ;
X
det A = jAj = Sgn a1 (1) a2 (2) :::an (n) est appelé le déterminant de A:
2Sn
n = 1 A = (a11 ) = a 2 |:
det A = det a = a
a11 a12
n=2 A=
a21 a22
X
det A = Sgn a1 (1) a2 (2) =1 a11 a22 + ( 1) a12 a21 = a11 a22
2S2
a12 a21
a b
Ou plus simplement = ad bc
c d
0 1
a11 a12 a13
n = 3 A = @ a21 a22 a23 A
a31 a32 a33
X
det A = Sgn a1 (1) a2 (2) a3 (3) =1 a11 a22 a33 + ( 1) a11 a23 a32 +
2S3
( 1) a12 a21 a33 + 1 a12 a23 a31 + 1 a13 a21 a32 + ( 1) a13 a22 a31 :
donc det A = (a11 a22 a33 +a12 a23 a31 +a13 a21 a32 ) (a13 a22 a31 + a23 a32 a11 + a33 a12 a21 )
(règle de Sarus)
Preuve
7
Les propriétés a), b), d) et e) découlene directement de la dé…nition et des
propriétes d’une forme n-linéaire alternée.
c) posons
XA = (aij ) et B = (bij ) ; alors 81 Xi; j n; bij = aji ; Il s’ensuit:
t
j Aj = Sgn b1 (1) b2 (2) :::bn (n) = Sgn a (1)1 a (2)2 :::a (n)n :
2Sn 2Sn
1
Posons = ; comme est une permutation de 1; n; alors on a : a (1)1 a (2)2 :::a (n)n =
a1 (1) a2 (2) :::an
(n) ; en outre du fait que = Id et donc que Sgn Sgn = 1;
X
on a Sgn = Sgn ; Il s’ensuit jt Aj = Sgn a1 (1) a2 (2) :::an (n) =
2Sn
X
1
Sgn a1 (1) a2 (2) :::an (n) (car l’application 7 ! = étant une
2Sn
bijection dans Sn ; faire varier dans Sn revient à faire varier dans Sn ) = jAj
(la variable de sommation est muette): X
f) Soit A = (aij ) 2 Mn (|) ; on a jAj = Sgn a1 (1) a2 (2) :::an (n) ;
2Sn
si 6= Id; alors dans le terme a1 (1) a2 (2) :::an (n) il existe au moins un ai (i)
et un aj (j) de part et d’autre de la diagonale; Par suite si A est une matrice
triangulaire, alors l’un au moins des deux termes ai (i) et aj (j) est nul et donc
a1 (1) a2 (2) :::an (n) = 0; donc le seul terme eventuellement non nul est celui
obtenu avec c = Id qui est a11 a22 :::ann c.à.d le produit des éléments de la
diagonale.
8
n
X n
X
i+j
Pour j …xé avec 1 j n; on a: jAj = ( 1) aij minij = aij cofij
i=1 i=1
(suivant Cj )
Preuve X
Soient A = (aij ) 2 Mn (|) et i 2 1; n; dans l’expression jAj = Sgn
2Sn
a1 (1) a2 (2) :::an (n) ; chaque terme contient un et un seul élément de la ieme
ligne de A Li = (ai1 ; ai2 ; :::; ain ) ; Donc nous pouvons écrire jAj sous la forme
: jAj = ai1 Ai1 + ai2 Ai2 + ::: + ain Ain où 81 j n; Aij est une somme de
produits de n 1 éléments de A dont aucun n’appartient à Li ; le théorème sera
démontré si nous établissons que Aij = ( 1)i+j minij (= cofij ), pour 1 j n:
Considéons d’abord le cas Xoù i = j = n; la somme des termes contenant
ann est ann Ann = ann Sgn a1 (1) a2 (2) :::an 1 (n 1) : Sommer
2Sn ; (n)=n
sur toutes les permutations de 1; n tels que (n) = n est équivalent à som-
mer sur toutes les permutations de 1; n 1: Il s’ensuit que Ann = minnn =
( 1)n+n minnn :
Considérons maintenant i et j quelconques; échangeons Li avec la ligne qui
luisuccède et ainsi de suite jusqu’à ce qu’elle soit la dernière; ensuite échangeons
la j eme colonne avec la colonne qui lui succède jusqu’à ce qu’elle soit la dernière.
Remarquons que minij n’est pas modi…é par ces opérations car les position
relatives des autres lignes et colonnes ne sont pas pas a¤ectées par ces opérations.
Cependant d’après la propriété d) du déterminant, jAj est transformé en son
opposé à chaque opération; il en est donc de même de Aij : A la …n des opérations
jAj aura changé (n i) + (n j) fois de signe (de la ieme ligne à la neme ; puis
de la j eme colonne à la neme ). En conséquence:
9
Dé…nition 2.8: la matrice adjointe classique de A est e =t ComA =
A
Com (t A) :
e = AA
Théorème 2.4: On a: AA e = jAj In :
Preuve
posons A = (aij ) et AA e = (bij ) ; 81 i; j n; bij est le produit de la ieme
ligne de A par la j eme
colonne de A: e Ae étant la transposée de ComA; la j eme
e
colonne de A est la i eme
ligne de ComA = (cofij )1 i;j n ; en conséquence:
Xn n
X
bij = aik cofjk : En particulier bii = aik cofik = jAj :
k=1 k=1
Maintenant pour j 6= i; soit H la matrice obtenue en raplaçant la j eme ligne
de A par sa ieme ligne. Alors jHj = 0 puisque H possède deux lignes identiques
(la ieme et la j eme ). Mais en développant jHj suivant la j eme ligne on a 0 =
Xn
jHj = aik cofjk = bij : En somme on a:
k=1
jAj si i = j e = jAj In :
bij = d’où AA
0 si i 6= j
e = jAj In :
On obtient de façon analogue AA
Pour démontrer ce théorème nous allons nous servir du lemme suivant qui
utilise des notions et des résultats relatifs aux opérations élémentaires sur les
matrices que le lecteur trouvera dans le paragraphe suivant:
Preuve du lemme
Les trois types de matrice d’opération élémentaire sont Di ( ); Tij ( ) et
Pij transformées respectives de In par les opérations élémentaires Li Li ;
Li Li + Lj et Li ! Lj qui transforment respectivement A en (i; ) (A) =
10
Di ( ) A; (ij; ) (A) = Tij ( ) A; ij (A) = Pij A (prop 2.12): Or d’après
les propriétés b) et d) du déterminant on a (i; ) (A) = jAj et jDi ( )j =
(i; ) (In ) = jIn j = d’où jDi ( ) Aj = jDi ( )j jAj ; (ij; ) (A) = jAj et
jTij ( )j = (ij; ) (Im ) = jIn j = 1 d’où jTij ( ) Aj = jTij ( )j jAj ; j ij (A)j =
jAj et jPij j = j ij (In )j = jIn j = 1 d’où jPij Aj = jPij j jAj :
Preuve du théorème
Soient A; B 2 Mn (|) ; - Si A n’est pas inversible alors AB n’est pas inversible
( si AB était inversible il existerait une matrice M 2 Mn (|) tel que (AB)M = In
d’où A(BM ) = In et A serait inversible d’inverse BM; contradictoire); dans ce
cas on a jABj = 0 = jAj jBj :
- Si A est inversible alors en vertu du corollaire de la proposition 2.17, A
est produit de matrices d’opérations élémentaires; on a donc A = E1 E2 :::Ek où
pour 1 i k; Ei est une matrice d’opération élémentaire; il s’ensuit jABj =
jE1 E2 :::Ek Bj = jE1 (E2 :::Ek B)j = jE1 j jE2 :::Ek Bj (d’après le lemme) =
jE1 j jE2 j jE3 :::Ek Bj et de proche en proche on obtient jABj = jE1 j jE2 j
::: jEk j jBj = jAj jBj :
11
Preuve
a); b) et c) découlent directement de la dé…nition du rang d’une matrice. d)
est une conséquense conjuguée de la dé…nition deux matrices équivalentes et du
corollaire du théo 2.9.(voir la prochaine section "matrices équivalentes")
Preuve
Soit f l’endomorphisme canoniquement associé à A; alors:
A inversible () f inversible () f bijective () les vecteurs colonnes de
A sont linéairement indépendants () rg(A) = n:
Preuve
Il est clair en vertu de la propriété 2.2 que ii) =) i) car rg(Jr ) = r: Montrons
i) =) ii) : supposons donc que rg(f ) = r: Alors on a dim (Im f ) = r: Soient
(e01 ; e02 ; :::; e0r ) une base de Im f et pour 1 i r; ei un antécédent de e0i : Alors
r
X
la famille (e1 ; e2 ; :::; er ) est libre. En e¤et 8 1 ; 2 ; :::; r 2 |; i ei = 0E =)
i=1
12
r
! r r
X X X
0
f i ei = 0E 0 =) if (ei ) = 0E 0 =) i ei = 0E 0 =) i = 0 pour
i=1 i=1 i=1
1 i r car (e01 ; e02 ; :::; e0r ) base
de Im f =) (e01 ; e02 ; :::; e0r )
est une famille libre;
alors la famille (e1 ; e2 ; :::; er ) est libre. Complétons cette famille en une base
F = (e1 ; e2 ; :::; er ; vr+1 ; :::; vn ) de E:.8r + 1 j n; f (vj ) 2 Im f donc on a
Xr
f (vj ) = aij e0i ( )avec aij 2 | pour 1 i r. 8r + 1 j n; posons
i=1
Xr
ej = v j aij ei : alors la famille B = (e1 ; e2 ; :::; er ; er+1 ; :::; en ) est une base
i=1
de E: En e¤et la matrice de B dans la base F est une matrice triangulaire
supérieure ayant rien que des 1 sur ladiagonale donc de déterminant égal à 1:
Maintenant pour r + 1 j !n; on a:
Xr Xr r
X
f (ej ) = f vj aij ei = f (vj ) aij f (ei ) = f (vj ) aij e0i = 0E 0
i=1 i=1 i=1
d’après ( ): On a donc :
e0j si 1 i r
f (ej ) =
0E si r + 1 j n
0
Alors si on complète (e01 ; e02 ; :::; e0r ) en une base B 0 = e01 ; e02 ; :::; e0r ; e0r+1 ; :::; e0m
de E 0 ; on a bien matBB 0 (f ) = Jr :
Preuve
La formule de la dimension s’écrit:
dim(ker f ) + dim(Im f ) = dim E d’où le résultat car dim(Im f ) = rg(f ):
13
1er cas : p > n
Alors F est une famille liée;
2eme cas : p = n
Alors F est une famille libre () det(A) 6= 0: () F est une base de E:
3eme : p < n
Alors F est libre si et seulement s’il existe un mineur d’ordre p non nul de
A:
Preuve
1er cas : p > n : on sait que si dim E = n; alors une famille de plus de n
vecteurs de E est liée.
2eme cas : p = n : dans cas cardF = dim E et A est une matrice carrée ;
alors F est une base de E () F est une famille libre () les vecteurs colonnes
de A sont linéairements indépendants () rg(A) = n () det(A) 6= 0:
3eme : p < n : F est une famille libre () rg(A) = p () existe un mineur
d’ordre p non nul de A (puisque A 2 Mn;p (|) =) rg(A) p):
B = QAP:
14
1
B=P AP:
Proposition 2.8 : Les matrices d’un même endomorhisme dans des bases
di¤ érentes sont semblables
Preuve
A et B étant semblables, alors il existe une matrice P inversible telle que
B = P 1 AP: Il s’ensuit:
tr(B) = tr P 1 AP = tr AP P 1 (car 8A; B 2 Mn (|); tr(AB) = tr(BA)
voir TD) = tr(A)
det(B) = det(P 1 AP ) = det(P 1 ) det(A) det(P ) = det(A) car det(P 1 ) =
1
det(P ) :
D’après les deux propositions précédentes, tr(matB (u)) et det(matB (u)) sont
indépendantes de la base B choisie d’où les dé…nitions.
15
- Pour chaque j 2 1; s; les matrices A1j ; A2j ; :::; Arj ont toutes le même
nombre de colonnes.
Remarque 2.1: Une même matrice peut avoir plusieurs dispositions par
blocs comme le montre l’exemple suivant:
0 1
1 0 2 1 6
B 0 2 1 1 3 C
Soit A = B@ 2
C
3 0 2 0 A
4 1 7 5 1
1 0 2 1 6 2 3
avec A11 = ; A12 = ; A13 = ; A21 = ; A22 =
0 2 1 1 3 4 1
0 2 0
; A23 =
7 5 1
Ou encore
B11 B12
A=
B21 B22
1 0 2 1 6 2 3 0
avec B11 = ; B12 = ; B21 = ; B22 =
0 2 1 1 3 4 1 7
2 0
5 1
et la liste de dispositions par blocs de A peut encore continuer.
Dé…nitions 2.17: -Une disposition par blocs A = (Ai;j ) 1 i r est dite une
1 j s
disposition carrée par blocs si r = s:
On a alors A = (Ai;j )1 i;j r
- A 2 Mn (|) est dite diagonale par blocs s’il existe une disposition carrée par
blocs A = (Ai;j )1 i;j r : de A telle que 81 i r; Ai;i est une matrice carrée
et Ai;j = 0 pour i 6= j:
- A 2 Mn (|) est dite triangulaire supérieure(resp. inférieure) par blocs
s’il existe une disposition carrée par blocs A = (Ai;j )1 i;j r : de A telle que
81 i r; Ai;i est une matrice carrée et Ai;j = 0 pour i > j (resp.i < j):
Remarque 2.2 : Une matrice peut être diagonale ou triangulaire par blocs
sans être diagonale ou triangulaire:
16
0 1
2 3 0
A11 A12
Par exemple la matrice A = @ 1 5 0 A = avec A11 =
A21 A22
0 0 4
2 3
; A12 = 0; A21 = 0 (matrices nulle) ; A22 = (4) est une matrice
1 5
diagonale par blocs mais elle n’est ni diagonale ni triangulaire.
Produit
Proposition 2.11 : Soient A 2 Mm;n (|) ; B 2 Mn;p (|) disposées par blocs
A = (Ai;j ) 1 i r ; B = (Bi;j ) 1 i r :
1 j s 1 j s
On suppose que 1 i r; 1 k s; 1 l t; le nombre de colonnes de
Ai;k est égal au nombre de lignes de Bk;l : Alors le produit D = AB admet une
représentation par blocs
s
X
D = (Di;j ) 1 i r avec 1 i r; 1 l t; Di;l = Ai;k Bk;l :
1 j s k=1
Remarque 2.3 : Les deux propositions précédentes a¢ rment que les opéra-
tions par blocs se font comme avec les scalaires.
Par suite;
- Le produit de deux matrices diagonales par blocs est une matrice diagonale
par blocs.
- Le produit de deux matrices triangulaires supérieures (resp. inférieures)
par blocs est une matrice triangulaire (resp. inférieure) par blocs dont les blocs
diagonaux sont les produits des blocs diagonaux correspondants.
Exemple
0 2.5 :Soient
1 les matrices
0 : 1
1 2 1 1 2 3 1
A = @ 3 4 0 A et B = @ 4 5 6 1 A
0 0 2 0 0 0 1
On peut calculer AB en utlisant une décomposition par blocs en posant:
A11 A12 1 2 1
A= avec A11 = ; A12 = ; A21 = 0 0 =
A21 A22 3 4 0
0M12 (R) et A22 = 2;
17
B11 B12 1 2 3 1
B = avec B11 = ; B12 = ; B21 =
B21 B22 4 5 6 1
0 0 0 = 0M13 (R) et B22 = 1:
On véri…e bien que les conditions qui rendent possible la multiplication par
blocs sont satisfaites par A; B et les Aij et les Bkl : Alors on a:
A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22
AB = =
0 A 21 A 22 B 21 B22 A 21 B11 + A22 B21 A21 B12 + A22 B22
1
1 2 1 2 3 1 2 1 1
+ 0M23 (R) + 1 A
=@ 3 4 4 5 6 3 4 1 0 =
0M13 (R) + 0M13 (R) 0+2 1
0 1
9 12 15 4
@ 19 26 33 7 A
0 0 0 2
0 1
9 12 15 4
Donc AB = @ 19 26 33 7 A
0 0 0 2
Déterminant d’une matrice triangulaire par blocs
18
0 1
a b 0 0
B b a 0 0 C
B C
B ..C
B 0 0 .C
B C
B . .. C
B .. . 0 0 C
B C
@ 0 a b A
0 0 0 b a
Endomorphisme induit
Dé…nition 2.19: Soit F un sous espace vectoriel de E stable par u: Alors
F !F
l’application uF : qui est la restriction et la corestriction de u à
x 7 ! u(x)
F est un endomorphisme de F appelé l’endomorphime de F induit par u:
Preuve
Posons matB (u) = A = (aij )1 i;j n : F stable par u () u(ej ) 2 F; pour
Xp
1 j p , u(ej ) = aij ei ; pour 1 j p () :aij = 0 dans le cadran
i=1
19
A11 A12
[i > p; 1 j p] () A est de la forme A = où A11 est une
0 A22
matrice carrée d’ordre p dont pour 1 j p; la j eme colonne est u(ej ) =
p
X
uF (ej ) = aij ei d’où A11 = matF (uF ):
i=1
Preuve
En procédant comme dans la preuve du théo 2.11, il su¢ t d’écrire la matrice
de u dans la base B en délimitant les bases Bk des uk :
20
2.5 Opérations élémentaires sur les matrices.
Dé…nitions 2.22: Soit A 2 Mm;n (|) : On apelle opération élémentaire sur les
lignes de A, l’une des opérations suivantes:
1) Multiplier la ieme ligne par 2 |; 6= 0, dite opération élémentaire de
dilatation notée Li Li ;
2) ajouter à la ieme ligne, fois la j eme ligne ( 2 |; i 6= j) dite opération
élémentaire de transvection, notée Li Li + Lj ;
3) Echanger la ieme et la j eme ligne dite opération élémentaire de transpo-
sition notée Li ! Lj :
Ci Ci ; Ci Ci + Cj ; Ci ! Cj
dont les propriétés sont analogues à celles des opérations sur les lignes et
s’en déduisent par transposition.
Di ( ); Ti;j ( ); Pi;j
Di ( ) A; Ti;j ( ) A; Pi;j A.
En d’autre termes on a:
21
(i; ) (A) = (i; ) (Im ) A; (ij; ) (A) = (ij; ) (Im ) A; ij (A) = ij (Im ) A:
Preuve
Simples véri…cations.
Remarque 2.5
a) Pour résumer la proposition 2.12, on retiendra que si e(A) désigne la trans-
formée d’une matrice quelconque A 2 Mm;n (|) par une opération élémentaire
sur les lignes, alors on a:
e(A) = e(Im ) A:
A Di0 ( ); A 0
Tj;i ( ); A 0
Pi;j
où Di0 ( ); Tj;i
0 0
( ); Pi;j sont les matrices de Mn (|) transformées de In par
les opérations Ci Ci ; Ci Ci + Cj ; Ci ! Cj :
22
- Une matrice A est dite échelonnée réduite par ligne (en abrégé erl) si elle
est échelonnée par ligne et si chaque élément distingué de A est égal à 1 et est
le seul élément non nul sur sa colonne.
Exemple
0 2.7: 1 0 1
2 3 2 0 4 5 6 0 1 3 0 0 4 0
B 0 0 7 0 3 2 0 C B 0 0 0 1 0 3 0 C
A=B C
@ 0 0 0 0 0 6 2 A; B = @ 0 0 0
B C
0 1 8 0 A
0 0 0 0 0 0 0 0 0 0 0 0 0 1
A est une matrice échelonnée (non réduite), B est une matrice erl:
Les éléments distingués sont ceux qui sont entourés.
Proposition 2.13: Soit A une matrice échelonnée par ligne; alors le rang
de A est égal au nombre de lignes non nulles de A:
Preuve
Il s’agit de montrer que les lignes non nulles d’une matrice échelonnée par
ligne sont linéairement indépendantes ce qu’on véri…e facilement.
Preuve
Si A et B sont équivalentes ligne, alors B s’obtient à partir de A par un
nombre …ni d’opérations élémentaires sur les lignes.Par suite d’après la remarque
2.5a), B est égal au produit de A par un nombre …ni de matrices d’opération
élémentaire. comme chaque matrice d’opération élémentaire est inversible alors
la propriété 2.1d) assure le résultat
Proposition 2.15: Toute matrice est équivalente ligne à une matrice éche-
lonnée par ligne.
Plus précisément, pour tout A 2 Mm;n (|); il existe une matrice inversible
P 2 Mm (|) et une matrice échelonnée par ligne E 2 Mm;n (|) telles que P A =
E:
Preuve
23
D’après l’algorithme d’échelonnement d’une matrice (voir un peu plus bas),
A est transformée en une matrice échelonnée par ligne E par des opérations
élémentaires successives sur les lignes. Soient e1 ; e2 ; :::; ek la suite d’opérations
élémentaires qui transforme A en E et E1 ; E2 ; :::; Ek les matrices d’opération
élémentaire correspondant. Alors:
e1 transforme A en e1 (A) = E1 A qui est transformée à son tour par e2 en
e2 [e1 (A)] = E2 E1 A et ainsi de suite on obtient E = ek [ek 1 ::: [e2 [e1 (A)]]] =
Ek Ek 1 ::: E2 E1 A: On pose P = Ek Ek 1 ::: E2 E1 ; alors
P est inversible car produit de matrices d’opérations élémentaires qui d’après
la remarque 2.5b), sont inversibles et on a P A = E:
Preuve
Si la forme ligne canonique de A est égal à In ; alors en vertu de la proposition
2.14, A et In ont le même rang donc A est inversible. Réciproquement si A est
inversible, alors pour la même raison que précédemment la forme ligne canonique
E de A est inversible. Alors pour achever la preuve il su¢ t de remarquer que
In est la seule matrice erl inversible de Mn (|) : En e¤et Si une matrice erl de
Mn (|) est inversible, alors aucune de ses lignes n’est nulle, donc il y a un élément
distingué sur chaque ligne. Par conséquent E possède n éléments distingués et
la condition 1 j1 < j2 < ::: < jn n de la dé…nition 2.24 implique que
jk = k pour 1 k n et donc que ces éléments distingués sont les éléments de
la diagonale de E: Comme en plus E est réduite, alors ces éléments sont tous
égaux à 1 et sont les seuls éléments non nuls sur leurs colonnes respectives. En
somme, les coe¢ cients de E sont égaux à 1 sur la diagonale et à 0 ailleurs donc
on a E = In :
Preuve
Soient e1 ; e2 ; :::; ek la suite d’opérations élémentaires qui transforme A en In
et E1 ; E2 ; :::; Ek les matrices d’opération élémentaire correspondant. Alors on
a:
24
1
Ek Ek 1 ::: E2 E1 A = In d’où A = Ek Ek 1 ::: E2 E1 =
ek [ek 1 ::: [e2 [e1 (In )]]] :
Exemple 2.8 :
NB : Avant de suivre cet exemple lire d’abord l’algorithme d’échelonnement
d’une matrice et l’exemple 2.9
Preuve
Si A 2 Mn (|) est produit …ni de matrices d’opération élémentaire, alors A
est inversible puisque toute matrice d’opération élémentaire est inversible. Ré-
ciproquement si A est inversible, alors A 1 est inversible et d’après le corollaire
1
1, A (= A 1 ) est égal au produit des matrices d’opérations élémentaires
correspondant à la suite des opérations élémentaires qui transforme A 1 en In :
25
* Si la j1 eme colonne est la 1 ere colonne de A possédant au moins un
élément non nul par exemple apj1 situé sur la p eme ligne, alors:
- Si p = 1; alors on e¤ectue successivement pour 2 i m; l’opération
Li a1j1 Li aij1 L1 pour annuler tous les éléments de la j1 eme colonne à
l’exception de a1j1 qui est non nul (c’est le pivot de la 1ere ligne).
- Si p 6= 1; alors on permute les lignes Lp et L1 (Lp ! L1 ) avant
d’e¤ectuer les opérations.
Supposons que les opérations ci-avant soient e¤ctuées au rang k (k 1) :
* Si la jk+1 eme colonne est la 1 ere colonne après la jk eme colonne
possédant au moins un élément non nul en dessous de la k eme ligne, par exemple
qjk+1 (nouvelle valeur de aqjk+1 après les opérations précédentes) situé sur la
q eme colonne, alors:
- Si q = k + 1; alors on e¤ectue successivement pour k + 2 i m les
opérations Li k+1jk+1 Li ijk+1 Lk+1 pour annuler tous les éléments de
la jk+1 eme colonne en dessous de k+1jk+1 :
- Si q 6= k + 1; alors on permute les (nouvelles) lignes Lq et Lk+1 avant
d’e¤ectuer les opérations.
On obtient …nalement une matrice échelonnée par ligne équivalente ligne à
A:
0 1
0 1 2 2 0
B 0 2 4 4 2 C
Exemple 2.9: Echelonner la matrice A = B @ 0
C
3 6 5 0 A
0 1 2 2 3
puis donner sa forme ligne canonique.
Echelonnons A :
0 1 0 1
0 1 2 2 0 0 1 2 2 0
L2 + 2L1 B B 0 0 0 0 2 C
C
B 0 0 0 1 0 C
A L2 ! L3 B C
L3 3L1 @ 0 0 0 1 0 A @ 0 0 0 0 2 A
L4 + L1 0 0 0 4 3 0 0 0 4 3
0 1 0 1
0 1 2 2 0 0 1 2 2 0
B 0 0 0 1 0 C B 0 0 0 1 0 C
B C B C
@ 0 0 0 0 2 A @ 0 0 0 0 2 A
L4 + 4L2 0 0 0 0 3 2L4 + 3L2 0 0 0 0 0
On a ainsi échelonné la matrice A. Donnons sa forme ligne canonique c.à.d
poursuivons l’échelonnement jusqu’à sa forme erl:
A partir de la forme obtenue par l’algorithme précédent, on poursuit les com-
binaisons pour éliminer les éléments non nuls au dessus des éléments distingués
de A:
Dans cette phase on opère dans le sens inverse de la 1ere phase de l’échelonnement,
donc de la dernière ligne à la première, et de bas en haut.
Lorsque la colonne de chaque élément distingué est débarassée des éléments
non nuls, on procède à la dernière phase qui consiste à multiplier la ligne de
26
chaque élément distingué a de A par a1 pour rendre les éléments distingués tous
égaux à 1 :
L’élément distingué 2 de la 3ème ligne est le seul élément de sa colonne
ainsi que l’élément distingué 1 de la 1ère ligne; il reste seulement à éliminer le
2 au0dessus de l’élément distingué
1 de la 2ème 0 ligne: 1 0 1
0 1 2 2 0 0 1 2 0 0 0 1 2 0 0
B 0 0 L + 2L L1
B 0 1 0 C C~
1 2 B
B 0 0 0 1 0 C C~
B 0
B 0 0 1 0 C
C:
@ 0 0 L2
0 0 2 A @ 0 0 0 0 2 A 1
@ 0 0 0 0 1 A
0 0 0 0 0 2 L3
0 0 0 0 10 0 0 0 0 0 0
0 1 2 0 0
B 0 0 0 1 0 C
La forme ligne canonique de A est donc B @ 0 0 0 0 1 A
C
0 0 0 0 0
avec aij 2 |; 81 i m; 1 j n:
AX = B:
27
Ecriture vectorielle
0 Soient
1 C1 ; C2 ; :::; Cn les colonnes respectives de A (81 j n; Cj =
a1j
B a2j C
B C
B .. C 2 |m ):
@ . A
amj
L’écriture vectorielle de (S) est:
x1 C1 + x2 C2 + ::: + xn Cn = B:
f (v) = b
Dé…nition: 2.29- Le système (S) est dit dit compatible s’il admet au moins
une solution; sinon, elle est dite incompatible.
- (S) est dit déterminé s’il admet une solution unique et indéterminé sinon.
NB:Un système homogène est toujours compatible (en e¤et, (0; 0; :::; 0) est
solution)
Dé…nition 2.31 : Deux systèmes linéaires sont dits équivalents s”ils ont les
mêmes solutions.
Preuve
(S) compatible () (S) possède au moins une solution () il existe (x1 ; x2 ; :::; xn ) 2
|n tel que x1 C1 + x2 C2 + ::: + xn Cn = B (écriture vectorielle de (S)) () B est
28
une combinaison linéaire de C1 ; C2 ; :::; Cn () rg(C1 ; C2 ; :::; Cn ) = rg (C1 ; C2 ; :::; Cn ; B) ()
rg (A) = rg A :
Preuve
Soient (S) et (S 0 ) deux systèmes linéaires A et A0 leurs matrices complètes
respectives.A~A0 () A0 s’obtient à partir de A par un nombre …ni d’opérations
élémentaires sur les lignes. Maintenant (x1 ; x2 ; :::; xn ) 2 |n est solution de
(S) équivaut à x1 C1 + x2 C2 + ::: + xn Cn = B où C1 ; C2 ; :::; Cn ; B sont les
colonnes de A (écriture vectorielle de (S)): On véri…e que si C10 ; C20 ; :::; Cn0 ; B 0
sont les colonnes de la transformée de A par l’un quelconque des trois types
d’opération élémentaire sur les lignes alors on a x1 C10 + x2 C20 + ::: + xn Cn0 = B 0 :
En conséquence, toute solution de A est solution de A0 et vice versa par symétrie
d’où le résultat.
NB: Sauf mention contraire, la loi de groupe d’un Truc est notée +; et son
élément neutre 0
Preuve
8x 2 T; x solution de (E) () f (x) = b () x est un antécédent de b:
- Si b 2
= Im f; alors b n’a pas d’antécédent, alors (E) n’a pas de solution;
- Si b 2 Im f; alors b a au moins un antécédent x0 qui est donc une solution
de (E) : Alors 8x 2 T; x solution de (E) () f (x) = b () f (x) = f (x0 ) ()
f (x) f (x0 ) = 0 () f (x x0 ) = 0 () x x0 2 ker f () x 2 x0 + ker f d’où
le résultat.
Théorème 2.13
29
8
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
soit (S) ..
>
> .
>
:
am1 x1 + am2 x2 + ::: + amn xn = bm
avec aij 2 |; 81 i m; 1 j n; bi 2 |; 81 i m; un système linéaire
de m équations 0à n inconnes x1 ; x21
; :::; xn :
a11 a1n
B .. C 2 M
Soient A = @ ... . A m;n (|) la matrice associée à (S) :
am1 amn
Alors l’ensemble des solutions de (S) est soit l’ensemble vide, soit un sous
espace a¢ ne de |n de dimension n rg(A):
Preuve
Soit f l’endomorphisme caqnoniquement associé à A: On pose v = (x1 ; x2 ; :::xn ) 2
|n et b = (b1 ; b2 ; :::bm ) 2 |m :
L’écriture de (S) sous forme d’application linéaire est l’équation : v 2 |n ;
f (v) = b:
D’après le lemme si b admet au moins un antécédent c..à.d si (S) est com-
patible, alors la solution de (S) est
S|n = v0 +ker f où v0 est une solution particulière de (S): D’après la formule
du rang, ker f est un sous espace vectoriel de |n de dimension n rg (f ) =
n rg(A); par suite v0 + ker f est un sous espace a¢ ne de |n de dimension
n rg(A):
Théorème82.14:
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
Soit (S) ..
>
> .
>
:
am1 x1 + am2 x2 + ::: + amn xn = bm
avec aij 2 |; 81 i m; 1 j n; bi 2 |; 81 i m; un système linéaire
de m équations 0à n inconnes x1 ; x2 1 ; :::; xn :
a11 a1n
B .. C 2 M
Soient A = @ ... . A m;n (|) la matrice associée à (S) et
am1 a
0 1 mn
a11 a1n b1
B .. C 2 M
A = @ ... ..
. . A m;n+1 (|) sa matrice complète.
am1 amn bm
On échelonne A pour obtenir une matrice A0 et soit (S 0 ) le système as-
socié à A0 ; et A0 la matrice associée à (S 0 ) : (Alors d’après les propositions
30
ci-avant, d’une part (S) et (S 0 ) sont équivalents, d’autre part rg (A) = rg (A0 )
et rg A = rg A0 :
Trois cas se présentent:
1er cas: rg A > rg (A)
Alors (S) est incompatible: S|n = ?
2eme cas: rg A = rg (A) = n (nombre d’inconnues)
Alors (S) est déterminée et donc admet une solution unique qu’on détermine
en résolvant (S 0 ) en escalier à partir de la dernière ligne.
3eme cas: rg A = rg (A) = r < n
Alors (S) admet une in…nité de solutions. Les inconnues xj1 ; :::; xjr de
mêmes colonnes que les r éléments distingués de A0 ; appelées les inconnues
principales,.sont fonctions a¢ nes des n r autres inconnues xjr+1 ; :::; xjn , ap-
pelées inconnues secondaires et mises en paramètre.
L’ensemble
80 des solutions de (S) 1est donc de la forme: 9
>
> x j1 x j r+1 ; :::; x jn >
>
>
> B .. C >
>
>
>B C >
>
>
> B . C >
>
<B C =
B x jr x jr+1 ; :::; x jn C
S|n = B C ; xj ; :::; x j 2 | sous réserve d’une per-
>
> B xjr+1 C
r+1 n
>
>
>
>B .. C >
>
>
> @ A >
>
>
> . >
>
: ;
xjn
mutation de Sn qui remet les composantes à leur place initiale
Preuve
Ce théorème précise le théo 2.13
1 Si rg A > rg (A) alors d’après la proposition 2.18, (S) est incompatible;
2 Si rg A = rg (A) alors (S) est compatible et d’après le théo 2.13, la
solution de (S) est un sous espace a¢ ne F de dimension n rg(A): Par suite:
a) si rg(A) = n; alors dim F = 0 et par suite F est réduit à un point c.à.d
que (S) admet une unique solution;
b) si rg(A) < n; alors dim F > 0 et par suite F possède une in…nité
déléments c.à.d que (S) admet une in…nité de solutions. En outre la matrice A0
étant échelonnée de rang r; alors les r lignes non nulles de A0 sont linéairement
indépendantes et l’expression de S|n dans l’énoncé de ce théo est une écriture
paramétrique de F:
Remarque 2.6
1) Le choix des inconnues principales n’est pas unique mais dépend de la
façon dont l’échelonnement de A a été e¤ectué.
Plus généralement, on peut prendre comme suite d’inconnues principales
toute suite d’inconnues situées sur les colonnes utilisées pour obtenir un mineur
non nul de A d’ordre r = rg (A).
31
8
< x + 2y z = 3
2x y + 3z = 0
(S) :
x + y + 2z = 3
0 1
1 2 1
la matrice associée à (S) est A = @ 2 1 3 A et la matrice augmen-
1 1 2
0 1
1 2 1 3
tée est A = @ 2 1 3 0 A:
1 1 2 3
Echelonnée A 0 1 0 1
1 2 1 3 1 2 1 3
A L2 + 2L1 @ 0 3 1 6 A @ 0 3 1 6 A:
L3 + L1 0 3 1 6 L3 L2 0 0 0 0
On a rg A = rg (A) = 2 < 3 donc (S) admet une in…nité de solutions; x
et y sont les inconnues principales et z devient un paramètre.
x + 2y = 3 + z x = 1 + 35 z
(S) () (S 0 ) ()
3y = 6 z y = 2 13 z
5 1
SR3 = 1 + 3 z; 2 3 z; z ; z 2 R
32
8
< a11 x1 + ::: + a1n xn = 0
>
Cas des systèmes d’équations homogènes Soit ..
(S) > .
:
am1 x1 + :::amn xn = 0
un système d’équations homogènes et A la matrice associée.
Dans le cas où rg(A) = r < n; il est souvent plus rapide d’e¤ectuer des com-
binaisons directes de lignes qu’un échelonnement formel en procédant comme
suit:
On choisit comme inconnues principales les inconnues situées sur les colonnes
utilisées pour calculer un mineur non nul d’ordre r de A qu’on exprime directe-
ment en fonction des autres inconnues devenues paramètres, par des combi-
naisons directes de lignes.
a1 +a2 +:::+an
81 j n; L0 Lj =) xj = n 1 aj :
33
3.3 Application au calcul de l’inverse d’une matrice
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
Soit A = (aij ) 2 Mn (|) inversible. Soient X = B .. C et Y = B .. C deux
@ . A @ . A
xn yn
suites de variables dans |:
Lorsque Y est donné, l0 égalité AX = Y exprime y1 ; y2 ; :::; yn en fonction de
x1 ; x2 ; :::; xn : C’est un système linéaire.ayant une unique solution (x1 ; x2 ; :::; xn )
qu’on exprime en fonction de (y1 ; y2 ; :::; yn ) en résolvant le système. Or AX =
Y =) X = A 1 Y: Donc A 1 est la matrice du système qui exprime x1 ; x2 ; :::; xn
en fonction de y1 ; y2 ; :::; yn :
0 1
2 5 4
Exemple 2.13 : Montrer que la matrice M = @ 0 1 3 A est in-
0 0 6
versible et calculer son inverse.
4 Exercices du chapitre 2
Exercice 1
1 Parmi les produits donnés, dire ceux qui entrent dans le calcul des déter-
minants d’ordres correspondants et préciser avec quel signe:
i) a43 a21 a35 a12 a54 ; ii) a61 a23 a45 a36 a12 a54 ; iii) a27 a36 a51 a74 a25 a43 a62 :
1 2 3 4 5 6 7 8 9 10 11 12
2 Soit la permutation =
6 12 1 10 9 11 7 3 4 5 8 2
de S12
34
Décomposer en produits de cycles de supports disjoints puis en produits
de transpositions et donner la signature de .
3 Soit 2 Sn (n 2).
1
a) comparer Sgn ( ) et Sgn
Sn ! Sn
b) Montrer que l’application f : est bijective.
7 !
c) On suppose que est impaire. Montrer que f induit une bijection du
groupe An des permutations paires sur l’ensemble In des permutations impaires.
En déduire Card (An ) et Card (In ) :
Exercicice 2
1 Soient E un espace vectoriel réel, f une forme trilinéaire alternée sur E
et u; v; w 2 E:
Calculer f (2u v + 5w; u 3w; 2v + w) en fonction de f (u; v; w)
2 Soient E un |-espace vectoriel non nul (| = R ou | = C), p un entier 2
et f une forme p-linéaire f sur E:
Ep ! |
Pour tout élément de Sp ; on note f l’application :
(x1 ; :::; xp ) 7 ! f (x1 ; :::; xp ) = f (x (1) ; :::; x (p) )
a) Montrer que f une forme p-linéaire sur E.
f est dit symétrique si on a f = f; 8 2 Sp : elle est dite antisymétrique si
on a f = Sgn( ) f; 8 2 Sp :
b) Montrer f est antisymétrique si et seulement siXelle est alternée.
On appelle symétrisé de f l’application S(f ) = f : On appelle anti-
2Sp
X
symétrisé de f l’application A(f ) = Sgn( ) f :
2Sp
c) Montrer que S(f ) est une forme p-linéaire symétrique sur E et A(f ) est
une forme p-linéaire antisymétrique sur E:
Ep ! |
Soient f1 ; :::; fp p formes linéaires sur E, et ' :
(x1 ; :::; xp ) 7 ! f1 (x1 ) ::: fp (xp )
d) Montrer que f est une forme p-linéaire sur E: Est-elle symétrique? an-
tisymétrique?
On pose E = R2 [X] ; l’ensemble des polynômes de degré 2: Soit :
E E !R
(P; Q) 7 ! P (1) Q( 1)
e) Montrer que est une forme bilinéaire sur E et déterminer S ( ) ainsi
que A ( ) :
Exercicice 3
1 Trouver très rapidement les déterminants suivants :
4 17 9 7 7 4 5 12 11 0 0 0
1 23 6 12 8 1 0 3 2 2 0 0
A= ;B= ;C =
0 0 0 0 5 2 14 6 7 3 1 0
21 11 5 36 3 0 9 0 0 5 8 3
35
3 11 8 0 0
0 5 9 0 0
;D= 0 0 6 0 0
15 27 5 1 1
7 41 0 3 2
2 En utilisant la forme la décomposition par blocs après éventuellement
quelques opérations de lignes ou de colonnes, calculer les déterminants suivants:
1 2 3 3 3 3 10 6 2 3
0 1 1 0 0 1 7 2 4 0
A= 0 0 1 1 1 ; B= 5 1 1 2 5
1 1 1 2 3 2 5 2 1 1
1 1 1 1 2 2 5 4 1 2
2 Montrer sans le calculer que le déterminant
1 9 6 2
2 0 5 2
= est un entier divisible par 5:
3 1 1 7
4 3 3 7
Exercicice 4
Soit A = (aij )1 i;j n 2 Mn (R) véri…ant:
aij 2 Z; 81 i; j n; pour 1 i n; aii est impair; pour 1 i < j n;
aij est pair.
Montrer que A est une matrice inversible.
Exercicice 5
Montrer que les familles suivantes de vecteurs de R5 sont libres:
F1 = fu1 ; u2 ; u3 ; u4 ; u5 g ;F2 = fv1 ; v2 ; v3 g avec :
u1 = ( 1; 0; 0; 1; 1) ; u2 = ( 2; 1; 0; 1; 1) ; u3 = ( 3; 1; 1; 1; 1) ; u4 =
( 3; 0; 1; 2; 1) ; u5 = ( 3; 0; 1; 3; 2) ; v1 = ( 1; 0; 2; 2; 1) ; v2 = (2; 0; 1; 3; 1) ;
v3 = (1; 0; 0; 1; 0)
Exercice 6
1 Réduire à la forme échelonnée puis à la forme ligne canonique les matrices
suivantes :
0 1
2 3 4 0 1
B 3 C 0 3 2 1
1 5 C
A1 = B
@ 1 0 ; A2 = @ 2 5 1 6 A
1 A
1 3 4 2
0 2 4
Si pour i = 1; 2; Bi est la forme ligne canonique de Ai , déterminer la matrice
Pi telle que Bi = Pi Ai :
Exercice 7 0 1
1 2 0
Montrer que la matrice A = @ 2 1 0 A est inversible et calculer son
0 5 1
inverse par trois méthodes di¤érentes.
36
Exercicice 8
Déterminer
0 le rang de la matrice de Mn (C) : 1
1 z2 z 0 0
B .. .. C
B z 1 z2 z . . C
B C
B .. C
M (z) = B 0 z 1 z2 . 0 C
B C
B .. .. .. .. C
@ . . . . z A
0 0 z2 z 1
:
Exercice 9
Soit Dn = jaij j le déterminant d’ordre n tel que aii = 0 et aij = 1 pour
i 6= j:
On désigne par n le déterminant d’ordre n obtenu en remplaçant a11 par
1 dans Dn :
a) Exprimer Dn et n en fonction de Dn 1 et n 1 :
b) En déduire le calcul de Dn et n en fonction de n:
Exercice 10
Pour n > 0 …xé, on donne le déterminant d’ordre p + 1 (1 p n)
37
8
>
> x + 3y z + 2t = 0
<
11y 5z 3t = 0
>
> 2x 5y + 3z + t = 0
:
4x + y + z + 5t = 0
Exercice 13
Discuter et résoudre le système:
8
>
> x1 + x2 = a1
<
(S) :
>
> xn 1 + xn = an 1
:
xn + x1 = a n
38