Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Calcul Matriciel Cours Beamer

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 54

Calcul Matriciel

Akram Ben Aissa12

Institut Sup. de Transport & Logistique de Sousse


Université de Sousse

Note de Cours Pour La Licence TIT 1

1
http://www.ur-acedp.org/membre/fr/19/Benaissa-Akram.html
2
Email: akram.benaissa@fsm.rnu.tn
1. Qu’est-ce qu’une matrice ?

Définition
Soit K un ensemble de nombres (exemples, K = N, Z, Q, R, C),
n, p ∈ N∗ . On appelle matrice à n lignes et p colonnes la
données de np nombres appelés termes ou éléments ou
coefficients de la matrice et rangés dans un tableau
rectangulaire à n lignes et p colonnes.
L’ensemble des matrices à n lignes et p colonnes à coefficients
dans K est noté
Mn,p (K).

Exemple
 √ 
1 0 2 −1
 2 1+i π 0  ∈ M3,4 (C).
0 −3 1 7
Si n = 1, on parle de matrice
 ligne à p colonnes.
Exemple : 1 2 −3 ∈ M1,3 (Z).
Si p = 1, on
 parlede matrice colonne à n lignes.
π
 −1 
Exemple :  0  ∈ M4,1 (R).

4
Si n = p = 1, on a simplement affaire à un nombre.
Si n = p, on parle de matrice carrée.
On note simplement
 Mn (K) au lieu de Mn,n (K).

1 2
Exemple : ∈ M2 (R).
−1 3
2. Indexation des coefficients .
Dans la matrice M ∈ Mn,p (K), le coefficient situé sur la i-ième
ligne et la j-ième colonne (1 ≤ i ≤ n, 1 ≤ j ≤ p) sera noté mij .
 
m11 m12 . . . m1j . . . m1p
 m21 m22 . . . m2j . . . m2p 
 
 .. .. .. .. 
 . . . . 
M=  mi1 mi2 . . . mij . . . mip 

 
 .. .. .. .. 
 . . . . 
mn1 mn2 . . . mnj . . . mnp

Exemple : toute matrice de M2,4 (K) s’écrit


 
m11 m12 m13 m14
m21 m22 m23 m24

Pour i, j indices “génériques”, on appelle mij le terme général


de M et on note
M = (mij ) 1≤i≤n .
1≤j≤p
3. Exemples de matrices carrées
( .
1 si i = j
On pose, pour tous i, j ≤ n, δij = La matrice
0 si i 6= j
In = (δij ) 1≤i≤n est appelée matrice unité ou matrice identité
1≤j≤n
d’ordre n.  
1 0 0
Exemple : I3 =  0 1 0 .
0 0 1
Définition
Pour M = (mij )1≤i,j≤n ∈ Mn (K), on appelle termes diagonaux
les termes
m11 , m22 , . . . , mnn , c’est à dire mii avec 1 ≤ i ≤ n.
Par exemple, la matrice identité a des termes diagonaux égaux
à 1 et des termes non diagonaux égaux à 0.
Définition
On dit qu’une matrice carrée est diagonale si ses termes non
diagonaux sont nuls.
 
0 0 0 0
 0 2 0 0 
Exemple :  0 0 π 0  ∈ M4 (R) est diagonale.

0 0 0 −1
On dit qu’une matrice est triangulaire supérieure si ses
termes strictement sous la diagonale sont nuls. Autrement dit,
M = (mij )1≤i,j≤n est triangulaire supérieure si mij = 0 pour i > j.
 
1 −1 0
Exemple :  0 0 3 
0 0 2
On dit qu’une matrice M = (mij )1≤i,j≤n est triangulaire
inférieure si mij = 0 pour j > i.
 
1 0
Exemple : est triangulaire inférieure.
2 −1
4. Structure vectorielle.

Définition
Pour A, B ∈ Mn,p (K) (deux matrices ayant le même nombre de
lignes et de colonnes), notées A = (aij ) et B = (bij ), on définit
la matrice somme A + B comme étant la matrice à n lignes et p
colonnes de terme général aij + bij .
Exemple :
     
3 −1 4 0 7 −1
 2 5 + 1 2 = 3 7 .
0 π −1 1 −1 π + 1
Définition
Pour A = (aij ) 1≤i≤n ∈ Mn,p (K) avec K = R ou C et λ ∈ K, on
1≤j≤p
définit λA comme la matrice de terme général λaij .
Exemple :
   
1 2 0 −2 −4 0
(−2)  −1 3 7  =  2 −6 −14 
0 4 5 0 −8 −10

Théorème
(Mn,p (K), +, ·) est un K-espace vectoriel (K = R ou C). La
matrice nulle, élément neutre pour +, est ici la matrice dont
tous les coefficients sont nuls.
Preuve :
exercice.
Proposition
Pour 1 ≤ k ≤ n, 1 ≤ ` ≤ p, notons Ek ,` ∈ Mn,p (K) la matrice
dont tous les termes sont nuls sauf celui sur la k -ième ligne et
la `-ième colonne qui vaut 1.
Alors {Ek ` , 1 ≤ k ≤ n, 1 ≤ ` ≤ p} est une base de Mnp (K)
appelée base canonique de Mnp (K).
Exemple : n = 2, p = 3.
   
1 0 0 0 0 0
E11 = E21 =
 0 0 0   1 0 0 
0 1 0 0 0 0
E12 = E22 =
 0 0 0   0 1 0 
0 0 1 0 0 0
E13 = E23 =
0 0 0 0 0 1
Preuve :
Toute matrice M = (mij ) 1≤i≤n s’écrit
1≤j≤p

p
n X
X
M= mij Eij
i=1 j=1

ce qui prouve que la famille {Ek ` } est une famille génératrice.


Par ailleurs, si on suppose qu’une combinaison linéaire est la
matrice nulle
Xn Xp
αk ` Ek ` = 0
k =1 `=1

avec des αk ` ∈ K, la matrice du membre de gauche est


simplement la matrice de terme général αk ` . Sa nullité entraîne
que tous les coefficients αk ` sont nuls. La famille {Ek ` } est
donc libre et au total, une base. 
Corollaire
Mn,p (K) est un espace vectoriel de dimension np.
5. Multiplication des matrices.
Définition
Soit A ∈ Mn,p (K) et B ∈ Mp,q (K), A = (aij ), B = (bij ). On
définit une matrice notée AB à n lignes et q colonnes comme la
matrice de terme général cij avec

∀i ∈ {1, . . . , n}, ∀j ∈ {1, . . . , q},


p
X
cij = aik bkj .
k =1
Illustration

 
b1j
 .. 

 . 


 bkj 

 .. 
 . 
bpj
..
 
 
.
..
 
   

 ai1 . . . aik
  . 
. . . aip   





 . . . . . . cij 

 
Exemple
:  
  3 1
1 −1 0 3  1 2 
A= B= 
2 0 1 5  0 1 
0 0
Alors  
3 1
 1 2 
 
 0 1 
   0 0 
1 −1 0 3 2 −1
2 0 1 5 6 3
et  
2 −1
AB = .
6 3
Ici on peut aussi calculer BA
 
1 −1 0 3
2 0 1 5
ATTENTION
On ne peut calculer AB que quand le nombre de colonnes de A
est égal au nombre de lignes de B.
Si AB est définie, BA n’est pas toujours définie et même si elle
l’est, elle n’est pas en général de même taille que AB.
Cas particulier important : Dans Mn (K), ensemble des
matrices carrées d’ordre n, on peut toujours multiplier deux
matrices A, B quelconques. AB et BA seront encore des
matrices carrées de taille n mais en général AB 6= BA.
Proposition
Pour A, B, C matrices telles que les produits soient définis,
I (AB)C = A(BC)
I A(B + C) = AB + AC
I (A + B)C = AC + BC
I A(λB) = λAB
Preuve de la première propriété

: Notons aij , bij et cij les termes généraux de A, B, C


respectivement. Le terme général de AB est
X
αij = aik bkj .
k

Donc le terme général de (AB)C est


X
βij = αi` c`j
`
XX
= aik bk ` c`j .
` k
De même, le terme général de BC est :
X
γij = bir crj
r

et le terme général de A(BC) est


X
λij = ais γsj
s
XX
= ais bsr crj .
s r

Les indices de sommation étant muets, et l’ordre des sommes


étant sans effet, les deux coefficients sont égaux d’où le
résultat. 
6. Matrices inversibles.
Dans ce paragraphe, on ne considère que des matrices
carrées.
Définition
On dit que A ∈ Mn (K) est inversible si il existe B ∈ Mn (K) telle
que AB = BA = I et dans ce cas on note
B = A−1 appelée matrice inverse de A.
Remarque : Si B existe, elle est la seule à vérifier cette
propriété.
En effet, si AB = BA = I et AC = CA = I, on écrit

C(AB) = CI = C
= (CA)B = IB = B

et donc B = C.
Théorème
Soit A ∈ Mn (K). Alors
 
∃B ∈ Mn (K), AB = I ⇐⇒
 
∃B ∈ Mn (K), BA = I

qui équivaut aussi à A inversible (et alors A−1 = B).


Preuve : Il s’agit de voir que si BA = I alors AB = I.
u : Mn (K) −→ Mn (K)
Soit Cette application est
M 7−→ AM
linéaire :

u(αM + βN) = A(αM + βN)


= αAM + βAN
= αu(M) + βu(N)
Elle est injective :
si M ∈ Ker u, alors AM = 0 d’où B(AM) = 0. mais

B(AM) = (BA)M = IM = M

et donc M = 0.
Un endomorphisme injectif est, en dimension finie,
automatiquement surjectif donc il existe D telle que u(D) = I,
i.e. AD = I.
En multipliant alors par B, B(AD) = B d’où (BA)D = B ou
encore D = B. On a bien AB = I. 
Notation On note GLn (K) l’ensemble des matrices inversibles
de Mn (K).
Proposition
Si A ∈ GLn (K), alors
A−1 ∈ GLn (K) et (A−1 )−1 = A.
Si en plus B ∈ GLn (K), alors AB ∈ GLn (K) et

(AB)−1 = B −1 A−1 .

Preuve : La première assertion est évidente.


Pour la seconde assertion, on calcule

(B −1 A−1 )(AB) = B −1 (A −1 −1
| {z A})B = B B = I. 
I
7. Représentation par des matrices.
Soit E un espace de dimension n et de base (~b1 , . . . , ~bn ), et ~x
un vecteur de E. Le vecteur ~x admet une unique décomposition

~x = x1 · ~b1 + · · · + xn · ~xn

avec x1 , . . . , xn ∈ K. On appelle matrice des composantes de ~x


dans la base (~b1 , . . . , ~bn ) la matrice colonne
 
x1
 x2 
X =  . .
 
 .. 
xn

Soit alors une autre base de E : (~f1 , . . . , ~fn ). On peut exprimer


tout vecteur ~fj , (1 ≤ j ≤ n) dans la base (~bi , 1 ≤ i ≤ n) :
n
~fj =
X
pij ~bi .
i=1
Définition
La matrice P = (pij )1≤i,j≤n est appelée matrice de passage de
la base (~b1 , . . . , ~bn ) à la base (~f1 , . . . , ~fn ) et est notée dans ce
cours
P(~b )→(~f ) .
i i
Théorème
Soit un vecteur ~x de matrice des composantes Xb dans la base
(~b1 , . . . , ~bn ) et Xf dans la base (~f1 , . . . , ~fn ). Cela signifie que, si
   
x1 y1
Xb =  ...  Xf =  ... 
   

xn yn

alors
n n
yi · ~fi .
X X
~x = xi · ~bi =
i=1 i=1

Alors,
Xb = P(~b )→(~f ) Xf .
i i
Preuve :

n
yj · ~fj
X
~x =
j=1
n
X n
X
= yj pij ~bi
j=1 i=1
 
n
X n
X
=  pij yj  ~bi .
i=1 j=1

Par unicité de la décomposition dans une base, nous en


déduisons
n
X
∀i ∈ {1, . . . , n} xi = pij yj . 
j=1
Corollaire
Toute matrice de passage P(~b )→(~f ) est inversible et
i i

 −1
P(~b )→(~f ) = P(~f )→(~b ) .
i i i i
Preuve :

Pour tout X ∈ Mn,1 (K), en appliquant deux fois le théorème


précédent,
P(~f )→(~b ) P(~b )→(~f ) X = X = IX
i i i i

Cela entraîne, par le lemme ci-dessous, que

P(~f )→(~b ) P(~b )→(~f ) = I 


i i i i

Lemme
Si M ∈ Mn (K) est telle que
MX = 0 pour tout X ∈ Mn,1 (K), alors
M = 0.
Preuve :

Si on prend pour X la matrice colonne dont toutes les


composantes sont nulles sauf celle sur la ligne k , MX est
simplement la k -ième colonne de M. Toutes les colonnes de M
sont nulles donc M est nul. 
Corollaire
Si A, B ∈ Mn (K) sont telles que

∀X ∈ Mn,1 (K), AX = BX

alors A = B.
Preuve : La relation s’écrit aussi (A − B)X = 0 et, par le lemme,
A − B = 0 et donc A = B. 
Exemple On se place dans un espace vectoriel E de base
(~b1 , ~b2 , ~b3 ). On pourra vérifier que les vecteurs
~f1 = ~b1 + ~b3 , ~f2 = 2~b1 ~f3 = −~b1 + ~b2 + 2~b3 forment une base
de E. On trouve alors

~b1 = 1~f2 , ~b2 = −2~f1 + 3~f2 + ~f3 , ~b3 = ~f1 − 1~f2 .


2 2 2
On a donc  
1 2 −1
P(~b )→(~f ) = 0 0 1 
i i
1 0 2
et
 
0 −2 1
1 3
P(~f )→(~b ) =  2 2 − 12  .
i i
0 1 0
On pourra vérifier que ces matrices sont inverses l’une de
l’autre, c’est à dire que leur produit est égal à I.
Soit
~x = 6~b1 + ~b2 + 3~b3
= ~f1 + 3~f2 + ~f3
On pourra vérifier que
    
6 1 2 −1 1
 1  =  0 0 1  3 
3 1 0 2 1
et que     
1 0 −2 1 6
 3  =  1 3 −1   1  .
2 2 2
1 0 1 0 3
8. Applications linéaires et matrices.
Soit E un espace vectoriel sur K de base (~e1 , . . . , ~ep ) et F un
espace vectoriel sur K de base (~f1 , . . . , ~fn ). Soit u ∈ L(E, F ).
Alors, pour tout j ∈ {1, . . . , p},
n
aij~fi
X
u(~ej ) =
i=1
avec a1j , . . . , anj ∈ K.
Définition
La matrice A = (aij ) 1≤i≤n est appelée matrice de u relativement
1≤j≤p

aux bases (~ej ) et (~fi ) et notée mat(~e ),(~f ) u.


i j

Théorème
Soit E, F deux espaces vectoriels de dimension finie de bases
respectives E et F. Soit ~x ∈ E, u ∈ L(E, F ), ~y = u(~x ). Notons
X la matrice colonne des composantes de ~x sur E et Y la
matrice colonne des composantes de ~y sur F. Alors

Y = (matE,F u)X .
Preuve :

Notons matE,F u = (aij ) 1≤i≤n


1≤j≤p
(p = dim E = Card (E), n = dim F = Card (F)). On rappelle que
n
aij~fi
X
u(~ej ) =
i=1

avec E = {~e1 , . . . , ~ep }, F = {~f1 , . . . , ~fn }. Posons


p
X
~x = xj ~ej .
j=1
Alors,

~y = u(~x )
 
X p
= u xj ~ej 
j=1
p
X
= xj u(~ej )
j=1
n n
aij~fi
X X
= xj
j=1 i=1
 
n p
aij xj  ~fi .
X X
= 
i=1 j=1

La i-ème composante de Y qui est la coordonnée de ~y sur ~fi


est bien égale à la i-ème composante de la matrice colonne
(aij )X . 
Remarque

: Si u est un endomorphisme de l’espace vectoriel E, et E une


base de E, on note matE u au lieu de matE,E u.
Remarque : Si on dispose sur E de deux bases E et E 0 , il n’est
pas interdit a priori de considérer matE,E 0 u mais cela n’a guère
d’intérêt.
Il y a toutefois une exception : si B = (~b1 , . . . , ~bn ) et
F = (~f1 , . . . , ~fn ) sont deux bases de l’espace vectoriel E, alors

PE→F = P(~b )→(~f ) = matF ,B Id.


i i
Rappel élémentaire :
matB Id = In .
Exemple : E = R2 [X ], F = R3 [X ], u(P) = X 2 P 0 .
u est clairement une application linéaire. On munit E et F de
leurs bases canoniques. On a

u(1) = 0 u(X ) = X 2 u(X 2 ) = 2X 3 .

La matrice de u dans les bases canoniques est donc


 
0 0 0
 0 0 0 
u=  0 1 0 .

0 0 2

On montre facilement que

B = {1, X + 1, (X + 1)2 }

est une base de E.


Alors,  
0 0 0
 0 0 0 
matB,Can u = 
 0

1 2 
0 0 2
Egalement,
F = {1, (X + 1), (X + 1)2 , (X + 1)3 }
est une base de F . Alors
 
0 1 0
 0 −2 2 
matB,F u =  
 0 1 −4 
0 0 2
car
u(1) = 0
u(X + 1) = X 2 = (X + 1)2 − 2(X + 1) + 1
u (X + 1)2 = 2(X + 1)X 2


= 2(X + 1)3 − 4(X + 1)2 + 2(X + 1).


Théorème
Soit E, F deux K-espaces vectoriels de dimensions respectives
p et n, et de bases respectives E et F. Alors l’application :

L(E, F ) −→ Mn,p (K)


u 7−→ matE,F u

est une isomorphisme d’espaces vectoriels.


Preuve : La linéarité est facile à voir

matE,F (u + v ) = matE,F u + matE,F v


matE,F (λu) = λmatE,F .

La bijectivité résulte du fait qu’une application linéaire est


déterminée de façon unique par l’image d’une base de E. 
Théorème
Soit E, F , G trois espaces vectoriels de dimension finie et de
bases respectives E, F, G. Soit u ∈ L(E, F ), v ∈ L(F , G). Alots

matE,G (v ◦ u) = (matF ,G v ) (matE,F u) .

Preuve : Soit ~x ∈ E quelconque, ~y = u(~x ),


~z = v (~y ) = (v ◦ u)(~x ). Notons X , Y , Z les composantes
respectives de ~x , ~y , ~z sur les bases E, F, G. On sait que

Z = (matF ,G v ) Y
Y = (matE,F u) X
Z = (matE,G (v ◦ u)) X .

On obtient donc, pour toute matrice colonne X ,

Z = (matE,G (v ◦ u)) X = (matF ,G v ) (matE,F u) X

ce qui implique le résultat annoncé. 


9. Changement de base.

Nature du problème : Soit E, F deux espaces vectoriels de


dimension finie, u ∈ L(E, F ).
E est muni de deux bases E1 et E2 .
F est muni de deux bases F1 et F2 .
But : quel est le lien entre matE1 ,F1 u et matE2 ,F2 u ?
Théorème

matE2 ,F2 u = PF2 →F1 (matE1 ,F1 u) PE1 →E2 .


Preuve
: Notons ~x un vecteur quelconque de E et ~y = u(~x ). Notons
X1 la matrice des composantes de ~x dans la base E1 .
X2 la matrice des composantes de ~x dans la base E2 .
Y1 la matrice des composantes de ~y dans la base F1 .
Y2 la matrice des composantes de ~y dans la base F2 . On sait
que
Y2 = (matE2 ,F2 u) X2
Y1 = (matE1 ,F1 u) X1
X1 = PE1 →E2 X2
Y2 = PF2 →F1 Y1 .
d’où
Y2 = (matE2 ,F2 u) X2
= PF2 →F1 (matE1 ,F1 u) PE1 →E2 X2 .
Comme cela est vrai pour tout X2 ∈ Mn,1 (K), on obtient le
résultat du théorème. 
Corollaire
Soit E un espace vectoriel muni de deux bases E1 et E2 et
u ∈ L(E). Soit P la matrice de passage de E1 à E2 . Alors

matE2 u = P −1 (matE1 u) P.

Définition
On dit que deux matrices carrées A, B ∈ Mn (K) sont
semblables si il existe P ∈ GLn (K) telle que

B = P −1 AP.

Proposition
Deux matrices sont semblables si et seulement si ce sont deux
matrices d’un même endomorphisme sur deux bases
différentes.
Preuve :
On sait déjà que si u est un endomorphisme de l’espace
vectoriel E et B1 et B2 deux bases de E, alors matB1 u et
matB2 u sont semblables :

matB1 u = P −1 matB2 uP

avec
P = PB1 →B2 .
Réciproquement, supposons B = P −1 AP avec A, B ∈ Mn (K)
et P ∈ GLn (K). Il existe un unique endomorphisme de Kn
qu’on notera u tel que la matrice de u sur la base canonique C
de Kn est A.
Il existe une unique base F de Kn telle que P = PC→F . Alors,

B = P −1 AP = (PC→F )−1 matC u PC→F = matF u

ce qui achève la preuve. 


10. Rang d’une matrice.
On a déjà défini le rang d’une famille de vecteurs {~f1 , . . . , ~fp }
d’un espace vectoriel E comme étant

dim Vect(~f1 , . . . , ~fp ) .




Définition
Le rang d’une application linéaire u de E dans F (espaces
vectoriels de dimensions finies) est défini par

rg(u) = dim (Im u).

Remarque : Soit (~e1 , . . . , ~ep ) une base de E. On sait que



Im u = Vect u(~e1 ), . . . , u(~ep )

donc le rang de u est égal au rang de la famille



u(~e1 ), . . . , u(~ep ) .
Définition
Soit M ∈ Mn,p (K). On appelle rang de la matrice M le rang de
l’application linéaire de Kp dans Kn qui a M pour matrice sur
les bases canoniques.

Proposition
Le rang de la matrice M est égal au rang de toute application
linéaire ayant M pour matrice.
Preuve :

Par définition le rang de M est le rang de l’application linéaire w


de Kp dans Kn qui a M pour matrice quand Kp et Kn sont
munis de leurs bases canoniques respectives
(~cj , 1 ≤ j ≤ p) et (~ci0 , 1 ≤ i ≤ n). On peut dire aussi que le rang
de M est le rang de la famille

w(~cj ), 1 ≤ j ≤ p .

On notera que
n
X
w(~cj ) = mij ~ci0 .
i=1
Supposons maintenant que M est la matrice de l’application
linéaire u de E dans F quand E et F sont munis des bases
respectives
(~ej , 1 ≤ j ≤ p) et (~fi , 1 ≤ i ≤ n). Il s’agit de voir que

rg (M) = rg (u)

c’est à dire

rg(w) = dim (Im w) = dim (Im u) = rg u.


On note ϕ l’application linéaire de Kp dans E telle que
∀j, ϕ(~cj ) = ~ej et ψ l’application linéaire de F dans Kn telle que

∀i, ψ(~fi ) = ~ci0 .

Les deux applications ϕ et ψ transforment une base en une


base et sont donc bijectives. Nous avons de plus

w = ψ ◦ u ◦ ϕ.
ϕ u ψ
Kp −→ E −→ F −→ Kn
En effet, pour j ∈ {1, . . . , p},
(ψ ◦ u ◦ ϕ)(~cj ) = (ψ ◦ u)(~ej )

= ψ u(~ej )
n
!
mij~fi
X

i=1
n
mij ψ(~fi )
X
=
i=1
Xn
= mij ~ci0
i=1
= w(~cj )
Alors,
Im w = (ψ ◦ u ◦ ϕ)(Kp )
= (ψ ◦ u) ϕ(Kp )


= (ψ ◦ u)(E)
= ψ(Im u)
Remarque

On notera que le rang de M est avec les notations ci-dessus le


rang de la famille {w(~cj ), 1 ≤ j ≤ p}. De manière équivalente,
le rang de M est le rang de la famille des colonnes M1 , . . . , Mp
de M dans l’espace Mn,1 (K).
Méthode pratique de détermination du rang : méthode de
Gauss. (Voir TD)
11. Transposition.
Définition
On appelle transposée de la matrice A = (aij ) 1≤i≤n ∈ Mn,p (K)
1≤j≤p
la matrice B = (bij ) 1≤i≤p ∈ Mp,n (K) de terme général bij = aji .
1≤j≤n
On la note tA.
Exemple :  
  1 5
t 1 −1 2
=  −1 6 
5 6 7
2 7
Proposition
Pour A, B ∈ Mn,p (K), α ∈ K,
1. t(αA + B) = αtA + tB
2. t(tA) = A
3. t(AB) = tB tA
4. Si A ∈ GLn (K), alors tA ∈ GLn (K) et (tA)−1 = t(A−1 )

Preuve : 1 et 2 trivial. X
3. AB a pour terme général aik bkj .
Xk
t(AB) a pour terme général ajk bki .
Xk X
tB tA a pour terme général (tB)ik (tA)kj = bki ajk .
k k
4.
(A−1 )tA = t(AA−1 ) = tI = I
t

donc t(A−1 ) est bien l’inverse de tA.


12. Trace d’une matrice.
Définition
Soit A ∈ Mn (K) une matrice carrée. La trace de A, notée Tr A
est, pour A = (aij ) 1≤i≤n
1≤j≤n

n
X
Tr A = aii .
i=1

Exemple :  
1 0 1
Tr  n7 0 5  = π + 1.
1 −2 π
Proposition
1. Tr (αA + βB) = αTr A + βTr B pour A, B ∈ Mn (K), α, β ∈ K.
2. Tr (AB) = Tr (BA) pour A, B ∈ Mn (K).
3. Deux matrices semblables ont même trace.
Preuve : 1. Facile.
Xn n X
X n
2. Tr (AB) = (AB)ii = aik bki .
i=1 i=1 k =1
n
X n X
X n
Tr (BA) = (BA)jj = bj` a`j .
j=1 j=1 `=1
3.Tr (P −1 AP) = Tr (P −1 (AP)) = Tr ((AP)P −1 ) =
−1
| {z })) = Tr A. 
Tr (A(PP
I

Vous aimerez peut-être aussi