Cours - Algebre - Lineaire - 2007 - 2008 SUPINFO
Cours - Algebre - Lineaire - 2007 - 2008 SUPINFO
Cours - Algebre - Lineaire - 2007 - 2008 SUPINFO
SUPINFO AQUITAINE
année 2007-2008
2
i
ii Chapitre 0 avant-propos
travail pour les professeurs. Il ne saurait toutefois -je crois - être enseigné dans
son intégralité, faute de temps. Chaque professeur choisira donc les points sur
lesquels il est nécessaire de s'arrêter, l'objectif nal étant que les étudiants aient
une idée globale et cohérente du sujet, puissent résoudre les exercices demandés
sans y voir une accumulation de "recettes".
Je cite à titre d'information le site de l'université en ligne dans lequel il est
possible de piocher des exemples ou des exercices et vers lequel nous pouvons
diriger les étudiants qui veulent approfondir leurs connaissances en algèbre li-
néaire ( Attention toutefois car la majorité des exercices proposés dépasse le
niveau demandé aux étudiants de supinfo). L'adresse est la suivante :
http ://www.uel.education.fr/consultation/reference/index.htm
Ludovic Duchêne
avant-propos i
1 Espaces vectoriels et applications linéaires 1
1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2 applications linéaires . . . . . . . . . . . . . . . . . . . . 3
1.1.3 base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Applications linéaires - Matrices . . . . . . . . . . . . . . . . . . 5
1.3 Corrections des exercices . . . . . . . . . . . . . . . . . . . . . . 7
2 Matrices 11
2.1 Opérations élémentaires sur les matrices . . . . . . . . . . . . . 11
2.1.1 addition de matrices et multiplication par un réel . . . . 11
2.1.2 multiplication de matrices . . . . . . . . . . . . . . . . . 12
2.1.3 transposée d'une matrice . . . . . . . . . . . . . . . . . . 14
2.1.4 inverse d'une matrice . . . . . . . . . . . . . . . . . . . . 14
2.1.5 Structure des espaces de matrices . . . . . . . . . . . . . 15
2.2 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Construction de la notion de déterminant . . . . . . . . 16
2.2.2 calcul explicite du déterminant d'une matrice . . . . . . 19
2.2.3 Propriétés du déterminant . . . . . . . . . . . . . . . . . 22
2.2.4 Matrices particulières et déterminant . . . . . . . . . . . 22
2.3 Inversion d'une matrice . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.1 résolution d'un système . . . . . . . . . . . . . . . . . . . 23
2.3.2 formule de l'inverse . . . . . . . . . . . . . . . . . . . . . 24
2.3.3 propriétés de l'inverse . . . . . . . . . . . . . . . . . . . . 25
iii
iv Chapitre 0 avant-propos
3.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2.1 Eléments propres d'une matrice carrée . . . . . . . . . 30
3.2.2 Conditions de la diagonalisation . . . . . . . . . . . . . 32
3.3 Méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.1 Méthode générale : les diérentes étapes de la diagona-
lisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.2 Méthode générale : exemples . . . . . . . . . . . . . . . 34
3.3.3 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . 36
introduction
1
2 Chapitre 1 Espaces vectoriels et applications linéaires
1.1.1 Dénition
Dénition 1.1. Un ensemble E est un espace vectoriel sur un corps commu-
2
tatif K (on dit que E est un espace vectoriel sur K ou que E est un K-ev )
si on peut dénir sur les éléments de E (appelés vecteurs) deux opérations :
1. Une interne, l'addition (notée +) associative, commutative possédant un
élément neutre et par rapport à laquelle chaque élément de E possède un
symétrique.
(~u + ~v ) + w~ = ~u + (~v + w)
~
~u + ~v = ~v + ~u
∃~0 ∈ E/~0 + ~u = ~u
∀~u ∈ E, ∃~v ∈ E/~u + ~v = ~0
2. Une externe, la multiplication par un élément de K (scalaire) ayant les
propriétés suivantes :
α(~u + ~v ) = α~u + α~v
(α + β)~u = α~u + β~u
(αβ)~u = α(β~u)
1 × ~u = ~u ou 1 est l' élément neutre pour la multiplication dans K.
On a alors
2 Uncorps est lui-même un ensemble muni d'une structure que nous n'aborderons pas
dans ce cours : Il nous sura de savoir que l'ensemble R des réels est un corps commutatif
1.1.3 base
La notion de base est fondamentale dans la théorie des espaces vectoriels.
C'est une notion assez facile à appréhender dans la mesure où on l'utilise en
géométrie analytique au lycée . Nous aborderons dans cette partie sa dénition
mathématique.
Pn
Démonstration.
Pn Si (x P= i=1 αi xi = 0 ⇔ ∀i ∈ [1, ..., n], αi = 0) alors soient
n
x = Pi=1 αi xi et x = i=1 λi xi deux décompositions de x dans la base (x1 , x2 , ..., xn )
n
alors i=1 (αi − λi )xi = 0 donc ∀i ∈ [1, ..., n], αi = λi d'où l'unicité.
Pn
Réciproquement l'unicité P de la décomposition implique que (x = i=1 αi xi = 0 ⇔ ∀i ∈
n
[1, ..., n], αi = 0) puisque i=1 0xi = 0.
c.q.f.d.
Dénition 1.9.
a11 · · · a1n
A = ... ..
.
aij
am1 · · · amn
est la matrice de f dans les bases (e1 , e2 , ..., en ) et (f1 , f2 , ..., fm ).
Cette matrice a m lignes et n colonnes ; on dit qu'elle est de taile (m, n)
Dénition 1.10. Une matrice de taille (1, n) est dite matrice ligne. Elle
est de la forme (a1 , a2 , ..., an ).
Une matrice de taille (n, 1) est ditematrice colonne ou encore vecteur
a1
a2
colonne . Elle est de la forme ..
.
a3
Une matrice de taille (n, n) est dite matrice carrée d'ordre n.
Solution 1. Cela ressort directement des propriétés bien connues des vecteurs,
des nombres complexes et des fonctions.
Solution 2. Pour les mêmes raisons, je laisse au lecteur le soin de s'en
convaincre.
Solution 3. 1. Soient D et ∆ deux droites du plan et soit p la projection
sur D parallélement à ∆. Soient enn ~v et v~0 deux vecteurs du plan et
λ ∈ K.
A A
A A
A ∆ A ∆
A #
# A
λ~v
* A
~v + w~# w
# A
A ~ A
~v
* A #
#
* A
A #~ v A
- - A
# - - A
D p(~v ) p(λ~v ) D p(~v ) p(~v + w)
~
Solution 7. D(1, 0, ..., 0) = (0, ..., 0) car la dérivée d'une fonction constante
est nulle.
D(0, 1, ..., 0) = (1, 0, ..., 0) car la dérivée du polynômes P (x) = x est le poly-
2 3 n
nômes P 0 (x) = 1 ce qui s'exprime dans la base (1, x, x2! , x3! , ..., xn! ) par
P 0 = (1, 0, ..., 0).
k
De manière générale si P (x) = xk! i.e. P = (0, 0, ..., 1, 0, ..., 0) dans la base
(1, x, x2! , x3! , ..., xn! ), 1 étant la k ième composante alors P 0 (x) = (k−1)!
2 3 n xk−1
i.e.
ième
P = (0, 0, ..., 1, 0, ..., 0) , 1 étant la k − 1
0
composante.
0 1 0 ... 0
. . ..
0 0 1 . .
2 3 n
La matrice de D dans la base (1, x, x2! , x3! , ..., xn! ) est donc
.
. .. ..
. . . 0
. ..
.. . 1
Matrices
11
12 Chapitre 2 Matrices
Exemples.
1 1 3 0 2 4 1+0 1+2 3+4 1 3 7
+ = =
−1 0 2 1 −2 0 −1 + 1 0 − 2 2 + 0 0 −2 2
0 2 4 5×0 5×2 5×4 0 10 20
5× = =
1 −2 0 5 × 1 5 × (−2) 5 × 0 5 −10 0
LaPj ième composante du vecteur (a ◦ b)(ei ) dans la base g = (gk )1≤k≤p est
donc m k=1 aik bkj c.q.f.d.
Exemples.
0 2
1 1 3 1 0 1×0+1×1+3×2 1×2+1×0+3×3
=
−1 0 2 −1 × 0 + 0 × 1 + 2 × 2 −1 × 2 + 0 × 0 + 2 × 3
2 3
7 11
=
4 4
propriétés 1. 1
soient X , Y , et Z trois matrices, et soit λ ∈ R alors :
X(Y + Z) = XY + XZ (la multiplication est distributive par rapport à
l'addition).
X(λY ) = λXY
1 Ces propriétés sont évidentes
1 4
Exemples. La matrice A de la forme 14 25 36 a pour transposée t A = 2 5
3 6
propriétés 2. 2
Soient A et B ∈ Mnm (K) et soit λ ∈ K
t
(A + B) = t A+ t B
t
(AB) = t B t A
t
(λA) = λ t A
t t
( A) = A
2.2 Déterminant
Introduction
Comme il est souvent d'usage en mathématique quand une notion se dé-
gage de l'étude d'un problème, on la réinjecte au sein de la théorie où elle nous
semble parfois surgir ex-nihilo : le discours mathématique y gagne souvent en
clarté ce qu'il y perd en linéarité.
Il en va ainsi de la notion de déterminant qui s'est dégagé de l'étude des sys-
tèmes d'équations linéaires que nous aborderons au chapitre suivant. En fait,
la résolution d'un système d'équations linéaires se traduit en algèbre linéaire
par la recherche d'un vecteur dont l'image par une application linéaire est un
vecteur donné.
ax + by = x0
Exemple : On peut montrer que le système admet une
cx + dy = y 0
unique solution si et seulement si ad − bc 6= 0
x0
a b x
ce système se traduit en termes matriciels par =
c d y y0
a b
Le nombre ad − bc est appelé le déterminant de la matrice
c d
base canonique
On considère E un K-ev de dimension n. Soit (e~1 , ..., e~n )une base de E
et soit l'application µ de E dans Kn (je rappelle que Kn est un K-ev de di-
mension n) qui à un vecteur ~y = a1 e~1 + a2 e~2 + ... + an e~n associe le vecteur
µ(~y ) = (a1 , a2 , ..., an ) (cette application possède certaines propriétés que nous
n'évoquerons pas ici. On dit que c'est un isomorphisme d'espaces vectoriels).
Les images des vecteurs de base e~1 , ..., e~n sont respectivement µ(e~1 ) = (1, 0, ..., 0),
µ(e~2 ) = (0, 1, ..., 0) ,...,µ(e~n ) = (0, 0, ..., 1). Les propriétés de µ impliquent que
n vecteurs de E sont linéairement indépendants si et seulement si leur image
par µ le sont.
dénition : 1. µ(e~1 ) = (1, 0, ..., 0), µ(e~2 ) = (0, 1, ..., 0), ..., µ(e~n ) = (0, 0, ..., 1)
est une base de Kn appelée base canonique de Kn .
9 L(E)
muni des lois addition et composition des applications est l'espace vectoriel des
applications linéaires de E dans E
P ϕ P
ai e~i −−−−−−−−−−−−−−−−−−−−−−→ ai ϕ(~
ei ) L(E) ϕ
←−−−−−
←−−−−−
←−−−−−−−−
−
E −−−−−−−−−−−−−−−−→ E
←−−−−−−−−
µ µ
↓ ↓
∆
K −−−−−−−−−−−−−−−−→ Kn
n
a1 a1
a2 a2
multiplication parM
.. −−−−−−−−−−−−−−−−−−−−−−→ M .. Mn (K) M
. .
an an
6
2
λx~
+
λx~2
x~1
6
x~2 x~*
3
-
x~1
1. D(x~1 , ..., λ~
xi , , ..., x~n ) = λD(x~1 , ..., x~n ) ∀λ ∈ K et ∀i ∈ [1, n]
2. D(x~1 , x~2 + λ~
xi , ..., x~n ) = D(x~1 , ..., x~n ) ∀λ ∈ K et ∀i ∈ [1, n]\{2}
On en déduit que :
D(x~1 , ..., 0, ..., x~n ) = 011
D(x~1 , ..., x~n ) = 0 si (x~1 , ..., x~n ) sont linéairement dépendants.12
et D(x~1 , ..., ~b + ~c, ..., x~n ) = D(x~1 , ..., ~b, ..., x~n ) + D(x~1 , ..., ~c, ..., x~n )13
D(x~1 , ..., x~i , ..., x~j , ..., x~n ) = −D(x~1 , ..., x~j , ..., x~i , ..., x~n )14
(On dit que D est une forme multilinéaire alternée.)
théorème 1. (x~1 , x~2 , ..., x~n ) est une famille libre ssi D(x~1 , x~2 , ..., x~n ) 6= 0
Démonstration. On sait déjà que si x~1 , x~2 , ..., x~n sont linéairement dépendants
alors D(x~1 , x~2 , ..., x~n ) = 0. La contraposée nous donne donc : si D(x~1 , x~2 , ..., x~n ) 6= 0
alors (x~1 , x~2 , ..., x~n ) est une famille libre.
Réciproquement, si x~1 , x~2 , ..., x~n sont linéairement indépendants, soit A la
matrice ayant x~1 , x~2 , ..., x~n pour colonnes. Alors A est inversible donc il existe
A−1 telle que AA−1 = Id. Par suite, D(Id) = 1 = D(A)D(A−1 ), donc néces-
sairement D(A) 6= 0
c.q.f.d.
11 ilsut de prendre λ = 0 P
12 n
∃λi ∈ K, x1 = i=2 xi et en utilisant la deuxième propriété, on a
D(x~1 , ..., x~n ) = D(0, x~2 , ..., x~n ) = 0
13 admis
14 D(x~ + x~ , x~ + x~ , x~ , ..., x~ ) = 0 car les deux premiers éléments sont égaux.
1 2 1 2 3 n
D(x~1 + x~2 , x~1 + x~2 , x~3 , ..., x~n ) = D(x~1 , x~1 , x~3 , ..., x~n ) + D(x~1 , x~2 , x~3 , ..., x~n ) +
D(x~2 , x~2 , x~3 , ..., x~n ) + D(x~2 , x~1 , x~3 , ..., x~n ) = 0. Le premier et le troisième terme sont
nuls car ils ont deux éléments égaux. Il reste donc :
D(x~1 , x~2 , ..., x~n ) = −D(x~2 , x~1 , ..., x~n ).
La même démonstration peut se faire pour deux autres indices quelconques
Si A est une matrice carrée d'ordre supérieur à 2, detA = ni=1 (−1)i+j aij ∆ij
P
où ∆ij est le déterminant à n − 1 lignes et n − 1 colonnes obtenu en sup-
primant dans ∆ la iième ligne et la j ième colonne. ∆ij est appelé le mineur
de aij .
cette égalité est appelée developpement de ∆ par rapport à sa j-ème co-
lonne.
Cas où A ∈ M2 (K)
a11 a12
la matrice A = ∈ M2 (K) admet donc comme déterminant
a21 a22
a11 a12
detA = = (−1)1+1 a11 ∆11 + (−1)2+1 a21 ∆21 = a11 a22 − a21 a12 (on
a21 a22
re
dit qu'on a développé par rapport à la
1 colonne)
a b
Ou plus simplement la matrice A = ∈ M2 (K) admet comme déter-
c d
minant detA = ad − bc.
Cas où A ∈ M3 (K)
a11 a12 a13
La matrice A = a21 a22 a23 ∈ M3 (K) admet
a31 a32 a33
comme déterminant (On développe par rapport à la 1re colonne) :
detA = a11 a22 a33 − a11 a32 a23 − a21 a12 a33 + a21 a32 a13 + a31 a12 a23 − a31 a22 a13
cette formule n'est évidemment pas à retenir, mais il faut être capable de la
retrouver, notament via la règle de Sarrus :
Il sut pour cela de réecrire les 2 premières lignes en dessous des précédentes
comme ci-après et d'eectuer les opérations comme sur le schéma.
.
..
+ a21 a22 a23 −
.. ..
. .
.
..
..
detA = + a31 a32 a33 −
.. ..
. .
.
..
..
a11 a12 a13
..
.
.
..
a21 a22 a23
detA = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21
Cas où A ∈ Mn (K)
Pour les matrices d'ordre n, n ≥ 4 , on développe en ligne ou en colonne
pour se ramener au calcul de déterminant de matrices d'ordre n−1 et on réitère
l'opération autant de fois que nécessaire.
Exemples. Dans un premier temps, on examine la "tête" de la matrice. On
repère les lignes ou les colonnes selon lesquelles le développement sera le plus
simple à calculer. De manière général, on cherche les lignes ou les colonnes où il
y a un maximum de zéro. Sur cet exemple, il est donc préférable de développer
selon la quatrième ligne ou la troisième colonne. Il est plus facile visuellement
de développer par rapport à la quatrième lignes :
1 2 0 3
2 0 3 1 0 3 1 2 3 1 2 0
0 2 0 1
= −0 × 2 0 1 + 0 × 0 0 1 − 0 × 0 2 1 + 2 × 0 2 0
6 2 3 6
2 3 6 6 3 6 6 2 6 6 2 3
0 0 0 2
1 2 0
= 2× 0 2 0
6 2 3
0 2 1 2 1 2
= 2×0× −2×0× +2×3×
6 2 6 2 0 2
= 2 × 3 × (1 × 2 − 0 × 2) = 12
0 . . . 0 ann
Matrice particulière 6. On appelle matrice triangulaire supérieure
une matrice dont tous les coecients sous la diagonale sont nuls.
a11 a12 . . . . . . a1n
. ..
0 a22 . . .
. .. .. .. .
Elle est donc de la forme . .
. . . . .
. . .
. . . . . . an−1n
Exemple où A ∈ M3 (K)
a11 a12 a13
SoitA = a21 a22 a23 alors
a31 a32 a33
1+1 a22 a23 1+2 a21 a23 1+3 a21 a22
(−1) a32 a33
(−1)
a31 a33
(−1)
a31 a32
2+1 a12 a13 a11 a13 a11 a12
CoA =
(−1) (−1)2+2 (−1)2+3
a32 a33 a31 a33 a31 a32
a12 a13 a11 a13 a11 a12
(−1)3+1 (−1)3+2 (−1)3+3
a22 a23 a21 a23 a21 a22
Soit
a22 a23 a21 a23 a21 a22
+ − +
a32 a33 a31 a33 a31 a32
a12 a13 a11 a13 a11 a12
−
CoA = + −
a32 a33 a31 a33 a31 a32
a12 a13 a11 a13 a11 a12
+ − +
a22 a23 a21 a23 a21 a22
Théorème 6. Si A est une matrice carrée inversible d'ordre n, alors son in-
verse est :
1 t
A−1 = (CoA)
detA
Démonstration. Le terme général du produit C = A t (CoA) est cij = nk=1 aik A0kj
P
où A0kj est le terme général de la transposée de la comatrice donc A0kj = Ajk .
cij est donc le déterminant obtenu en remplaçant dans A la j ième ligne par la
iième : si i 6= j , ce déterminant possède deux lignes identiques donc il est nul.
Si i = j , cii = nk=1 aik Aik = detA
P
1 t
Donc C = A t (CoA) = (detA)Id i.e. A−1 = (CoA). c.q.f.d.
detA
1 1 0
Exemples. Soit A = 0 2 1 . On a alors detA = 1 et
1 0 0
2 0 0 1 0 2
+ − +
0 0 1 0 1 0
0 1 −2
1 0 1 0 1 1
CoA = − 0 0
+
1 0
−
1 0
= 0 0 1
1 −1 2
1 0 1 0 1 1
+ − +
2 1 0 1 0 2
Donc
0 0 1
A−1 = 1 0 −1
−2 1 2
introduction
3.1.1 Dénition
Dénition 3.1. Soit E un espace vectoriel de dimension n et soit un vec-
teur ~x ∈ E de coordonnées (αi )1≤i≤n dans la base B = (~e1 , . . . , ~en ). Soit
B0 = (e~0 1 , . . . , e~0 n ) une autre base de E . Supposons P connues les coordonnées
des vecteurs e~0 i dans la base (~e1 , . . . , ~en ) : e~0 j = ni=1 pij ~ei .
On appelle matrice de changement de base ou matrice de passage
de B à B0 la matrice carrée de taille n dont la j ime colonne est formée des
coordonnées de e~0 j dans la base B. Autrement dit, la matrice de passage de B
27
28 Chapitre 3 Diagonalisation des matrices carrées
e~2
e~1 +
1
@
I 6e~2
~ 0 3
@ e1 0 =
e~ 2
−
e~01
@
= 2
e~02@ ~v
@
@
e~-1
A0 = P −1 A P
multiplication parA
P X0 = X −−−−−−−−−−−−−−−−−−−−−→ AP X 0
−−−−−→
←−−−−−
Kn −−−−−−−−−−−−−−−−→ Kn
↑ ↓
P −1
P
Kn −−−−−−−−−−−−−−−−→ Kn
multiplication parA0
X0 −−−−−−−−−−−−−−−−−−−−−−→ A0 X 0 = P −1 AP X 0
Dénition 3.2. On dit alors que A et A0 sont semblables, c'est à dire qu'elles
représentent la même application linéaire dans des bases diérentes.
3.2 Diagonalisation
Exemples.
Soient
f une application linéaire de E dans E associé à la matrice
6 −5
A= dans une base B quelconque de E . Le vecteur ~u de coordonnées
3 −2
(5; 3) dans la baseB est un vecteur
propre
def .
6 −5 5 15 5
En eet comme = = 3× , le vecteur ~u de
3 −2 3 9 3
coordonnées (5; 3) dans la base B est un vecteur propre de f associé à la valeur
propre 3.
3 La
démonstration ne présenteTaucune diculté
4 Par
l'absurde, Si
T ~x 6= 0 ∈ Eλ Eλ0 alors f (~x) = λ~x = λ ~x donc λ = λ . Impossible par
0 0
AX = 0 avec X 6= 0.
Pour montrer la réciproque, nous raisonnerons par l'absurde. Si detA 6= 0
alors A est inversible donc il existe B tel que BA = Id, d'où s'il existe X 6= 0
tel que AX = 0 alors X = BAX = B0 = 0 .Impossible par hypothèse donc
s'il existe X 6= 0 tel que AX = 0 alors detA = 0
c.q.f.d.
Théorème 8. Si A est une matrice dans une base quelconque, alors les valeurs
propres de A sont les nombres λ qui vérient :
det(A − λId) = 0 .
Autrement dit, les valeurs propres de A sont les solutions de cette équation.
Démonstration. Il sut de remplacer la matrice A du lemme par la matrice
A − λId. c.q.f.d.
Dénition 3.4.
a11 − λ . . . . . . . . . . . . . . . . a1n
.. .. ..
. . .
On notera PA (λ) = det(A − λId) = .. ..
. aij − λ .
.. .. ..
. . .
an1 . . . . . . . . . . . . . . . . ann − λ
Sur les polynômes. On dit qu'un polynôme P de degré n est scindé s'il peut
s'écrire sous la forme P (x) = a(x − x1 )m1 (x − x2 )m
P...(x
2
− xk )mk . mi est appelé
la multiplicité de la racine xi . On a évidemment ki=1 mi = n.
Si le corps de référence de E est R, f admet au maximum n valeurs propres,
distinctes ou confondues. 5
Exemples (suite).Soient f l'application linéaire dénie dans l'exemple précé-
6−λ −5
dent. Son polynôme caractéristique est PA (λ) = .
3 −2 − λ
5 Sile corps de référence de E est C, f admet exactement n valeurs propres, distinctes ou
confondues. Ceci résulte d'un théorème fondamental de l'analyse qui ne fait pas l'objet de
ce cours, il sera donc admis.
On a donc f (v~1 ) = λ1 v~1 , ..., f (v~n ) = λn v~n i.e. v~1 , ..., v~n sont des vecteurs propres
de f . La réciproque est évidente. c.q.f.d.
3.3 Méthode
Etape 3. Une fois les dimensions des sous-espaces propres connues, on vérie
si A remplit les critères de diagonalisation. Si c'est le cas A est semblable à une
matrice diagonale formée des valeurs propres de A. La matrice de passage est
alors formée des vecteurs propres de A exprimés dans la base B ( c.f. remarque
6 ci-après).
Un vecteur propre
~vassocié à la valeur propreλ1 = 0 vérie f (~v ) = 0 i.e.
1 1 0 x 0 x + y = 0
−1 −1 0 y = 0 ou encore −x − y = 0
1 2 1 z 0 x + 2y + z = 0
x = −y
Ce système est équivalent à
z = −y
Le sous-espace propre associé à λ1 = 1 est Eλ1 = {~v de coordonnée (x, −x, x), x ∈ R}.
C'est une droite vectorielle engendrée par le vecteur v~1 de coordonées (1, −1, 1)
(C'est à dire que Eλ1 = {αv~1 , α ∈ R}), Eλ1 est donc de dimension 1.
La dimension du sous-espace propre associé à la valeur propre λ1 n'est pas
égale à sa multiplicité , A n'est pas diagonalisable. 9
11 1 −4
Exemples. Soit A la matrice 1 11 −4 .
3 3 −2
11 − λ 1 −4
Son polynôme caractéristique est PA (λ) = 1 11 − λ −4
3 3 −2 − λ
On trouve PA (λ) = λ3 − 20λ2 + 100λ = λ(λ − 10)2
A admet donc deux valeurs propres : λ1 = 0 est une valeur propre simple (i.e.
de multiplicité 1) et λ2 = 10 est une valeur propre double (i.e. de multiplicité
2).
Un vecteur propre
v~1associé
à la valeur propre
λ1 = 0 vérie f (v~1 ) = 0 i.e.
11 1 −4 x 0 11x + y − 4z = 0
1 11 −4 y = 0 ou encore x + 11y − 4z = 0
3 3 −2 z 0 3x + 3y − 2z = 0
x=y
Ce système est équivalent à
z = 3y
Le sous-espace propre associé à λ1 = 1 est Eλ1 = {~v de coordonnée (x, x, 3x), x ∈ R}.
C'est une droite vectorielle engendrée par le vecteur v~1 de coordonées (1, 1, 3)
(C'est à dire que Eλ1 = {αv~1 , α ∈ R}).
Un vecteur propre
~v associé
à la valeur
propre λ
2 = 10 vérie f (~v ) = 10~v i.e.
11 1 −4 x 10x 11x + y − 4z = 10x
1 11 −4 y = 10y ou encore x + 11y − 4z = 10y
3 3 −2 z 10z 3x + 3y − 2z = 10z
Ce système est équivalent à l'équation x + y − 4z = 0. Le sous-espace propre
associé à λ2 = 10 est le plan vectoriel d'équation x + y − 4z = 0. Il est de
dimension 2 et est donc engendré par deux vecteurs linéairement indépendants,
9 Ilest tout de même possible de simplier un peu la matrice A en la mettant sous la
forme dite de Jordan mais ces matrices ne seront pas abordées dans ce cours
matrice symétrique
Voici un théorème pratique que nous démontrerons pas ici car il faudrait
pour cela introduire d'autres notions et approfondir le cours. Ou peut-être est-
il possible de le démontrer brutalement par un calcul long et fastidieux ce que
je prendrais bien garde de faire.
0 0 0
10 A est aussi semblable a la matrice 0 10 0 , la matrice de passage est alors
0 0 10
1 1 3 1 3 1
1 3 1 ou 1 1 3 .
3 1 1 3 1 1
10 0 0
A est encore semblable a la matrice 0 0 0 , je laisse au lecteur le soin trouver les
0 0 10
matrices de passage correspondantes
11 il sut d'écrire le polynôme caractéristique pour s'en persuader
Ludovic Duchêne