Courspoly PDF
Courspoly PDF
Courspoly PDF
POLYNÔMES ET ALGÈBRE
LINÉAIRE
Philippe Lebacque
E-mail : philippe.lebacque@univ-fcomte.fr
POLYNÔMES ET ALGÈBRE LINÉAIRE
Philippe Lebacque
NOTATIONS 5
Notations
Dans toute la suite, on adoptera les notations suivantes :
K désigera le corps R, C ou Q.
K[X] l'ensemble des polynômes à coecients dans K.
Si P ∈ K[X] et k ∈ N, P k désigne le polynôme P k = P · · P} (P 0 = 1).
| ·{z
k fois
Si aucune confusion n'est à craindre, on notera la suite (an )n∈N par (an ).
CHAPITRE 1
POLYNÔMES
et la multiplication par :
i i
!
P × Q = (ci )i∈N , avec ci =
X X
ak bi−k = ai−k bi .
k=0 k=0
On vérie (exercice) que la somme et le produit de deux polynômes est bien un poly-
nôme. Par abus, on notera P Q le polynôme P × Q.
Proposition 1.3. i. deg(P + Q) ≤ max(deg P, deg Q), avec égalité si deg P 6=
deg Q.
ii. deg(P × Q) = deg P + deg Q.
Proposition 1.4. (K[X], +, ×) est un anneau commutatif intègre d'élément neutre
0 pour + et 1 pour ×.
Démonstration : (Idées, à compléter par le lecteur consciencieux) Comme (K, +) est
un groupe commutatif, on vérie aisément que (K[X], +) est un groupe commutatif,
c'est à dire que : pour tous P = (an ), Q, R ∈ K[X],
+ est associative : P + (Q + R) = (P + Q) + R,
0 est élément neutre P + 0 = 0 + P = P,
(existence d'un opposé) si (−P ) := (−an ), on a P + (−P ) = (−P ) + P = 0, et
+ est commutative : P + Q = Q + P.
On vérie en revenant aux dénitions que × satisfait, pour tous P = (ai ), Q = (bi ), R ∈
K[X], à :
× est associative : P × (Q × R) = (P × Q) × R,
1 est élément neutre : P × 1 = 1 × P = P
× est commutative : P × Q = Q × P,
P × (Q + R) = P × Q + P × R.
(intégrité) Si P Q = 0 alors (P = 0 ou Q = 0). En eet, si P 6= 0 et Q 6= 0, P Q =
(c0 , . . . , cdeg P +deg Q , 0, . . . ) avec cdeg P +deg Q = adeg P bdeg Q 6= 0, donc P × Q 6= 0.
Remarque: Si P Q = P R et P 6= 0, alors Q = R. En eet, dans ce cas P (Q−R) = 0
et donc Q − R = 0.
Si λ ∈ K et P = (an ) ∈ K[X], on pose
λ · P = ( λan )
|{z}
mult.
dans K
K[X] est alors également muni d'une loi de composition externe · dénie par :
K × K[X] → K[X]
(λ, P ) 7→ λ · P.
Proposition 1.5. (K[X], +, ×, ·) est une K -algèbre.
1.1. L'ALGÈBRE K[X] 9
Dénition 1.6. Un polynôme P tel que deg P ≤ 0 est appelé polynôme constant.
On note K0 [X] l'ensemble des polynômes constants.
Sauf mention du contraire, dans le cas où P n'est pas le polynôme nul, on supposera
que n = deg P.
Remarque: On aurait également pu denir une algèbre de polynômes de la façon
suivante. Soit K une K -algèbre. K est une algèbre de polynômes sur K s'il existe un
élément X ∈ K tel que la famille (X n )n∈N est une base de K vue comme K espace
vectoriel.
10 CHAPITRE 1. POLYNÔMES
Remarque:
B
C'est une relation d'équivalence. Tout polynôme non nul est associé à un unique
polynôme unitaire, appelé le normalisé.
Proposition 1.10. Si A divise B et B divise A alors A et B sont associés.
Démonstration : On a B = AP et A = BQ donc B = (P Q)B. Si B = 0, A = 0 et donc
A et B sont associés. Si B =
6 0, P Q = 1 donc deg P = deg Q = 0. Ainsi A et B sont
associés.
Remarque: La relation de divisibilité dans K[X] est reexive, transitive et pseudo-
antisymétrique (antisymétrique à association près).
et on a montré le résultat.
Exemple: A = X + 2X 3 − 3X − 2 et B = X 3 + X + 1. Alors Q = X 2 + 1 et
5
1.3. Factorisation
Dénition 1.25. Un polynôme irréductible est un polynôme P non constant dont
les seuls diviseurs sont 1, P et leurs associés.
Démonstration : Soit S = {deg U ; U |A et deg U ≥ 1}. S est non vide car A ∈ S. Soit
m = min S et P tel que deg P = m. Si P n'est pas irréductible, il existe U, V tels que
P = U V et deg U ≥ 1, deg V ≥ 1. Ainsi 1 ≤ deg U < m. Mais pourtant U |P |A, ce qui
est absurde. Ainsi P est irréductible.
Démonstration :
i. (Existence) Par récurrence forte sur n = deg A.
n = 1 : A = a1 X + a0 . On écrit A = a1 (X + aa10 )
(≤ n) ⇒ n + 1. Soit n ∈ N et A de degré n + 1. D'après le lemme 1.27, il existe
P irréductible unitaire divisant A. On écrit A = P A∗ avec deg A∗ ≤ n. Si
deg A∗ = 0 (A∗ = a) il n'y a rien à démontrer. Sinon on applique l'hypothèse
de récurrence à A∗ . Il existe alors des polynômes Pi irréductibles unitaires tels
que A∗ = a Pi , où a est le coecient dominant de A∗ . Comme a est aussi Q le
Q
coecient dominant de A car P unitaire, on en déduit le résultat :A = aP Pi .
ii. (Unicité) On le fait par récurrence forte sur n = deg A.
16 CHAPITRE 1. POLYNÔMES
1.4. Racines
1.4.1. Fonction polynôme et racines. A tout polynôme P = X a X
n
k
k ∈ K[X]
k=0
on associe la fonction
Pe : K → K
X n
x 7→ ak x k .
|k=0{z }
somme d'élé-
ments de K
On la note par abus P (x).
φ : K[X] → F(K, K)
L'application est un morphisme de K -algèbres : P
g Q=
P 7→ Pe
PeQ,
e 1]
K[X] = 1, λP = λP , P + Q = P + Q.
e ^
Remarque: Il faut bien
e f e e
distinguer la fonction polynôme du polynôme. Si K est
inni (voir plus loin), P détermine P (φ injective), mais ce n'est pas le cas si K n'est
e
pas inni.
Dénition 1.31. Un élément a ∈ K est appelée racine de P si P (a) = 0 (c'est à
dire si Pe(a) = 0).
Proposition 1.32. i. Le polynôme P est divisible par X − a si et seulement si a
est une racine de P.
ii. Soit P ∈ K[X]. Supposons deg P ≤ n et que P admette n + 1 racines distinctes.
Alors P = 0.
Un polynôme de degré n a donc au plus n racines distinctes. On utilise souvent cet
argument, il est à bien connaître. Par exemple, si P, Q ∈ R[X] satisfont P (cos θ) =
Q(cos θ) pour tout θ ∈ R, alors P − Q est le polynôme nul.
Démonstration :
i. Soit a ∈ K. On eectue la division euclidienne de P par X − a : P = (X − a)Q + R,
avec deg R ≤ 0. R est alors une constante. P (a) = 0 si et seulement si R = R(a) = 0
si et seulement si X − a|P.
ii. Soient P un polynôme de degré ≤ n, a0 , . . . an des racines distinctes de P. Alors X −
a0 , . . . , X − an sont deux à deux premiers entre eux. En eet, ils sont irréductibles,
unitaires et distincts. D'après le corollaire 1.24, on a (X − a0 ) . . . (X − an )|P. C'est
absurde sauf si P = 0 car on aurait alors deg(X − a0 ) . . . (X − an ) = n + 1.
Corollaire 1.33. K inni. Soient P, Q ∈ K[X]. Alors P = Q si et seulement si
les applications polynômes P et Q associées à P et Q sont identiques sur K.
18 CHAPITRE 1. POLYNÔMES
1.4.2. Dérivation.
1.4.2.1. Dénition et propriété.
n
Dénition 1.35.
X
Soit P = ak X k . On pose
k=0
n
X n−1
X
0 k−1
P = kak X = (k + 1)ak+1 X k .
k=1 k=0
Démonstration : Soient P = ai X i et Q = bi X i .
P P
n
! n
!
i. On a P Q = X n , d'où (P Q)0 = ai bn−i X n−1 . On a
X X X X
ai bn−i n
n i=0 n≥1 i=0
n
! n
!
X n−1 et P Q0 = X n−1 , d'où le
X X X X
P 0Q = iai bn−i ai (n − i)bn−i
n≥1 i=0 n≥1 i=0
résultat.
ii. On prouve le résultat par récurrence (cf les formules de dérivation au lycée une fois
connu i).
n
écrit Q = ak Pk (X). On a
X
k=0
n n k (i) n n (i)
X X X P (a) i
X X P (a)
Q(X + a) = ak Pk (X + a) = ak k
X = ak k
Xi
k=0 k=0 i=0
i! k=0 i=0
i!
n n n
X 1 i X (i)
X Q(i) (a) i
= X ak Pk (a) = X.
i=0
i! k=0 i=0
i!
n
P (i) (0) i
Corollaire 1.41.
X
En particulier, si P ∈ Kn [X], P (X) = X.
i=0
i!
Démonstration : Prendre a = 0.
Si n < α tous les termes de la somme sont nuls en a. Si n = α, ils sont tous nuls en a
sauf le terme correspondant à k = n, et on a P (n) (a) = n!Q(a) 6= 0.
(⇐) Réciproquement on écrit la formule de Taylor : on a
deg P deg P
X P (k) (a) X P (k) (a)
k
P (X) = P (X − a + a) = (X − a) = (X − a)k = (X − a)α · S,
k=0
k! k=α
k!
deg P −α
X P (k+α) (a) P (α) (a)
où S = (X − a)k vérie S(a) = 6= 0.
k=0
(k + α)! α!
1.5. DÉCOMPOSITION DANS C[X] ET DANS R[X] 21
k=0
n
que P = an (X − αi ). On développe cette expression. On a alors
Y
k=1
n
!
X X
P = an (−1)k αi1 . . . αik X n−k .
k=0 1≤i1 <i2 <···<ik ≤n
Exemple: (X − α)(X − β) = X
1 2 k
2
+ aX + b, avec b = αβ et a = −(α + β).
(zn ) → z. Il existe n0 , pour tout n ≥ n0 , |zn − z| ≤ ε. |zn | est borné donc il existe
A > 0 tel que pour tout n, |zn | ≤ A et |z| ≤ A. Pour tout n ≥ n0 ,
||P (zn )| − |P (z)|| ≤ |P (zn ) − P (z)| ≤ |am−1 ||zn − z| + |am−2 ||zn2 − z 2 | + · · · + |a0 ||znm − z m |
m−1
!
X
≤ |zn − z| |am−1 | + |am−2 |(|zn | + |z|) + · · · + |a0 | |zn |k |z|m−1−k
k=0
m−1
≤ ε |am−1 | + 2A|am−2 | + · · · + mA |a0 |
| {z }
indépendant de n
On a donc le résultat.
Montrons ensuite qu'il existe z0 tel que P (z0 ) = inf P (z).
z∈C
a1 am
On écrit P (z) = z 1 + + · · · + m . D'où
m
z z
|a1 | |am |
|P (z)| ≥ |z|m
1− − · · · − m → +∞, lorsque |z| → +∞.
|z| |z|
Il existe donc M > 0 tel que, pour tout z ∈ C tel que |z| ≥ M, |P (z)| > |P (0)|. On
considère alors l'ensemble {|P (z)|, |z| ≤ M }. C'est un ensemble non vide et minoré
par 0, il admet donc une borne inférieure α ≥ 0. Il existe donc une suite (zn = xn + iyn )
d'éléments de K = {z ∈ C, |z| ≤ M } telle que limn→+∞ |P (zn )| = α. La suite (xn ) est
bornée (par M ), donc on peut en extraire une sous-suite convergente (xσ(n) ). La suite
(yσ(n) ) est bornée par M donc on peut en extraire une sous-suite convergente (yτ (n) ). La
suite (xτ (n) ) est également convergente comme sous suite d'une suite convergente. On
considère alors la suite (zτ (n) ) = (xτ (n) + iyτ (n) ). Elle est convergente vers un complexe
z0 et vérie, pour tout n, |zτ (n) | ≤ M donc z0 ∈ K. Enn, lim |P (zτ (n) )| = α, et,
n→+∞
comme |P | est continue |P (z0 )| = α. z0 vérie alors P (z0 ) = inf P (z).
z∈C
[En fait, on a redémontré que toute fonction continue sur un fermé borné de R2 est
bornée et atteint ses bornes]
Montrons que P (z0 ) = 0. Supposons par l'absurde que P (z0 ) 6= 0. On considère alors
m
P (z0 + X) X
Q(X) = = bi X i
P (z0 ) i=0
et on va montrer qu'on peut trouver z tel que |Q(z)| < 1 (absurde car z0 = inf z∈C P (z)).
On considère k = min{1 ≤ i ≤ n, bi 6= 0}. Ce minimum existe bien puisqu'on a
supposé deg P ≥ 1. Comme b0 = 1, on peut écrire Q(z) = 1 + bk z k (1 + φ(z)), où
m−k
bi+k i
z et donc où |φ(z)| → 0 si z → 0. On prend alors r > 0 tel que
X
φ(z) =
i=1
bk
|φ(z)| ≤ 21 pour tout z tel que |z| < r. On pose bk = |bk |eiθ , θ ∈ R. On considère
1.5. DÉCOMPOSITION DANS C[X] ET DANS R[X] 23
d'une racine de P.
[En fait, on a redémontré le fait qu'une fonction holomorphe n'a pas d'extremum
local]
Corollaire 1.48. Les polynômes de degré 1 sont les seuls polynômes irréductibles
de C[X].
Proposition 1.49. P →
7 P est un isomorphisme d'anneaux de C[X] dans lui-
même. On a, pour tout P ∈ C[X] P = P.
C[X]. On voitX
que :
P +Q=
X
ai + b i X i = ai + bi X i = P + Q,
1 = 1,
k k
PQ =
XX XX
k
ai bk−i X = ai bk−i X k = P Q.
k i=0 k i=0
n
Corollaire 1.50.
Y
Soient a, α1 , . . . , αn ∈ C et P = a (X − αi ). Alors P =
i=1
n
Y
a (X − αi ).
i=1
24 CHAPITRE 1. POLYNÔMES
i=1
n−1
!
d'après la proposition P = (X − αi ) (X − αn ). D'après l'hypothèse de récur-
Y
a
i=1
n−1
!
rence appliquée à (X − αi ) , on a :
Y
a
i=1
n−1
!
Y
P = a (X − αi ) (X − αn ).
i=1
Remarque:
Soit P ∈ C[X]. Alors P ∈ R[X] ⇔ P = P.
P (z) = P (z). Ainsi z est racine de P si et seulement si z est racine de P .
Avant d'établir le théorème, nous allons montrer le lemme suivant qui détermine les
polynômes irréductibles de degré 2 de R[X].
Lemme 1.51. Soient a, b, c ∈ R, tels que a 6= 0. P = aX 2 + bX + c est irréductible
si et seulement si ∆ = b2 − 4ac < 0.
Montrons à présent par récurrence forte sur n = deg P que tout polynôme P de
degré n se décompose ainsi. Pour n = 0 c'est évident. Supposons que n ≥ 1. Si P
admet une racine réelle α, on applique l'hypothèse de récurrence à X−α
P
et on obtient
une décomposition de P sous la forme voulue. Sinon, on choisit une racine β de P dans
C (elle est non réelle). Il existe Q ∈ C[X] tel que P = (X − β)Q. Mais alors, comme
P ∈ R[X],
(X − β)Q = P = P = (X − β)Q.
β 6= β donc X − β et X − β sont premiers entre eux. Ainsi X − β divise (X − β)Q
donc divise Q. On peut alors écrire P = (X − β)(X − β) S où S ∈ C[X]. C'est la
| {z }
∈R[X]
division euclidienne de P par (X − β)(X − β) dans C[X]. Montrons que S ∈ R[X]. On
eectue la division eclidienne de P par (X −β)(X −β) dans R[X]. Il existe un couple de
polynômes (Q∗ , R∗ ) ∈ R[X]2 vériant deg R∗ ≤ 1 et P = Q∗ (X − β)(X − β) + R∗ . C'est
aussi vrai dans C[X]. Par unicité de la division euclidienne dans C[X], on a Q∗ = S et
R∗ = 0. On en déduit que S ∈ R[X]. On aurait également pu appliquer la conjugaison
complexe, pour voir que S = S̄. On applique alors l'hypothèse de récurrence à S, et on
obtient une décomposition pour P sous la forme voulue.
Exemple: Décomposition de P = X + 1 dans R[X]. On cherche les racines dans
4
π π π π
X 4 + 1 = (X − e−i 4 )(X + e−i 4 )(X − ei 4 )(X + ei 4 ).
Reste à grouper les termes pour obtenir la décomposition dans R[X] :
π π π π √ √
X 4 +1 = (X −e−i 4 )(X −ei 4 )(X +e−i 4 )(X +ei 4 ) = (X 2 − 2X +1)(X 2 + 2X +1).
On pouvait aussi
√ obtenir plus astucieusement la factorisation en voyant que X +1 =
4
(X 2 + 1)2 − ( 2X)2 .
Montrons enn que X 4 + 1 est irréductible dans Q[X]. P n'a pas de racine dans
R puisque x4 ≥ 0 si x ∈ R. On en déduit que si P n'est pas irréductible, alors P
est produit de deux polynômes de degré 2 unitaires. Posons P = U V, avec U, V
irréductibles unitaires de degré 2 de Q[X]. Mais U et V sont aussi irréductibles
dans R[X] puisqu'ils n'ont pas non plus de racines réelles.
√ Ainsi, par unicité de la
décomposition
√ dans R[X], on en déduit que U = X ± 2X + 1. C'est absurde car
2
2∈
/ Q.
Proposition 1.53. ∼ dénit une relation d'équivalence sur K[X] × K[X]∗ , c'est à
dire une relation
réexive ((A, B) ∼ (A, B)),
symétrique (si (A1 , B1 ) ∼ (A2 , B2 ), alors (A2 , B2 ) ∼ (A1 , B1 )),
transitive (si (A1 , B1 ) ∼ (A2 , B2 ), et (A2 , B2 ) ∼ (A3 , B3 ), alors (A1 , B1 ) ∼ (A3 , B3 )).
Démonstration : Seule la transitivité n'est pas évidente. Si (A1 , B1 ) ∼ (A2 , B2 ), et
(A2 , B2 ) ∼ (A3 , B3 ), on a A1 B2 = A2 B1 et A2 B3 = A3 B2 d'où A1 B2 B3 = A2 B1 B3 =
B1 A3 B2 . Comme K[X] est intègre et B3 6= 0, on a A1 B3 = A3 B1 , et donc (A1 , B1 ) ∼
(A3 , B3 )).
Dénition 1.54. L'ensemble quotient (K[X] × K[X]∗ )/ ∼ s'appelle le corps des
A
fractions de l'anneau K[X]. On le note K(X). Une fraction rationnelle A/B ou est
B
la classe d'équivalence de K(X) de représentant (A, B).
1.6.2. Le corps K(X).A K[X] peut être vu commme sous-ensemble de K(X) par
l'application ι : A 7→ . C'est en eet une application injective : ι(A) = ι(B) ⇔
1
(A, 1) ∼ (B, 1) ⇔ A = B. On veut prolonger les opérations internes de K[X] à K(X).
On dénit l'addition de la façon suivante.
A1 A2 A1 B2 + A2 B1
+ := .
B1 B2 B1 B2
Remarquons d'abord que B1 B2 6= 0 car K[X] est intègre. Il faut ensuite montrer que
l'addition est bien dénie, c'est à dire indépendante du choix du représentant A/B de
la classe d'équivalence. Soient (A∗1 , B1∗ ) ∼ (A1 , B1 ) et (A∗2 , B2∗ ) ∼ (A2 , B2 ). Montrons
que (A1 B2 + A2 B1 , B1 B2 ) ∼ (A∗1 B2∗ + A∗2 B1∗ , B1∗ B2∗ ). On a en eet
B1∗ B2∗ (A1 B2 + A2 B1 ) = B2∗ B1 A∗1 B2 + B1∗ B2 A∗2 B1 = B1 B2 (B2∗ A∗1 + A∗2 B1∗ ).
On dénit la multiplication de la façon suivante :
A1 A2 A1 A2
× := .
B1 B2 B1 B2
Montrons de même qu'elle est bien dénie. Soient (A∗1 , B1∗ ) ∼ (A1 , B1 ) et (A∗2 , B2∗ ) ∼
(A2 , B2 ). Comme on a B1∗ B2∗ A1 A2 = B1 A∗1 B2 A∗2 , on en déduit (A1 A2 , B1 B2 ) ∼ (A∗1 A∗2 , B1∗ B2∗ ).
A
Proposition 1.55. (K(X), +, ×) est un corps, et ι : K[X] → K(X), A 7→ est
1
un morphisme d'anneaux injectif.
Démonstration : (K(X), +) est un groupe commutatif d'élément neutre 01 . En eet,
1.6. FRACTIONS RATIONNELLES 27
A1 A2 A3 A1 B2 B3 + A2 B1 B2 + A3 B1 B2 A1
+ est associative : + + = = +
B1 B2 B3 B1 B2 B3 B1
A2 A3
+ ,
B2 B3
A1 A2 A1 B2 + A2 B1 A2 A1
+ est commutative : + = = + ,
B1 B2 B1 B2 B2 B1
A 0 A
+ admet 01 comme neutre : + = ,
B 1 B
A −A
tout élément admet un opposé : + = 0.
B B
(K(X), +, ×) est un anneau
commutatif
de neutre 11 . En eet
:
A1 A2 A3 A1 A2 A3 A1 A2 A3
× est associative : × × = = × × ,
B1 B2 B3 B1 B2 B3 B1 B2 B3
A A AA A A
× est commutative : 1 × 2 = 1 2 = 2 × 1 ,
B1 B2 B1 B2 B2 B1
A 1 A
× admet 11 comme neutre : × = ,
B 1 B
× est distributive par rapport à + :
A1 A2 A3 A1 A2 B3 + A3 B2 A1 A2 B3 + A1 A3 B2
× + = × =
B1 B2 B3 B1 B2 B3 B1 B2 B3
A1 A2 B1 B3 + A1 A3 B1 B2 A1 A2 A1 A3
= 2
= +
B1 B2 B3 B1 B2 B1 B3
A1 A2 A1 A3
= × + × .
B1 B2 B1 B3
Enn, si BA 6= 01 c'est à dire que A 6= 0, BA est inversible d'inverse BA : BA BA = AB
AB
= 11
puisque AB = AB. (K(X), +, ×) est donc un corps.
ι est un morphisme d'anneaux, puisque A1 + B1 = A+B 1
, A1 × B1 = AB
1
et ι(1) = 11 .
A présent, on identiera K[X] et le sous-anneau ι(K[X]) de K(X).
De même B1 |B2 donc les deux polynômes sont associés. Comme ils sont unitaires, ils
sont égaux. On a donc B1 A1 = B1 A2 , et comme B1 6= 0, A1 = A2 .
Démonstration : 0 = 0
1
et 1 = 1
1
sont bien dans Oa . De plus, si
∈ Oa avec A C
,
B D
A C AD + BC A C AC
B(a) 6= 0 et D(a) 6= 0, −A
B
∈ Oa , + = ∈ Oa et × = ∈ Oa
B D BD B D BD
car B(a)D(a) 6= 0.
Démonstration : Cette application est bien dénie d'après le début du paragraphe (in-
dépendant du représentant de la fraction R). C'est clairement un morphisme d'anneaux
car l'évaluation des polynômes l'est.
Exemple: On peut évaluer la fraction en 1 mais pas en −1.
X 3 −1
X 2 −1
i=1
unitaires distincts et les αi sont strictement positifs, pour tout A ∈ K[X], l'assertion
du théorème est vraie.
r = 0 est évident : A1 = A1 . r = 1 est le cas où B = P α . La division euclidienne de A
par B donne alors directement le résultat :
A BQ + R Q R
= = + .
B B 1 B
r+1
Supposons r > 0 et que le résultat est connu au rang r. Soit B = Piαi , avec Pi
Y
i=1
unitaires irréductibles distincts et αi > 0. Soit A ∈ K[X]. Pr+1
αr+1
est premier avec
r r
donc, par Bezout, il existe U, V ∈ K[X] tels que U = 1. On
Y Y α
Piαi Piαi + V Pr+1
r+1
i=1 i=1
a donc Qr α
A AU i=1 Piαi + AV Pr+1
r+1
AU AV
= = Qr αi + αr+1 .
B B i=1 Pi Pr+1
On applique alors l'hypothèse de récurrence au premier terme et le cas r = 1 pour le
second pour obtenir le résultat.
(unicité) On suppose que (Q0 , . . . , Qr ) et (Q∗0 , . . . , Q∗r ) conviennent. On a alors
r r
X Qi ∗
X Q∗i
Q0 + αi = Q0 + .
i=1
Pi i=1
Piαi
On a alors r r
αj
Y X Y
(Q∗0 − Q0 ) Piαi = (Qi − Q∗i ) Pj
i=1 i=1 j6=i
(on rappelle que l'application canonique ι : K[X]
P → K(X) est injective). On voit que le
terme de gauche a pour degré deg(Q0 −Q∗0 )+ αi deg Pi tandis que le second a un degré
30 CHAPITRE 1. POLYNÔMES
i6=k j6=i
i=1
Qα = Q∗α . On divise alors l'expression par P (P 6= 0 et K[X] intègre) et on montre de
même que Qα−1 = Q∗α−1 . Par récurrence descendante immédiate, on voit ensuite que
pour tout i, Qi = Q∗i .
Remarque: Autrement dit, la famille {X , n ∈ N} ∪ { n Xk
P`
, P irréductible, k <
deg P, ` ∈ N } forme une base de K(X). Si K est indénombrable, alors cette base
∗
DUALITÉ
2.2. Bidual
Dénition 2.4. On appelle bidual, et on note E ∗∗ , l'espace vectoriel (E ∗ )∗ .
Lemme 2.5. dim E ∗∗ = dim E.
Remarque: Cet isomorphisme est canonique : il ne dépend pas du choix d'une base,
contrairement à E ' E ∗ .
Démonstration : La proposition montre que x 7→ δx est linéaire et injective. Comme on
a dim E = dim E ∗∗ , i est un isomorphisme (théorème du rang).
2.3. Orthogonalité
Dénition-Proposition 2.8. Soit F un sev de E. On appelle orthogonal de F
dans E ∗ , et on note F ⊥ , l'ensemble des formes linéaires de E ∗ qui sont nulles sur F :
F ⊥ = {φ ∈ E ∗ | ∀x ∈ F φ(x) = 0}.
C'est un sev de E ∗ .
G0 = {x ∈ E | ∀φ ∈ G φ(x) = 0}.
C'est un sev de E.
Démonstration : C'est un sev de E comme intersection de sev de E.
On a les propriétés importantes suivantes :
Proposition 2.10. Soit F et F 0 deux sev de E, et G un sev de E ∗ . Alors
i. (F ⊂ F 0 ) ⇒ (F 0⊥ ⊂ F ⊥ )
ii. (F + F 0 )⊥ = F ⊥ ∩ F 0⊥
iii. F ⊥ + F 0⊥ = (F ∩ F 0 )⊥
iv. (F ⊥ )0 = F
v. G ⊂ (G0 )⊥
Démonstration :
i. Clair d'après la dénition.
ii. F ⊂ F + F 0 donc (F + F 0 )⊥ ⊂ F ⊥ . De même (F + F 0 )⊥ ⊂ F 0⊥ . D'où (F + F 0 )⊥ ⊂
F ⊥ ∩ F 0⊥ . Réciproquement, soit φ ∈ F ⊥ ∩ F 0⊥ . Soit z ∈ F + F 0 . Il existe x ∈ F et
x0 ∈ F 0 tel que z = x + x0 . Alors φ(z) = φ(x) + φ(x0 ) = 0 + 0 = 0.
iii. F ∩ F 0 ⊂ F, F 0 donc F ⊥ , F 0⊥ ⊂ (F ∩ F 0 )⊥ et donc F ⊥ + F 0⊥ ⊂ (F ∩ F 0 )⊥ .
Réciproquement, soit φ ∈ (F ∩ F 0 )⊥ . On choisit une base (e1 , . . . , ek ) de F ∩ F 0 , que
l'on complète par (f1 , . . . , fr ) en une base de F et par (f10 , . . . , fs0 ) en une base de F 0 .
(e1 , . . . , ek , f1 , . . . , fr , f10 , . . . , fs0 ) est une base de F +F 0 . [En eet, elle est génératrice
car (e1 , . . . , ek , f1 , . . . , fr ) est une famille génératrice de F, P et (e1 ,P
0
. . . , ek , f1P , . . . , fr0 )
est une famille Pgénératice P de F . Elle
0
P est 0libre puisque si λi ei + µi fi + τi fi =
0
On en déduit que dim E = dim F + dim F ⊥ .
ii. On a, d'après la proposition dim G0 = dim G⊥ et on déduit le résultat de i.
iii. On a déjà G ⊂ (G0 )⊥ , d'où l'égalité par dimension.
2.4. Hyperplans
Dénition 2.14. On appelle codimension d'un sev F de E la dimension de F ⊥
(ou la dimension de E/F ).
Dénition 2.15. On appelle hyperplan tout sev de codimension 1 (c'est à dire de
dimension n − 1).
Dénition 2.18. Soit H un hyperplan tel que H ⊥ =< φ > . Alors φ = 0 est une
équation de l'hyperplan H.
Démonstration :
i. On montre le résultat par récurrence immédiate sur m. On a déjà vu le résultat
pour m = 1. Si m ≥ 2, on a
⊥ ⊥ ⊥ ⊥
(∩m ∩m−1 ∩m−1
i=1 Hi ) = i=1 Hi ∩ Hm = i=1 Hi + Hm =< φ1 , . . . , φm > .
| {z } |{z}
<φ1 ,...,φm−1 > par HR <φm >
ii. dim F ⊥ = r. On choisit alors une base (φ1 , . . . , φr ) de F ⊥ . Alors F = ∩ri=1 Kerφi .
En eet, pour tout i = 1, . . . , m, F ⊂ ker φi puisque φi ∈ F ⊥ est nulle sur F. Ainsi
F ⊂ ∩ ker φi . De plus, d'après i., codim ∩ri=1 ker φi = dim < φ1 , . . . , φr >= r, donc
dim F = dim ∩ri=1 ker φi = dim E − r, et on a donc l'égalité F = ∩ri=1 ker φi .
2.5. Transposée
2.5.1. Généralités. E, F, G désignent trois K -espaces vectoriels de dimension
nie.
36 CHAPITRE 2. DUALITÉ
Proposition 2.21. t
u ∈ L(F ∗ , E ∗ )
Proposition 2.22. i. Soit IdE ∈ L(E) l'identité sur E et t IdE ∈ L(E ∗ ) sa trans-
posée. Alors IdE est l'identité sur E ∗ : t IdE = IdE ∗ .
t
Démonstration :
i. Soit φ ∈ E ∗ . On a t IdE (φ) = φ ◦ IdE = φ d'où t IdE = IdE ∗ .
ii. Soit φ ∈ G∗ . Alors
t
(g ◦ f )(φ) = φ ◦ (g ◦ f ) = (φ ◦ g) ◦ f = t g(φ) ◦ f = t f ( t g(φ)) = ( t f ◦ t g)(φ).
iii. Il existe f −1 tel que f ◦ f −1 = IdF et f −1 ◦ f = IdE . D'après i. et ii., on a
t
f ◦ t (f −1 ) = t (f ◦ f −1 ) = t IdF = IdF ∗ et t (f −1 )f ◦ t f = t (f −1 ◦ f ) = t IdE = IdE ∗ ,
d'où le résultat.
Théorème 2.24. Soit u : E → F. Alors kert u = (Im u)⊥ et (Im t u) = (ker u)⊥ .
2.5. TRANSPOSÉE 37
i=1
Calculons M at t u. Il s'agit donc de calculer t u(fj∗ ) pour tout j. Pour cela, déterminons
e∗
f∗
l'image de la base (e1 , . . . , en ). Pour tout k ∈ {1, . . . , n}, on a
Xm
t
u(fj∗ )(ek ) = (fj∗ ◦ u)(ek ) = fj∗ ( βik fi ) = βjk .
i=1
n
! n
De plus βji e∗i (ek ) = βjk . Ainsi fj∗ ◦ u et βji e∗i coïncident sur (e1 , . . . , en ) et
X X
i=1 i=1
sont donc égales. On a donc, pour tout j = 1, . . . , m,
n
X
t
u(fj∗ ) = βji e∗i .
i=1
On en déduit que ∗
M atef ∗ t u = (βji )1≤i≤m .
1≤j≤n
CHAPITRE 3
DÉTERMINANT
Dénition 3.6. Soit p ≥ 2 un entier plus petit que n. On appelle p-cycle tout
élément σ de Sn tel qu'il existe p entiers i1 , . . . , ip distincts de {1, . . . , n} vériant :
Pour tout j ∈ {1, . . . , p − 1}, σ(ij ) = ij+1 et σ(ip ) = i1 .
Pour tout k ∈/ {i1 , . . . , ip }, σ(k) = k.
Un tel p-cycle est alors noté (i1 i2 . . . ip ). {i1 , . . . , ip } s'appelle le support de σ.
Un 2-cycle est appelé une transposition.
3.1. LE GROUPE SYMÉTRIQUE 41
σ(i) − σ(j)
Posons, pour i 6= j, S(i, j) = . Notons que S(i, j) = S(j, i) (S est
i−j
symétrique). Considérons l'application
φτ : {(i, j) ∈ N2n , i < j} → ({(i, j) ∈ N2n , i < j}
(τ (i), τ (j)) si τ (i) < τ (j)
(i, j) 7→
(τ (j), τ (i)) si τ (i) > τ (j).
φτ est une bijection d'inverse φτ −1 . On a alors
Y Y Y
Aσ,τ = S(τ (i), τ (j)) = S(τ (i), τ (j)) · S(τ (i), τ (j))
i<j i<j i<j
τ (i)<τ (j) τ (j)<τ (i)
Y Y
= S(τ (i), τ (j)) · S(τ (j), τ (i))
| {z }
i<j i<j
τ (i)<τ (j) τ (j)<τ (i)
S sym.
Y Y
= S(φτ (i, j)) · S(φτ (i, j))
i<j i<j
τ (i)<τ (j) τ (j)<τ (i)
Y Y
= S(φτ (i, j)) =
|{z} S(i, j) = ε(σ).
i<j φτ bijective i<j
ii. Soit τ = (k `), k < `, une transposition. On a ε(τ ) = S(i, j). De plus, 1 =
Y
i<j
ε(Id) = ε(τ 2 ) = ε(τ )2 Q donc ε(τ ) ∈ {±1}. Il sut donc de connaître son signe,
c'est à dire le signe de i<j S(i, j). Il est égal à (−1)inv(τ ) où inv(τ ) est cardinal
de l'ensemble {i < j σ(i) > σ(j)}.
Si i < j, on a τ (i) > τ (j) si et seulement si i = k et j ≤ `, ou (exclusif) si j = `
et k < i < `. On a donc inv(τ ) = ` − k + ` − 1 − k = 2(` − k) − 1. C'est un
nombre impair donc ε(τ ) = −1. Comme les transpositions engendrent Sn , pour
tout σ ∈ Sn , ε(σ) ∈ {±1}.
iii. D'après les deux premiers points, c'est un morphisme de groupes non trivial de Sn
vers {±1} ⊂ C∗ (il existe σ, ε(σ) 6= 1). Soit f un autre morphisme de groupes.
S'il vaut 1 sur les transpositions, il est trivial car elles engendrent Sn . Sinon, il
existe une transposition τ = (k `) telle que f (τ ) = −1 (car f (τ )2 = f (τ )2 = 1).
Soit ρ = (i j) une autre transposition. Soit σ ∈ Sn telle que σ(k) = i, σ(`) = j.
Alors on voit facilement que ρ = στ σ −1 (laissé au lecteur). On en déduit que
f (ρ) = f (σ)f (τ )f (σ −1 ) = f (σ)f (τ )f (σ)−1 = f (τ ) = −1. f et ε coïncident donc
sur les transpositions, et sont alors égaux (puisqu'elles engendrent Sn ).
Remarque: On montre facilement que la signature de σ est égale à (−1) n−m
où m
est le nombre d'orbites pour ∼σ .
44 CHAPITRE 3. DÉTERMINANT
iv. φ(x1 , . . . , xp ) est changé en son opposé si l'on permute deux vecteurs : pour toute
transposition τ ∈ Sp , φ(xτ (1) , . . . , xτ (p) ) = −φ(x1 , . . . , xp ).
v. ∀σ ∈ Sp , φ(xσ(1) , . . . , xσ(p) ) = (σ)φ(x1 , . . . , xp ).
Dans ce cas, on dit que φ est alternée (ou antisymétrique). On note alors Λp (E)
l'ensemble des formes p linéaires alternées sur E.
Démonstration : i)⇒ii) Une famille où deux vecteurs sont égaux est liée.
ii)⇒ iii) On a
X
φ(x1 , . . . , xi−1 , xi + λj xj , xi+1 , . . . , xp ) =φ(x1 , . . . , xi−1 , xi , xi+1 , . . . , xp )
j6=i
X
+ λj φ(x1 , . . . , xi−1 , xj , xi+1 , . . . , xp )
| {z }
j6=i
=0 par ii)
X
=φ(x1 , . . . , xp ) + λj × 0
j6=i
=φ(x1 , . . . , xp )
iii)⇒i) SupposonsX(x1 , . . . , xp ) liée. L'un des vecteurs, disons xi , est combinaison linéaire
des autres : xi = λj xj . On a alors
j6=i
X
= φ(x1 , . . . , xi−1 , xi −
φ(x1 , . . . , xp ) |{z} λj xj , xi+1 , . . . , xp )
ii) j6=i
2φ(x1 , . . . , xi , . . . , xj , . . . , xp ) = 0.
46 CHAPITRE 3. DÉTERMINANT
Démonstration :
i. Une famille de p vecteurs de E est liée, d'où le résultat d'après la proposition
précédente.
ii. Soit φ ∈ Λn (E). Supposons n = 2. Posons x = ae1 + be2 , y = ce1 + de2 . Alors
φ(x, y) = φ(ae1 + be2 , ce1 + de2 ) = acφ(e1 , e1 ) + adφ(e1 , e2 ) + bcφ(e2 , e1 ) + bdφ(e2 , e2 )
= (ad − bc)φ(e1 , e2 ).
Traitons maintenant le cas général. Soient, pour tout j = 1, . . . , n, xj =
X
ai,j ei .
i
des éléments de E. On a, en développant comme pour n = 2,
n
!
X Y
φ(x1 , . . . , xn ) = amj ,j φ(em1 , . . . , emn ).
(m1 ,...,mn )∈{1,...,n}n j=1
D'où !
X n
Y
φ(x1 , . . . , xn ) = (σ) aσ(j),j φ(e1 , . . . , en ).
σ∈Sn j=1
Ainsi dim Λn ≤ 1. On exhibe alors un élément non nul de Λn via le lemme suivant.
3.2. FORMES ALTERNÉES 47
Lemme 3.18. On pose
X n
Y X n
Y
∆(x1 , . . . , xn ) = (σ) < e∗σ(j) , xj >= (σ) aσ(j),j .
σ∈Sn j=1 σ∈Sn j=1
en déduit
X n
Y
∆(xτ (1) , . . . , xτ (n) ) = (ρτ ) < e∗ρ(k) , xk >= (τ )∆(x1 , . . . , xn ).
| {z }
ρ∈Sn k=1
(ρ)(τ )
est non nul si et seulement si, pour tout j ∈ {1, . . . , n}, σ(j) = j, c'est à
Qn
j=1 δσ(j),j
dire si et seulement si σ = Id. Ainsi
Y
∆(e1 , . . . , en ) = (Id) δj,j = 1.
Remarque:
Deux formes n-linéaires alternées non nulles sont proportionnelles.
On peut montrer que dim Λp (E) = Cnp si p ≤ n. En eet, une forme n linéaire
alternée est déterminée par l'image des parties à p éléments de (e1 , . . . , en ).
Dénition 3.19. Soit e = {e1 , . . . , en } une base de E. On appelle déterminant de
la famille {x1 , . . . , xn } relativement à {e1 , . . . , en } la quantité
X n
Y
det(x1 , . . . , xn ) := ∆e (x1 , . . . , xn ) = (σ) < e∗σ(j) , xj > .
e
σ∈Sn j=1
et
det(e1 , . . . , en ) det(u(f1 ), . . . , u(fn )) = det(u(f1 ), . . . , u(fn )) := det u.
f e f f
D'un autre côté, φ : (x1 , . . . , xn ) 7→ dete (u(x1 ), . . . , u(xn )) est une forme n-linéaire.
Elle est alternée puisqu'elle est nulle s'il existe i 6= j, xi = xj . Il existe donc µ tel
que φ = µ dete . On voit alors que µ = dete (u(e1 ), . . . , u(en )) := dete u. On a donc
φ(f1 , . . . , fn ) = dete u dete (f1 , . . . , fn ). Finalement, on a
detf u = det(e1 , . . . , en ) det(u(f1 ), . . . , u(fn )) = detf (e1 , . . . , en )dete (f1 , . . . , fn )dete u = dete u.
f e
iii. Soit f ∈ L(E). Alors f est bijective si et seulement si det f 6= 0, et dans ce cas
1
det f −1 = .
det f
Démonstration :
i. det id = dete (e1 , . . . , en ) = 1.
ii. On pose dete (f ◦ g) = dete (f (g(e1 )), . . . , f (g(en ))). L'application E n → K, dénie
par (x1 , . . . , xn ) 7→ dete (f (x1 ), . . . , f (xn )) est n-linéaire alternée, donc on a
det(f ◦ g) = det g det(f (e1 ), . . . , f (en )) = det g det f.
e e
X n
Y X n
Y
det A = (σ) aσ(j),j = (σ) ai,σ(i)
σ∈Sn j=1 σ∈Sn i=1
Remarque:
Si A1 , . . . , An sont les colonnes de A, ce sont des vecteurs de K n , det A =
dete (A1 , . . . , An ), où e est la base canonique.
Si u ∈ L(E) et si A = M ate u, det A = det u.
n n
ai,σ−1 (i) avec i = σ(j) (lorsque j décrit {1, . . . , n}, i
Y Y
Démonstration : aσ(j),j =
j=1 i=1
décrit {1, . . . , n}). D'où
X n
Y X n
Y
−1
(σ) aσ(j),j = (σ ) ai,σ−1 (i) ,
σ∈Sn j=1 σ∈Sn i=1
d'où le résultat.
50 CHAPITRE 3. DÉTERMINANT
a1,1 · · ·
Notation : Si A = ...
a1,n
... .. , on note
.
an,1 · · · an,n
a1,1 · · · a1,n
. ... .. .
det A = .. .
a
n,1 · · · a n,n
et
a b c X
d e f = (σ)aσ(1),1 aσ(2),2 aσ(3),3
g h i σ∈S3
=(Id)a1,1 a2,2 a3,3 + (1 2)a2,1 a1,2 a3,3 + (2 3)a1,1 a3,2 a2,3 + (1 3)a3,1 a2,2 a1,3
+ (1 2 3)a2,1 a3,2 a1,3 + (1 3 2)a3,1 a1,2 a2,3
=aei − dbi − ahf − egc + dhc + gbf.
j=1
Proposition 3.26. Le déterminant d'une matrice est une forme n linéaire alternée
de ses vecteurs colonnes, c'est à dire
det : K n × · · · × K n → K
(A1 , . . . , An ) 7→ det(A1 | . . . |An )
| {z }
matrice
Démonstration : Cf preuve du lemme 3.18.On voit que la forme est n linéaire, et qu'elle
est alternée :
∀σ ∈ Sn , det(Aσ(1) , | . . . |Aσ(n) ) = (σ) det(A1 | . . . |An )
Corollaire 3.27. Le déterminant d'une matrice est une forme n linéaire alternée
de ses vecteurs lignes.
Démonstration : det A = det t A et det t A est une forme n linéaire alternée des vecteurs
colonnes de t A, donc des vecteurs lignes de A.
On a pour les matrices le même résultat que celui obtenu pour les endomorphismes.
Proposition 3.28. Soient A, B ∈ Mn (K). On a
i. det In = 1,
ii. det AB = (det A)(det B),
iii. Alors A est inversible si et seulement si det A 6= 0. Dans ce cas det(A−1 ) =
(det A)−1 .
Démonstration :
i. Cf 3.23 : In est associé à Id.
ii. Cf 3.23 : l'application linéaire associée à AB est f ◦ g si f est associé à A et g à B.
iii. det A 6= 0 ⇔ det(A1 | . . . |An ) 6= 0 ⇔ {A1 , . . . , An } libre ⇔ A inversible. Dans ce
cas 1 = det In = det AA−1 = (det A)(det(A−1 )), d'où le résultat.
Remarque:
GLn (K) := {A ∈ Mn (K) | A inversible} = {A ∈ Mn (K) | det A 6= 0}. De plus,
l'application det : GLn (K) → K ∗ est un morphisme de groupes.
Si A n'est pas inversible, pour tout n ∈ N∗ , An n'est pas inversible. En eet,
det(An ) = (det A)n .
i=1
52 CHAPITRE 3. DÉTERMINANT
Exemple:
1 2 3
4 5
det 0 4 5
= 1 · det = −2.
6 7
0 6 7
A B
Démonstration : det est une forme p-linéaire alternée des vecteurs colonnes
0 C
de A : l'application
A B
f : (A1 , . . . , Ap ) 7→ det ,
0 C
où A = (A1 , . . . , Ap ), est une forme p-linéaire alternée (on vérie facilement cette
propriété). Donc il existe λ ∈ K ne dépendant que de B et C tel que, pour tout
A ∈ Mp (K),
A B
det = λ det A.
0 C
3.3. DÉTERMINANT D'UN ENDOMORPHISME, DÉTERMINANT D'UNE MATRICE 53
Exemple:
1 2 3
1 2
Si A = 4 5 6 , ∆23 =
7 8
7 8 9
où Acij est la matrice obtenue en enlevant la ième ligne et la j ème colonne dans A. On a
alors le résultat en utilisant le calcul de determinant par blocs.
Remarque: C ijest aussi le déterminant de la matrice obtenue en remplaçant dans
A la ième ligne par t Ej .
Démonstration :
i. On note A1 , . . . , An les colonnes de A. On a Aj = aij Ei . D'où
Pn
i=1
n
! n
X X
det A1 , . . . , Aj−1 , aij Ei , Aj+1 , . . . , An = aij det (A1 , . . . , Aj−1 , Ei , Aj+1 , . . . , An ) .
i=1 i=1
0 · · · 0 1 a1
On a det C(P ) = (−1)d+1 a0 .
3.3.3. Comatrice.
Dénition 3.36. La comatrice à de A est la matrice (cij ) des cofacteurs.
Exemple:
a b d −c
A= , Ã = .
c d −b a
Exemple:
a b −1 1 d −b
A= , A = .
c d ad − bc −c a
Exemple: (
ax + by = α
cx + dy = β
56 CHAPITRE 3. DÉTERMINANT
a b α
où A = vérie det A = ad − bc 6= 0, et B = . On a alors
c d β
α b
1 αd−bβ
x = ad−bc β d = ad−bc
a α
1 aβ−αc
y = ad−bc b β = ad−bc
CHAPITRE 4
QUELQUES ENDOMORPHISMES
REMARQUABLES
4.1. Projecteurs
Dénition-Proposition 4.1. Soient E1 et E2 deux sous-espaces vectoriels de E
tels que E1 ⊕ E2 = E, de sorte que
∀x ∈ E ∃!(x1 , x2 ) ∈ E1 × E2 tel que x = x1 + x2 .
L'application p : x 7→ x1 est linéaire et s'appelle projection sur E1 parallèlement à E2 .
On a ker p = E2 , imp = E1 , et p ◦ p = p.
Démonstration : L'application p est bien dénie car x1 est unique. De plus, elle est
linéaire : soient x, y ∈ E, λ ∈ K. Il existe x1 , y1 ∈ E1 , x2 , y2 ∈ E2 , tels que x = x1 + x2 ,
y = y1 + y2 . On a
x + λy = x1 + λy1 + x2 + λy2 .
| {z } | {z }
∈E1 ∈E2
Par unicité de la décomposition, p(x + λy) = x1 + λy1 = p(x) + λp(y). Par dénition,
ker p = {x ∈ E, p(x) = 0}. Si x ∈ ker p. x s'écrit 0 + x2 , x2 ∈ E2 donc x ∈ E2 .
Réciproquement, si x ∈ E2 , x = 0 + x est la décomposition de x dans E1 ⊕ E2 . Donc
x ∈ ker p. Ainsi ker p = E2 . On a im p ⊂ E1 par dénition. De plus, si s ∈ E1 , p(x) = x
et donc E1 ⊂ im p. Enn, si x ∈ E, p(x) ∈ E1 donc p(p(x)) = p(x), ce qui prouve que
p ◦ p = p.
Dénition 4.2. On appelle projecteur de E toute application linéaire p : E → E
telle que p := p ◦ p = p.
2
58 CHAPITRE 4. QUELQUES ENDOMORPHISMES REMARQUABLES
Remarque:
i. Une projection est un projecteur.
ii. La restriction d'un projecteur p à im p est l'identité. Plus précisément, si p est
un projecteur, et si y ∈ E, alors y ∈ im p si et seulement si y = p(y).
Exemple:
1 −1 −1
La matrice M = 0 1 0 est la matrice d'un projecteur. On voit
0 −1 0
que le rang de M vaut 2, et que imM =< e1 , e1 − e2 + e3 > . ker M est donc de
dimension 1, et est engendré par e1 + e3 . M est alors la matrice de la projection sur
< e1 , e1 − e2 + e3 > parallèlement à e1 + e3 .
4.2. SYMÉTRIES, INVOLUTIONS 59
Proposition 4.7. Soit A ∈ Mn (K) telle que A2 = In . Alors A est la matrice d'une
symétrie de E.
Exemple:
3 −2 4
La matrice M = 0 1 0 est la matrice d'un projecteur. En
−2 2 −3
4 −2 4
eet, M 2 = I2 . De plus, M + I = 0 2 0 a un rang égal à 2, donc un
−2 2 −2
2 −2 4
noyau de dimension 1, engendré par e1 − e3 . La matrice M − I = 0 0 0 a
−2 2 −4
rang 1 donc la dimension de son noyau est 2. Il est engendré par e1 +e2 et 2e1 −e3 . M
est alors la matrice de la symétrie par rapport à < e1 + e2 , 2e1 − e3 > parallèlement
à < e1 − e3 > .
0 1 0 ··· 0
.
0 0 1 0 ..
. . . . . . . . ..
à la matrice .. . . .
. . .
.. . . . . 0 1
0 ··· ··· 0 0
Nous allons montrer que tout endomorphisme nilpotent d'indice de nilpotence égal
à n admet une matrice de la forme précédente. Comme un−1 6= 0, il existe x ∈ E,
un−1 (x) 6= 0.
Lemme 4.9. La famille {x, u(x) . . . , un−1 (x)} forme une base de E.
Démonstration du lemme: On va montrer qu'elle est libre. Soient λ0 , . . . , λn−1 tels
que = 0. On applique un−1 aux deux membres de l'égalité, et on obtient
Pn−1 i
λ
i=0 i u (x)
λ0 un−1 (x) = 0, d'où λ0 = 0. On applique ensuite un−2 aux deux membres de l'égalité
n−1
λi ui (x) = 0, et on obtient λ1 = 0. On répète l'opération n − 2 fois pour obtenir,
X
i=1
pour tout i, λi = 0. La famille est libre de cardinal n, c'est donc une base.
4.3. ENDOMORPHISMES NILPOTENTS 61
Dans la base {un−1 (x), . . . , x}, u a alors une matrice de la forme précédente. Plus
généralement, si l'indice de nilpotence de u n'est pas n, on peut décomposer l'espace
E en sous espaces stables par u tels que la matrice de la restriction de u à ces sous
espaces soit de cette forme. C'est la réduction de Jordan de u.