Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Mines MP 2021: Epreuve 2 Un Corrig e Matrices de Permutation

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 7

Mines MP 2021 : épreuve 2

Un corrigé

Matrices de permutation
1. Notons uσ l’endomorphisme canoniquement associé à ω(σ). On a alors u(ej ) = eσ(j) (où les ei
sont les éléments de la base canonique). Ainsi, pour σ, σ 0 ∈ Bn ,

∀j, uσ◦σ0 (ej ) = eσ◦σ0 (ej ) = uσ (uσ0 (ej )) = uσ ◦ uσ0 (ej )

En revenant aux matrices,

∀σ, σ 0 ∈ Bn , ω(σ ◦ σ 0 ) = ω(σ)ω(σ 0 )

2. Avec les notation précédentes, uσ permute les éléments de la base canonique et envoie donc une
base orthonormée sur une base orthonormée. ω(σ) représente donc une isométrie en b.o.n et est
donc orthogonale.

ω(Bn ) ⊂ On (R)

3. Multiplier à droite (resp à gauche) diag(d1 , . . . , dn ) revient à multiplier chaque colonne (resp
ligne) par dj . Ainsi
[diag(d1 , . . . , dn )ω(σ)]i,j = di δi,σ(j)
[ω(σ)diag(dσ(1) , . . . , dσ(n) )]i,j = dσ(j) δi,σ(j) = di δi,σ(j)
(pour la dernière égalité : les termes sont nuls si i 6= σ(j) et donc égaux ; ils sont aussi égaux si
i = σ(j))
On a donc montré que

diag(d1 , . . . , dn )ω(σ) = ω(σ)diag(dσ(1) , . . . , dσ(n) )

4. La propriété (i) signifie qu’il existe σ ∈ Bn telle que ∀i, d0i = dσ(i) .
La propriété (ii) s’écrit, puisque les éléments de ω(Bn ) sont des matrices orthogonales, ω(α)D0 =
Dω(α).

Si (i) a lieu, alors (ii) aussi avec α = σ (question précédente). Lé réciproque est similaire toujours
avec la question précédente (et avec σ = α).

(i) et (ii) sont équivalentes

Fonctions de matrices symétriques


5. Le théorème spectral indique que S est diagonalisable en base orthonormée (i.e. via une matrice
de passage orthogonale). Comme l’inverse d’une matrice orthogonale est sa transposée et comme
les valeurs propres de S sont supposées dans I,

∀S ∈ Sn (I), ∃Ω ∈ On (R), ∃(si ) ∈ I n , S = ΩT diag(s1 , . . . , sn )Ω

6. Notons J ⊂ I un ensemble tel que {si , i ∈ I} = {sj , j ∈ J} et ∀i, j ∈ J, i 6= j =⇒ si 6= sj . J


est ainsi un ensemble d’indice donnant les éléments distincts parmi les si .
En notant d = card(J), l’application P ∈ Rd−1 [X] 7→ (P (sj ))j∈J ∈ Rd est linéaire et injective (si
P de degré ≤ d − 1 admet d racines différentes, il est nul). Par dimension, c’est un isomorphisme.
(f (sj ))j∈J admet donc un (unique) antécédent.
On a alors P (si ) = f (si ) pour tout i ∈ J et cela reste vrai pour les i ∈ I par choix de J.

1
∀(si ) ∈ I n , ∃P ∈ R[X], ∀i ∈ [[1, n]], P (si ) = f (si )

On pourrait même, ce sont les formules d’interpolation de Lagrange, donner une expression
explicite d’un P convenable :
X Y X − si
P = f (sj )Lj avec Lj =
sj − si
j∈J i∈J\{j}

7. Montrons par récurrence sur k que pour toute matrice inversible Q et toute matrice M , on a

(Q−1 M Q)k = Q−1 M k Q

- C’est vrai pour k = 0.


- Si c’est vrai au rang k alors

(Q−1 M Q)k+1 = (Q−1 M Q)k Q−1 M Q = Q−1 M k QQ−1 M Q = Q−1 M k+1 Q

et le résultat est vrai au rang k + 1.


Par combinaisons linéaires, on en déduit que

∀P ∈ R[X], ∀Q ∈ GLn (R), ∀M ∈ Mn (R), P (Q−1 M Q) = Q−1 P (M )Q

Par ailleurs, on a aussi

∀k ∈ R, diag(d1 , . . . , dn )k = diag(dk1 , . . . , dkn )

et en combinant linéairement

∀P ∈ R[X], P (diag(d1 , . . . , dn )) = diag(P (d1 ), . . . , P (dn ))

Ici, on a donc (Ω est orthogonale et donc égale à son inverse), P étant le polynôme de la question
6,
ΩT diag(P (s1 ), . . . , P (sn ))Ω = P (S) = (Ω0 )T diag(P (s01 ), . . . , P (s0n ))Ω0
De plus, Sp(S) = {s1 , . . . , sn } = {s01 , . . . , s0n } et donc P (si ) = f (si ) et P (s0i ) = f (s0i ) pour tout i.
Ainsi

(Ω0 )T diag(f (s01 ), . . . , f (s0n ))Ω0 = ΩT diag(f (s1 ), . . . , f (sn ))Ω

Comme (AB)T = B T AT , il est immédiat que

ΩT diag(f (s1 ), . . . , f (sn ))Ω ∈ Sn (R)

8. On a ΩT (D1 + λD2 )Ω = ΩT D1 + λΩT D2 Ω qui me semble donner aisément

u(ϕ1 + λϕ2 )(S) = u(ϕ1 )(S) + λu(ϕ2 )(S)

Ceci étant vrai pour tout S, u(ϕ1 + λϕ2 ) = u(ϕ1 ) + λu(ϕ2 ) et u est linéaire .
La trace étant linéaire, par composition, v est linéaire .
Soient ϕ : I → R et x ∈ I. On a diag(x, . . . , x) = InT (xIn )In et donc

u(ϕ)(xIn ) = InT diag(ϕ(x), . . . , ϕ(x))In = ϕ(x)In

∀x ∈ R, u(ϕ)(xIn ) = ϕ(x)In

2
9. Supposons que u(ϕ) = 0. Alors ∀S ∈ Sn (R), u(ϕ)(S) = 0. Avec la question précédente,
∀x ∈ I, ϕ(x) = 0 et donc ϕ = 0. Ainsi ϕ est injective (noyau restreint au neutre).

Si n = 1 alors une application V de Sn (I) dans Sn (R) s’assimile à une application ϕ de I dans
R (V ((x)) = (ϕ(x))) et on a V = u(ϕ). u est ainsi surjective.
Si n ≥ 2, on peut trouver soit V l’application constante égale à E1,2 + E2,1 , définie sur Sn (I). V
est à valeurs dans Sn (R). I étant non vide, il contient un élément x. On a V (xIn ) = E1,2 + E2,1
qui n’est pas scalaire et n’est donc égale à u(ϕ)(xIn ) pour aucune application ϕ. Ainsi, V n’a
pas d’antécédent par u.
u est non surjective sauf si n = 1

10. On suppose f polynomiale et il lui est donc associé un polynôme P ∈ R[X] tel que ∀x ∈
I, P (x) = f (x).
Soit S ∈ Sn (I). Il existe des éléments si ∈ I et Ω ∈ On (R) telles que S = ΩT diag(s1 , . . . , sn )Ω
et on a
u(f )(S) = ΩT diag(f (s1 ), . . . , f (sn ))Ω = ΩT diag(P (s1 ), . . . , P (sn ))Ω
Avec les remarques faites en question 7, ceci donne
u(f )(S) = P (ΩT diag(s1 , . . . , sn )Ω) = P (S)

Si f est polynomiale, il existe P ∈ R[X] tel que ∀S ∈ Sn (I), u(f )(S) = P (S)

On suppose, réciproquement, que f est telle qu’un tel polynôme P existe. On a en particulier
∀x ∈ I, f (x)In = u(f )(xIn ) = P (xIn ) = P (x)In

et donc ∀x ∈ I, f (x) = P (x). f est donc polynomiale et la réciproque est vraie .


11. On suppose que ∀x ∈ I, ϕk (x) → ϕ(x). On se donne alors S ∈ Sn (I).Il existe des éléments si ∈ I
et Ω ∈ On (R) telles que S = ΩT diag(s1 , . . . , sn )Ω et on a
u(ϕk )(S) = ΩT diag(ϕk (s1 ), . . . , ϕk (sn ))Ω = ΩT Dk Ω
(Dk ) converge vers D = diag(ϕ(s1 ), . . . , ϕ(sn )) et M 7→ ΩT M Ω est continue (par exemple car
elle est linéaire en dimension finie). Ainsi, u(ϕk )(S) tend vers u(ϕ)(S).

La convergence simple de (ϕk ) vers ϕ sur I entraı̂ne celle de (u(ϕk )) vers u(ϕ) sur Sn (I)

La trace étant une application continue (linéaire en dimension finie)

La convergence simple de (ϕk ) vers ϕ sur I entraı̂ne celle de (v(ϕk )) vers u(ϕ) sur Sn (I)

Avec les mêmes notations, on a


u(ϕk )(S) − u(ϕ)(S) = ΩT diag(ϕk (s1 ) − ϕ(s1 ), . . . , ϕk (sn ) − ϕ(sn ))Ω
Munissons Mn (R) de la norme euclidienne canonique k.k2 définie par
q
kM k2 = Tr(M T M )
La trace étant invariante par similitude, deux matrices orthogonalement semblables ont même
norme (calcul aisé). Ainsi
ku(ϕk )(S) − u(ϕ)(S)k22 = kdiag(ϕk (s1 ) − ϕ(s1 ), . . . , ϕk (sn ) − ϕ(sn ))k2
Xn
= |ϕk (si ) − ϕ(si )|2
i=1
≤ nkϕk − ϕk2∞,I

3
Si (ϕk ) converge uniformément vers ϕ sur I, le majorant, qui est indépendant de S, est de limite
nulle. On a ainsi convergence uniforme de (u(ϕk )(S)) vers u(ϕ)(S). Il est à noter que changer de
norme sur Mn (R) est indifférent puisque toutes les normes sont équivalentes en dimension finie.

La convergence uniforme de (ϕk ) vers ϕ sur I entraı̂ne celle de (u(ϕk )) vers u(ϕ) sur Sn (I)

Avec des notations, similaires, on a



Xn
|v(ϕk )(S) − v(ϕ)(S)| = (ϕk (si ) − ϕ(si )) ≤ nkϕk − ϕk∞,I


i=1

et là encore

La convergence uniforme de (ϕk ) vers ϕ sur I entraı̂ne celle de (v(ϕk )) vers v(ϕ) sur Sn (I)

Norme et convexité
12. Soit S ∈ Sn (R). Par théorème spectral, il existe une base orthonormée (X1 , . . . , Xn ) de Rn (que
l’on assimile à Mn,1 (R)) formée de vecteurs propres pour S. Notons λi la valeur propre associée
à Xi . Le spectre de S est ainsi constitué des λi .
Soit X ∈ Rn que l’on décompose en X = x1 X1 + · · · + xn Xn . On a alors (la base étant ortho-
normée)
X n n
X Xn
2 T 2
min(Sp(S)) xi ≤ X SX = λi xi ≤ max(Sp(S)) x2i
i=1 i=1 i=1

Comme XT X = x21 + ··· + x2n , on a donc

∀X ∈ Σ, min(Sp(S)) ≤ X T SX ≤ max(Sp(S))

Le majorant (resp minorant) est atteint pour X = Xj associé à une valeur propre maximale
(resp minimal) et c’est donc un maximum (resp minimum).

min(Sp(S)) = min{X T SX ; X ∈ Σ} et max(Sp(S)) = max{X T SX ; X ∈ Σ}

13. Soient A, B ∈ Sn (R) et λ ∈ [0, 1]. On a

∀X ∈ Σ, X T ((1 − λ)A + λB)X = (1 − λ)X T AX + λX T BX

Comme λ ≥ 0 et 1 − λ ≥ 0, la question précédente donne

min((1−λ)Sp(A))+λ min(Sp(B)) ≤ X T ((1−λ)A+λB)X ≤ (1−λ) max(Sp(A))+λ max(Sp(B))

puis

Sp((1 − λ)A + λB) ⊂ [(1 − λ) min(Sp(A)) + λ min(Sp(B)), (1 − λ) max(Sp(A)) + λ max(Sp(B))]

Comme I est un intervalle, il est convexe. Comme A, B ont un spectre inclus dans I, les bornes de
l’intervalle ci-dessus sont dans I et l’intervalle est donc inclus dans I. Ainsi (1−λ)A+λB ∈ Sn (I).
On a montré que

Sn (I) est une partie convexe de Sn (R)

Pour montrer que ρ est une norme sur Sn (R), on a quatre propriétés à prouver.
- ρ est immédiatement positive.

4
- Si ρ(S) = 0 alors 0 est la seule valeur propres de S et comme S est diagonalisable, elle est
nulle. Ceci montre l’axiome de séparation.
- Soient S ∈ Sn (R) et µ ∈ R. Les valeurs propres de µS sont les µλ pour λ ∈ Sp(S). Comme
x 7→ |µ|x est croissante, le maximum des |µ||λ| est égal à |µ| fois le maximum des |λ|. Ainsi
ρ(µS) = |µ|ρ(S) et on a l’homogénéité.
- Soient A, B ∈ Sn (R). On a alors Sp(A) ⊂ [−ρ(A), ρ(A)] et idem pour B. On montre
Comme plus haut que le spectre de A + B est dans [−ρ(A) − ρ(B), ρ(A) + ρ(B)] et donc
ρ(A + B) ≤ ρ(A) + ρ(B). Ceci donne l’inégalité triangulaire.

ρ est une norme sur Sn (R)

Continuité des fonctions de matrices symétriques


14. χ va de Sn (R) dans Rn [X]. Les espaces étant de dimension finie, le choix de norme n’importe
pas dans l’étude de continuité.
Les coefficients de χ(S) sont des fonctions polynomiales de ceux de S et donc continues (ce qui
est immédiat quand on munit Sn (R) de la norme infinie). Ainsi, les fonctions coordonnées de χ
(dans la base canonique de Rn [X]) sont continues :

χ est continue

15. On suppose que ρ(Mk − M ) → 0 et on a donc ρ(Mk ) → ρ(M ) (par seconde forme de l’inégalité
triangulaire).
Ainsi, la suite (ρ(Mk )) est une suite bornée, disons majorée par un réel M . En notant Λk =
(λ1,k , . . . , λn,k ), on a
∀k, kΛk k = max |λi,k | ≤ M
1≤i≤n

On a ainsi (Λk )k∈ N qui est bornée dans Rnet admet une valeur d’adhérence Λ = (λ1 , . . . , λn ).
En notant ϕ l’extractrice associé, λi,ϕ(k) → λi et le caractère croissant des Λk entraı̂ne celui de
Λ.

(Λk )k∈N possède une valeur d’adhérence croissante

16. On sait que χ est continue et donc χ(Mk ) → χ(M ). A fortiori, χ(Mα(k) ) → χ(M ). Or, avec les
notation utilisées en question précédente,
n
Y
χMα(k) = (X − λi,α(k) )
i=1

Notons µi la limite de λi,α(k) , les théorèmes d’opération donnent


n
Y
χMα(k) = (X − µi )
i=1

Par unicité de la limite, on a donc


n
Y
χM = (X − µi )
i=1

La suite (µi ) étant croissante (par croissance des λk ), c’est la suite croissante des valeurs propres
de M :

5
Λα(k) −→ Sp↑ (M )
k→+∞

17. La suite (Λk ) possède une valeur d’adhérence (question 15) et celle-ci est forcément Sp↑ (M ). On
a une suite à valeurs dans un compact (ses élément appartiennent à une boule fermée, on l’a noté
en question 15) qui possède une unique valeur d’adhérence et cette suite est donc convergente.
On a montré que Sp↑ (Mk ) → Sp↑ (M ). Par caractérisation séquentielle de la limite,

Sp↑ est continue

Si on utilise le résultat de cours sur les suites à valeurs dans un compact, la question 15 ne sert
pas. Plus précisément, elle sert juste à justifier, dans sa preuve, que l’on a une suite bornée en
dimension finie et donc à valeurs dans un compact.
18. On (R) est fermé comme image réciproque du fermé {In } par l’application continue M 7→ M T M .
C’est aussi une partie bornée car ∀M ∈ On (R), kM k ≤ 1 (chaque colonne est de norme 1 dans
Rn euclidien).
Comme Mn (R) est de dimension finie,

On (R) est une partie compacte de Mn (R)

19. Soit ϕ ∈ C 0 (I, R). Soit (Mk ) une suite d’éléments de Sn (I) qui converge dans Sn (I) vers une
matrice M . On note encore Λk = (λ1,k , . . . , λn (k)) son spectre ordonné. Pour chaque entier k, il
existe Ωk ∈ On (R) telle que
Mk = ΩTk diag(λi,k )Ωk
On a alors
uϕ (Mk ) = ΩTk diag(ϕ(λi,k ))Ωk
On vient de voir que Λk converge vers le spectre ordonné Λ = (λ1 , . . . , λn ) de M .
Par ailleurs, comme On (R) est un compact, il existe une extraite (Ωα(k) ) qui converge vers
Ω ∈ On (R). On a alors

Mα(k) → ΩT diag(ϕ(λi ))Ω et uϕ (Mα(k) ) → ΩT diag(ϕ(λi ))Ω

Par unicité de la limite, on a M = ΩT diag(ϕ(λi ))Ω et la seconde limite vaut ainsi u(ϕ)(M ). On
a donc
uϕ (Mα(k) ) → u(ϕ)(M )
Si on considère la suite (u(ϕ)(Mk )), on peut en fait, en travaillant sur une extraire quelconque
comme ci-dessus, montrer que u(ϕ)(M ) est la seule valeur d’adhérence possible. Or, toutes
les suites (ϕ(λi,k ))k∈ N étant bornée, la suite (u(ϕ)(Mk )) est bornée (au sens de ρ, c’est quasi
immédiat et le choix de norme n’importe pas). On est dans la même situation qu’en question 17
et on peut affirmer que (u(ϕ)(Mk )) converge vers u(ϕ)(M ). u(ϕ) est donc continue. Comme la
trace est continue, v(ϕ) est aussi continues.

si ϕ ∈ C 0 (I, R), alors u(ϕ) et v(ϕ) sont continues

Convexité des fonctions de matrices symétriques


20. Pour une matrice M quelconque, on a [M ]i,j = EjT M Ei où E1 , . . . , En sont les vecteurs colonnes
associés à la base canonique.
Soit Ω ∈ On (R) et soit U = ΩT SΩ. On a alors

[U ]j,j = YjT SYj avec Yj = ΩEj

6
Les vecteurs Yj étant dans Σ (car Ej ∈ Σ et O orthogonale), la question 12 montre que
∀j, min(Sp(S)) ≤ [U ]j,j ≤ max(Sp(S))
Majorant et minorant sont dans I et I est un intervalle. Ainsi
∀j ∈ [[1, n]], [U ]j,j ∈ I
Notons λ1 , . . . , λn les valeurs propres de S (comptées avec multiplicité).
Soit Ω ∈ US . U est orthogonalement semblable à S et il existe Ω ∈ On (R) telle que U =
ΩT diag((λi )1≤i≤n )Ω. Avec les notations précédentes, on a
n
!
X
∀j, f ([U ]j,j ) = f YjT diag((λi )1≤i≤n )Yj = f λi [Yj ]2i


i=1

Comme Yj ∈ Σ, les [Yj ]2i sont positifs de somme 1. Par convexité de f , on a donc
n
X
∀j, f ([U ]j,j ) ≤ [Yj ]2i f (λi )
i=1
En sommant ces relations, on obtient
 
n
X n X
X n n
X n
X
f ([U ]j,j ) ≤ [Yj ]2i f (λi ) = f (λi ) [Yj ]2i 
j=1 j=1 i=1 i=1 j=1

Les Yj sont en fait les colonnes de Ω et [Yj ]i = [Ω]i,j . Les lignes de Ω forment aussi une famille
orthonormée et les sommes intérieures ci-dessus valent 1. On a donc
Xn n
X
f ([U ]j,j ) ≤ f (λi ) = v(f )(S)
j=1 i=1

L’inégalité est une égalité quand Ω = In et on a donc


( n )
X
max f ([U ]k,k ) ; U ∈ US = v(f )(S)
k=1

21. Avec la question précédente, il existe une matrice Ω ∈ On (R) telle qu’en notant U = ΩT ((1 −
t)A + tB)Ω on ait
Xn
v(f )((1 − t)A + tB) = f ([U ]k,k )
k=1
Or, [U ]k,k = (1 − t)[ΩT AΩ]k,k + t[ΩT BΩ]k,k et ainsi
n
X n
X
v(f )((1 − t)A + tB) = (1 − t) f ([ΩT AΩ]k,k ) + t f ([ΩT BΩ]k,k )
k=1 k=1
La question précédente permet de majorer les sommes par v(f )(A) et v(f )(B). En multipliant
par t et 1 − t on ne change pas le sens des inégalités. On trouve
v(f )((1 − t)A + tB) ≤ (1 − t)v(f )(A) + tv(f )(B)
22. On vient de voir que la convexité de f entraı̂ne celle de v(f ).
On suppose, réciproquement, que v(f ) est convexe. On applique cette propriété avec A = xIn
et B = yIn pour x, y ∈ I. On obtient alors
nf ((1 − t)x + ty) = v(f )((1 − t)xIn + tyIn ) ≤ (1 − t)v(f )(xIn ) + tv(f )(yIn ) = n((1 − t)f (x) + ty)
ce qui donne la convexité de f .
f est convexe sur I ssi v(f ) l’est sur Sn (I)

Vous aimerez peut-être aussi