Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% found this document useful (0 votes)
17 views10 pages

CB 03 Corr

Download as pdf or txt
Download as pdf or txt
Download as pdf or txt
You are on page 1/ 10

LM6E: MP* CCB 3 2023-2024

Un corrigé du CCB3

Problème 1

Partie I. Démonstration du théorème de Weierstrass par les poly-


nômes de Bernstein
1. La variable aléatoire Sn suit la loi binomiale de paramètre n, x, comme somme de n variables aléatoires
i.i.d de loi de Bernoulli de paramètre x.
2. (a) Le réel Bk,n (x) représente la probabilité
  de l’événement [Sn = k]. Ainsi 0 ⩽ Bk,n (x) ⩽ 1, pour tout
n
(k, n) ∈ N2 par la définition de lorsque k > n.
k
(b) Si Sn ,→ B(n, x), alors l’événement [Sn = k] (obtenir k succès lors de n expériences indépendantes
donnant succès avec la probabilité x et échec avec la probabilité 1−x ) est égal à l’événement obtenir
n − k échecs lors de n expériences indépendantes donnant succès avec la probabilité x et échec avec
la probabilité 1 − x. En échangeant les notions de succès/échec, il vient Bk,n (x) = Bn−k,n (1 − x)
Pn Pn
(c) i. k=0 Bk,n (x) = k=0 P (Sn = k) = 1, puisque Sn (Ω) = [[0, n]].
Pn Pn Pn
ii. k=0 kBk,n (x) = E (Sn ) = E ( i=1 Xi ) = i=1 E (Xi ) = nx.
Pn 2
P n Pn
iii. k=0 (k − nx) Bk,n (x) = V (Sn ) = V ( i=1 Xi ) = i=1 V (Xi ) = nx(1 − x), par indépendance
des (Xi ).
3. Soit k ∈ [[1, n]]. On a Sn = Sn−1 +Xn . Il vient [Sn = k] = ([Sn−1 = k] ∩ [Xn = 0])∪([Sn−1 = k − 1] ∩ [Xn = 1]).
Par indépendance

P ([Sn = k]) = P ([Sn−1 = k]) P ([Xn = 0]) + P ([Sn−1 = k − 1]) P ([Xn = 1])
= (1 − x)P ([Sn−1 = k]) + xP ([Sn−1 = k − 1])
On vérifie cette relation pour k = 0 : P (Sn = 0) = (1 − x)n = (1 − x)P (Sn−1 = 0). De même pour
k = n.
Ainsi Bk,n (x) = xBk−1,n−1 (x) + (1 − x)Bk,n−1 (x).
4. (a) On
 remarque
 que pour tout k ∈ [[0, n]], la valuation de Bk,n est k (le polynôme Bk,n est de la forme
n
xk + · · · . Ainsi, la matrice de la famille (B0,n , . . . , Bn,n ) dans la base canonique de Rn [X]
k
est triangulaire inférieure de diagonale non nulle et est donc inversible ; cette famille est donc libre
et de cardinal n + 1 : c’est une base de Rn [X].
(b) L’application Bn est manifestement un endomorphisme de Cn [X]. Si P ∈ Cn [X] et Bn (P) = 0, alors,
par la question précédente P(k/n) = 0 pour tout k ∈ [[0, n]]. Le polynôme P de degré inférieur ou
égal à n admet n + 1 racines distinctes : c’est la polynôme nul.
L’endomorphisme de Cn [X], Bn , est injectif, donc bijectif.

Page 1/11
LM6E: MP* CCB 3 2023-2024

(c) Soit P ∈ C[X]. Supposons que deg(P) = n. La question précédente montre qu’il existe Q ∈ Cn [X]
tel que Bn (Q) = P.
Le polynôme Q n’est pas unique : en effet A(X) = nk=0 (X − k/n) (qui est de degré n + 1) vérifie
Q
Bn (A) = 0.
Donc Bn (Q + A) = P.
5. On a Tn (Ω) = {0, 1/n, . . . , k/n, . . . , 1} et P (Tn = k/n) = P (Sn = k).
La fonction f est continue sur [0, 1] et Sn (Ω) est fini ; on peut appliquer le théorème de transfert :
n  
X k
E (f (Tn )) = f xk (1 − x)n−k = Bn (f )(x)
k=0
n

De plus, comme E (Tn ) = x ⇒ f (E (Tn )) = f (x), par linéarité de l’espérance Bn (f )(x) − f (x) =
E (f (Tn )) − f (E (Tn )) = E (f (Tn ) − f (E (Tn ))).
V(X)
6. On utilise l’inégalité de Bienaymé-Tchebicheff : pour tout δ > 0, P(|X−E(X)| > δ) ⩽ δ2
. Ici, comme
E (Tn ) = x

x(1 − x) 1
P (|Tn − x| > δ) ⩽ 2 ⩽
nδ 4nδ 2
puisque 0 ⩽ x(1 − x) ⩽ 1/4 pour x ∈ [0, 1].
7. En utilisant le théorème de transfert (X(Ω) = {x1 , . . . , xp } est fini et φ bornée), puis la convexité de
φ, il vient
p p
!
X X
φ(E(X)) = φ P (X = xi ) xi ⩽ P (X = xi ) φ (xi ) = E(φ(X))
i=1 i=1

8. La fonction x → |x| est convexe ; donc |Bn (f )(x) − f (x)| = |E (f (Tn ) − f (E (Tn )))| ⩽ E |f (Tn ) − f (E (Tn ))
La fonction f est continue sur [0, 1] compact : elle est uniformément continue. Pour tout ε > 0, il
existe δ > 0 tel que |x − x′ | < δ ⇒ |f (x) − f (x′ )| < ε. Ainsi, par la formule de l’espérance totale,
puis la question 6

|Bn (f )(x) − f (x)| ⩽E |f (Tn ) − f (x)|


=E (|f (Tn ) − f (x)| / |Tn − x| ⩽ δ) P (|Tn − x| ⩽ δ)
+ E (|f (Tn ) − f (x)| / |Tn − x| > δ) P (|Tn − x| > δ)
⩽εP (|Tn − x| ⩽ δ) + E (|f (Tn ) − f (x)| / |Tn − x| > δ) P (|Tn − x| > δ)
⩽ε + 2∥f ∥∞ P (|Tn − x| > δ)
2∥f ∥∞
⩽ε +
4nδ 2
∥∞
Il existe N0 tel que pour n ⩾ N0 , 2∥f
4nδ 2
< ε et pour tout x ∈ [0, 1], |Bn (f )(x) − f (x)| < 2ε. Finalement,
limn→+∞ supx∈[0,1] |Bn (f )(x) − f (x)| = 0.
9. L’application φ : [0, 1] → [a, b] définie par φ(t) = a + t(b − a) est un homéomorphisme de [0, 1] sur
[a, b]. Soit g ∈ C0 ([a, b], R . La fonction f = g ◦ φ−1 est continue sur [0, 1]. Pour tout ε > 0, il existe
P polynôme tel que ∥f − P∥[0,1],∞ < ε. Ainsi ∥g − P ◦ φ∥[a,b],∞ < ε.

Page 2/11
LM6E: MP* CCB 3 2023-2024

10. Supposons C[X] soit dense dans (C0 (R, C), ∥∥∞ ). Soit f ∈ C0 (R, C). Il existe une suite de polynôme
(Pn )n tel que limn→+∞ ∥f − Pn ∥∞ = 0.
Soit ε > 0. Il existe N0 tel que pour tout m > n ⩾ N0 , supx∈R |Pn (x) − Pm (x)| < ε. Cela entraîne que
Pn − Pm est constant. Donc pour tout n ⩾ N0 Pn − PN0 = αn . Ainsi αn = Pn (0) − PN0 (0) converge
vers f (0) − PN0 (0) = α0 . Donc f = PN0 + α0 est un polynôme.

Partie II. Approximation des fonctions Höldériennes

A. Généralités.
11. Soit α ∈]0, 1]. Montrons que x → xα est 1 -Höldérienne, soit |xα − y α | ⩽ |x − y|α , pour (x, y) ∈ [0, 1]2 .
- c’est vérifié pour x = 0
- pour 0 < x < y, en factorisant par xα , on doit montrer que (1 − tα ) − (1 − t)α ⩽ 0(t = x/y). On
étudie g : t → (1 − tα ) − (1 − t)α .
Comme t ∈ [0, 1], g(t) = 1 − tα − (1 − t)α vérifie g ′ (t) = α (−tα−1 + (1 − t)α−1 ) s’annule pour t = 1/2.
Ainsi g est décroissante sur [0, 1/2] et croissante sur [1/2, 1]. Comme g(0) = g(1) = 0, on a g(t) ⩽ 0
pour tout t ∈ [0, 1]. - pour 0 < y < x, t ⩾ 1, g2 (t) = tα − 1 − (t − 1)α = tα g1 (1/t) ⩽ 0.
On vérifie aisément que Lipα est un sous espace vectoriel de C0 ([0, 1]).
12. Si 0 ⩽ α ⩽ β ⩽ 1, alors |x − y|β ⩽ |x − y|α et

|g(x) − g(y)| ⩽ L|x − y|β ⩽ L|x − y|α


Si notre ensemble contient au moins deux valeurs 0 ⩽ α < β ⩽ 1, pour α < γ < β, Lipγ ⊆ Lipα , ce
qui montre que notre ensemble est un intervalle donc convexe.
13. On a C1 ⊂ Lipα car |f (x) − f (y)| ⩽ supt∈[0,1] |f ′ (t)| |x − y| ⩽ L|x − y|α puisque α ∈] 0, 1].
De même Lipα ⊂ C0 : pour ε > 0, on choisit δ tel que Lδ α < ε.
Ces inclusions sont strictes
- la fonction x → |x − 1/2| est 1-Höldérienne, donc α-Höldérienne pour tout α ⩽ 1 et n’est pas C1 .
1/3
- la fonction f : x →= e(ln x) prolongée en x = 0 par 0 est continue sur [0,1], mais n’est pas α-
1/3
Höldérienne pour tout 0 < α ⩽ 1. En effet, f (x)−f xα
(0)
= e(ln x) −α ln x → +∞ lorsque x tend vers
0+ .

B. Majoration de l’erreur.
14. Il suffit de remarquer que Lipα ⊂ C0 et que le théorème de Weierstrass donne que pour tout fonction
g ∈ C0 ([0, 1]), (Bn (g))n converge uniformément sur [0, 1] vers g.
15. Soit g ∈ Lipα . On a, grâce au théorème de transfert :

|Bn (g) − g(x)| = E [|g (Tn ) − g(x)|] ⩽ LE [|Tn − x|α ]


16. (a) Pour tout n ⩾ 1, notons Y = ni=1 yi
P

Page 3/11
LM6E: MP* CCB 3 2023-2024

n n   n  
X X xi X yi xi
h (xi , yi ) = yi g =Y g
i=1 i=1
yi i=1
Y yi
n
!
X xi
⩽ Yg ( concavité de g)
i=1
Y
n n
!
X X
=h xi , yi
i=1 i=1

(on a utilisé la définition de convexité pour n points (au lieu de 2) qu’il faudrait peut être ici
redémontrer par récurrence sur n ?)
Démonstration du cas d’égalité par récurrence sur n :
Pour n = 2 : on a égalité dans la seule inégalité précédente si et seulement si y1y+y
1
2
= 0 ou y1y+y
1
2
=1
x1 x2
ou y1 = y2 ; les deux premiers cas sont impossibles.
Pour n ⩾ 3
n+1
X n
X
h (xi , yi ) = h (xi , yi ) + h (xn+1 , yn+1 )
i=1 i=1
n n
!
X X
⩽h xi , yi + h (xn+1 , yn+1 ) ( récurrence)
i=1 i=1
n+1 n+1
!
X X
=h xi , yi ( récurrence pour n = 2)
i=1 i=1

Pour avoir égalité,


Pn
il faut et il suffit, par
Pn
récurrence que pour tout i ∈ [[1, n]], xi = λyi et xn+1 =
xi x x
µyn+1 , avec Pn yi = yn+1 . Donc λ = Pn yii = µ, ce qui termine la récurrence.
i=1 n+1 i=1
i=1 i=1

(b) Soit g : x → x . La fonction g est strictement concave sur R+ (dérivée seconde strictement
1/p

négative). On a h(x, y) = x1/p y 1/q pour x ⩾ 0 et y > 0. Si on suppose qu’aucun des (v1 , . . . , vn )
n’est nul, on pose xi = |ui |p , yi = |vi |p et on peut donc écrire en utilisant la question précédente

n n  1/p n
!1/p n
!1/q
X X xi X X
|ui vi | = yi ⩽ |ui |p |vi |q
i=1 i=1
yi i=1 i=1

Si certains des vi sont nuls, la relation précédente reste vérifiée car on ne les compte pas dans le
calcul.
On a égalité dans l’inégalité précédente si et seulement s’il existe λ tel que pour tout i ∈
[[1, n]], |ui |p = λ |vi |p , ou pour tout i ∈ [[1, n]], |ui | = µ |vi |.
1/p+1/q
17. On utilise l’inégalité précédente avec p = 2/α et 1/p + 1/q = 1, P Tn = nk = P Tn = nk


Page 4/11
LM6E: MP* CCB 3 2023-2024

n α  
α
X k k
E (|x − Tn | ) = − x P Tn =
k=0
n n
n 2  !α/2 Xn  !(2−α)/2
X k k k
⩽ − x P Tn = P Tn =
k=0
n n k=0
n
n 2   α/2
!
X k k
= − x P Tn =
n n
 k=0 α/2
= E |x − Tn |2

18. Par la question 15 , pour tout x ∈ [0, 1]

 α/2
α 2 α/2 L 1
|Bn (g)(x) − g(x)| ⩽ L × E (|Tn − x| ) ⩽ L × E |x − Tn | = 2 × V (Sn )α/2 ⩽ L
n 4n

1 α/2

Soit ∥Bn (g) − g∥∞ ⩽ L 4n
.
19. La relation précédente étant valable quel que soit g ∈ Lipα , il vient
 α/2
1
sup ∥Bn (g) − g∥∞ =O
g∈Lipα n

Page 5/11
LM6E: MP* CCB 3 2023-2024

Problème 2

I - Décomposition polaire d’un endomorphisme auto-adjoint de Rn


On munit Rn de sa structure euclidienne canonique.
I. A- Cas d’un endomorphisme auto-adjoint défini positif.
1. Montrons que u est autoadjoint, si, et seulement si sa matrice est dans S++ n (R)
n n
Soit B = (u1 , . . . , un ) une base orthonormée de R , u ∈ L (R ) et A = (ai,j )i,j sa matrice dans dans la
base B et notons < ., . > le produit scalaire canonique sur Rn .
. u est autoadjoint ⇐⇒ ∀x, y ∈ Rn , < u(x), y >=< x, u(y) >⇐⇒
⇐⇒ ∀i, j ∈ [[1, n]] < u (ej ) , ei >=< ej , u (ei ) >⇐⇒ ai,j = aj,i ⇐⇒ A = t A.
. Supposons que u est défini positif, et soit λ ∈ Sp(A) alors, ∃x ∈ R∗ tel que u(x) = λx, donc ∀x ∈
Rn , < u(x), x >= λ∥x∥2 > 0, donc λ > 0.
. Supposons que Sp(A) = {λ1 , . . . , λn } ⊂ R∗+ et choisissons P grâce au théorème spectral une base
orthonormée (e1 , . . . , en ) de vecteurs propres de f , alors ∀x = nk=1 xi ei non nul
(prenons par exemple xj ̸= 0 ) on a < u(x), x >= nk=1 λk x2k ≥ λj x2j > 0.
P
−1
2. Montrons que si S ∈ S++n (R), alors S ∈ S++n (R)
Soit S ∈ Sn (R), alors Sp(S) = {λ1 , . . . , λn } ⊂ R∗+ , donc det(S) = nk=1 λk > 0, d’où S est inversible,
++
Q
de plus si u est son endomomorphisme canonique associé, alors
∀x, y ∈ Rn , < u−1 (x), (y) >=< u−1 (x), u n (u−1 (y)) >=< −1 −1 −1
o u (u (x)) , u (y) >=< x, u (y) >, donc
u−1 est symétrique et puisque Sp (u−1 ) = λ11 , . . . , λ1n ⊂ R∗+ , S−1 ∈ S++
n (R).

3. Dans cette question, u désigne un endomorphisme de Rn autoadjoint défini positif.


On se propose de démontrer qu’il existe un unique endomorphisme v de Rn autoadjoint, défini positif,
tel que v 2 = u.
(a) v induit un endomorphisme de Ker(u − λid)
- L’égalité v 2 = u entraine que uov = v 2 ov = vov 2 = vou, donc Ker(u − λid) est stable par v, c’est
à dire v induit un endomorphisme de Ker(u − λid).
√ √
. λ > 0, donc X − λ et X + λ sont premiers entre eux, et le√théorème de décomposition√ des
2
noyaux entraine que Ker(u √ − λid) = Ker (v − λid) = Ker(v − λid) ⊕ Ker(v − λid), √ or v est
défini positif,√donc Ker(v + λid) = {0}, ce qui entraine que Ker(u − λid) = Ker(v − λid), donc
vKer(u−λid) = λidKer(u−λid) .
(b) Expression de v et conclusion
L
- Soit λ ∈ Sp(u) et pλ la projection sur Ker(u − λid) parallélement à µ̸=λ Ker(u − µid), alors
P P √
u = λ∈Sp(u) λpλ et par suite v = λ∈Sp(u) λpλ , ce qui traduit que si v existe, il est unique.

. Si v est donné par l’égalité précédente, alors ∀x L∈ Ker(u − λid), v(x) = λx, donc v 2 = u sur
chaque sous-espace Ker(u − λid) et puisque Rn = Ker(u − λid), on aura v 2 = u sur Rn .
Pn Pn
- Soient x = Lnxk , y =
k=1 k=1 yk les décompositions deP x, y ∈ √ R dans la somme Pdirecte
√ or-
n n n
thogonale R = k=1 Ker (u − λk id), alors < v(x), y >= k=1 λk < xk , yk >= k=1 λk <
yk , xk >=< x, v(y) > de plus si x est non nul, il existe j ∈ [[1, n]] tel que xj ̸= 0, donc
P √
< v(x), x >= nk=1 λk ∥xk ∥2 ≥ λj ∥xj ∥2 > 0, ce qui montre que v est symétrique défini positif.

Page 6/11
LM6E: MP* CCB 3 2023-2024

(c) . Soient λ1 , . . . , λp les valeurs propres distinctes deux


√ à deux de u, alors
Pil existe
√ un unique polynôme
Q ∈ Rp−1 [X] tel que ∀k ∈ [[1, p]], Q (λk ) = Q λk à savoir Q = pk=1 λk Lk où L1 , . . . , Lp les
Q X−λ
polynômes de Lagrange donnés par Li = j̸=i xi −xjj .
P √ P P 
. On a v = λ∈Sp(u) λpλ = λ∈Sp(u) Q(λ)pλ = Q λ∈Sp(u) λpλ = Q(u).

4. - Soit A ∈ GLn (R).


(a) Soit u l’endomorphisme canonique associé à A, alors (f ∗ of )∗ = f ∗ o (f ∗ )∗ = f ∗ of , donc f est
autoadjoint, de plus f inversible (A ∈ GLn (R) ), et par suite ∀x ∈ Rn non nul, f (x) est aussi
non nul et on a < f ∗ of (x), x >=< f (x), f (x) >= ∥f (x)∥2 > 0, ce qui entraine que f ∗ of est
autoadjoint défini positif, c’est à dire t AA ∈ S++
n (R).
(b) . t AA ∈ S++ n (R) et la traduction matricielle de I − B assure l’existence d’une matrice unique
S ∈ Sn (R) tel que S2 = t AA.
++

On pose O = AS−1 , alors d’après (2), S−1 ∈ S++ n (R), donc


t t −1t −1 −1 2 −1
OO = S AAS = S S S = In , et par suite O ∈ O(n), ce qui assure l’existence.
. Si on a deux décompositions A = OS = O′ S′ , alors t AA = S2 = S′2 , donc (S − S′ ) (S + S′ ) = On , or
t
(S + S′ ) = t S + t S′ = S + S′ et si u, v sont les endomorphismes canoniques associés respectivement
à S et S′ , alors ∀x ∈ Rn non nul, < (u + v)(x), x >=< u(x), x > + < v(x), x >> 0, donc
S + S′ ∈ S++ ′ ′
n (R) et par suite S + S ∈ GLn (R), ce qui entraine que S − S = On , d’où l’unicité.
I. B- Cas d’un endomorphisme auto-adjoint positif.
X n
5. Pour tout A ∈ O(n), le jème vecteur colonne de A est unitaire, donc a2i,j = 1, donc | ai,j |≤ 1
i=1
par suite ∥A∥ ≤ 1 où ∥A∥ est le maximum des valeurs absolues de tous ses élèments. D’autre part
l’application f : M 7→ t MM − In est continue puisque les composantes sont des fonctions polynômes
des composantes de M, donc On = f −1 {0} est fermé. Ainsi O(n) est une partie non vide fermée bornée
en dimension finie, donc compacte.
6. Soit (Ak )k∈N ∈ (S+ t t
N
n (R)) qui converge vers A. On a Ak = Ak , donc par continuité de M 7→ M, on a
t
A = A pars suite A est symétrique. Soit X ∈ Rn , on a pour tout k ∈ N, t XAk X ≥ 0 et par continuité
de M 7→ t XMX ≥ 0 ( linéaire en dimension finie), on a t XAX ≥ 0. Donc S+ n est fermée.
7. Soit A ∈ Mn (R) A de rang r, alors il existe deux matrices inversibles P, Q telles que A = PJr Q. On
1
pose Ak = P(Jr + k+1 In )Q alors Ak est inversible et (Ak )k converge vers A. D’après la caractérisation
séquentielle de la densité, GLn (R) est dense dans Mn (R).
8. Soit A ∈ Mn (R), d’après la question précédente, il existe une suite (Ak )k∈N de GLn (R) qui converge
vers A, alors d’après 8) il existe deux suites (Ok )k∈N de O(n) et (Sk )k∈N de S++n (R) telles que :
∀k ∈ N; Ak = Ok Sk .

O(n) est compact, donc il existe une sous suite Oφ(k) k∈N qui converge vers un certain O ∈ O(n).
Mais ∀k ∈ N; Sφ(k) = t Oφ(k) Aφ(k) → OA = S.
k→∞

D’autre part Sφ(k) k∈N
est une suite de S++ + +
n (R) ⊂ Sn (R) alors d’après la question 6) S ∈ Sn (R).

Ce couple n’est pas unique, il suffit de prendre A = 0 S = 0 et O orthogonale quelconque.


I. C- Quelques applications.
9. Soit φ l’application de O(n) × S++
n (R) dans GLn (R) par : φ(O, S) = OS.

Page 7/11
LM6E: MP* CCB 3 2023-2024

D’après la question précédente, tout élément A de GLn (R) admet un et un seul antécédent par φ, alors
φ est bijective. De plus φ est la restriction d’une application bilinéaire en dimension finie, alors φ est
continue. Soit (Ak )k∈N une suite de GLn (R), convergente vers A ∈ GLn (R). On pose : (O, S) = φ−1 (A)
et ∀k ∈ N; (Ok , Sk ) = φ−1 (Ak ).
Pour montrer que la suite (Ok , Sk )k est convergente, il suffit de montrer qu’elle est bornée et admet
une unique valeur d’adhérence, puis on conclut par unicité de la décomposition polaire. ∥ . ∥2 est une
norme subordonnée, donc norme d’algèbres par conséquent Sk = t Ok Ak est bornée. (Ak )k est bornée (
car convergente) et (Ok )k est une suite d’un compact, donc elle est bornée. On en déduit que la suite
(Ok , Sk )k est bornée.

Unicité de la valeur d’adhérence :


Maintenant si (Ω, M) est une valeur d’adhérence de (Ok , Sk )k alors Ω est
 une valeur d’adhérence de
+
(O)k qui est fermé, donc Ω ∈ On et de même M ∈ Sn . Si Oφ(k) , Sφ(k) converge vers (Ω, M), alors
Oφ(k) Sφ(k) est extraite de (Ak )k donc converge vers A et aussi vers ΩM. Par unicité de la limite
A = ΩM avec M ∈ S+ n et Ω ∈ On . Par unicité de la décomposition, on a Ω = O et S = M.

La continuité de φ découle alors de la caractérisation séquentielle de la continuité.


10. Soit G un sous-groupe compact de GLn (R) contenant On , on va montrer que que G = On .
Si M ∈ G, d’après la décomposition polaire M = OS avec O ∈ On et S ∈ S+ n , G étant un sous-groupe
( contenant On ), donc S = O−1 M ∈ G ∩ S+ n .
S étant symétrique définie donc il existe P ∈ On telle que P−1 SP = D = diag (λ1 , ..., λn ) diagonale
à éléments diagonaux strictement positifs. P ∈ On ⊂ G, donc D ∈ G. Les suites (Dk )k est une suite
du compact G donc bornée, par suite pour tout i ∈ [[1, n]], la suite λki k est bornée ce qui impose que
k
0 < λi ≤ 1, puis en considérant la suite ((D−1 ) )k ∈ GN ( puisque G est un groupe) on a λ1i ≤ 1, donc
λi = 1 pour tout i ∈ [[1, n]], c’est-à -dire que S = D = In . Donc M ∈ On . Ainsi G ⊂ On ⊂ G, donc
G = On .
11. Soit A ∈ GLn (R), on a
t t
∥ AX ∥2 X AAX
∥ A ∥22 = sup = sup t XX
.
X∈Rn ,X̸=0 ∥ X ∥2 X∈Rn ,X̸=0

La matrice t AA étant symétrique positive , donc Rn admet une base orthonormée (V1 , ..., Vn ) formée
de vecteurs propres de t AA. Posons t AAVi = λi Vi , supposons que λ1 ≤ ... ≤ λn , alors pour X =
Xn
xi Vi ∈ Rn , on a
i=1
n
X
t t
X AAX = λi x2i ≤ λn ∥X∥2
i=1
p
Avec égalité lorsque X = Vn , donc ∥ A ∥2 = ρ (t AA)

Composé de deux endomorphismes auto-adjoint d’un espace eu-


clidien
12. Ainsi (u(x) | x) = (s(s(x)) | x) = (s(x) | s(x)) = ∥s(x)∥2 . Donc si (u(x) | x) = 0 alors s(x) = 0 donc
a fortiori s(s(x)) = 0 soit u(x) = 0.

Page 8/11
LM6E: MP* CCB 3 2023-2024

13. (a) On a (u(x) | y) = (x | u(y)) et (u(x) | x) ⩾ 0 pour tout (x, y) de E2 donc a fortiori pour tout
(x, y) ∈ (Im u)2 ce qui prouve déjà que u1 est autoadjoint positif. Par ailleurs Ker u1 = Ker u∩Im u
et comme u est autoadjoint on a Ker u = (Im u∗ )⊥ = (Im u)⊥ donc Ker u1 = {0} ce qui prouve
que Sp (u1 ) ⊂ R+∗ et finalement que u1 ∈ S++ (Im u).
(b) Notons < .|. > le produit scalaire sur Im u défini par u−1
1  y) ∈ Im u. Il−1vient
et soit (x,  : -
−1 −1 −1
 
⟨w(x) | y⟩ = u1 (w(x)) | y = w(x) | u1 (y) = u(v(x)) | u1 (y) = v(x) | u u1 (y) Or
uou−1 −1
1 = u1 ou1 = IdIm u Donc ⟨w(x) | y⟩ = (v(x) | y) Comme v est autoadjoint, cette fonction
est symétrique en x et y donc w est bien symétrique pour ϕu−1 1
. - D’après le calcul ci-dessus,
⟨w(x) | x⟩ = (v(x) | x) ⩾ 0 puisque v est positif. - En conclusion w est bien autoadjoint positif
pour ϕu−1
1
.
14. Im(u◦v) est un sous-espace de Im u et la restriction de u◦v à Im u◦v n’est autre que la restriction de w.
Or w en tant qu’endomorphisme autoadjoint positif est diagonalisable à valeurs propres dans R+ et on
sait que la restriction d’un endomorphisme diagonalisable à un sous-espace stable est diagonalisable
(avec ses valeurs propres naturellement à choisir parmi celles de l’endomorphisme de départ). Ainsi
la restriction de u ◦ v à Im(u ◦ v) est diagonalisable et son spectre est inclus dans R+ .
15. Soit x ∈ Im(u ◦ v) ∩ Ker(u ◦ v) et soit y tel que x = u ◦ v(y). On a (v(x) | x) = (v(x) | u(v(y))) =
(u(v(x)) | v(y)) = (0 | v(y)) = 0 Comme v est autoadjoint positif, on a v(x) = 0 d’après (1). Par
ailleurs (u(v(y)) | v(y)) = (x | v(y)) = (v(x) | y) = (0 | y) = 0 Donc, toujours d’après (1), u(v(y))
c’est à dire x est nul et la somme Im(u ◦ v) + Ker(u ◦ v) est directe. Le théorème du rang fournit
alors la conclusion.
16. Im(u ◦ v) et Ker(u ◦ v) sont deux sous-espaces stables par u ◦ v et supplémentaires. La restriction de
u ◦ v au premier est diagonalisable avec un spectre inclus dans R+ (question B.2) ainsi bien sà»r que
la restriction au second avec 0 comme unique valeur propre. Il en découle que u ◦ v est diagonalisable
(concaténation de bases de vecteurs propres) et que son spectre est inclus dans R+ .

III- Caractérisation des matrices symétriques définies positives


 
Xi
17. (a) Soit Xi ∈ Mi,1 (R) non nul. Posons X = ∈ Mn,1 (R). On a X ̸= 0. Il vient t Xi A(i) Xi =
0 
t
XAX > 0 donc A(i) est définie positive. det A(i) est le produit des valeurs propres de la matrice
A(i) (la matrice symétrique réelle A(i)
 est diagonalisable par le théorème spectral), comme celles-ci
sont toutes > 0, on a bien det A(i) > 0.
(b) n = 1.  A = (a) définie positive ⇔ a > 0 ⇔ det A = a > 0. Traitons le cas n = 2. Soit
a c
A = ∈ S2 (R) avec a > 0 et ab − c2 > 0. En notant λ1 et λ2 les valeurs propres,
c b
on a det A = λ1 λ2 > 0 donc les deux valeurs propres sont de même signe. Par le théorème
spectral, t XAX = λ1 x′2 ′2 ′ ′
i + λ2 x2 avec (x1 , x2 ) coordonnées de X dans une base orthonormale de
diagonalisation. Donc pour X non nul, sgn (t XAX) = sgn (λ1 ) = sgn (t E1 AE1 ) = sgn a avec E1 =
t
(1, 0)
(c) i. On sait que det A est le produit des valeurs propres et que det A > 0 donc si A n’est pas définie
positive alors il existe un nombre pair ⩾ 2 de valeurs propres strictement négatives. A étant
diagonalisable, on en déduit l’existence de deux vecteurs propres linéairement indépendants
associés à deux de ces valeurs propres.

Page 9/11
LM6E: MP* CCB 3 2023-2024

ii. On peut choisir ces deux vecteurs propres orthogonaux (c’est en particulier automatique si les
valeurs propres sont distinctes) et de dernière composante égale à 1 . En effet, la dernière
composante d’un vecteur Y du a) ne peut être nulle, sinon on aurait
te
YA(n) Ỹ = t YAY < 0
 

avec Y = ce qui contredit le fait que A(n) soit définie positive et donc on peut alors
0
multiplier les vecteurs par un coefficient non nul adapté. On dispose alors de X1 et X2 vecteurs
propres associés respectivement à λ1 < 0 et λ2 < 0, orthogonaux, de dernière composante
égale à 1 . Soit X = X1 − X2 . La dernière composante de X est nulle et
t
XAX = λ1 ∥X1 ∥2 + λ2 ∥X2 ∥2 < 0.

(d) Il vient t X̃A(n) X̃ = t XAX < 0, en notant X̃ ∈ Mn,1 (R) le vecteur colonne X où l’on a supprimé le
dernier coefficient. Ceci contredit la propriété Pn+1 d’où l’absurdité.
 
0 0
18. ⇐ est fausse avec le contre-exemple . En revanche, le sens direct est vrai (non demandé
0 −1
dans l’énoncé). On le montre en considérant les matrices définies positives Aε = A + εIn pour ε > 0
puis en faisant tendre ε vers 0 .

• • • FIN • • •

Page 10/11

You might also like