PolyMaths 2
PolyMaths 2
PolyMaths 2
Classe de MPSI B
1 Logique 9
1 Propositions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Connecteurs logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2 Ensembles 21
1 Notion d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Opérations sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3 Entiers naturels 31
1 L’ensemble des entiers naturels . . . . . . . . . . . . . . . . . . . . . . . . . 32
2 Raisonnement par récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3 Extensions du principe de récurrence . . . . . . . . . . . . . . . . . . . . . . 39
4 Suites définies par récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5 Annexe : suites récurrentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4 Applications et relations 43
1 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3 Relations d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5 Nombres complexes 57
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2 Nombres complexes et trigonométrie . . . . . . . . . . . . . . . . . . . . . . 62
3 Résolution d’équations algébriques . . . . . . . . . . . . . . . . . . . . . . . 70
4 Interprétations géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6 Nombres réels 79
1 Le corps des réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2 Borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3
4 TABLE DES MATIÈRES
3 Intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10 Fonctions 149
1 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
2 Une relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
3 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
4 Extrema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5 Parité, périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
12 Dérivation 175
1 Notion de dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
2 Accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
3 Fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . 191
16 Arithmétique 253
1 Divisibilité dans Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
2 PGCD, PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
3 Nombres premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
4 Congruences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
5 Annexe : les anneaux Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
18 Polynômes 297
1 L’algèbre des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
2 L’anneau des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
3 Fonctions polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
4 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
5 Factorisation des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
6 Pgcd,Ppcm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
7 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
24 Matrices 415
1 Vecteurs, applications linéaires et matrices . . . . . . . . . . . . . . . . . . . 416
2 Changements de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
4 Trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
5 Similitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
26 Déterminants 447
1 Applications multilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448
2 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . 450
3 Calcul des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
TABLE DES MATIÈRES 7
28 Intégration 487
1 Intégration des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . 488
2 Construction de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492
3 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496
4 Approximations de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . 502
5 Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 508
6 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512
7 Fonctions à valeurs complexes . . . . . . . . . . . . . . . . . . . . . . . . . . 514
29 Dénombrements 517
1 Notion d’ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 518
2 Opérations sur les ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . 520
3 Applications entre ensembles finis . . . . . . . . . . . . . . . . . . . . . . . . 523
4 Parties d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526
5 Annexe : la formule du crible . . . . . . . . . . . . . . . . . . . . . . . . . . 529
30 Probabilités 533
1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534
2 Espaces probabilisés finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536
3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 543
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 600
2 Le groupe orthogonal du plan . . . . . . . . . . . . . . . . . . . . . . . . . . 605
3 Produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 609
4 Le groupe orthogonal de l’espace . . . . . . . . . . . . . . . . . . . . . . . . 613
5 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 618
34 Séries 623
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 624
2 Séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 630
3 Comparaison entre séries et intégrales . . . . . . . . . . . . . . . . . . . . . 633
4 Convergence absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637
5 Appendice - Représentations p-adiques des réels . . . . . . . . . . . . . . . . 641
Index 689
Chapitre 1
Logique
9
10 CHAPITRE 1. LOGIQUE
1 Propositions
Faire des mathématiques, c’est écrire des propositions vraies. Mais qu’est ce qu’une pro-
position ? Et qu’est ce que la vérité ? Ceci n’est pas un cours de logique, et nous nous
contenterons de quelques idées très vagues sur la question. Une proposition est une assem-
blage de symboles, formé à partir de règles strictes. Par exemple, « 1 + 1 = 2 » est une
proposition. Un autre exemple de proposition est « tous les nombres entiers sont pairs »,
ou encore « tout corps fini est commutatif ». Où sont les symboles dans ces propositions ?
Eh bien ils sont cachés dans les mots que le mathématicien a définis. Par exemple, « n
est pair » veut dire « ∃p ∈ N, n = 2 × p ». Et les symboles N et × sont eux mêmes des
résumés pour des assemblages d’autres symboles encore plus primitifs. En réalité, le seul
symbole primitif de la théorie dans laquelle nous faisons des mathématiques (la théorie des
ensembles) est le symbole d’appartenance ∈.
Étant donnée une proposition, celle-ci est vraie ou fausse, mais jamais les deux à la fois
(nous ne chercherons pas à définir les mots VRAI et FAUX). La véracité ou la fausseté d’une
proposition est ce que l’on appelle parfois sa valeur de vérité. L’activité principale d’un
mathématicien consiste à écrire, en utilisant un certain nombre de règles, des propositions
vraies. Nous conviendrons que, dorénavant, toutes les propositions que nous écrivons sont
vraies. Ceci ressemble à une évidence, mais elle ne l’est pas complètement. En effet, nous
pourrons dorénavant écrire 1 + 1 = 2, au lieu de « la proposition « 1 + 1 = 2 » est vraie ».
Nous serons cependant parfois assez souples sur l’emploi des guillemets. Par exemple, si
P est une proposition nous n’écrirons pas « P » entre guillemets sous prétexte que nous
savons pas si P est vraie ou fausse.
Le terme générique « proposition » convient pour toutes les phrases mathématiques vraies.
On utilise parfois d’autres mots, pour insister sur l’objectif de la proposition. Citons entre-
autres :
Deux propositions peuvent avoir l’air très différentes, et être pourtant simultanément vraies
ou simultanément fausses. C’est ce qui fait toute la difficulté des mathématiques
Remarque 1. Comment montrer une équivalence ? Nous verrons que pour des propositions
très simples, ce que l’on appelle une table de vérité suffit. Mais bien entendu, cela ne va pas
durer. Une démonstration d’équivalence peut être très difficile. Nous allons en gros passer
le reste de l’année à démontrer des équivalences.
Remarque 2. Étant données deux propositions P et Q, P ⇐⇒ Q est en fait une
nouvelle proposition, soit vraie, soit fausse. Le symbole ⇐⇒ fait partie de la famille des
connecteurs, dont nous allons maintenant étudier quelques exemples.
Remarquons que l’on a la proposition suivante.
Proposition 1.
• Soit P une proposition. Alors, P ⇐⇒ P .
• Soient P et Q deux propositions. Si P ⇐⇒ Q, alors Q ⇐⇒ P .
• Soient P, Q, R trois propositions. Si P ⇐⇒ Q et Q ⇐⇒ R, alors P ⇐⇒ R.
Démonstration. Nous réservons la preuve de cette proposition pour un peu plus tard.
2 Connecteurs logiques
2.1 Le connecteur « ET »
P Q P ∧Q
0 0 0
0 1 0
1 0 0
1 1 1
FAUX et VRAI sont représentés par 0 et 1. Par exemple, la ligne 0 1 0 nous dit que P ∧ Q
est FAUX lorsque P est FAUX et Q est VRAI.
Démonstration. Ceci se prouve en faisant des tables de vérité. Montrons par exemple
l’associativité.
P Q R P ∧ Q Q ∧ R (P ∧ Q) ∧ R P ∧ (Q ∧ R)
0 0 0 0 0 0 0
0 0 1 0 0 0 0
0 1 0 0 0 0 0
0 1 1 0 1 0 0
1 0 0 0 0 0 0
1 0 1 0 0 0 0
1 1 0 1 0 0 0
1 1 1 1 1 1 1
On constate que les deux dernières colonnes de ce tableau sont identiques, ce qui veut dire
que les propositions correspondantes sont équivalentes.
Remarque 3. En tant que mathématicien, le reste de votre vie va être consacré à démon-
trer des propositions. La rédaction d’une démonstration est un acte parfaitement codifié.
Pour chaque type de proposition, il existe un ou plusieurs types de démonstrations. Il
s’agit pour vous de parfaitement connaître la façon dont on démontre chaque type de
proposition, puisque votre vie d’étudiant en mathématiques consistera à être noté sur vos
démonstrations.
2.2 Le connecteur « OU »
Remarque 4. Pour être précis, nous venons de définir ici ce que l’on appelle le ou inclusif.
Il existe un autre type de « ou », que l’on appelle le ou exclusif et que l’on nomme aussi «
ou bien ».
P Q P ∨Q
0 0 0
0 1 1
1 0 1
1 1 1
P ¬P
0 1
1 0
Démonstration. Encore une fois, des tables de vérité permettent de tout montrer. Mais
histoire de voir que nous avons avancé un peu, voici une autre preuve du dernier point.
Écrivons l’avant dernier point pour les propositions ¬P et ¬Q :
¬(¬P ∧ ¬Q) ⇐⇒ P ∨ Q
Si deux propositions sont équivalentes, il est clair que leurs négations le sont aussi. Ainsi,
¬P ∧ ¬Q ⇐⇒ ¬(P ∨ Q)
2. CONNECTEURS LOGIQUES 15
P Q P =⇒ Q
0 0 1
0 1 1
1 0 0
1 1 1
Exemple. L’exemple qui suit est destiné à nous faire comprendre la nature du connecteur
implique. Donnons nous un entier naturel n. Je vais partir du principe que tout le monde
sera d’accord lorsque j’affirme que si n est multiple de 4, alors n est pair. Prenons quelques
valeurs de n pour voir . . . .
Commençons par n = 8. Alors n est multiple de 4 et n est également pair. Donc, si l’on
veut que la table de vérité du connecteur IMPLIQUE ne dépende que des valeurs de vérité
des propositions, et pas de la nature de ces propositions, on doit avoir que VRAI implique
VRAI.
Maintenant, attention ! Prenons n = 2. Alors, n n’est pas multiple de 4, et pourtant il est
pair. Donc, FAUX implique VRAI.
Pour finir, prenons n = 3. Cette fois ci, FAUX implique FAUX.
Un seul cas n’a pas été envisagé : a-t-on aussi VRAI implique FAUX ? Si c’était le cas,
toutes les implications seraient vraies. Donc, si l’on veut que le connecteur IMPLIQUE ne
soit pas un connecteur trivial, on doit poser que VRAI implique FAUX est FAUX.
Remarque 6. Comment montrer que P =⇒ Q ? La proposition P est soit vraie soit
fausse. Si P est fausse, alors P =⇒ Q sera vraie, ceci quelle que soit Q. On n’a donc pas
à s’occuper de ce cas, et on peut donc supposer que P est vraie. Puis, il s’agit de vérifier
que Q est vraie. Pour résumer :
Pour montrer P =⇒ Q :
16 CHAPITRE 1. LOGIQUE
• On suppose P .
• On montre Q.
S’il y a une seule chose à retenir dans ce chapitre, c’est celle-ci. Nous en ferons un usage
quotidien.
Remarque 7. On a vu qu’il existe un lien entre « OU » et « IMPLIQUE ». Ainsi : Pour
montrer P ∨ Q,
• On suppose que P est fausse.
• On montre Q.
P =⇒ Q ⇐⇒ ¬Q =⇒ ¬P
Ce principe nous donne une seconde méthode pour prouver une implication.
• On suppose que le membre de droite est faux
• On montre que celui de gauche l’est aussi.
(¬P =⇒ F ) =⇒ P
Ce principe nous dit que pour montrer que P est vraie, on peut procéder comme suit :
• On suppose que P est fausse.
• On arrive à une contradiction.
Il ne faut pas abuser de ce genre de démonstrations, car elles sont souvent difficiles
à lire (pour ne pas dire incompréhensibles), et paraissent artificielles. Moralité, on ne fait
une démonstration par l’absurde qu’après que les autres techniques de démonstration aient
échoué, ou alors parce qu’on a une bonne raison pour le faire.
(P ⇐⇒ Q) ⇐⇒ ((P =⇒ Q) ∧ (Q =⇒ P ))
3 Quantificateurs
Soit P (x) une proposition « dépendant » d’une variable x (on dit aussi un prédicat), cette
variable appartenant à un certain ensemble E.
Il arrive fréquemment que l’on ait à écrire des propositions comportant une succession de
quantificateurs. Soit P (x, y) une proposition dépendant de deux variables x ∈ E et y ∈ F .
Considérons les propositions
A = ∀x ∈ E, ∀y ∈ F, P (x, y)
et
B = ∀y ∈ F, ∀x ∈ E, P (x, y)
3. QUANTIFICATEURS 19
C = ∀(x, y) ∈ E × F, P (x, y)
(voir plus loin pour le produit cartésien). Lorsque E = F , on commet l’abus d’écrire
∀x, y ∈ E, P (x, y)
• A = ∀x ∈ E, ∃y ∈ F, P (x, y)
• B = ∃y ∈ F, ∀x ∈ E, P (x, y)
P (x, y) ⇐⇒ y = x + 1
On a bien A :
∀x ∈ N, ∃y ∈ N, y = x + 1
On a même ∃!y ∈ N, y = x + 1.
En revanche, B est fausse (aucun entier n’est le successeur de TOUS les entiers). Le puriste
voudra une démonstration, alors raisonnons par l’absurde. Supposons donc
∃y ∈ N, ∀x ∈ N, y = x + 1
∀x ∈ N, y0 = x + 1
En particulier, comme y0 ∈ N,
y0 = y0 + 1
et donc, en soustrayant y0 ,
0=1
Nous verrons dans le chapitre sur N que ceci est faux :-).
20 CHAPITRE 1. LOGIQUE
Chapitre 2
Ensembles
21
22 CHAPITRE 2. ENSEMBLES
1 Notion d’ensemble
Un ensemble est, naïvement, une collection d’objets unis par une propriété commune. Un
objet appartient à l’ensemble lorsqu’il possède cette propriété. Nous considérons la notion
d’ensemble comme une notion « première », que nous ne chercherons pas à définir.
Notation. Étant donnés un ensemble E et un objet x, on écrira x ∈ E lorsque x est
élément de E (ou appartient à E), et x 6∈ E dans le cas contraire.
On peut décrire un ensemble de plusieurs façons, les plus courantes étant les suivantes :
Le concept naïf d’ensemble mène assez facilement à des contradictions. Ces contradictions,
mises en évidence vers la fin du XIXe siècle, ont conduit les mathématiciens à concevoir la
Théorie des ensembles. Donnons un exemple de telle contradiction :
E = {X, X 6∈ X}
X ∈ E ⇐⇒ X 6∈ X
Il est bon de savoir qu’un tel souci ne peut arriver à condition de prendre des précautions :
A = {x ∈ E, P(x)}
Remarque 1. L’ensemble de tous les ensembles n’existe pas. En effet, supposons son
existence. Appelons le U. Considérons la propriété
P(X) = (X 6∈ X)
E = {X ∈ U, X 6∈ X}
Axiome 2. Deux ensembles sont égaux si et seulement si ils ont les mêmes éléments.
1.4 Inclusion
• A ⊂ B et B ⊂ A =⇒ A = B (antisymétrie)
• A ⊂ B et B ⊂ C =⇒ A ⊂ C (transitivité)
Remarque 3. La relation d’inclusion est ce que l’on appelle une relation d’ordre. Nous
reviendrons sur les relations d’ordre dans un chapitre ultérieur.
Démonstration. La réflexivité est évidente. L’antisymétrie résulte de l’axiome sur l’éga-
lité de deux ensembles. Supposons maintenant A ⊂ B et B ⊂ C. Soit x ∈ A. On a x ∈ B
puisque A ⊂ B. Donc x ∈ C puisque B ⊂ C. Ainsi, A ⊂ C.
Axiome 4. Il existe un ensemble qui n’a pas d’élément. On l’appelle l’ensemble vide,
et on le note ∅ (ou {}).
Axiome 5. Soit E un ensemble. Il existe un ensemble, noté P(E), tel que pour tout
objet X,
X ∈ P(E) ⇐⇒ X ⊂ E
2.1 Réunion
A ∪ B = {x, x ∈ A ou x ∈ B}
Remarque 6. L’un des axiomes de la théorie des ensembles affirme que A ∪ B est bien
un ensemble.
Définition 3. Plus généralement, étant donnée une famille d’ensembles (Ai )i∈I (c’est
à dire des ensembles Ai indexés par un indice i « variant » lui-même dans un ensemble
I), on appelle réunion des Ai l’ensemble
[
Ai = {x, ∃i ∈ I, x ∈ Ai }
i∈I
Exemple. On a
[ 1
0, 1 − = [0, 1[
n
n≥1
− n1 ].
S
Posons A = n≥1 [0, 1
2.2 Intersection
Remarque 7. Pas besoin d’axiome pour affirmer que A ∩ B est un ensemble, puisque
A ∩ B = {x ∈ A, x ∈ B}.
Définition 5. Plus, généralement, étant donnée une famille d’ensembles (Ai )i∈I) , on
appelle intersection des Ai l’ensemble
\
Ai = {x, ∀i ∈ I, x ∈ Ai }
i∈I
\ 1
Exercice. Montrer que 0, 1 + = [0, 1].
n
n≥1
Démonstration. Exercice.
2. OPÉRATIONS SUR LES ENSEMBLES 27
De façon vague, un couple (a, b) est composé de deux objets a et b. Ce qui est important,
c’est que deux couples (a, b) et (c, d) sont égaux si et seulement si a = c et b = d. Il y
a plusieurs façons de définir le concept de couple. Peu importe comment on définit les
couples, ce qui importe c’est à quelle condition deux couples sont égaux. Nous allons ci-
dessous donner une construction possible, due à von Neumann. Puis nous l’oublierons.
28 CHAPITRE 2. ENSEMBLES
Démonstration. Dans un sens, c’est évident. Supposons maintenant que (a, b) = (c, d),
c’est à dire
(1) {{a}, {a, b}} = {{c}, {c, d}}
L’ensemble {a, b} est un élément de l’ensemble {{c}, {c, d}}. Deux cas se présentent.
• Cas 1, {a, b} = {c}. Cela signifie que a = b = c. (1) devient
{a, b} =
6 {a}
Il en résulte que
{a, b} = {a, d}
On a donc b ∈ {a, d}, donc b = a ou b = d. Comme b 6= a, b = d.
Remarque 8. Il faut maintenant s’empresser d’oublier la définition des couples pour ne
retenir que leur propriété caractéristique !
Remarque 9. On peut généraliser cette notation et considérer des triplets (a, b, c), des
quadruplets (a, b, c, d), . . . , des n-uplets (a1 , a2 , . . . , an ).
An = A × A × . . . × A
2.5 Familles
Soit E un ensemble. Le paragraphe précédent nous permet de parler d’un couple d’éléments
de E. On peut définir de la même façon la notion de triplet, quadruplet,. . . , de n-uplet
d’éléments de E. On peut aller encore plus loin et définir une famille d’éléments de E.
La construction de la notion de famille n’est pas difficile, mais elle fait appel au concept
d’application, que nous verrons plus loin (en fait une famille est une application, ou plutôt,
pour les puristes, le graphe d’une application). Nous dirons simplement qu’étant donné un
ensemble I, on peut considérer des objets F que nous noterons
F = (xi )i∈I
et qui sont tels que pour tout i ∈ I, xi ∈ E. De plus, et c’est là la propriété importante,
31
32 CHAPITRE 3. ENTIERS NATURELS
On admet les principales propriétés des entiers naturels : l’ensemble N = {0, 1, 2, . . .} est
un ensemble infini, muni d’une addition et d’une multiplication possédant les propriétés
bien connues de tous. Cet ensemble est muni de deux relations d’ordre :
• L’ordre naturel : a ≤ b lorsqu’il existe un entier naturel c tel que b = a + c. Cet
ordre est total, c’est à dire que deux entiers sont toujours comparables. On note
alors b − a l’unique entier c ainsi défini.
• La divisibilité : a divise b (on note a | b) lorsqu’il existe un entier naturel c tel que
b = ac. Cet ordre est partiel : par exemple, 2 6 |3 et 3 6 |2. Si a 6= 0, l’entier c ainsi
défini est unique, et on le note c = ab .
Une propriété des entiers naturels fréquemment utilisée est la suivante.
Proposition 1. Soient a, b ∈ N. On a
a < b ⇐⇒ a + 1 ≤ b ⇐⇒ a ≤ b − 1
Proposition 3. Toute partie non vide ET majorée de N possède un plus grand élément.
2.2 Exemples
Les exemples ci-dessous sont essentiels. Ils seront utilisés tout au long de l’année.
Ceci est notre première récurrence, nous allons particulièrement soigner sa rédaction.
On montre ensuite que les hypothèses du théorème de démonstration par récurrence sont
vérifiées.
• On a S0 = 0 = 0(0+1)
2 .
n(n+1)
• Soit n ∈ N. Supposons Sn = 2 . On a alors
n+1
X
Sn+1 = k
k=0
Xn
= k + (n + 1)
k=0
= Sn + (n + 1)
n(n + 1)
= + (n + 1) (HR)
2
(n + 1)(n + 2)
=
2
Enfin, on conclut.
n
X
Sn = k2
k=0
n(n+1)(2n+1)
Montrons par récurrence sur n que pour tout n ∈ N, Sn = 6 .
0(0+1)(2×0+1)
• On a S0 = 0 = 6 .
2. RAISONNEMENT PAR RÉCURRENCE 35
n(n+1)(2n+1)
• Soit n ∈ N. Supposons Sn = 6 . On a alors
n+1
X
Sn+1 = k2
k=0
n
X
= k 2 + (n + 1)2
k=0
= Sn + (n + 1)2
n(n + 1)(2n + 1)
= + (n + 1)2 (HR)
6
(n + 1)(n + 2)(2n + 3)
=
6
Par le théorème de démonstration par récurrence, la propriété est établie.
n
Exercice. Montrer que pour tout entier n ≥ 2, 10 divise 22 − 6.
Faisons une récurrence sur n.
2
• 22 − 6 = 10 qui est bien divisible par 10.
n
• Soit n ≥ 2. Supposons que 10 | 22 − 6. On a alors
n+1 n ×2
22 − 6 = 22 −6
2n 2
= 2 −6
2n
2
= (2 − 6) + 6 −6
n
Par l’hypothèse de récurrence, il existe k ∈ N tel que 22 − 6 = 10k. On a donc
n+1
22 − 6 = (10k + 6)2 − 6
= 100k 2 + 120k + 30
= 10(10k 2 + 12k + 3)
n+1
Ainsi, 10 divise 22 − 6.
Par le théorème de démonstration par récurrence, la propriété est démontrée.
Exercice. Montrer qu’il existe 4 réels a, b, c, d tels que, pour tout entier naturel n,
n
X
k 3 = an4 + bn3 + cn2 + dn
k=0
• Si x 6= 1,
n
X xn+1 − 1
xk =
x−1
k=0
xn+1 −1
Montrons par récurrence sur n que pour tout n ∈ N, Sn = x−1 .
x1 −1
• On a S0 = 1 = x−1 .
xn+1 −1
• Soit n ∈ N. Supposons que Sn = x−1 . On a alors
n+1
X
Sn+1 = xk
k=0
n
X
= xk + xn+1
k=0
= Sn + xn+1
xn+1 − 1
= + xn+1 (HR)
x−1
xn+1 − 1 + xn+1 (x − 1)
=
x−1
xn+2 −1
=
x−1
La propriété est ainsi vérifiée pour tout entier n.
Nous reviendrons très longuement tout au long de l’année sur cette formule essentielle. Son
usage est permanent.
Proposition 10. On a
• ∀n ∈ N, n0 = nn = 1
• ∀n, k ∈ N, k ≤ n, nk = n−k
n
.
n n n+1
• ∀n, k ∈ N, k + k+1 = k+1 .
Remarque 2. La dernière formule est ce que l’on appelle une relation de récurrence. Elle
permet de calculer les coefficients binomiaux pour l’entier n + 1 lorsqu’on les connaît pour
l’entier n. Ceci peut être résumé dans un tableau appelé le triangle de Pascal, qui contient
n
à la ligne n et à la colonne k le coefficient k .
0 1 2 3 4 5 6 7
0 1 0 0 0 0 0 0 0
1 1 1 0 0 0 0 0 0
2 1 2 1 0 0 0 0 0
3 1 3 3 1 0 0 0 0
4 1 4 6 4 1 0 0 0
5 1 5 10 10 5 1 0 0
6 1 6 15 20 15 6 1 0
7 1 7 21 35 35 21 7 1
Voici maintenant l’une des formules les plus importantes de l’année. Il s’agit de la formule
du binôme.
n
X n k n−k
(a + b)n = a b
k
k=0
n+1
X n
n k n+1−k
X n k n+1−k
X = a b + a b
k−1 k
k=1 k=0
n
n+1 n+1
X n n
= a +b + + ak bn+1−k
k−1 k
k=1
Il ne reste qu’à appliquer la formule sur les coefficients binomiaux vue un peu plus
haut.
Exercice. Soit n ∈ N. Appliquer judicieusement la formule du binôme pour montrer que
n
X n
= 2n
k
k=0
Calculer de même
n
X
k n
(−1)
k
k=0
Remarque 4. L’unicité, laissée en exercice, est simple à montrer. Supposons qu’il existe
deux suites (un )n≥0 et (vn )n≥0 vérifiant ces conditions. Montrons par récurrence sur n que
pour tout n ∈ N, un = vn .
• Tout d’abord, u0 = a = v0 .
• Soit n ∈ N. Supposons un = vn . On a alors
Rappelons le théorème sur les suites récurrentes. La démonstration de l’existence est non
triviale et nécessite quelques lemmes.
Lemme 16. E0 ⊃ E1 ⊃ E2 ⊃ . . ..
Lemme 18. ∀n ∈ N, En 6= ∅.
Démonstration. Récurrence sur n. La suite (a, a, a, . . .) est dans E0 qui est donc non
vide. Soit n ∈ N. Supposons que En est non vide. Soit s ∈ En . La suite
s0 = (s0 , s1 , . . . , sn , f (sn ), a, a, . . .)
est bien dans En+1 qui est ainsi non vide.
43
44 CHAPITRE 4. APPLICATIONS ET RELATIONS
1 Applications
1.1 Définitions
∀x ∈ E, ∃!y ∈ F, (x, y) ∈ G
∀x ∈ E 0 f |E 0 (x) = f (x)
Évidemment, il serait plus simple que tout élément de F ait un et un seul antécédent par
f . Ceci suggère trois définitions :
Ainsi, une application est bijective lorsqu’elle est à la fois injective et surjective.
1.4 Composition
Proposition 3. Soit
idE : E −→ E
x 7−→ x
l’application « identité de E ». On a pour toute application f : E → F ,
f ◦ idE = f et idF ◦ f = f
1. APPLICATIONS 47
Remarque 3. La composition des applications n’est pas commutative. Par exemple, soient
les deux applications de R vers R f : x 7−→ x2 et g : x 7−→ x + 1. On a (g ◦ f )(1) = 2 alors
que (f ◦ g)(1) = 4. Les applications f ◦ g et g ◦ f sont donc différentes.
Démonstration. Soient f : E → F et g : F → G.
• Supposons f et g injectives. Soient x, x0 ∈ E. Supposons que (g ◦ f )(x) = (g ◦ f )(x0 ).
On a donc
g(f (x)) = g(f (x0 ))
Comme g est injective, il en résulte que f (x) = f (x0 ). Puis, par injectivité de f ,
x = x0 .
• Supposons f et g surjectives. Soit z ∈ G. L’application g est surjective, il existe donc
y ∈ F tel que z = g(y). Par la surjectivité de f , il existe x ∈ E tel que y = f (x).
Ainsi,
z = g(y) = g(f (x)) = (g ◦ f )(x)
• Pour la composition des bijections il suffit d’utiliser les deux premiers points.
Une application est dite inversible à gauche (resp : à droite) lorsqu’elle admet un inverse
à gauche (resp : à droite). Elle est dite inversible lorsqu’elle admet un inverse.
g ◦ (f ◦ h) = idE ◦ h
48 CHAPITRE 4. APPLICATIONS ET RELATIONS
ou encore
g ◦ idF = idE ◦ h
c’est à dire g = h.
Quelles sont les applications inversibles à gauches ? Inversibles à droite ? Inversibles ?
Proposition 8.
• Une application est bijective si et seulement si elle est inversible.
• Une bijection a un unique inverse à gauche et un unique inverse à droite, et
ceux ci sont égaux à son inverse.
(g ◦ f )−1 = f −1 ◦ g −1
f (A) = {y ∈ F, ∃x ∈ E, y = f (x)}
f −1 (B) = {x ∈ E, f (x) ∈ B}
Remarque 5. Prendre bien garde au fait que les notations sont ambigues. En particulier,
f −1 ne désigne PAS la réciproque de f , qui peut d’ailleurs très bien ne pas exister.
Exemple. On a sin R = [−1, 1], sin−1 {0} = 2πZ, exp R+ = [1, +∞[
1A (x) = 1 si x ∈ A et 1A (x) = 0 si x ∈ E \ A
2 Relations d’ordre
Définition 12. Soit E un ensemble. On appelle relation (binaire) sur E tout couple
R = (E, G) où G ⊂ E × E. L’ensemble G est appelé le graphe de la relation R.
Étant donnés deux éléments x et y de E ont peut avoir ou pas (x, y) ∈ G. Lorsque c’est le
cas, on dit que x et y sont en relation par la relation R, et on note xRy.
Définition 13. Soit R une relation sur un ensemble E. On dit que R est une relation
d’ordre sur E lorsque :
• R est réflexive : ∀x ∈ E, xRx
2. RELATIONS D’ORDRE 51
Un couple (E, R) où R est une relation d’ordre sur E est appelé un ensemble ordonné.
Exemple. R et ses sous ensembles sont ordonnés par l’ordre naturel. L’ensemble C, en
revanche, n’a pas d’ordre naturel. Il peut bien sûr être ordonné, par exemple par l’ordre
lexicographique, mais cet ordre n’est pas compatible avec la multiplication.
Si E et F sont deux ensembles, et que F est ordonné, l’ensemble F E est ordonné en posant
f ≤ g ⇐⇒ ∀x ∈ E, f (x) ≤ g(x)
Définition 14. Soit (E, ≤) un ensemble ordonné. On dit que l’ordre est total lorsque
∀x, y ∈ E x ≤ y ou y ≤ x
Exemple. L’ordre naturel sur R est total. L’ordre défini ci-dessus sur RR est partiel. Dès
que l’ensemble E a au moins deux éléments, la relation d’inclusion sur P(E) est un ordre
partiel.
Définition 15. Soit (E, ≤) un ensemble ordonné. Soit A ⊂ E. Soit x ∈ E. On dit que
x est un majorant de A lorsque
∀a ∈ A a ≤ x
∀a ∈ A x ≤ a
52 CHAPITRE 4. APPLICATIONS ET RELATIONS
Exemple. Dans R muni de l’ordre naturel, le réel 7 majore l’ensemble [0, 1]. Ce n’est bien
sûr pas le seul, il y a aussi, π, 53, et . . . 1, qui a l’air « mieux » que les autres.
Définition 16. Une partie A de l’ensemble ordonné E admet un plus grand élément
lorsqu’il existe x ∈ A majorant de A. On définit de même la notion de plus petit
élément.
Proposition 11. Le plus petit (resp : plus grand) élément de l’ensemble A, s’il existe,
est unique. On le note min A (resp : max A).
3 Relations d’équivalence
Définition 17. Soit R une relation sur un ensemble E. On dit que R est une relation
d’équivalence sur E lorsque :
• R est réflexive : ∀x ∈ E, xRx
• R est symétrique : ∀x, y ∈ E, xRy =⇒ yRx
• R est transitive : ∀x, y, z ∈ E, xRy et yRz =⇒ xRz
• Pour tout ensemble E, la relation triviale T définie par ∀x, y ∈ E, xT y est une
relation d’équivalence.
• Soit f : E → F une application. La relation R sur E définie par ∀x, y ∈ E, xRy ⇐⇒
f (x) = f (y) est une relation d’équivalence. L’identité et la relation triviale sur E
en sont deux cas particuliers.
a ≡ b[n] ⇐⇒ b − a ∈ nZ
Remarque 10. Mêmes remarques que sur Z. Nous utiliserons en particulier cette notion
avec α = π ou α = 2π, en relation avec la trigonométrie est les nombres complexes.
Remarque 11. Notons αZ = {kα, k ∈ Z} l’ensemble des multiples de α. On a alors
a ≡ b[α] ⇐⇒ b − a ∈ αZ
Définition 20. Soit E un ensemble. Soit R une relation d’équivalence sur E. Soit
x ∈ E. On appelle classe de x modulo R et on note x l’ensemble
x = {y ∈ E, xRy}
identique. Soit y ∈ C. On a xRy et xRz. Donc, par symétrie et transitivité, zRy. Mais on
a aussi x0 Rz donc, toujours par transitivité, x0 Ry, et y ∈ C 0 .
ou encore a ∈ r. Ainsi,
Z/nZ ⊂ {0, 1, . . . , n − 1}
L’autre inclusion est évidente. Il y a donc au plus n classes dans Z/nZ. Attention, il reste
maintenant à montrer que ces classes sont bien distinctes ! Soient donc 0 ≤ i < j < n. On
a 0 < j − i < n, donc j − i 6∈ nZ. Ainsi, i 6= j.
Remarque 13.
• Pour n = 0 on a une infinité de classes, toutes constituées d’un singleton.
• Soit α ∈ R, α > 0. La relation sur R de congruence modulo α comporte une infinité
de classes. On peut par exemple prendre les classes des x ∈ [0, α[, ou des x ∈]− α2 , α2 ].
• Les relations de congruence sur Z possèdent bien d’autres propriétés, que nous
verrons en temps utile. En particulier, elles sont compatibles avec l’addition et la
multiplication (on peut multiplier et ajouter des congruences, comme s’il s’agissait
d’égalités).
Proposition 16. Soit E un ensemble. Soit P une partition de E. Il existe une et une
seule relation d’équivalence R sur E telle que E/R = P.
Démonstration. Soit R une telle relation. Soient x, y ∈ E. Supposons que xRy. Alors,
∃C ∈ P, x, y ∈ C, puisque x et y sont par définition dans la même classe modulo R.
Inversement, supposons ∃C ∈ P, x, y ∈ C. x et y sont donc dans la même classe modulo R,
et ainsi xRy. En conclusion, si R est une relation d’équivalence sur E telle que E/R = P,
alors
∀x, y ∈ E, xRy ⇐⇒ ∃C ∈ P, x, y ∈ C
56 CHAPITRE 4. APPLICATIONS ET RELATIONS
Nous venons donc de montrer qu’il existe au plus une telle relation. Inversement, on vérifie
sans peine que la relation définie ci-dessus est bien une relation d’équivalence, et que ses
classes sont justement les éléments de la partition P.
Chapitre 5
Nombres complexes
57
58 CHAPITRE 5. NOMBRES COMPLEXES
1 Introduction
Nous verrons dans un chapitre ultérieur la notion de corps. Sans entrer pour l’instant
dans les détails, un corps est un ensemble K muni de deux opérations : une addition (+) et
une multiplication (×). Ces opérations vérifient un certain nombre de propriétés, comme la
commutativité, l’associativité, la distributivité de la multiplication par rapport à l’addition,
l’existence d’éléments neutres, l’inversibilité des éléments non nuls pour la multiplication,
etc.
Définition 1. Soit z ∈ C. Soit (x, y) l’unique couple de réels tel que z = x + iy. x
est appelé la partie réelle de z, et y est la partie imaginaire de z. On note x = Re z et
y = Im z.
Le nombres de la forme iy, avec y réel sont dits imaginaires purs. On note Ri (ou iR)
l’ensemble des imaginaires purs.
et
∀z ∈ C, A(I(z)) = z
Définition 2.
• Pour tout point M ∈ P, le nombre complexe z = A(M ) est appelé l’affixe de
M . On notera parfois M (z) pour indiquer que M est le point d’affixe z.
• Pour tout z ∈ C, le point M = I(z) est appelé l’image de z.
1.3 Conjugué
z̄ = x − iy
Proposition 2. Soit z ∈ C. On a :
• Re z = z+z̄
2 et Im z =
z−z̄
2i .
• ¯
z̄ = z.
• z ∈ R ⇐⇒ z̄ = z.
• z ∈ iR ⇐⇒ z̄ = −z.
Proposition 3.
• Le conjugué d’une somme est la somme des conjugués.
• Le conjugué d’un produit est le produit des conjugués.
• Le conjugué d’un quotient est le quotient des conjugués.
qui se simplifie en zz = 1. Les solutions du problème sont les nombres complexes de module
1, i excepté.
Remarque 6. Soit ϕ : C → C une application vérifiant les propriétés suivantes :
• Pour tous z, z 0 ∈ C, ϕ(z + z 0 ) = ϕ(z) + ϕ(z 0 ).
• Pour tous z, z 0 ∈ C, ϕ(zz 0 ) = ϕ(z)ϕ(z 0 ).
1. INTRODUCTION 61
Mais i2 = −1, donc ϕ(i)2 = ϕ(−1) = −1. On en déduit que ϕ(i) = ±i.
Si ϕ(i) = i, alors, pour tout complexe z, ϕ(z) = z : ϕ est l’identité de C.
Si, au contraire, ϕ(i) = −i, alors, pour tout complexe z, ϕ(z) = z : φ est la conjugaison.
En résumé, la conjugaison est l’unique endomorphisme non trivial de C laissant les réels
invariants. C’est donc une application extrêmement précieuse : si vous la perdez, vous n’en
aurez pas d’autre.
1.4 Module
1 z̄
• z = |z|2
.
1
• |z| = 1 ⇐⇒ z = z̄.
Démonstration. On a
1 z z
= = 2
z zz |z|
Et aussi, |z| = 1 si et seulement si zz = 1 ou encore z = z1 .
Démonstration. On a
Nous rappelons ici les principaux résultats sur les fonctions trigonométriques : Les fonctions
sin et cos sont dérivables sur R, et de période 2π. La fonction sinus est impaire sa dérivée est
cos. La fonction cosinus est paire, sa dérivée est sin. Nous n’énumérerons pas les différentes
symétries de ces fonctions : sin(π − x) = sin x, sin(π + x) = − sin x, etc. Elles se retrouvent
2. NOMBRES COMPLEXES ET TRIGONOMÉTRIE 63
facilement à l’aide du cercle trigonométrique. Les formules suivantes sont à connaître. Les
lettres a, b, p, q, x désignent des réels quelconques.
cos2 x + sin2 x = 1
sin(a + b) = sin a cos b + cos a sin b
sin(a − b) = sin a cos b − cos a sin b
cos(a + b) = cos a cos b − sin a sin b
cos(a − b) = cos a cos b + sin a sin b
sin 2x = 2 sin x cos x
cos 2x = cos2 x − sin2 x = 2 cos2 x − 1 = 1 − 2 sin2 x
1
sin a cos b = 2 (sin(a + b) + sin(a − b))
1
cos a cos b = 2 (cos(a + b) + cos(a − b))
sin a sin b = − 12 (cos(a + b) − cos(a − b))
sin p − sin q = 2 sin p−q p+q
2 cos 2
cos p − cos q = −2 sin p−q p+q
2 sin 2
La fonction tangente est quant à elle définie par
sin x
tan x =
cos x
Elle est impaire, π-périodique. Son ensemble de définition est
π
D =R\{ + kπ, k ∈ Z}
2
Elle est dérivable sur son ensemble de définition. On a
1
∀x ∈ D, tan0 x = 1 + tan2 x =
cos2 x
Les formules ci-dessous sont aussi à connaître. Pour tous réels a, b, x tels que les expressions
ci-dessous aient un sens, on a
tan a + tan b
tan(a + b) =
1 − tan a tan b
tan a − tan b
tan(a − b) =
1 + tan a tan b
2 tan x
tan 2x =
1 − tan2 x
π 1
tan +x = −
2 tan x
π 1
tan −x =
2 tan x
1 − t2
cos x =
1 + t2
2t
sin x =
1 + t2
2t
tan x =
1 − t2
Démonstration. Ici, petite incursion dans la théorie des groupes, avant d’en avoir parlé
en cours. Pas d’inquiétude . . . Un élément de U est non nul car de module 1. Donc U ⊂ C∗ .
Le produit de deux complexes de module 1, l’inverse d’un complexe de module 1, sont
encore de module 1. Nous verrons que cela prouve exactement que U est un sous-groupe
de C∗ .
Démonstration. C’est immédiat en utilisant le fait que l’application θ 7−→ eiθ est un
morphisme.
66 CHAPITRE 5. NOMBRES COMPLEXES
et
n
X
Tn = sin kx
k=0
ei(n+1)x − 1
Sn + iTn =
eix − 1
z
Soit z un nombre complexe non nul. Le complexe |z| est alors de module 1, donc il existe
z
θ ∈ R tel que |z| = eiθ . Ainsi,
z = reiθ où r = |z|
Définition 6. Soit s un complexe non nul. On appelle argument de z tout réel θ tel
que z = |z|eiθ .
2. NOMBRES COMPLEXES ET TRIGONOMÉTRIE 67
Remarque 9.
• Si z est sous la forme z = aeiθ avec a et θ réels, il convient de discuter sur le signe
de a pour connaître son module et un de ses arguments.
• Si l’on astreint l’argument à demeurer dans un intervalle d’amplitude 2π, tel que
[0, 2π[ ou ] − π, π], on a alors unicité de l’argument.
√ √
Exemple. Trouvons le module et√un argument de z = 3 + i. On a |z|2 = ( 3)2 + 1 = 4,
donc |z| = 2. Maintenant, |z| z
= 23 + 12 i. Un argument de z est donc un réel θ tel que
√
3
cos θ = 2 et sin θ = 21 . Par exemple, θ = π3 .
Soit z ∈ C. On dit que z est mis sous forme trigonométrique lorsqu’on a écrit z = reiθ
avec r ∈ R+ et θ ∈ R. La forme trigonométrique est particulièrement adaptée aux calculs
de produits, quotients, puissances, et pas du tout adaptée aux calculs de sommes.
z1 z2 = r1 r2 ei(θ1 +θ2 )
z1 r1
= ei(θ1 −θ2 )
z2 r2
Par exemple,
√ !
√ 3 1
3 cos x + sin x = 2 cos x + sin x
2 2
π π
= 2 cos cos x + sin sin x
6 π 6
= 2 cos x −
6
Ainsi,
iθ iϕ θ−ϕ θ+ϕ
e +e = 2 cos exp i
2 2
ez = ex eiy
0
Corollaire 21. Soient z, z 0 ∈ C. On a ez = ez ⇐⇒ z 0 − z ∈ 2iπZ.
0 0
Démonstration. C’est évident, puisque ez = ez si et seulement si ez−z = 1.
Proposition 22. Tout nombre complexe non nul a est de la forme ez0 , avec z0 ∈ C.
Ses antécédents sont alors les z0 + 2ikπ, avec k ∈ Z.
ez = a ⇐⇒ ez = ez0 ⇐⇒ ez−z0 = 1
On sait par ailleurs que cette quantité est réelle. Elle est donc égale à sa partie réelle. Ainsi,
m
m 1 X m
cos θ = m cos(2k − m)θ
2 k
k=0
La même opération peut bien entendu être réalisée avec un sinus. Il faut alors distinguer
suivant la parité de m.
Si l’on veut par exemple cos mθ, il suffit de prendre la partie réelle :
X m
cos mθ = (−1)p cos2p θ sinm−2p θ
2p
0≤2p≤m
De même :
X m
sin mθ = (−1)p cos2p+1 θ sinm−2p−1 θ
2p + 1
0≤2p+1≤m
Proposition 23. Tout nombre complexe non nul possède exectement deux racines
carrées.
√
2
Exemple. Les racines carrées de i sont ± 2 (1 + i).
X2 − Y 2 = x
(1)
2XY = y
1 1
X 2 = (|a| + x) et Y 2 = (|a| − x)
2 2
Ainsi,
r r
1 1
X=ε (|a| + x) et Y = ε0 (|a| − x)
2 2
où ε, ε0 ∈ {−1, 1}. De plus, la condition de signe impose que εε0 est du signe de y. On en
72 CHAPITRE 5. NOMBRES COMPLEXES
déduit que
r
1 1
2XY = 2εε0 (|a| + x) (|a| − x)
2 2
r
1
= 2εε0 (|a|2 − x2 )
4
r
0 1 2
= 2εε y
4
= εε0 |y|
= y
Ainsi, si on a (2) alors on a (1). En conclusion, (2) est une condition nécessaire et suffisante
pour que z 2 = a.
Exercice. Calculons les racines carrées de 1+i par la méthode algébrique. Soit z = X +iY .
On a z 2 = 1 + i si et seulement si
2
X − Y 2 = 1√
(2) X2 + Y 2 = 2
XY > 0
√ √
On en tire X 2 = 12 ( 2 + 1) et Y 2 = 21 ( 2 − 1). Avec les conditions de signe, on en déduit
!
1 √ 1 √
r r
z=± ( 2 + 1) + i ( 2 − 1)
2 2
(E) az 2 + bz + c = 0
Démonstration. On écrit
b 2 ∆
az 2 + bz + c = a(z + ) −
2a 4a
Ainsi, z est solution de E si et seulement si
2
b δ
(z + )2 =
2a 2a
3. RÉSOLUTION D’ÉQUATIONS ALGÉBRIQUES 73
ou encore
b δ
z+ =±
2a 2a
Exemple. Résolvons l’équation z 2 − (1 + 2i)z + i − 1 = 0. Son discriminant est ∆ = 1.
Nous avons de la chance, le discriminant aurait pu être non réel. Une racine carrée de ∆ est
δ = 1. Les solutions de l’équation sont donc 12 ((1 + 2i) + 1) = 1 + i et 12 ((1 + 2i) − 1) = i.
Corollaire 25. Avec les mêmes notations que dans la proposition précédente, le produit
des racines de (E) est ac et la somme des racines est −b
a .
Démonstration. Il suffit de prendre les expressions des racines données par la proposition
précédente.
Remarque 10. Lorsque ∆ = 0, ce que l’on appelle les racines est en réalité la racine
comptée deux fois. nous parlerons dans cette situation de racine double.
Proposition 27. L’ensemble, noté Un , des racines nièmes de l’unité est un sous-
groupe du groupe (U, ×) des nombres complexes de module 1.
Un = {ξ k , k ∈ Z}
2iπ
où ξ = e n . Soit maintenant k ∈ Z. On effectue la division euclidienne de k par n :
k = nq + r où 0 ≤ r < n. On a alors ξ k = (ξ n )q ξ r = ξ r . Donc,
Un = {ξ k , 0 ≤ k < n}
Enfin, si 0 ≤ i < j < n, alors 0 < i − j < n donc
2π(i − j)
0< < 2π
n
donc ξ i 6= ξ j . L’ensemble Un contient bien exactement n éléments.
Remarque 11. La somme des racines nièmes de l’unité est
ξn − 1
1 + ξ + ξ 2 + · · · + ξ n−1 = =0
ξ−1
puisque ξ n = 1.
Exemple. On a U1 = {1}, U2 = {−1, 1}, U4 = {−1, 1, −i, i}. On a U3 = {1, j, j 2 } où
j = e2iπ/3 . Le nombre j apparaît dans un grand nombre de calculs. Il faut absolument se
souvenir que 1j = j̄ = j 2 , 1 + j + j 2 = 0.
Plus généralement, si l’on dessine Un dans le plan (en identifiant le complexe x + iy et le
point (x, y)), on obtient le polygone régulier à n côtés inscrit dans le cercle unité, dont l’un
des sommets est le point (1, 0).
Exercice. Dessiner U6 .
Proposition 29. Soit z un complexe non nul. Si u est une racine nième de z, alors
l’ensemble des racines nièmes de z est
{uξ, ξ ∈ Un }
4. INTERPRÉTATIONS GÉOMÉTRIQUES 75
w
Démonstration. On a wn = z si et seulement si wn = un , c’est à dire u ∈ Un .
Corollaire 30. Soit z un complexe non nul de module r et d’argument θ. Les racines
nièmes de z sont les complexes
√ θ 2kπ
Zk = k
rei( n + n
)
, k ∈ [|0, n − 1|]
√
Démonstration. C’est clair, puisque k
reiθ/n est clairement une racine nième de z.
u, ju, j 2 u
où j = e2iπ/3 .
4 Interprétations géométriques
Nous avons déjà parlé de l’affixe d’un point du plan, qui est un nombre complexe. Nous
pouvons également parler de l’affixe d’un vecteur du plan. Si A(a) et B(b) sont deux points
−−→
du plan d’affixes a, b ∈ C, l’affixe du vecteur AB est le nombre complexe b − a. Nous
noterons éventuellement →−
u (c) lorsque c ∈ C est l’affixe du vecteur →
−
u.
Ces opérations sur les complexes correspondent dans le plan euclidien aux opérations
usuelles sur les vecteurs. Si →−u et →−v ont pour affixes z et z 0 , alors →
−
u +→
−
v a pour af-
0 →
−
fixe z + z . Si, de plus, λ ∈ R, alors λ u a pour affixe λz.
M 7−→ M + →
−
u
En termes d’affixes, si →
−
u (z0 ), cette application est décrite par
M (z) 7−→ M (z + z0 )
Module et argument représentent respectivement des distances et des angles dans le plan
euclidien. Ainsi, soient A(a) et B(b) deux points du plan. On a
d(A, B) = |b − a|
−−→
Si A(a), B(b) et C(c) sont trois points distincts, l’angle orienté entre les vecteurs AB et
−→
AC est donné par
c−a
θ = arg
b−a
4.4 Produit
C’est l’opération la plus intéressante. Commençons par le produit d’un nombre complexe
par un complexe de module 1 : Soit z ∈ C et θ ∈ R. On a alors :
• |zeiθ | = |z|
• arg(zeiθ ) ≡ arg z + θ mod 2π
4. INTERPRÉTATIONS GÉOMÉTRIQUES 77
Plus, généralement, la multiplication par un nombre complexe non nul est la composée des
deux opérations suivantes :
• Produit par un nombre complexe de module 1 (rotation)
• Produit par un réel non nul (homothétie)
Définition 13. Soient Ω(z0 ) un point du plan, λ un réel non nul, et θ un réel.
L’application
M (z) 7−→ M (z0 + λ(z − z0 )eiθ )
est appelée la similitude (directe) de centre Ω, de rapport λ et d’angle θ.
Plus généralement, on appelle similitude (directe) du plan toute application
où a, b ∈ C, a 6= 0.
Démonstration. Pour alléger les notations, nous confondons dans ce qui suit les points
et leurs affixes.
Soient a, b ∈ C, a 6= 0. Soit
f : z 7−→ az + b
la similitude correspondante. Il y a deux cas à considérer.
Si a = 1, l’application f est une translation.
Supposons maintenant a 6= 1. Soit ω ∈ C. On a f (ω) = ω si et seulement si
b
ω=
1−a
L’application f a donc un unique point fixe. Mais alors, pour tout z ∈ C,
f (z) − ω = f (z) − f (ω) = a(z − ω)
78 CHAPITRE 5. NOMBRES COMPLEXES
Démonstration. Seul le sens direct est à prouver. Supposons donc que f est une injection
qui conserve les angles. Posons
f (z) − f (0)
g(z) =
f (1) − f (0)
L’application g est encore une injection, et conserve toujours les angles. De plus, g(0) = 0
et g(1) = 1.
Soit z ∈ C \ R. On considère l’angle formé par 1, 0 et z. Cet angle étant conservé par g,
on a donc
g(z) − 0 z−0
arg = arg
1−0 1−0
Donc, g(z) = λz, où λ ∈ R∗+ . De même, l’angle formé par 0, 1 et z est conservé, donc
g(z) − 1 z−1
arg = arg
0−1 0−1
Il existe donc µ ∈ R∗+ tel que 1 − g(z) = µ(1 − z). D’où
1 − λz = µ(1 − z)
1 − µ = (λ − µ)z
79
80 CHAPITRE 6. NOMBRES RÉELS
√
Exemple. Q, R, {a + b 2, a, b ∈ Q} sont des corps ordonnés lorsqu’on prend pour P
l’ensemble des éléments strictement positifs du corps et pour N l’ensemble des éléments
strictement négatifs.
On suppose jusqu’à la fin de cette section que K est un corps ordonné.
Proposition 1. Soient x, y ∈ K. On a
• x, y ∈ P =⇒ xy ∈ P
• x, y ∈ N =⇒ xy ∈ P
• x ∈ P, y ∈ N =⇒ xy ∈ N
Proposition 2. On a
• ∀x ∈ K, x2 ∈ P
• 1 ∈ P, −1 ∈ N
1
• ∀x ∈ K, x ∈ P ⇐⇒ x ∈P
Proposition 3. On a ∀x, y ∈ N , x + y ∈ N
x < y ⇐⇒ y − x ∈ P
et
x ≤ y ⇐⇒ x < y ou x = y
On définit de même x > y et x ≥ y.
Démonstration.
• La réflexivité est évidente.
• Si x < y alors y − x ∈ P donc x − y 6∈ P. Ainsi, si x ≤ y et y ≤ x, on a x = y d’où
l’antisymétrie.
• Si x < y et y < z alors z − x = (z − y) + (y − x) ∈ P donc x < z d’où la transitivité.
• Soient enfin x, y ∈ K. y − x est soit dans N auquel cas y < x, soit dans P auquel
cas x < y soit nul auquel cas x = y. L’ordre est total.
(y + z) − (x + z) = y − x ∈ P
2 Borne supérieure
sup A = min A+
inf A = max A−
Proposition 7. Si A possède un plus grand élément, alors A possède une borne supé-
rieure, et sup A = max A. La réciproque est fausse.
sup[0, 1] = 1
sup[0, 1[= 1
R+ n’a pas de borne supérieure.
84 CHAPITRE 6. NOMBRES RÉELS
A = x ∈ Q∗+ , x2 ≤ 2
Montrons que A est non vide et majorée, mais que A ne possède pas de borne supérieure.
L’ensemble A est clairement non vide puisque 1 ∈ A. De même, pour tout x ∈ A, on a
x2 ≤ 2 ≤ 22
donc x ≤ 2 et A est majoré. Supposons que A possède une borne supérieure α. Nous allons
montrer que α2 = 2, ce qui est impossible car il n’existe pas de rationnel dont le carré vaut
2.
• Tout d’abord, supposons α2 < 2. Soit h un rationnel tel que
2 − α2
0<h<
2α + 1
On a
(α + h)2 = α2 + h(2α + h) < α2 + h(2α + 1) < 2
Ainsi, α + h ∈ A ce qui n’est pas possible puisque α majore A. Donc, α2 ≥ 2.
• Supposons maintenant que α2 > 2. Soit h un rationnel vérifiant
α2 − 2
0<h<
2α
On a
(α − h)2 = α2 − 2αh + h2 > α2 − 2αh > α2 − (α2 − 2) = 2
Pour tout x ∈ A, x2 ≤ 2 ≤ (α − h)2 , donc x ≤ α − h. Ceci n’est pas possible. En
effet α − h ne majore pas A puisque α est le plus petit majorant de A.
Remarque 5. Dans tout ce qui suit, on ne parlera que de borne sup. Il existe évidemment
des propriétés identiques pour la borne inférieure, que l’on obtient par exemple en passant
à l’opposé.
2. BORNE SUPÉRIEURE 85
On choisit un tel corps, et on l’appelle R. Lequel ? Cela n’a pas d’importance, puisque tous
ces corps sont isomorphes.
Remarque 6. Reprenons l’exemple du paragraphe précédent, mais dans R au lieu de Q.
Soit donc A = {x ∈ R+ , x2 ≤ 2}. A est non vide et majorée, donc A possède une borne
supérieure α. La même démonstration que ci-dessus nous prouve que α2 = 2. Nous avons
donc prouvé l’existence d’un réel α > 0 tel que α2 = 2. Si l’on remplace 2 par un réel t > 0
quelconque une démonstration identique nous dira que tout réel positif possède une racine
carrée positive.
Exercice. Montrer l’unicité de la racine carrée positive d’un réel positif.
Pour simplifier certaines discussions dans le cours, on rajoute ici à R deux éléments, notés
+∞ et −∞, pour fabriquer ce que l’on appelle la droite réelle achevée, notée R.On va voir
que toute partie de R posséde une borne supérieure. En contrepartie, les opérations ne sont
plus que partiellement définies.
Définition 6. On étend l’ordre de R à R en posant, pour tout réel x, −∞ < x < +∞.
+ −∞ y ∈ R +∞
−∞ −∞ −∞ N.D.
x ∈ R −∞ x + y +∞
+∞ N.D. +∞ +∞
86 CHAPITRE 6. NOMBRES RÉELS
Remarque 7. On peut également convenir que l’inverse des infinis est 0. En revanche
l’inverse de 0 pose problème d’un point de vue algébrique à cause d’une ambiguité de signe.
Démonstration. Soit A ⊂ R.
• Si A = ∅, alors sup A = −∞. Sinon :
• Si +∞ ∈ A, alors A possède un plus grand élément, qui est aussi sa borne supé-
rieure : +∞.
• Si A = {−∞}, alors sup A = −∞.
• Sinon A \ {−∞} est une partie non vide de R. Si cette partie est majorée dans R
elle possède une borne supérieure réelle. Sinon, sup A = +∞.
Les cas intéressants pour nous sont ceux où A est une partie non vide de R : Si A est
majorée, alors A possède une borne supérieure réelle. Si A n’est pas majorée, alors sup A =
+∞.
Remarque 8. Soit A une partie non vide de R. Soit a ∈ A. Alors, les majorants de A
sont plus grands que a, les minorants de A sont plus petits que a, et donc
inf A ≤ sup A
Proposition 10. Soient a et b deux réels positifs, avec b 6= 0. Il existe alors un entier
naturel n tel que nb > a.
2. BORNE SUPÉRIEURE 87
E = {nb, n ∈ N}
est alors une partie de R, non vide, et majorée par a. Elle possède une borne supérieure
M . Mais alors, M − b n’est pas un majorant de E. On peut donc trouver un entier n tel
que nb > M − b. D’où (n + 1)b > M ce qui contredit le fait que M majore E.
Corollaire 11. Soient a et b deux réels, b > 0. Il existe un unique entier relatif n tel
que
nb ≤ a < (n + 1)b
Démonstration.
• Supposons d’abord a ≥ 0. Soit E l’ensemble des entiers naturels n tels que nb > a.
C’est une partie de N, non vide d’après la proposition précédente. Donc E a un plus
petit élément m. L’entier n = m − 1 répond à la question.
• Supposons maintenant a < 0. Alors, −a > 0 et il existe donc un entier n tel que
nb ≤ −a < (n + 1)b. Si a 6= nb, l’entier −n − 1 répond à la question. Sinon,
l’entier −n répond à la question. Pour l’unicité, on suppose que deux entiers m et
n conviennent. On a nb ≤ a < (m + 1)b d’où n < m + 1 et donc n ≤ m. De même
m ≤ n et donc m = n.
Une application importante de ce théorème est obtenue avec b = 1.
Remarque 9. La partie entière de a est caractérisée par bac ∈ Z et bac ≤ a < bac + 1.
Remarque 10. On peut de la même façon définir le plafond de a, le plus petit entier
supérieur ou égal à a. Il est caractérisé par dae ∈ Z et dae < a ≤ dae + 1.
Proposition 12. Soit a un nombre réel. Il existe un unique entier relatif p tel que
p p 1
≤a< n + n
10n 10 10
88 CHAPITRE 6. NOMBRES RÉELS
n
Proposition 13. Le nombre décimal b10 ac
10n est une valeur approchée de a à 10
−n près
n
par défaut. Le nombre décimal b10 ac 1
10n + 10n est une valeur approchée de a à 10
−n près
par excès.
Exemple.
• 3.14 est une valeur approchée de π√à 10−2 près par défaut.
• 1.415 est une valeur approchée de 2 à 10−3 près par excès.
Définition 11. Soit A ⊂ R. On dit que A est dense dans R lorsque pour tous x, y ∈ R
tels que x < y, il existe a ∈ A tel que x < a < y.
Remarque 12. Soit A une partie dense de R. Soient x, y ∈ R tels que x < y. Il existe
a1 ∈ A tel que x < a1 < y. On peut réutiliser la densité avec x et a1 : il existe a2 ∈ A tel
que x < a2 < a1 < y. Etc. Entre deux réels distincts, il existe donc une infinité d’éléments
de A.
Proposition 14.
2. BORNE SUPÉRIEURE 89
1
0< <y−x
q
p−1 p
≤x<
q q
p 1
≤ x + < x + (y − x) = y
q q
et donc √
x<a− 2<y
√
Or, a − 2 ∈ R \ Q.
Remarquons pour terminer que la propriété de densité peut s’écrire de bien des manières.
Supposons (iii). Soient x, y ∈ R tels que x < y. Il existe une suite (an )n∈N d’éléments de
A qui converge vers z = x+y
2 . Nous verrons dans le chapitre sur les suites que cela entraîne
que pour tout entier n suffisamment grand,
y−x
|an − z| <
2
Pour un tel entier n, on a alors
x+y y−x x+y y−x
x= − < an < + =y
2 2 2 2
D’où (i).
Exercice. Montrer que l’ensemble des nombres décimaux est dense dans R.
3 Intervalles
• Les intervalles bornés, qui peuvent être de 4 sortes : [a, b], [a, b[, ]a, b], ou ]a, b[, où a
et b sont deux réels. L’ensemble vide est donc a priori un intervalle. Les singletons
aussi. Un cas important est celui des intervalles de la forme [a, b], appelés aussi
segments.
• Les intervalles non bornés, qui peuvent être de 5 types : ] − ∞, b], ] − ∞, b[, ]a, +∞[,
[a, +∞[ et ] − ∞, +∞[= R.
Parmi les intervalles, certains sont ouverts, d’autres sont fermés. Précisément, ∅ et R sont
à la fois ouverts et fermés. À part ces deux cas bizarres, sont ouverts les intervalles du type
]a, b[, ] − ∞, b[, ]a, +∞[. Sont fermés les intervalles du type [a, b], ] − ∞, b], [a, +∞[.
Les intervalles du type [a, b], où −∞ < a ≤ b < +∞ jouent un rôle particulier. On les
appelle des segments.
Définition 12. Soit A une partie de R. On dit que A est convexe lorsque pour tous
éléments x et y de A, avec x ≤ y, le segment [x, y] est inclus dans A.
3. INTERVALLES 91
Démonstration. Il est évident que tout intervalle est convexe (10 cas).
Inversement, soit A une partie convexe de R. Si A est vide, c’est bien un intervalle. Sup-
posons donc A non vide. Prenons par exemple le cas où A est minorée et pas majorée.
Alors A possède une borne inférieure, que l’on va noter a. On va prouver que A = |a, +∞[,
ouvert ou fermé en a.
• Montrons que ]a, +∞[⊂ A : soit z > a. Par maximalité de a, z n’est donc pas un
minorant de A. Il existe ainsi x ∈ A tel que x < z. z n’est pas non plus majorant
de A, vu que A n’est pas majorée. Donc, il existe y ∈ A tel que z < y. Mais A est
convexe, donc [x, y] ⊂ A. Or, z ∈ [x, y], donc z ∈ A.
• Montrons que A ⊂ [a, +∞[ : a minore A, donc pour tout z de A, on a a ≤ z. D’où
le résultat.
92 CHAPITRE 6. NOMBRES RÉELS
Chapitre 7
Suites réelles et complexes
93
94 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
Une suite à valeurs dans l’ensemble E est une application u : N → E. Dans ce chapitre
nous considérerons tout d’abord des suites à valeurs dans R. Puis nous regarderons si les
résultats obtenus peuvent être étendus aux suites à valeurs dans C.
L’image de l’entier n par la suite u est appelée le nième terme de la suite. Cette image est
notée très souvent un au lieu de u(n).
La suite u est aussi notée (un )n∈N .
On considère parfois des suites « démarrant au rang n0 », c’est à dire des applications
u : [n0 , +∞[→ E.
Définition 1. Soit u une suite réelle. Soit ` ∈ R. On dit que la suite u tend vers `
lorsque
∀ε > 0, ∃N ∈ N, ∀n ∈ N, n ≥ N =⇒ |un − `| ≤ ε
Le réel ` est alors appelé une limite de la suite u.
Ainsi,
2 13 18 2
un − = ≤ =
3 3(3n + 5) 9n n
Soit ε > 0. Soit N ∈ N tel que N ≥ 2ε . On a alors pour tout n ≥ N ,
2 2 2
un − ≤ ≤ ≤ε
3 n N
Proposition 1. Soit q un réel vérifiant |q| < 1. Alors, q n tend vers 0 lorsque n tend
vers l’infini.
1
Démonstration. Soit ε > 0. Posons |q| = 1 + h, où h > 0. Alors,
1
= (1 + h)n ≥ 1 + nh
|q|n
Démonstration. Soit u une suite. Supposons que u tend vers ` et aussi vers `0 . Soit
ε > 0. Il existe un entier N 0 tel que pour tout n ≥ N 0 ,
|un − `| ≤ ε/2
|un − `0 | ≤ ε/2
Soit N = max(N 0 , N 00 ). On a
|` − `0 | ≤ |` − uN | + |uN − `0 | ≤ 2ε/2 = ε
Ceci est vrai pour tout ε > 0. On en déduit que |` − `0 | = 0, c’est à dire ` = `0 .
96 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
Nous avons dans la démonstration ci-dessus utilisé un argument très fréquent en analyse.
Si x est un réel positif ou nul qui est plus petit que tous les réels strictement positifs, alors
x = 0. Plus mathématiquement,
(∀ε > 0, 0 ≤ x ≤ ε) =⇒ x = 0
Définition 2. Une suite est dite convergente lorsqu’elle a une limite réelle. Sinon, on
dit qu’elle est divergente.
Rappelons que la suite réelle u est bornée si et seulement si il existe m, M ∈ R tels que
∀n ∈ N, m ≤ un ≤ M
L’inconvénient de cette définition est qu’elle nous oblige à montrer deux inégalités. Pour
simplifier le travail, nous avons le résultat suivant.
Proposition 5.
• Soient u une suite bornée et v une suite qui tend vers 0. Alors, la suite uv tend
vers 0.
• Soit u une suite qui tend vers ` ∈ R. Alors, |u| tend vers |`|.
• Une suite u tend vers 0 si et seulement si sa valeur absolue tend vers 0.
Démonstration.
• Soient u une suite bornée et v une suite qui tend vers 0. Il existe donc un réel M > 0
tel que pour tout entier n, |un | ≤ M . Soit ε > 0. Il existe un entier N tel que pour
tout n ≥ N , |vn | ≤ ε/M . Mais alors
ε
|un vn | ≤ M =ε
M
• Supposons que u tend vers `. On a pour tout entier n
||un | − |`|| ≤ |un − `|
donc |u| tend vers |`|.
• Enfin, ||un | − |0|| = |un − 0| d’où l’équivalence lorsque la suite tend vers 0.
Démonstration. Soit ε > 0. Il existe N tel que pour tout n ≥ N , on ait |vn | ≤ ε. Soit
N 0 tel que pour tout n ≥ N 0 on ait |un | ≤ vn . Alors, pour tout n ≥ max(N, N 0 ), on a
|un | ≤ ε. Donc, u tend vers 0.
Définition 3. Soit u une suite réelle. On dit que la suite tend vers +∞ lorsque
∀M ∈ R, ∃N ∈ N, ∀n ∈ N, n ≥ N =⇒ un ≥ M
98 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
q n = (1 + h)n ≥ 1 + nh
M −1
Étant donné un réel M , on a donc q n ≥ M dès que n ≥ h .
Démonstration. Une suite convergente est bornée, alors qu’une suite qui tend vers
l’infini ne l’est pas. Une suite ne peut pas tendre à la fois vers l’infini, et vers une limite
finie. Une suite qui tend vers +∞ a son terme général supérieur à 1 pour n assez grand.
Une telle suite ne peut donc pas tendre vers −∞. Enfin, on a déjà vu qu’une suite ne peut
pas tendre vers deux réels distincts.
Démonstration.
• On a
|(un + vn ) − (` + `0 )| ≤ |un − `| + |vn − `0 | ≤ ε
dès que
|un − `| ≤ ε/2
1. LIMITE D’UNE SUITE 99
et
|vn − `0 | ≤ ε/2
ce qui est le cas pour n assez grand.
• Plus subtil,
|un vn − ``0 | = |un (vn − `0 ) + `0 (un − `)| ≤ |un ||vn − `0 | + |`0 ||un − `|
La suite u converge, donc la suite |u| est majorée par un réel M > 0. On a pour
tout n ∈ N,
|un vn − ``0 | ≤ ε
dès que
ε
|un − `| ≤
2(|`0 |+ 1)
et
ε
|vn − `0 | ≤
2M
ce qui est le cas pour n assez grand.
• En ce qui concerne le produit par λ, preuve laissée en exercice.
Remarque 2. Notons RN c l’ensemble des suites réelles convergentes. Le résultat ci-dessus
nous apprend des choses sur la structure algébrique de cet ensemble. Il est stable pour
l’addition, le produit, et le produit par un nombre réel. Nous avons là ce que l’on appelle
une R-algèbre. De plus, l’application
lim : RN
c →R
vérifie :
• ∀u, v ∈ RNc , lim(u + v) = lim u + lim v.
• ∀u, v ∈ RNc , lim(uv) = lim u lim v.
• ∀u ∈ Rc , ∀λ ∈ R, lim(λu) = λ lim u.
N
Proposition 10. Les résultats ci-dessus restent vrais pour des limites infinies, à condi-
tion de ne pas être dans un cas d’indétermination.
∗
Proposition 11. Soit u une suite tendant vers ` ∈ R+ . Alors :
100 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
1
Proposition 12. Soit u une suite strictement positive tendant vers 0. Alors, u tend
vers +∞ lorsque n tend vers l’infini.
Démonstration. Exercice.
Proposition 13. Soit u une suite tendant vers ` ∈ R. Soit f une fonction définie au
voisinage de `, et telle que f (x) → `0 ∈ R lorsque x tend vers `. Alors, f (un ) tend vers
`0 lorsque n tend vers l’infini.
Nous admettons pour l’instant ce théorème, puisque la notion de limite pour les fonctions
n’a pas encore été abordée de façon théorique. On l’utilisera sur des cas simples.
Exemple. Si un −→ −∞, alors eun −→ 0 puisque la limite de l’exponentielle en −∞ est
nulle.
Exemple. Soit u la suite définie par récurrence par u0 = 0, et
√
∀n ≥ 0, un+1 = 1 + un
√ √
Supposons que u converge vers un réel `. Alors, 1 + un converge vers 1 + `. Nous verrons
un peu plus loin (suites extraites) que (un+1 )n≥0 converge aussi vers `. Par unicité de la
limite, il vient √
`= 1+`
1. LIMITE D’UNE SUITE 101
Ainsi, ` ≥ 0 et
`2 − ` − 1 = 0
√
1+ 5
Le seul réel ` ≥ 0 vérifiant cette égalité est le nombre d’or 2 . Ainsi, SI la suite converge,
√
1+ 5
c’est forcément vers 2 .
Bien entendu, il resterait à prouver que cette suite converge. Mais ceci est une autre
histoire.
Proposition 14. Soient u et v deux suites tendant respectivement vers les réels achevés
` et `0 . On suppose que pour tout entier n assez grand, on a un ≤ vn . Alors, ` ≤ `0 .
∀n ≥ N, |un − `| ≤ ε
∀n ≥ N 0 , |vn − `0 | ≤ ε
et
∀n ≥ N 00 , un ≤ vn
On a donc pour tout n ≥ max(N, N 0 , N 00 ),
` − ε ≤ un ≤ vn ≤ `0 + ε
Ainsi,
` ≤ `0 + 2ε
ceci pour tout ε > 0. D’où ` ≤ `0 .
Ne pas confondre ce résultat (passage à la limite dans une inégalité) avec le suivant (théo-
rème d’encadrement)
` − ε ≤ un ≤ vn ≤ wn ≤ ` + ε
d’où le résultat.
102 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
Théorème 16. Soient u, v deux suites réelles. On suppose que u tend vers +∞ et que,
de plus, l’inégalité un ≤ vn est vérifiée pour tout n assez grand. Alors, la suite v tend
vers +∞.
On a
n+1
2X
1 1
un+1 − un = ≥
k 2
k=2n +1
1
Minorer chaque terme de la somme par 2n+1 et remarquer que cette somme comporte 2n
termes. Il en résulte, par exemple par récurrence sur n, que
n
un ≥
2
Ainsi un tend vers +∞ lorsque n tend vers l’infini.
Définition 4. Soit u une suite. On appelle suite extraite de u toute suite v pour
laquelle pour tout n vn = uϕ(n) , où ϕ est une fonction strictement croissante de N vers
N.
∀n ∈ N, ϕ(n) ≥ n
Démonstration. On fait une récurrence sur n. Tout d’abord, ϕ(0) ∈ N et donc ϕ(0) ≥ 0.
Soit n ∈ N. Supposons ϕ(n) ≥ n. Comme n + 1 > n, on a ϕ(n + 1) > ϕ(n) et donc
ϕ(n + 1) > n. Mais n et ϕ(n + 1) sont entiers, donc ϕ(n + 1) ≥ n + 1.
Proposition 18. Toute suite extraite d’une suite tendant vers ` ∈ R tend également
vers `.
1. LIMITE D’UNE SUITE 103
Démonstration. Faisons par exemple la preuve pour ` réel. Étant donné ε > 0, il existe
N tel que pour tout n ≥ N ,
|un − `| ≤ ε
De là, pour tout n ≥ N ,
ϕ(n) ≥ n ≥ N
donc
|uϕ(n) − `| ≤ ε
Donc, vn −→ `.
Cette proposition sert essentiellement à montrer qu’une suite est divergente, ou à trouver
des conditions pour qu’elle converge. Prenons deux exemples.
Exemple. La suite de terme général un = (−1)n n’a pas de limite. En effet, u2n tend vers
1 et u2n+1 tend vers −1.
Exemple. Soit x ∈ R. Soit u la suite définie par
∀n ∈ N, un = cos nx
Supposons que cette suite converge vers un réel `. Alors, pour tout entier n,
Comme la suite (u2n )n∈N est extraite de u, elle tend aussi vers `. Mais elle tend aussi vers
2l`2 − 1. Donc, par unicité de la limite, ` = 2l2 − 1, d’où ` = 0 ou ` = − 21 .
De la même façon,
u3n = 4u3n − 3un
donc ` = 4`3 − 3` et donc ` = 0, 1 ou −1.
En réunissant les deux, on en déduit que ` = 1. Mais alors, sin2 nx = 1 − u2n tend vers 0.
Donc, sin nx tend aussi vers 0.
On considère enfin
un+1 = cos nx cos x + sin nx sin x
qui tend vers cos x. Mais (un+1 )n∈N est aussi une suite extraite de u, elle tend donc vers
1. Ainsi, cos x = 1 donc x ∈ 2πZ. Bilan : si x n’est pas un multiple de 2π, la suite diverge.
Enfin, si x ∈ 2πZ, la suite est constante égale à 1, donc converge.
Ce résultat possède un certain nombre de « réciproques » utiles. Citons la suivante :
Proposition 19. Soit u une suite réelle. On suppose que les deux suites (u2n )n≥0 et
(u2n+1 )n≥0 tendent vers une même limite ` lorsque n tend vers l’infini. Alors, la suite
u tend vers `.
104 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
Démonstration. Soit ε > 0. Il existe deux entiers N et N 0 tels que, pour tout n ≥ N ,
on ait
|u2n − `| ≤ ε
et pour tout n ≥ N 0 on ait
|u2n+1 − `| ≤ ε
Alors, pour tout n ≥ max(2N, 2N 0 + 1), on a
|un − `| ≤ ε
Exemple. Considérons la suite de terme général
n
X (−1)k−1
un =
k
k=1
Posons, pour tout n ≥ 1, vn = u2n et wn = u2n+1 . On montre alors l’une de ces deux
suites croît, l’autre décroît, et leur différence tend vers 0. Nous verrons plus loin (suites
adjacentes) que cela entraîne que v et w convergent vers une même limite. Ainsi, la suite
u converge. Sa limite est ln 2, mais ceci est une autre histoire.
Démonstration.
• Supposons u majorée. L’ensemble E = {un , n ∈ N} est une partie de R non vide
et majorée, qui possède donc une borne supérieure `. Soit ε > 0. Le réel ` − ε ne
majore pas E, il existe donc N tel que uN > ` − ε. Mais alors, pour tout n ≥ N ,
on a
` − ε ≤ uN ≤ un ≤ ` ≤ ` + ε
ou encore
|un − `| ≤ ε
• Supposons u non majorée. Soit M ∈ R. Le réel M ne majore pas u, il existe donc
un entier N tel que uN > M . Soit n ≥ N . Par la croissance de u,
un ≥ uN ≥ M
Définition 6. Soient u et v deux suites réelles. On dit qu’elles sont adjacentes lorsque
• L’une croît, l’autre décroît.
• Leur différence tend vers 0.
Proposition 22. Soient u et v deux suites adjacentes. Pour fixer les idées, on suppose
que u croît et v décroît. Alors :
• Les suites u et v sont convergentes.
106 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
um ≤ ` ≤ vn
∀n ∈ N, un ≤ v0
La suite u est est donc croissante et majorée. Elle converge ainsi vers un réel `.
De même, v est décroissante et minorée par u0 , elle converge donc vers un réel `0 . Comme
v − u tend vers 0, on conclut que ` = `0 .
Passons au dernier point. Puisque u croît et tend vers `,
` = sup{um , m ∈ N}
Ainsi,
∀m ∈ N, um ≤ `
De même, comme v décroît et tend vers `,
∀m ∈ N, ` ≤ vn
Remarque 4. En reprenant les notations ci-dessus, on a en particulier pour tout n ∈ N,
un ≤ ` ≤ vn
et
n
X 1
vn = − ln(n + 1)
k
k=1
• Soit n ≥ 1. On a
1
un+1 − un = − ln(n + 1) + ln n
n+1
Soit f : R∗+ → R définie par
1
f (x) = − ln(x + 1) + ln x
x+1
La fonction f est dérivable et on a pour tout x > 0,
1 1 1 1
f 0 (x) = − 2
− + = >0
(x + 1) x+1 x x(x + 1)2
Le fonction f est donc strictement croissante. De plus, on a pour tout x > 0
1 1
f (x) = − ln 1 +
x+1 x
et donc f tend vers 0 en +∞. Ainsi, f < 0 sur R∗+ . La suite u est donc décroissante.
• On montre de même (exercice) que la suite v est croissante.
• Enfin, on a pour tout n ≥ 1,
1
un − vn = ln(n + 1) − ln n = ln 1 + −→ 0
n n→∞
Ces deux suites sont donc adjacentes. Leur limite commune, γ ' 0.577215, est appelée la
constante d’Euler. Remarquons que l’on a pour tout n ≥ 1,
vn ≤ γ ≤ un
1
et que l’erreur commise en approchant γ par un tel encadrement est ln 1 + n . Nous
verrons plus tard que cette erreur est de l’ordre de n1 .
an ≤ ` ≤ bn
108 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
an ≤ x ≤ bn
−bn ≤ −` ≤ −an
d’où, en ajoutant,
an − bn ≤ x − ` ≤ bn − an
c’est à dire
|x − `| ≤ bn − an
D’où, en passant à la limite dans l’inégalité, x = `.
Nous allons démontrer ce théorème en plusieurs étapes. Donnons-nous une suite réelle u.
Supposons que u est bornée.
u−1 (A) = {n ∈ N : un ∈ A}
En effet,
u−1 (A) = u−1 (B) ∪ u−1 (C)
et une réunion finie d’ensembles est infinie si et seulement si l’un au moins des ensembles
est infini.
Étape 1. Construisons par récurrence sur n deux suites réelles (an )n∈N et (bn )n∈N telles
que pour tout n ∈ N, on ait P([an , bn ]).
2. THÉORÈMES D’EXISTENCE DE LIMITES 109
3 Suites complexes
3.1 Introduction
• (Re un )n≥0 , (Im un )n≥0 , et (|un |)n≥0 , qui sont des suites réelles.
• (un )n≥0 , qui est une suite complexe.
Définition 8. La suite u est dite bornée lorsque la suite réelle (|un |)n≥0 est bornée.
Proposition 27. Une suite complexe est bornée si et seulement si sa partie réelle et
sa partie imaginaire sont bornées.
3.2 Limites
La définition de limite dans C reste inchangée pour les suites complexes, le module rem-
plaçant la valeur absolue. En revanche, on ne parle pas de limite infinie pour une suite
complexe.
∀ε > 0, ∃N ∈ N, ∀n ≥ N, |un − `| ≤ ε
Le théorème d’unicité de la limite reste vérifié (pourquoi ?). On emploie le même vocabulaire
que pour les suites réelles : « ` est la limite de la suite u », « la suite u est convergente »,
etc.
3. SUITES COMPLEXES 111
u → ` ⇐⇒ (Re u → Re ` et Im u → Im `)
|Re un − Re `| ≤ |un − `|
Démonstration.
• Supposons |q| < 1. Nous avons vu dans la partie du chapitre sur les suites réelles
que |q n | = |q|n tend vers 0 lorsque n tend vers l’infini. Donc, q n tend aussi vers 0.
• Supposons |q| > 1. Alors |q n | tend vers +∞ lorsque n tend vers l’infini, et donc
(q n )n≥0 diverge.
• Supposons |q| = 1 et q 6= 1. Il existe donc x ∈ R \ 2πZ tel que q = eix . Supposons
un instant que q n = einx vers ` ∈ C lorsque n tend vers l’infini.
Or, (q n+1 )n≥0 est une suite extraite de la suite (q n )n≥0 . Cette suite tend donc aussi
vers `. Mais on a aussi, pour tout n ∈ N,
q n+1 = eix q n
112 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
`(1 − eix ) = 0
Comme eix 6= 1, il en résulte que ` = 0. Mais ceci est absurde, puisque |un | = 1
pour tout n et donc, toujours par passage à la limite, |`| = 1.
• Le dernier point est évident.
4 Récurrences linéaires
Définition 10. La suite complexe u est dite arithmétique lorsqu’il existe b ∈ C tel
que
∀n ∈ N, un+1 = b + un
Le nombre b est appelé la raison de la suite.
Proposition 30. Soit u une suite arithmétique de raison b. On a pour tout entier n,
un = u0 + bn.
4. RÉCURRENCES LINÉAIRES 113
Définition 11. La suite complexe u est dite géométrique lorsqu’il existe a ∈ C tel que
∀n ∈ N, un+1 = aun
Proposition 32. Soit u une suite géométrique de raison a. On a pour tout entier n,
un = u0 an .
• Si a = 1,
n
X
uk = (n + 1)u0
k=0
Démonstration. Cette identité remarquable a déjà été prouvée dans le chapitre sur les
entiers naturels.
q n+2 = aq n+1 + bq n
ce qui équivaut à
(E) q 2 = aq + b
Remarquons qu’une petite discussion, laissée au lecteur, s’impose dans le cas où q = 0 est
solution du problème.
L’équation (E) est appelée l’équation caractéristique de la récurrence. Deux cas surviennent.
Cas 1. L’équation caractéristique a deux racines distinctes (a priori complexes) q et q 0 .
Démonstration. Supposons l’existence d’un tel α et d’un tel β. Ces deux nombres
vérifient
α+β = u0
αq + βq 0 = u1
On vérifie facilement que ces deux égalités sont vérifiées par un unique couple (α, β).
On montre ensuite par une récurrence à deux termes sur n que pour tout n ∈ N, un =
αq n + βq 0n .
Exemple. La suite de Fibonacci (Fn )n≥0 est définie par F0 = 0, F1 = 1 et pour tout
entier n ∈ N,
Fn+2 = Fn+1 + Fn
L’équation caractéristique de cette récurrence est
(E) q 2 = q + 1
Cette équation possède deux racines réelles ϕ et ϕ̂. Les valeurs de ces racines importent
peu. Remarquons simplement que
ϕ + ϕ̂ = 1 et ϕϕ̂ = −1
4. RÉCURRENCES LINÉAIRES 115
Fn = αϕn + β ϕ̂n
ϕn − ϕ̂n
Fn =
ϕ − ϕ̂
un = αq n + nβq n
(R) un+2 = 0
Prenons donc q 6= 0. Supposons l’existence d’un tel α et d’un tel β. Ces deux nombres
vérifient
α = u0
(α + β)q = u1
Il existe un unique couple (α, β) vérifiant ces deux égalités. On montre ensuite par une
récurrence à deux termes sur n que pour tout n ∈ N, un = αq n + nβq n .
Exemple. Considérons la suite u définie par u0 = 2, u1 = 1 et pour tout n ∈ N,
(E) q 2 = 4q − 4
Cette équation possède une unique racine qui est 2. Il existe donc α, β ∈ R tels que pour
tout n ∈ N,
un = α2n + nβ2n
116 CHAPITRE 7. SUITES RÉELLES ET COMPLEXES
un = 2n+1 − 3n2n−1
Chapitre 8
Comparaison des suites
117
118 CHAPITRE 8. COMPARAISON DES SUITES
Lorsqu’on recherche la limite d’une suite, on est fréquemment confronté à des indétermina-
tions, dont les plus courantes sont ∞ − ∞, 0 × ∞, 00 , ∞∞, 1
∞ et ∞0 . En étudiant certaines
1 Suites équivalentes
Proposition 1. Soient u et v deux suites réelles. On suppose que pour tout n assez
grand vn 6= 0. Alors
un
un ∼ vn ⇐⇒ −→ 1
vn n−→∞
Exemple.
• 2n2 + 3n − 1 ∼ 2n2 .
• Plus généralement, soient d ∈ N∗ et a0 , . . . , ad ∈ R tels que ad 6= 0. On a
d
X
ak nk ∼ ad nd
k=0
Proposition 4. Soient u et v deux suites équivalentes. Alors, pour tout n assez grand,
• un = 0 ⇐⇒ vn = 0.
• un > 0 ⇐⇒ vn > 0.
• un < 0 ⇐⇒ vn < 0.
Démonstration.
• Le produit et le quotient de deux suites qui tendent vers 1 tend encore vers 1.
• Si la suite λ tend vers 1 et si α ∈ R, alors λα tend encore vers 1.
120 CHAPITRE 8. COMPARAISON DES SUITES
√
• L’addition pose problème. Par exemple, on a n2 ∼ n2 + n et −n2 + n ∼ −n2 . Mais
√
on n’a PAS n ∼ n.
Proposition 6. Soit u une suite réelle tendant vers 0. Soit α un nombre réel. On
a alors les équivalents suivants :
eun − 1 ∼ un
ln(1 + un ) ∼ un
(1 + un )α − 1 ∼ αun
sin un ∼ un
u2n
1 − cos un ∼ 2
tan un ∼ un
Nous disposerons d’autres équivalents lorsque nous aurons abordé le cours sur les fonc-
tions usuelles.
eun − 1 eun − e0
=
un un − 0
tend vers la dérivée de l’exponentielle en 0, c’est à dire 1. De même,
(1 + un )α − 1 f (un ) − f (0)
=
un un − 0
où f est définie pour tout x voisin de 0 par f (x) = (1 + x)α . Cette quantité tend vers
f 0 (0) = α lorsque n tend vers l’infini.
Seul l’équivalent pour le cosinus se traite différemment. On a
2
1 − cos un 2 sin2 u2n 2 u4n 1 1
= ∼ 2 = −→
u2n u2n un 2 2
Donc,
u2n
1 − cos un ∼
2
1. SUITES ÉQUIVALENTES 121
Deux mots sur les puissances . . . Pour tout réel x > 0 et tout réel α, on pose
xα = exp(α ln x)
Nous reviendrons sur les fonctions puissances dans le chapitre sur les fonctions usuelles.
Tout ce que nous aurons besoin de savoir dans ce chapitre est que si α est un entier relatif
on retrouve la valeur classique, que les formules usuelles xα+β = xα xβ , (xα )β = xαβ et
(xy)α = xα y α restent valides, et que la dérivée de x 7→ xα est x 7→ αxα−1 .
1.5 Exemples
n
• Quelle est la limite éventuelle de un = 1 + n1 lorsque n tend vers l’infini ? On a
1 1
ln un = n ln 1 + ∼n =1
n n
et ainsi, ln un −→ 1. Donc un −→ e1 = e.
• Soit u une suite qui tend vers 0. Quelle est la limite éventuelle de
(1 − eun ) sin un
vn = ?
ln(1 + 3u2n )
−u2n 1
vn ∼ =−
3u2n 3
et donc v −→ 13 .
• Soit u une suite qui tend vers 0. Quelle est la limite éventuelle de
ln cos(3un )
vn = ?
sin2 (2un )
On a
ln cos(3un ) = ln(1 + wn )
où wn = cos(3un ) − 1 −→ 0. Ainsi,
3
ln cos(3un ) ∼ wn = cos(3un ) − 1 ∼ − u2n
2
De là,
− 32 u2n 3
vn ∼ =−
4u2n 8
et donc v −→ − 38 .
122 CHAPITRE 8. COMPARAISON DES SUITES
• Soit a un réel strictement positif différent de 1. Soit u une suite qui tend vers a et ne
prend pas la valeur a. Déterminons un équivalent de
vn = loga un − logun a
ln un ln a (ln un − ln a)(ln un + ln a)
vn = − =
ln a ln un ln a ln un
Démonstration.
• Supposons ` 6= 0, 1, +∞. On a ln un −→ ln ` et, de même, ln vn −→ ln `. Comme
ln ` est un réel non nul, ln un ln `
ln vn −→ ln ` = 1 par les opérations sur les limites.
• Supposons ` = +∞. On a
ln un ln uvnn + ln vn ln uvnn
= = +1
ln vn ln vn ln vn
Le numérateur de la fraction tend vers ln 1 = 0 et son dénominateur tend vers +∞,
celle-ci tend donc vers 0.
• Supposons ` = 0. u1n et v1n tendent alors vers +∞, donc, par le point précédent,
1 1
− ln un = ln ∼ ln = − ln vn
un vn
d’où le résultat en passant à l’opposé.
2. NÉGLIGEABILITÉ, DOMINATION 123
Démonstration.
un
• Supposons ` 6= ±∞. Alors eun −→ e` et evn −→ e` . De là, eevn −→ 1.
• Lorsque ` = ±∞, tout peut arriver. Par exemple, n ∼ n + 1 et pourtant
en+1 = een 6∼ en
Moralité : On ne peut pas passer aux exponentielles dans les équivalents, sauf dans les
cas triviaux.
2 Négligeabilité, domination
Proposition 9. Soient u et v deux suites réelles. On suppose que pour tout n assez
grand vn 6= 0. Alors,
• u = O(v) si et seulement la suite uvnn est bornée.
• u = o(v) si et seulement si uvnn −→ 0 lorsque n tend vers l’infini.
124 CHAPITRE 8. COMPARAISON DES SUITES
Exemple.
d
X
ak nk = O(nd )
k=0
Les notations « petit o » et « grand O » sont très pratiques. Voici un exemple de manipu-
lation de ces notations.
Le but n’est pas de retenir ce genre d’égalités, mais de les comprendre. En ces de doute, il
suffit de revenir à o(vn ) = εn vn où εn tend vers 0.
Exercice. Montrer que la proposition ci-dessus reste vraie en remplaçant les petits o par
des grands O.
2. NÉGLIGEABILITÉ, DOMINATION 125
u ∼ v ⇐⇒ u = v + o(v)
2.3 Bilan
Lorsque vn est non nul pour tout n assez grand, nous pouvons résumer tout ce qui précède
dans un tableau.
un /vn
−→ 0 un = o(vn )
−→ 1 un ∼ vn
est bornée un = O(vn )
2.4 Un exemple
Soit a un réel strictement positif. Soit u une suite qui tend vers a. Déterminons un équi-
valent de
vn = aun − uan
hn a
a+hn a a hn ln a
vn = a − (a + hn ) = a e − 1+
a
On a ehn ln a − 1 ∼ hn ln a, donc
ehn ln a = 1 + hn ln a + o(hn )
De même,
hn a
hn
1+ −1∼a = hn
a a
126 CHAPITRE 8. COMPARAISON DES SUITES
et donc
a
hn
1+ = 1 + hn + o(hn )
a
Regroupons le tout :
Si a 6= e, on a ln a 6= 1. Dans ce cas,
vn ∼ aa (ln a − 1)(un − a)
On prouve dans cette dernière section un résultat qui permet de comparer logarithmes,
puissances, exponentielles et factorielle de suites tendant vers l’infini. Ce résultat est par-
fois appelé le « théorème des croissances comparées ». Noter les guillemets, les suites que
nous allons considérer n’ayant pas de raison d’être croissantes. Un terme plus approprié
aurait été « théorème de comparaison des vitesses auxquelles les logarithmes, puissances,
exponentielles et factorielles tendent vers l’infini », mais il faut avouer que c’est un peu
long comme titre.
Lemme 12. Soit a > 1. Soit u une suite qui tend vers +∞. On a
ln un un aun
Démonstration. La démonstration générale repose sur des propriétés que nous verrons
dans le chapitre sur les fonctions. Dans ce qui suit nous allons uniquement prouver la
proposition lorsque un = n.
3. PUISSANCES, EXPONENTIELLES, LOGARITHMES, FACTORIELLES 127
• Soit n ≥ 1. On a
ln(n + 1) ln n n ln(n + 1) − (n + 1) ln n
− =
n+1 n n(n + 1)
n(ln n + ln(1 + n1 )) − (n + 1) ln n
=
n(n + 1)
1
n ln(1 + n ) − ln n
=
n(n + 1)
ln n
∼ − ≤0
n(n + 1)
Ainsi, la suite ( lnnn )n≥1 est décroissante pour n assez grand. Comme elle est minorée
par 0, elle converge vers ` ≥ 0. De plus
ln(n2 ) 2 ln n
2
=
n n n
Passons à la limite (suite extraite !). Il vient ` = 0` d’où ` = 0.
• Soit n ≥ 1. On a
an+1 an an
− = ((a − 1)n − 1)
n+1 n n(n + 1)
1 n
Cette quantité est positive dès que n ≥ a−1 . La suite ( an )n≥1 est donc croissante à
partir d’un certain rang. Ainsi, elle tend vers ` ∈ R∗+ . Supposons un court instant `
réel. On a
an+1 an n
=a
n+1 n n+1
Passons à la limite (suite extraite !). Il vient
` = a`
Proposition 13. Soit a > 1. Soient α, β > 0. Soit u une suite qui tend vers +∞. On
a
lnβ un uαn aun
Démonstration.
• On a !β
lnβ un ln un
=
uαn un
α/β
128 CHAPITRE 8. COMPARAISON DES SUITES
α/β
Posons vn = un . Il vient
!β
β/α β
lnβ un ln vn β
ln vn β
= =
uαn vn α vn
Par le lemme, cette quantité tend vers 0 lorsque n tend vers l’infini.
• On a
uαn u α
n
=
aun bun
où b = a1/α . Par le lemme, cette quantité tend vers 0 lorsque n tend vers l’infini.
Proposition 14. Soit a > 1. Soit u une suite d’entiers naturels tendant vers +∞.
On a
aun un !
3.2 Un exemple
1
Posons wn = unun − 1. On a
wn = eln un /un − 1
ln un
Comme ln un un , le quotient un tend vers 0, et donc
ln un
wn ∼
un
et
ln2 un
wn ln un ∼
un
Par le théorème des croissances comparées, wn ln un tend vers 0 lorsque n tend vers l’infini.
De là,
vn = un ewn ln un − 1 ∼ un wn ln un ∼ ln2 un
130 CHAPITRE 8. COMPARAISON DES SUITES
Chapitre 9
Groupes, anneaux, corps
131
132 CHAPITRE 9. GROUPES, ANNEAUX, CORPS
1.1 Définition
L’usage est de noter x ? y l’image du couple (x, y) par l’opération ?. La plupart des lois
classiques sont notées additivement (+) ou multiplicativement (×, ou .) mais ce n’est pas
obligé (penser à l’intersection et la réunion des ensembles (∩, ∪), à la composition des
applications (◦), à l’opération (x, y) 7→ xy ,. . . ).
1.2 Commutativité
Définition 2. Soient E un ensemble non vide et ? une opération sur E. On dit que ?
est commutative lorsque pour tous éléments x et y de E, on a :
x?y =y?x
1.3 Associativité
Définition 3. Soient E un ensemble non vide et ? une opération sur E. On dit que ?
est associative lorsque pour tous éléments x, y et z de E, on a :
(x ? y) ? z = x ? (y ? z)
Remarque 1. Les parenthèses deviennent alors inutiles, et on peut alors écrire plus
simplement x ? y ? z.
1. LOIS DE COMPOSITION INTERNE 133
Exemple. 0 est neutre pour l’addition dans C. 1 est neutre pour la multiplication dans
Q. idR est neutre pour la composition dans RR . ∅ est neutre pour la réunion dans P(A).
La soustraction dans R ne possède pas d’élément neutre : il n’existe aucun réel a tel que
pour tout réel x, on ait x − a = a − x = x.
x ? x 0 = x0 ? x = e
Remarque 2. Le symétrique de x est couramment noté x−1 . Pour certaines lois (comme
l’addition), le symétrique est appelé l’opposé, et le symétrique de x est noté −x.
Définition 7. Soit E un ensemble non vide muni d’une opération ?. Soit x un élément
de E. On dit que x est régulier pour l’opération ? lorsque, pour tous éléments y et z
de E, on a
x?y =x?z ⇒y =z et y?x=z?x⇒y =z
1.8 Distributivité
2 Groupes
2.1 Définitions
Définition 9. Soient G un ensemble non vide, et ? une opération sur G. On dit que
(G, ?) est un groupe lorsque
• ? est associative.
• ? possède un élément neutre.
• Tout élément de G est inversible pour la loi ?.
Si, de plus, ? est commutative, on dit que le groupe G est commutatif (ou abélien 1 ).
Exercice. Notons S3 l’ensemble des bijections de l’ensemble J1, 3K dans lui-même. Montrer
que (S3 , ◦) est un groupe, et donner sa table.
xn+1 = xn x
Démonstration. Pour n ∈ N c’est vrai par définition des puissances. Supposons donc
n < 0. On a donc n + 1 ≤ 0. De là,
−1
xn+1 x−1 = x−n−1 x−1
−1
= xx−n−1
−1
= x1−n−1
−1
= x−n
= xn
Il reste à multiplier les deux côtés de l’égalité par x pour obtenir le résultat.
2. GROUPES 137
Démonstration.
• Démontrons la première propriété. On la montre d’abord pour n ∈ N par récurrence
sur n. C’est évident pour n = 0, 1. Supposons que cela soit vrai pour un certain
entier n. On a alors
2.3 Sous-groupes
Définition 12. Soit (G, ?) un groupe. Soit H une partie de G. On dit que H est un
sous-groupe de G lorsque (H, ?) est lui-même un groupe.
par multiplication et inversion. L’associativité est automatique puisque H est inclus dans
G. Soit x ∈ H. Alors x−1 ∈ H donc e = xx−1 ∈ H. Donc H a bien un neutre (celui de G,
évidemment).
Remarque 6. Les deux dernières assertions sont équivalentes à : pour tous x et y de H,
xy −1 ∈ H. Preuve laissée en exercice.
Définition 13. Soient (G, ?) et (G0 , ∗). deux groupes. Soit f : G → G0 . On dit que f
est un morphisme (de groupes) lorsque
Démonstration.
• On a ee = e donc f (e)f (e) = f (e). On multiplie des deux côtés par l’inverse de f (e)
et on obtient f (e) = e0 .
• Soit x ∈ G. On a xx−1 = e donc f (x)f (x−1 ) = f (e) = e0 . On multiplie des deux
côtés par l’inverse de f (x) et on obtient f (x−1 ) = f (x)−1 .
• Pour la dernière propriété, prenons d’abord n ∈ N et faisons une récurrence. Pour
n = 0, c’est clair puisque f (x0 ) = f (e) = e0 = f (x)0 . Soit maintenant n ∈ N.
Supposons que f (xn ) = f (x)n . Alors
Remarque 7. Il convient bien entendu de traduire la proposition précédente lorsque
l’une des lois de groupe (voire les deux) est une loi additive. Par exemple, l’exponentielle
est un morphisme de (R, +) vers (R∗ , ×), puisque ex+y = ex ey . Donc, on a enx = (ex )n
(l’exponentielle d’un multiple est une puissance de l’exponentielle).
140 CHAPITRE 9. GROUPES, ANNEAUX, CORPS
Proposition 12. L’image directe et l’image réciproque d’un sous-groupe par un mor-
phisme de groupes est encore un sous-groupe.
Et
y −1 = f (x)−1 = f (x−1 ) ∈ H 0
Im f = f (G) = {f (x), x ∈ G}
ou encore
f (xx0−1 ) = e0
Proposition 15.
142 CHAPITRE 9. GROUPES, ANNEAUX, CORPS
Démonstration. Exercice.
Démonstration. Exercice.
3 Anneaux et corps
3.1 Définitions
Exemple. Z, Q, R, C avec les opérations usuelles sont des anneaux commutatifs. N n’en
est pas un. Si E est un ensemble, l’ensemble RE des applications de E dans R est un
anneau, en posant (f + g)(x) = f (x) + g(x) et (f g)(x) = f (x)g(x) pour toutes f, g ∈ RE et
tout x ∈ E. Cela fonctionne toujours si, à la place de R on prend un anneau A quelconque.
Remarque 8. L’ensemble {0}, muni des opérations 0+0 = 0×0 = 0 est un anneau, appelé
l’anneau nul. Dans cet anneau, on a 1 = 0. Cette situation est tout à fait exceptionnelle. En
effet, soit A un anneau dans lequel 1 = 0. Soit x ∈ A. On a alors x.1 = x, et x.1 = x.0 = 0.
Donc, x = 0. Ainsi, A est l’anneau nul. En conclusion, dans un anneau autre que l’anneau
nul, on a toujours 1 6= 0.
3. ANNEAUX ET CORPS 143
Définition 18. Soit (A, +×) un anneau commutatif. On dit que A est un corps lorsque
• A est différent de l’anneau nul.
• Tout élément non nul de A est inversible pour la multiplication.
Dans un anneau (A, +, ×) on dispose à la fois de la notion de multiple d’un élément (pour
l’opération +) et de puissance positive d’un élément (pour l’opération ×). Seules les
puissances positives sont autorisées pour un élément quelconque, les puissances négatives
n’ayant de sens que lorsque l’élément en question est inversible (pour la multiplication).
3.4 Sous-Anneaux
Définition 19. Soit (A, +, ×) un anneau. Soit B ⊂ A. On dit que B est un sous-
anneau de A lorsque
• (B, +, ×) est lui-même un anneau.
• Le neutre pour la multiplication dans B est le même que le neutre pour la
multiplication dans A.
144 CHAPITRE 9. GROUPES, ANNEAUX, CORPS
Un sous-corps L du corps K est un sous-anneau L de K tel que tout élément non nul
de L possède un inverse dans L.
∀x ∈ B \ {0}, x−1 ∈ B
d’anneaux étant avant tout un morphisme de groupes additifs, on a que f est injectif si
et seulement si son noyau est réduit à {0} et f est surjectif si et seulement si Imf = A0 .
Mais attention, le noyau de f n’est pas en général un sous-anneau de A (c’est ce que l’on
appelle un idéal de A, on verra apparaître cette notion dans les exercices).
Proposition 19. Soient a et b deux éléments d’un anneau A vérifiant ab = ba. Soit
n un entier naturel non nul. Alors :
n−1
X
n n
b − a = (b − a) ak bn−1−k
k=0
Démonstration. On a
n−1
X n−1
X n−1
X
X = (b − a) ak bn−1−k = ak bn−k − ak+1 bn−1−k
k=0 k=0 k=0
Pn
En posant k 0 = k +1 dans la deuxième somme, on voit que celle-ci est égale à k n−k .
k=1 a b
Ainsi,
n−1
X n
X
k n−k
X= a b − ak bn−k
k=0 k=1
Tous les termes s’éliminent deux à deux, sauf le terme d’indice k = 0 dans la première
somme et le terme d’indice k = n dans la deuxième somme, qui valent respectivement bn
et an .
Proposition 20. Soit a un élément d’un anneau A . Soit n un entier naturel non nul.
Alors :
n−1
X
1 − an = (1 − a) ak
k=0
on peut diviser l’identité précédente par 1 − a, ce qui donne la formule bien connue
n−1
X 1 − an
ak =
1−a
k=0
Pn−1 Pn−1
Bien entendu, si a = 1, alors k=0 ak = k=0 1 = n.
Proposition 21. Soient a et b deux éléments d’un anneau A vérifiant ab = ba. Soit
n un entier naturel. Alors :
n
n
X n k n−k
(a + b) = a b
k
k=0
n
Il s’agit de la formule du « binôme de Newton ». Les quantités k sont les coefficients
binomiaux : nk = k!(n−k)!
n!
.
Démonstration. Nous avons déjà démontré la formule du binôme pour a et b complexes.
Il n’y a aucune différence, la preuve se fait par récurrence sur n.
Nous nous contentons dans ce paragraphe de quelques définitions (élément régulier, diviseur
de zéro, anneau intègre) et de propriétés faciles.
xy = xz =⇒ y = z et yx = zx =⇒ y = z
• On dit que x est un diviseur de zéro lorsqu’il existe y ∈ A \ {0} tel que xy = 0
ou yx = 0.
Démonstration.
(⇒) Supposons que x est un diviseur de zéro. Il existe donc y 6= 0 tel que, par exemple,
xy = 0. On a donc xy = x0, avec y 6= 0. x n’est donc pas régulier.
4. ESPACES VECTORIELS 147
(⇐) Supposons que x n’est pas régulier. Il existe donc y, z ∈ A distincts tels que, par
exemple, xz = yz. De là, x(y − z) = 0 et y − z 6= 0. Ainsi, x est un diviseur de zéro.
Exemple. Considérons l’anneau RR des fonctions de R vers R. La somme des deux
fonctions f et g est la fonction f + g définie pour tout réel x par
et de même pour le produit f g. Une fonction f est un diviseur de zéro dans A si et seulement
si elle s’annule. Elle est régulière si et seulement si elle est inversible si et seulement si elle
ne s’annule pas.
Proposition 23. Tout élément inversible d’un anneau A est régulier. La réciproque
est fausse.
Définition 22. Soit A un anneau. On dit que A est intègre lorsque A est différent de
l’anneau nul et que tous les éléments non nuls de A sont réguliers.
Par exemple, Z est un anneau intègre. Les corps sont aussi des anneaux intègres.
Les anneaux commutatifs intègres sont « presque » des corps. On peut montrer que tout
anneau commutatif intègre A peut être en un certain sens plongé dans un corps K dont les
éléments sont les « fractions » d’éléments de A. Le corps K est appelé le corps des fractions
de l’anneau A.
Par exemple, le corps des fractions de Z est le corps Q des rationnels. Un peu plus loin
dans ce cours, nous étudierons l’anneau K[X] des polynômes à une indéterminée sur un
corps K. L’anneau K[X] est un anneau commutatif intègre, et son corps des fractions, noté
K(X) est le corps des fractions rationnelles à une indéterminée sur le corps K.
4 Espaces vectoriels
Nous nous contenterons ici de deux définitions. L’étude des espaces vectoriels, appelée
l’algèbre linéaire, sera faite plus tard dans l’année et représente une part importante du
programme.
148 CHAPITRE 9. GROUPES, ANNEAUX, CORPS
Par exemple,
• Kn muni de l’addition des n-uplets terme à terme et du produit par λ terme à terme
est un K-espace vectoriel.
• L’ensemble RR des fonctions de R vers R, muni de l’addition des fonctions et du
produit d’une fonction par un réel, est un R-espace vectoriel.
Un opération importante dans les espaces vectoriels est la combinaison linéaire. Si λ1 , . . . , λn ∈
K et x1 , . . . , xn ∈ E, on peut former le vecteur
n
X
λk xk = λ1 x1 + . . . + λn xn
k=1
On peut montrer qu’une partie F d’un espace vectoriel E est lui-même un espace vectoriel
si et seulement si F est non vide et stable par combinaisons linéaires. Une telle partie est
appelée un sous-espace vectoriel de E.
Les morphismes d’espaces vectoriels sont appelés des applications linéaires.
149
150 CHAPITRE 10. FONCTIONS
Dans ce court chapitre, nous nous intéressons aux propriétés algébriques des fonctions
à valeurs réelles. En particulier, nous mettons en place du vocabulaire qui sera ensuite
couramment utilisé.
Dans ce chapitre, X désigne un ensemble quelconque. On s’intéresse aux propriétés al-
gébriques de l’ensemble RX des fonctions de X vers R. Deux cas sont particulièrement
intéressants : celui où X est un intervalle de R (c’est ce qui se passe dans le cours d’Ana-
lyse) et celui où X = N (ou une partie de N) dans le cours sur les suites à valeurs réelles.
1 Opérations algébriques
(f g)(x) = f (x)g(x)
∀x ∈ X, f (x) ≤ g(x)
Proposition 2. Si X a au moins deux éléments, cette relation est une relation d’ordre
partiel.
Démonstration. Laissé en exercice. Pour l’ordre partiel, prendre par exemple la fonction
x 7−→ x et x 7−→ −x. Aucune de ces fonctions n’est plus petite que l’autre.
Remarque 2. On a
f +g f −g
sup(f, g) = +
2 2
et
f +g f −g
inf(f, g) = −
2 2
Exercice. Montrer que si f, g : X −→ R sont bornées, alors f + g, f g et, pour tout réel
λ, λf , sont encore des fonctions bornées.
3 Fonctions monotones
4 Extrema
∀x ∈ I, f (x) ≤ f (a)
Remarque 4. Si une fonction admet un extremum global en un point, c’est aussi bien
entendu un extremum local. La réciproque est fausse. Nous verrons plus tard des conditions
d’existence d’extrema locaux ou globaux, liées à la nature de l’intervalle I (segment) et à
la régularité de f (continuité, dérivabilité).
5 Parité, périodicité
∀x ∈ X, f (−x) = f (x)
∀x ∈ X, f (−x) = −f (x)
On en déduit
f (x) + f (−x) f (x) − f (−x)
g(x) = et h(x) =
2 2
154 CHAPITRE 10. FONCTIONS
d’où l’unicité. Inversement, on vérifient que ces deux fonctions sont bien respectivement
paire et impaire, et que leur somme est f , d’où l’existence.
x −x x −x
Exemple. On a ex = cosh x + sinh x où cosh x = e +e 2 et sinh x = e −e
2 . Ces deux
fonctions sont les fonctions cosinus et sinus hyperboliques. Nous les étudierons plus loin
dans ce chapitre.
G = {(x, f (x)), x ∈ X}
s(G) = G
Soit (a, b) ∈ s(G). Il existe donc (x, y) ∈ G tel que (a, b) = s(x, y). On a x ∈ X, y = f (x),
a = −x et b = y. Comme X est symétrique par rapport à O, a ∈ X. De plus,
s ◦ s(G) ⊂ s(G)
157
158 CHAPITRE 11. LIMITES - CONTINUITÉ
Définition 1. Soit a ∈ R.
• Si a ∈ R, un voisinage de a est un segment [a − , a + ] où > 0.
• Si a = +∞, un voisinage de a est un intervalle [M, +∞[, où M ∈ R.
• Si a = −∞, un voisinage de a est un intervalle ] − ∞, M ], où M ∈ R.
Les trois propositions ci-dessous sont faciles à montrer. Leur preuve est laissée en exercice.
Exemple. Les points adhérents à un intervalle sont les points de l’intervalle et ses bornes.
Notation. On note A l’ensemble des points adhérents à A. Cet ensemble est appelé
l’adhérence de A.
Définition 3. Soit P(x) une propriété du réel x. Soit a ∈ R. On dit que la propriété
P est vraie au voisinage de a lorsque ∃V ∈ V(a), ∀x ∈ V, P(x).
Remarque 1. Les ensembles A et les objets a que nous considérerons usuellement seront
de l’une des formes ci-dessous :
• A est un intervalle et a est un point de A.
• A est un intervalle et a est une borne de A, a 6∈ A.
• A est un intervalle privé d’un point a. On parle alors quelquefois d’intervalle épointé.
f (W ∩ A) ⊂ V et f (W 0 ∩ A) ⊂ V 0
f (W ∩ W 0 ∩ A) ⊂ f (W ∩ A) ⊂ V
De même,
f (W ∩ W 0 ∩ A) ⊂ V 0
Ainsi, V ∩ V 0 6= ∅. Ceci étant vrai pour tous les voisinages de ` et `0 , on a donc ` = `0 .
Remarque 2. On parle donc de LA limite de f en a (si elle existe !). L’unicité de la limite
justifie la notation ` = lima f ou notations semblables.
Proposition 5. Si une fonction a une limite finie en un point a, cette fonction est
bornée au voisinage de a.
160 CHAPITRE 11. LIMITES - CONTINUITÉ
Remarque 3. Ce que nous venons de montrer peut se révéler gênant dans certains cas.
Ainsi, il arrive parfois que l’on « retire » a de l’ensemble de définition de f et que l’on
considère la limite de f (x) lorsque x tend vers a, x 6= a.
Définition 6. Soit f : A −→ R. On dit que f est continue sur A lorsque f est continue
en tout point de A.
La définition de limite par les voisinages a l’avantage d’être valable dans tous les cas, en un
point fini ou pas, pour une limite finie ou pas. C’est très bien pour faire des démonstrations
très générales, mais cela l’est beaucoup moins dans les situations concrètes. On se donne
f : A −→ R. Soit a ∈ A. Soit ` ∈ R. On réécrit selon la finitude ou non de a et ` la
définition de limite.
1. ÉTUDE LOCALE D’UNE FONCTION 161
∀ε > 0, ∃M ∈ R, ∀x ∈ A, x ≥ M =⇒ |f (x) − `| ≤ ε
Limite nulle
Les fonctions ayant une limite nulle en un point donné possèdent des propriétés remar-
quables.
Démonstration. Démonstration analogue à celle qui a été faite pour les suites.
∀M ∈ R, ∃α > 0, ∀x ∈ A, |x − a| ≤ α =⇒ f (x) ≥ M
162 CHAPITRE 11. LIMITES - CONTINUITÉ
∀M ∈ R, ∃M 0 ∈ R, ∀x ∈ A, x ≥ M 0 =⇒ f (x) ≥ M
On définit de même des limites en −∞, égales à ±∞. Il suffit de changer le sens des
inégalités.
Démonstration. Démonstration analogue à celle qui a été faite pour les suites.
Remarque 6. Les résultats précédents subsistent lorsque `, `0 ∈ R, sauf dans les cas
d’indétermination « ∞ − ∞ » et « 0 × ∞ ».
∗
Proposition 11. Soit g : A −→ R. Soit a ∈ A. Soit ` ∈ R+ . On suppose que g(x)
tend vers ` lorsque x tend vers a. Alors :
• Il existe un réel m > 0 tel que g(x) ≥ m au voisinage de a.
1
• g(x) tend vers 1` lorsque x tend vers a.
Démonstration. Démonstration analogue à celle qui a été faite pour les suites.
Remarque 7. Le résultat précédent s’adapte évidemment au cas où ` < 0. Il convient en
revanche de faire attention au cas où ` = 0. Il faut dans ce cas supposer que la fonction g
a un signe constant au voisinage de a pour conclure que g tend vers l’infini en a.
Supposons maintenant que f (x) 6−→ ` lorsque x tend vers a. Il existe donc ε > 0 tel que
pour tout δ > 0 il existe x ∈ A tel que |x − a| ≤ δ et |f (x) − `| > ε. Pour tout entier n ≥ 1,
prenons δn = n1 . Soit xn ∈ A tel que |xn − a| ≤ n1 et |f (xn ) − `| > ε. On a xn −→ a lorsque
n −→ ∞. Mais si l’on suppose que f (xn ) −→ `, on obtient, par passage à la limite, 0 ≥ ε,
contradiction. La suite (f (xn )) ne tend donc pas vers `.
Proposition 19. f admet une limite à gauche et une limite à droite réelles en a. De
plus,
• f (a− ) = sup{f (x), x < a}.
• f (a+ ) = inf{f (x), x > a}.
• f (a− ) ≤ f (a) ≤ f (a+ ).
f est croissante. Donc, E possède une borne supérieure ` ≤ f (a). Soit ε > 0. Comme
` − ε < `, il existe y0 ∈ E tel que y0 > ` − ε. Autrement dit, il existe x0 ∈ I, x0 < a tel
que f (x0 ) > ` − ε. Posons δ = a − x0 . On a alors pour tout x ∈ I, x < a, |x − a| = a − x ≤
δ ⇒ x0 ≥ x < a ⇒ ` − ε ≤ f (x0 ) ≤ f (x). De plus, f (x) ∈ E donc f (x) ≤ ` ≤ ` + ε. Bref,
|f (x) − `| ≤ ε. Ainsi, f (a− ) existe et vaut `. Même démonstration pour la limite à droite.
Si f est majorée sur I, ce sup est réel. Sinon, il est égal à +∞.
Démonstration. La seule différence, c’est que E n’est plus nécessairement majoré. S’il
l’est, f a une limite réelle en a. S’il ne l’est pas, f tend vers +∞ en a.
Le cas de la borne inférieure de I, et celui des fonctions décroissantes, se traitent évidem-
ment de façon identique.
Proposition 22. Soit A ⊂ R. L’ensemble C 0 (A) des fonctions continues sur A est
une algèbre.
2. PROPRIÉTÉS DES FONCTIONS CONTINUES 167
Démonstration. Ce sont tout simplement les opérations sur les limites qui nous le
disent.
Proposition 23. La composée de deux fonctions continues est encore une fonction
continue.
P (x)
F (x) =
Q(x)
Définition 10. Soit a ∈ R. Soit f :]a, . . . | −→ R continue sur ]a, . . . |. On dit que f
est prolongeable par continuité en a lorsqu’il existe un prolongement de f à [a, . . . | qui
soit continu.
Démonstration. On définit par récurrence sur n deux suites (an )n≥0 et (bn )n≥0 de points
de [a, b]. Tout d’abord, a0 = a et b0 = b. Pour tout entier n ∈ N, soit cn = 21 (an + bn ).
Les suites (an )n≥0 et (bn )n≥0 sont donc des suites adjacentes de points de [a, b]. Ainsi, elles
convergent vers une limite commune c ∈ [a, b].
Comme c ∈ [a, b], f est continue en c. Par le théorème de caractérisation séquentielle des
limites, f (an ) −→ f (c) lorsque n tend vers l’infini. Or, f (an ) < 0. Par passage à la limite
dans les inégalités larges, on en déduit que f (c) ≤ 0. De même, f (bn ) −→ f (c) lorsque n
tend vers l’infini et f (bn ) ≥ 0, donc f (c) ≥ 0. En conclusion, f (c) = 0.
Remarque 11. La preuve ci-dessus donne une méthode effective pour calculer des ap-
proximations d’une racine de f . La fonction Python ci-dessous fait le travail en question.
Elle prend en param !tres une fonction f , deux réels a < b tels que f (a) < 0 et f (b) ≥ 0,
et un réel ε > 0. Elle renvoie un couple (x, y) tel que x < y, [x, y] contient une racine de
f , et y − x ≤ ε.
Exemple. Soit f : [0, 1] −→ [0, 1] continue. Il existe x ∈ [0, 1] tel que f (x) = x. Il suffit de
considérer la fonction g : x 7−→ f (x) − x. Cette fonction est continue, g(0) ≥ 0 et g(1) ≤ 0.
Soit f : [a, b] −→ R continue. Soient α = f (a), β = f (b). Soit γ un réel compris entre
α et β. Il existe c ∈ [a, b] tel que f (c) = γ.
Proposition 28. Soit f : [a, b] −→ R, continue sur [a, b]. Alors, f admet un maximum
et un minimum sur le segment [a, b].
Démonstration. Considérons l’ensemble E = f ([a, b]). Cet ensemble est non vide, et
possède donc une borne supérieure M ∈ R, éventuellement égale à +∞. Soit (xn ) une suite
de points de [a, b] telle que f (xn ) −→ M . La suite (xn ) est bornée, elle admet donc d’après
le théorème de Bolzano-Weierstrass une suite extraite (xϕ(n) ) convergeant vers un réel c.
Comme on a pour tout n a ≤ xϕ(n) ≤ b, on a par passage à la limite a ≤ c ≤ b. La fonction
f est donc continue en c, et ainsi, f (xϕ(n) ) −→ f (c). Mais on a aussi que f (xϕ(n) ) −→ M .
Donc M = f (c). On en déduit que M est réel, et aussi que M est une valeur prise par f :
M = max E. On fait de même pour le minimum.
Corollaire 29. L’image d’un segment par une fonction continue est un segment.
Démonstration. L’image d’un segment par une fonction continue est un intervalle
(théorème des valeurs intermédiaires) possédant un plus petit et un plus grand élément.
Pas de doute, c’est un segment.
170 CHAPITRE 11. LIMITES - CONTINUITÉ
La fonction ϕ est clairement continue sur [0, 1] et ne s’annule pas. Par le théorème des
valeurs intermédiaires, ϕ est de signe constant. Ainsi :
Pour tout (x, y) ∈ T , le signe de F (x, y) est le même que celui de F (a, b). La fonction F
est bien de signe constant.
Il reste à examiner la réciproque.
Démonstration. Prenons par exemple I = [a, b[, où −∞ < a < b ≤ +∞. On sait que
J est un intervalle puisque f est continue. Mieux, pour tout x ∈ I, f (a) ≤ f (x) ≤ f (b− ).
f (a) est dans J, f (b− ) est la borne supérieure de J (limite d’une fonction monotone), donc
J = [f (a), f (b− )[ ou alors J = [f (a), f (b− )].
Supposons que f (b− ) soit dans J. Il existe alors x < b tel que f (x) = f (b− ). Mais alors, par
croissance de f , f est constante sur [x, b[. Ce n’est pas possible puisque f est strictement
croissante. f est évidemment injective, donc f est une bijection de I sur J. Notons g sa
réciproque.
2. PROPRIÉTÉS DES FONCTIONS CONTINUES 171
On voit facilement que g est strictement croissante. Il s’agit de prouver qu’elle est continue
sur J.
Soit y ∈ J. Traitons le cas où y > f (a). Posons y = f (x) où x ∈ I et x > a. Par ce que
nous venons de voir appliqué à la restriction de f à [a, x[, on a f ([a, x[) = [f (a), f (x− )[.
Mais x ∈ I, donc f est continue en x. Ainsi, f (x− ) = f (x) = y et donc f ([a, x[) = [f (a), y[.
De là
g([f (a), y[) = g(f ([a, x[)) = [a, x[
g(y − ) = sup g([f (a), y[) = sup g(f ([a, x[)) = sup[a, x[= x = g(y)
Proposition 32. Toute fonction lipschizienne est continue. La réciproque est fausse.
Démonstration. Soit f k-lipschitzienne sur I (k > 0). Soit ε > 0. Soit δ = kε . Alors,
pour tous x, y ∈ I, |x − y| ≤ δ implique |f (x) − f (y)| ≤ k|x − y| ≤ kδ = ε. En revanche, la
fonction x 7→ x2 est continue sur R mais pas lipschitzienne.
3 Continuité uniforme
3.1 Définitions
Définition 12. Soit f : I −→ R. On dit que f est uniformément continue sur I lorsque
Proposition 33. Si f est uniformément continue sur I, alors f est continue sur I.
La réciproque est fausse.
En d’autres termes, on peut trouver des x et des y aussi proches que l’on désire mais dont
les images sont éloignées de plus de ε, ce ε restant à trouver. Pour n ≥ 1, soient xn = n et
yn = n + n1 . Alors
1
|xn − yn | =
n
qui est aussi petit qu’on le désire. Mais
1
|x2n − yn2 | = 2 + >2
n2
Donc, ε = 2 fait l’affaire.
3. CONTINUITÉ UNIFORME 173
Exemple. Soit f : R∗+ −→ R définie par x 7→ x1 . Nous allons montrer que f n’est pas
uniformément continue sur R∗+ . Pour n ≥ 1, soient xn = n1 et yn = n2 . Alors
1
|xn − yn | =
n
qui est aussi petit qu’on le désire. Mais
1 1 n
− = > 123
xn yn 2
ε
Démonstration. Soit f k-lipschitzienne sur I (k > 0). Soit ε > 0. Soit δ = k. Alors,
pour tous x, y ∈ I, |x − y| ≤ δ implique
Pour la réciproque prendre par exemple x 7→ x2 sur R. Pour un contre exemple de fonction
uniformément continue sur un segment mais pas lipschitzienne, voir un peu plus bas.
√
Remarque 14. La fonction x 7→ x est donc uniformément continue sur [0, 1], alors
qu’elle n’y est pas lipschitzienne.
Démonstration. Supposons f continue sur le segment [a, b] mais pas uniformément
continue. Il existe donc ε > 0 tel que, pour tout δ > 0, il existe x, y ∈ [a, b] tels que
|x − y| ≤ δ et |f (x) − f (y)| > ε.
Pour tout entier n ≥ 1, prenons δ = n1 . On a donc deux suites (xn ) et (yn ) d’éléments de
[a, b] telles que |xn − yn | ≤ n1 et |f (xn ) − f (yn )| > ε. La suite (xn ) est bornée. d’après le
théorème de Bolzano-Weierstrass, on peut en extraire une suite (xφ(n) ) convergeant vers c
(évidemment, c ∈ [a, b]).
1
Comme |xφ(n) −yφ(n) | ≤ φ(n) ≤ n1 , la suite (yφ(n) ) converge aussi vers c. Mais f est continue
en c donc f (xφ(n) ) −→ f (c) et f (yφ(n) ) −→ f (c). Par passage à la limite dans la minoration
par ε, on obtient 0 ≥ ε, contradiction. La fonction f est donc uniformément continue.
174 CHAPITRE 11. LIMITES - CONTINUITÉ
Remarque 15. La notion de continuité uniforme est une notion difficile à se représenter.
Être continu ne suffit pas, sauf si l’on est sur un segment. Être lipschitzien est trop fort
... On peut démontrer que la fonction f : I −→ R est uniformément continue sur I si et
seulement si
∀ε > 0, ∃k ∈ R+ , ∀x, y ∈ I, |f (x) − f (y)| ≤ k|x − y| + ε
c’est à dire qu’une fonction est uniformément continue si et seulement si, pour tout ε > 0,
elle est k-lipschitzienne « à ε près », le k dépendant du ε. À méditer . . .
Tous ce qui précède passe sans problème aux fonctions à valeurs complexes, à condition
évidemment de ne pas faire intervenir de comparaisons entre des valeurs prises par la
fonction. Passent donc aux fonctions à valeurs dans C : définition de limite, opérations
sur les limites, fonctions bornées, limites à gauche et à droite, relations de comparaison,
continuité uniforme. Ne passent pas aux fonctions à valeurs dans C : passage à la limite
dans les inégalités, encadrement, image d’un intervalle, image d’un segment, et tout ce
qui concerne les fonctions monotones. Bien entendu une fonction tend vers ` ∈ C si et
seulement si sa partie réelle tend vers Re ` et sa partie imaginaire vers Im `.
Chapitre 12
Dérivation
175
176 CHAPITRE 12. DÉRIVATION
1 Notion de dérivée
Dans toute cette section, I désigne un intervalle non trivial de R, c’est à dire contenant au
moins deux points.
On a donc (∗) avec λ = f 0 (a). Inversement, supposons (∗). Pour tout x ∈ I différent de a,
on a
f (x) − f (a)
= λ + ε(x)
x−a
Ainsi, lorsque x tend vers a,
f (x) − f (a)
−→ λ
x−a
La fonction f est donc dérivable en a, et f 0 (a) = λ.
1. NOTION DE DÉRIVÉE 177
Démonstration. La relation ci-dessus nous dit qu’en particulier f (x) = f (a) + ε0 (x) où
ε0 (x) −→ 0 lorsque x −→ a. Donc f (x) −→ f (a) lorsque x −→ a. La réciproque est fausse,
comme le montre l’exemple de fonction valeur absolue, continue en 0 mais pas dérivable
en 0.
Définition 2. Soit f : I → R. On dit que f est dérivable sur I lorsque f est dérivable
en tout point de I. On dispose alors de la fonction f 0 : I −→ R.
La fonction ϕ est une fonction affine et, d’une certaine façon, f est « proche » de ϕ au
voisinage de a. La courbe de f et la droite d’équation y = ϕ(x) sont elles aussi, d’une
certaine façon, « proches ». Cette droite est particulièrement importante.
Notons A = (a, f (a)). Pour tout x voisin de a différent de a, soit B = (x, f (x)). La droite
Dx passant par A et B est appelée une sécante à la courbe de f . Une équation cartésienne
de cette sécante est
(Dx ) y = f (a) + ∆(x − a)
où
f (x) − f (a)
∆=
x−a
178 CHAPITRE 12. DÉRIVATION
Lorsque x tend vers a, la droite Dx pivote autour du point A, et tend (notion qu’il convien-
drait de préciser) vers la tangente T . Ainsi, la tangente est la limite des sécantes.
Définition 4. Soit f : I → R.
On définit par récurrence sur k, pour k ∈ N, la dérivabilité à l’ordre k de f sur I, ainsi
que la notation f (k) .
• La fonction f est 0 fois dérivable sur I. On pose f (0) = f .
• Pour tout entier k ≥ 1, f est k fois dérivable sur I si et seulement si
? f est k − 1 fois dérivable sur I.
? f (k−1) est dérivable sur I.
On pose alors 0
f (k) = f (k−1)
On dit que f est indéfiniment dérivable sur I lorsque f est k fois dérivable sur I, ceci
pour tout k ≥ 1.
Notation.
dk f
On utilise aussi les notations dxk
pour la dérivée d’ordre k de la fonction f .
Pour tout k ∈ N ∪ {+∞} on note Dk (I) l’ensemble des fonctions k fois dérivables sur I.
On note enfin D∞ (I) l’ensemble des fonctions indéfiniment dérivables sur I. Remarquons
que
D0 (I) = RI
et
\
D∞ (I) = Dk (I)
k≥1
Remarque 1. On peut également définir par récurrence sur k la notion de fonction k fois
dérivable en un point a : pour tout k ≥ 1, la fonction f est k fois dérivable en a lorsque
On a le résultat suivant.
Proposition 3. Soit f : I −→ R. Soit a un point qui n’est pas une borne de I. f est
dérivable en a si et seulement si f est dérivable à gauche et à droite en a, et que les
dérivées sont égales. On a alors
Démonstration. Les taux d’accroissement ont une limite en a si et seulement si ils ont
une limite à gauche et une limite à droite, et ces deux limites sont égales.
Définition 6. Soit f : I −→ R.
On dit que f est de classe C 0 sur I lorsque f est continue sur I.
Soit k ∈ N∗ . On dit que f est de classe C k sur I lorsque f est k fois dérivable sur I, et
que f (k) est continue sur I.
On dit enfin que f est de classe C ∞ sur I lorsque f est de classe C k sur I pour tout
entier k.
Notation. Pour tout k ∈ N ∪ {+∞}, on note C k (I) l’ensemble des fonctions de classe C k
sur I. Remarquons que
\
C ∞ (I) = C k (I)
k≥0
180 CHAPITRE 12. DÉRIVATION
Démonstration. Soit k ∈ N.
Supposons que f ∈ Dk+1 (I). La fonction f est donc k fois dérivable sur I, et f (k) est
dérivable, donc continue, sur I. De là, f ∈ C k (I). Ainsi,
Remarque 2. Ces inclusions sont en réalité toutes strictes. Nous l’admettrons dans le
cas général. Montrons cependant que C 1 (R) 6= D1 (R). Pour cela, considérons f : R → R
définie par f (0) = 0 et, pour tout réel x 6= 0,
1
f (x) = x2 sin
x
Par les théorèmes sur les opérations sur les fonctions dérivables que nous allons bientôt
voir, f est dérivable en tout réel non nul. De plus, pour tout x 6= 0,
f (x) − f (0) 1
= x sin ≤ |x|
x−0 x
Remarquons maintenant, toujours grâce aux futurs théorèmes sur les opérations sur les
dérivées, que pour tout x 6= 0,
1 1
f 0 (x) = 2x sin − cos
x x
Cette quantité n’a pas de limite lorsque x tend vers 0. Ainsi, f 0 n’est pas continue en 0, et
donc f 6∈ C 1 (R).
Remarque 3. Pour tout k ≥ 1, si f ∈ C k (I), alors f 0 ∈ C k−1 (I). De même pour les
ensembles Dk (I).
1. NOTION DE DÉRIVÉE 181
Dérivées d’ordre 1
• λf est dérivable en a et
(λf )0 (a) = λf 0 (a)
• f g est dérivable en a et
Démonstration.
Notons b = f (a). on a pour tout y voisin de b,
où ε(y) −→ 0 lorsque y tend vers b. Lorsque x tend vers a, f (x) tend vers b donc ε0 (x) =
ε(f (x)) tend vers 0. Prenons y = f (x). Il vient
g(f (x)) = g(f (a)) + (f (x) − f (a))g 0 (b) + (f (x) − f (a))ε0 (x)
= g(f (a))((x − a)f 0 (a) + (x − a)ε00 (x))g 0 (f (a))
+((x − a)f 0 (a) + (x − a)ε00 (x))ε0 (x)
où ε00 (x) −→ 0 lorsque x tend vers a. On regroupe les termes, et en particulier tout ce qui
tend vers 0 :
où ε000 (x) tend vers 0 lorsque x tend vers a. La fonction g ◦ f est donc dérivable en a, et sa
dérivée est f 0 (a)g 0 (f (a)).
1. NOTION DE DÉRIVÉE 183
Lorsque y tend vers b, x = g(y) tend vers g(b) = a, car g est continue en b.
Si f 0 (a) 6= 0, ∆(y) tend vers 1
f 0 (a) .
Si f 0 (a) = 0, comme f est strictement croissante, ∆(y) > 0. Ainsi, ∆(y) tend vers +∞
lorsque y tend vers b.
Remarque 4. La formule qui nous donne la dérivée s’écrit aussi
1
(f −1 )0 (b) =
f 0 (f −1 (b))
C’est sous cette forme qu’il convient de la retenir.
Exemple. Soit f : [− π2 , π2 ] −→ R définie par f (x) = sin x. Nous avons déjà vu que f est
une bijection continue strictement croisssante. Sa réciproque est la fonction arc sinus, notée
arcsin. f est dérivable sur [− π2 , π2 ]. Sa dérivée est la fonction cos, qui s’annule uniquement
en ± π2 . Donc, arcsin est dérivable en tout point de [−1, 1] différent de sin(± π2 ), c’est à dire
sur ] − 1, 1[ et la courbe représentative de arcsin admet des tangentes verticales en −1 et
1. On a pour tout x ∈] − 1, 1[,
1 1 1
arcsin0 x = = =p
f 0 (arcsin x) cos(arcsin x) 2
1 − sin (arcsin x)
Donc
1
arcsin0 x = √
1 − x2
184 CHAPITRE 12. DÉRIVATION
Toutes les fonctions mises en jeu dans le membre de droite sont dérivables sur I. (f g)(k)
l’est donc aussi et on peut dériver l’égalité.
k
X k
(f g)(k+1) = f (i+1) g (k−i) + f (i) g (k+1−i)
i
i=0
Un calcul analogue à celui qui a été fait pour prouver la formule du binôme mène à la
formule de Leibniz.
Remarque 5. On peut, dans la proposition précédente, remplacer l’hypothèse de dériva-
bilité sur I par celle de dérivabilité en un point a ∈ I.
Démonstration. Si c’est vrai pour tout entier k, c’est clairement vrai pour k = ∞.
Faisons donc une récurrence sur k. Pour k = 0, c’est connu : la composée de deux fonctions
continues est continue. Soit k ∈ N. Supposons que ce soit vrai pour k. Soit f, g de classe
C k+1 . Elles sont donc a fortiori dérivables donc g ◦f est dérivable sur I. Regardons l’égalité
(g ◦ f )0 = f 0 × g 0 ◦ f
Les fonctions f 0 , f et g 0 sont C k , donc (hypothèse de récurrence et Leibniz) (g ◦ f )0 est C k .
Et donc, g ◦ f ∈ C k+1 (I).
Remarque 7. Pas de formule donnée pour la dérivée kième d’une composée. Cette formule
existe, c’est la formule de Faa di Bruno. La voici :
X n
Y
(g ◦ f )(n) (x) = αm1 ,...,mn g (m1 +...+mn ) (f (x)) (f (j) (x))mj
m1 +2m2 +...+nmn =n j=1
où
n!
αm1 ,...,mn =
m1 !1!m1 m m m
2 !2! 2 . . . mn !n! n
Proposition 13. Soit k ≥ 0. Soit g ∈ C k (I) une fonction qui ne s’annule pas. Alors
1 k
g ∈ C (I).
Démonstration. S’inspirer des preuves précédentes, en écrivant que que f −1 est dérivable
sur J et que (f −1 )0 = f 0 ◦f1 −1 .
186 CHAPITRE 12. DÉRIVATION
2 Accroissements finis
Supposons maintenant f non constante. Par exemple, f prend une valeur strictement
inférieure à f (a) (et donc à f (b)). La fonction f est continue sur le segment [a, b]. Elle y
possède donc un minimum global (et donc local) en un point c qui, selon les hypothèses,
n’est ni a ni b. On a donc f 0 (c) = 0.
où
f (b) − f (a)
A=
b−a
La fonction g est continue sur [a, b], dérivable sur ]a, b[, et g(a) = g(b) = 0. D’après le
théorème de Rolle, il existe c ∈ [a, b] tel que
g 0 (c) = f 0 (c) − A = 0
• f continue sur I.
o
• f dérivable sur I.
o
• Il existe un réel M tel que |f 0 | ≤ M sur I.
Alors,
∀x, y ∈ I, |f (y) − f (x)| ≤ M |y − x|
En d’autres termes, une fonction dérivable et dont la dérivée est bornée est lipschit-
zienne.
o
Théorème 20. Soit f : I −→ R, continue sur I et dérivable sur I. Alors,
o
• f est croissante sur I si et seulement si f 0 ≥ 0 sur I.
o
• f est décroissante sur I si et seulement si f 0 ≤ 0 sur I.
o
• f est constante sur I si et seulement si f 0 = 0 sur I.
o
Démonstration. Supposons f croissante sur I. Soit a ∈ I. Pout tout x 6= a, on a
f (x) − f (a)
≥0
x−a
o
On passe à la limite : f 0 (a) ≥ 0. Inversement, supposons f 0 ≥ 0 sur I. Soient x, y ∈ I tels
que x < y. On applique le théorème des accroissements finis sur le segment [x, y] : il existe
o
c ∈ [x, y] ⊂ I tel que
f (y) − f (x) = (y − x)f 0 (c)
Le membre de droite est positif, donc f (x) ≤ f (y) et f est effectivement croissante.
Démonstration bien sûr identique pour f décroissante. Enfin, f est constante si et seulement
si elle est à la fois croissante et décroissante.
2. ACCROISSEMENTS FINIS 189
o
Proposition 21. Soit f : I −→ R, continue sur I, dérivable sur I, et croissante. Soit
o
E = {x ∈ I, f 0 (x) = 0}
Soient a < b. Soit f : [a, b] −→ R une fonction continue sur [a, b] et dérivable sur ]a, b]. On se
demande si f est dérivable en a. Une méthode consiste à étudier des taux d’accroissement.
Il est cependant logique de se demander ce qui se passe pour f 0 (x) lorsque x tend vers a.
Proposition 22.
• Si f 0 (x) a une limite réelle ` lorsque x tend vers a, x 6= a, alors f est dérivable
en a et f 0 (a) = `.
• Si f 0 (x) tend vers l’infini lorsque x tend vers a, x 6= a, alors f n’est pas déri-
vable en a : plus précisément, la courbe représentative de f admet une tangente
verticale en a.
• Si f 0 n’a pas de limite en a, alors on ne peut rien dire.
Démonstration. Pour tout x ∈ I tel que x > a, appliquons le théorème des accroisse-
ments finis à f sur le segment [a, x] : il existe a < cx < x tel que
f (x) − f (a)
= f 0 (cx )
x−a
Quand x tend vers a, cx aussi. Si l’on suppose que f 0 (cx ) tend vers ` ou ∞, le taux
d’accroissement fait de même par le théorème de composition des limites.
Pour le dernier point, reprenons un exemple déjà vu plus haut. Considérons la fonction
f : R −→ R définie par f (0) = 0 et, pour tout x 6= 0,
1
f (x) = x2 sin
x
190 CHAPITRE 12. DÉRIVATION
La fonction f est continue sur R et, par les théorèmes sur les opérations sur les dérivées,
de classe C ∞ sur R∗+ et R∗− . De plus,
f (x) − f (0) 1
= x sin
x−0 x
tend vers 0 lorsque x tend vers 0. Donc, f est dérivable en 0 et f 0 (0). Enfin, on a pour tout
x non nul
1 1
f 0 (x) = 2x sin − cos
x x
Le premier terme tend vers 0 lorsque x tend vers 0, mais le second terme n’a pas de limite
en 0. La fonction f 0 n’a donc pas de limite en 0.
Remarque 9. Comment interpréter le contre-exemple ci-dessus ? Eh bien, quand une
fonction est définie en un point mais qu’elle n’a pas de limite en ce point, cela signifie tout
simplement. . . qu’elle n’y est pas continue. Bref, la fonction f 0 ci-dessus n’est pas continue
en 0. Dit autrement, f est dérivable, mais n’est pas de classe C 1 .
Proposition 23. Soit k ∈ N. Soient a, b ∈ R tels que a < b. Soit f : ]a, b] −→ R une
fonction de classe C k . On suppose que pour tout i ∈ J0, kK, f (i) (x) a une limite finie
lorsque x tend vers a. Alors f est prolongeable en une fonction de classe C k sur [a, b].
Corollaire 24. Soient a, b ∈ R tels que a < b. Soit f : ]a, b] −→ R une fonction de
classe C ∞ . On suppose que pour tout i ∈ N, f (i) (x) a une limite finie lorsque x tend
vers a. Alors f est prolongeable en une fonction de classe C ∞ sur [a, b].
3.1 Dérivation
Une dérivée est une limite. La notion de dérivée s’étend donc aux fonctions à valeurs
complexes. Les opérations sur les dérivées, la formule de Leibniz, s’étendent sans difficulté.
Signalons quand même que pour dériver g ◦ f , la fonction f doit être à valeurs réelles. g,
en revanche, peut être à valeurs complexes.
ne s’annule pas.
Théorème 27. Soient a, b ∈ R tels que a < b. Soit f : [a, b] −→ C continue sur [a, b],
dérivable sur ]a, b[. On suppose qu’il existe un réel M tel que
|f (y) − f (x)| ≤ M |y − x|
d’où le résultat.
3.3 Intégration
Proposition 28. Soient a, b ∈ R tels que a < b. Soit f : [a, b] −→ C continue par
morceaux. Alors Z b Z b
f (x) dx ≤ |f (x)| dx
a a
Démonstration.
Rb Les barres verticales sont bienR entendu des modules de nombres com-
b
plexes. Si a f = 0 c’est évident. Supposons donc a f 6= 0.
3. FONCTIONS À VALEURS COMPLEXES 193
195
196 CHAPITRE 13. FONCTIONS USUELLES
1 Logarithmes et exponentielles
Proposition 1. Soit ϕ : R∗+ → R définie par ϕ(x) = x1 . Il existe une unique fonction
dérivable F : R∗+ → R telle que F 0 = ϕ et F (1) = 0.
F = F0 + c
ln(xy) = ln x + ln y
fy (x) = ln x + cy
Ainsi, cy = ln y.
Remarque 1. On en déduit pour tous x, y > 0 et tout n ∈ Z,
• ln x1 = − ln x
• ln xy = ln x − ln y
• ln xn = n ln x
lim ln x = +∞ et lim ln x = −∞
x→+∞ x→0
ln(2n ) = n ln 2 −→ +∞
lorsque n −→ +∞. Donc, la fonction logarithme est croissante, pas majorée, et tend ainsi
vers β = +∞ en +∞.
Enfin ln x = − ln x1 −→ α = −∞ lorsque x → 0.
Proposition 5. On a
ln x
−→ 0 et x ln x −→ 0
x x→+∞ x→0
1 − ln x
f 0 (x) =
x2
Cette quantité est négative dès que x ≥ e. Ainsi, f décroît sur [e, +∞[. f a donc une limite
` en +∞. De plus, f ≥ 0 au voisinage de +∞, donc ` ∈ R+ . Remarquons que pour tout
198 CHAPITRE 13. FONCTIONS USUELLES
x > 0,
2
f (x2 ) =
f (x)
x
Par composition des limites, f (x2 ) → ` en +∞. Par opérations sur les limites, le membre
de droite tend vers 0 × ` = 0. Ainsi, ` = 0.
Remarquons enfin, en posant t = x1 , que
ln x
t ln t = −
x
Quand t → 0, x → +∞. Par composition des limites, t ln t tend vers 0 lorsque t tend vers
0.
Remarque 3. On déduit de ce qui précède la courbe de la fonction ln.
1.2 Exponentielle
Remarque 4. En tant que réciproque d’un isomorphisme, l’exponentielle est un isomor-
phisme du groupe (R, +) sur le groupe (R∗+ , ×).
Proposition 6. On a pour x, y ∈ R et n ∈ Z :
• exp 0 = 1
• exp(x + y) = exp x exp y
• exp(x − y) = exp x
exp y
• exp(nx) = (exp x)n
Lorsque nous aurons défini les puissances rationnelles, nous pourrons alors écrire
1 p
exp x = (ep ) q = e q = ex
ln x
loga x =
ln a
Exemple.
• Pour a = 10, on a le logarithme décimal, noté simplement log.
• Pour a = e, on retrouve le logarithme népérien.
• Pour a = 2, on a le logarithme binaire, souvent noté lg.
Les propriétés du logarithme de base a sont tout à fait similaires à celles du logarithme
népérien : les fonctions loga et ln ne diffèrent que de la constante multiplicative ln1a .
200 CHAPITRE 13. FONCTIONS USUELLES
expa x = exp(x ln a)
ln(exp(x ln a))
Démonstration. On a loga (exp(x ln a)) = ln a = x.
Donc expa (x) = exp(x ln a).
Remarque 6. La fonction expa , réciproque d’un isomorphisme, est elle aussi un isomor-
phisme. On a donc pour tout entier relatif n,
expa n = an
ax = exp(x ln a)
2. PUISSANCES 201
ax = ex ln a
2 Puissances
2.1 Définition
ϕa (x) = xa
Remarque 8. L’ensemble de définition des fonctions puissance est R∗+ . Clairement, pour
certaines valeurs de a, cet ensemble de définition peut être étendu :
202 CHAPITRE 13. FONCTIONS USUELLES
Bref, pour un a quelconque, les fonctions puissances sont définies sur R∗+ , mais leur en-
semble de définition peut être plus gros pour certaines valeurs de a.
Démonstration.
(xy)a = exp(a ln(xy)) = exp(a(ln x + ln y))
qui se développe en
exp(a ln x) exp(a ln y) = xa y a
2.2 variations
2.3 Racines
d √ d 1 1 1 1
n
x= x n = x n −1 = √
n
dx dx n n xn−1
• Lorsque n est impair et x < 0 la formule de dérivation ci-dessus reste encore valable.
(ln x)b
−→ 0 et xa (ln x)b −→ 0
xa x→+∞ x→0
ln x
Démonstration. Nous avons déjà vu que x −→ 0 lorsque x tend vers l’infini. De là,
b !b
(ln x)b b ln(xa/b )
=
xa a xa/b
1
En remplaçant x par x on a le résultat lorsque x tend vers 0.
xb
−→ 0 et |x|b exp(ax) −→ 0
ax x→+∞ x→−∞
3 Fonctions circulaires
3. FONCTIONS CIRCULAIRES 205
Nous avons déjà parlé de ces fonctions dans le chapitre sur les nombres complexes. Conten-
tons nous d’un petit exercice de révision.
1 − t2
cos x =
1 + t2
2t
sin x =
1 + t2
2t
tan x =
1 − t2
sin x2
Démonstration. Remplaçons t par cos x2 . Il vient, en mettant tout au même dénomina-
teur,
1 − t2 cos2 x2 − sin2 x
2
=
1 + t2 cos2 x2 + sin2 x
2
= cos x
Remarque 12. arcsin n’est PAS la réciproque de sin, mais de l’application que nous
avons appelée f . Pour x ∈ [−1, 1], arcsin x est l’unique élément de [− π2 , π2 ] dont le sinus
vaut x. Par exemple, arcsin 0 = 0 puisque sin 0 = 0. Autre exemple, arcsin 1 = π2 puisque
sin π2 = 1.
206 CHAPITRE 13. FONCTIONS USUELLES
Proposition 13. La fonction arcsin est une bijection continue strictement croissante
et continue de [−1, 1] sur [− π2 , π2 ]. Elle est impaire, puisque réciproque d’une fonction
impaire.
Remarque 14. arccos n’est PAS la réciproque de cos, mais de l’application que nous
avons appelée g. Pour x ∈ [−1, 1], arccos x est l’unique élément de [0, π] dont le cosinus
vaut x. Par exemple, arccos 0 = π2 puisque cos π2 = 0. Autre exemple, arccos 1 = 0 puisque
cos 0 = 1.
Proposition 15. La fonction arccos est une bijection continue strictement décrois-
sante de [−1, 1] sur [0, π]. Elle n’est ni paire, ni impaire.
Proposition 16. Les fonctions Arc sinus et Arc cosinus sont de classe C ∞ sur ] − 1, 1[
et
1
∀x ∈] − 1, 1[, arcsin0 x = √
1 − x2
3. FONCTIONS CIRCULAIRES 207
1
∀x ∈] − 1, 1[, arccos0 x = − √
1 − x2
Remarque 16. Ces fonctions ne sont pas dérivables en ±1, puisque les dérivées de leurs
réciproques au point correspondant sont nulles. On a en ces points une tangente verticale
à la courbe.
Représentations graphiques
Remarque 17. arctan n’est PAS la réciproque de tan, mais de l’application que nous
avons appelée h. Pour x ∈ R, arctan x est l’unique élément de ] − π2 , π2 [ dont la tangente
vaut x. Par exemple, arctan 0 = 0 puisque tan 0 = 0. Autre exemple, arctan 1 = π4 puisque
tan π4 = 1.
208 CHAPITRE 13. FONCTIONS USUELLES
Proposition 18. La fonction arctan est une bijection continue strictement croissante
de R sur ] − π2 , π2 [. Elle est impaire, puisque réciproque d’une fonction impaire.
Représentation graphique
4 Fonctions hyperboliques
4. FONCTIONS HYPERBOLIQUES 209
Définition 10. On définit les fonctions sinus et cosinus hyperbolique pour tout x réel
par :
ex − e−x ex + e−x
sinh x = et cosh x =
2 2
Proposition 20. La fonction sinh est impaire, la fonction cosh est paire. Ces deux
fonctions sont de classe C ∞ sur R et on a pour tout x ∈ R :
Proposition 21. Les formules ci-dessous sont vraies pour tous réels x, a, b :
ex = sinh x + cosh x
cosh2 x − sinh2 x = 1
sinh(a + b) = sinh a cosh b + cosh a sinh b
sinh(a − b) = sinh a cosh b − cosh a sinh b
cosh(a + b) = cosh a cosh b + sinh a sinh b
cosh(a − b) = cosh a cosh b − sinh a sinh b
sinh 2x = 2 sinh x cosh x
cosh 2x = cosh2 x + sinh2 x = 2 cosh2 x − 1 = 1 + 2 sinh2 x
x2 y 2
Remarque 20. La formule cosh2 t−sinh2 t = 1 permet de paramétrer l’hyperbole a2
− b2 =
1 par x = ±a cosh t, y = b sinh t.
Définition 11. La fonction tangente hyperbolique, notée tanh, est définie sur R par
Représentation graphique
La fonction argsh est ainsi une bijection continue, strictement croissante, et impaire, de R
sur R.
La fonction argch est ainsi une bijection continue, strictement croissante, de [1, +∞[ sur
R+ .
4. FONCTIONS HYPERBOLIQUES 211
Proposition 23.
• La fonction argsh est dérivable sur R, et
1
∀x ∈ R, argsh 0 x = √
1 + x2
• La fonction argch est dérivable sur [1, +∞[, et
1
∀x > 1, argch 0 x = √
x2 − 1
1 1 1 1
argsh 0 x = 0 = =q =√
sinh (argsh x) cosh(argsh x) 1 + x2
1 + sinh2 (argsh x)
La fonction argth est ainsi une bijection continue, strictement croissante, de ] − 1, 1[ sur
R.
Représentations graphiques
Proposition 25. On a
√
• ∀x ∈ R, argsh x = ln(x + x2 + 1).
212 CHAPITRE 13. FONCTIONS USUELLES
√
• ∀x ∈ [1, +∞[, argch x = ln(x+ x2 − 1).
• ∀x ∈] − 1, 1[, argth x = 21 ln 1+x
1−x .
213
214 CHAPITRE 14. FONCTIONS CONVEXES
1 Intervalles de R
Cette section contient des rappels et quelques compléments sur les intervalles de R.
x ≤ y =⇒ [x, y] ⊂ A
Démonstration. Cette propriété a déjà été démontrée dans le cours sur les réels.
Redonnons-en la preuve.
I étant non vide et majoré, il possède une borne supérieure b. Ainsi, I ⊂] − ∞, b].
] − ∞, b[ ⊂ I ⊂ ] − ∞, b]
Il n’y a que deux possibilités : I =] − ∞, b[ ou I =] − ∞, b]. Dans les deux cas, I est
un intervalle.
1. INTERVALLES DE R 215
z = (1 − λ)x + λy
Ainsi,
[x, y] = {(1 − λ)x + λy, λ ∈ [0, 1]}
z ∈ [x, y] ⇐⇒ x≤z≤y
⇐⇒ 0≤z−x≤y−x
z−x
⇐⇒ 0≤ ≤1
y−x
z−x
⇐⇒ ∃λ ∈ [0, 1], =λ
y−x
⇐⇒ ∃λ ∈ [0, 1], z = (1 − λ)x + λy
Remarque. Cette propriété peut être reformulée de la façon suivante : pour tous x, y ∈ I,
pour tous λ1 , λ2 ≥ 0 tels que λ1 + λ2 = 1, on a λ1 x + λ2 y ∈ I. L’inconvénient de cette
formulation est l’apparition de deux réels λ1 , λ2 au lieu d’un unique réel λ. Son avantage
est qu’elle rend les choses plus symétriques et que maintenant nous pouvons nous demander
s’il est possible de généraliser la propriété à plus de deux points. La réponse est oui.
216 CHAPITRE 14. FONCTIONS CONVEXES
1.3 Barycentres
n
X
λ i xi ∈ I
i=1
où
λi
λ0i =
1−λ
Remarquons que les λ0i sont positifs ou nuls, et que
n n
X 1 X 1−λ
λ0i = λi = =1
1−λ 1−λ
i=1 i=1
n
X
Par l’hypothèse de récurrence, x0 = λ0i xi ∈ I. Pour terminer,
i=1
x = (1 − λ)x0 + λxn+1 ∈ I
par le cas n = 2.
2. NOTION DE FONCTION CONVEXE 217
Remarque. Dans la suite nous parlerons essentiellement de fonctions convexes. Tous les
résultats que nous donneront s’adaptent évidemment à des fonctions concaves, la plupart
du temps en renversant des inégalités ou en changeant des signes. Il suffit en général de
remarquer que f est convexe si et seulement si −f est concave pour conclure.
Exemples.
(1 − λ)f (x) + λf (y) − (f ((1 − λ)x + λy)) = (1 − λ)x2 + λy 2 − ((1 − λ)x + λy)2
= λ(1 − λ)(x − y)2
≥ 0
La fonction f est convexe sur I si et seulement si f (u) ≤ v, ceci pour tous x, y, λ. Dit
autrement, si et seulement si le point M est au-dessus du point (u, f (u)). Prenant deux
points quelconques A et B de la courbe de f et traçant le segment [A, B], la portion de la
courbe comprise (l’arc) entre A et B se trouve sous le segment [A, B] (la corde). Le dessin
ci-dessous illustre la propriété, toutes les cordes se trouvent dans l’épigraphe de la fonction
f , c’est à dire dans la partie du plan au-dessus de la courbe.
n
X
λi = 1,
i=1
n n
!
X X
f λ i xi ≤ λi f (xi )
i=1 i=1
Démonstration. Remarquons tout d’abord que si cette inégalité très générale est vraie,
le cas n = 2 nous dit que f est convexe.
Inversement, supposons f convexe sur I. On reprend les idées de la démonstration que
nous avons faite dans la section sur les intervalles. On procède par récurrence sur n.
• Le cas n = 1 est évident.
• Le cas n = 2 est la définition de la convexité.
• Soit n ≥ 1. Supposons la propriété vraie pour l’entier n. Donnons nous x1 , . . . , xn+1 ∈
n+1
X
I. Soient λ1 , . . . , λn+1 ≥ 0 tels que λi = 1. Deux cas se présentent.
i=1
Cas 1. λn+1 = 1. On a alors λ0 = . . . = λn = 0 et la propriété à montrer est
évidente.
n+1
X
Cas 2. λn+1 < 1. Soit x = λi xi . Posons également λ = λn+1 . On peut alors
i=1
écrire
f (x) = f ((1 − λ)x0 + λxn+1 )
λi
où, en posant λ0i = 1−λ ,
n
X
x0 = λ0i xi ∈ I
i=1
Par la convexité de f ,
Par ailleurs, les λ0i , 1 ≤ i ≤ n, sont positifs ou nuls et de somme 1. Par l’hypothèse
de récurrence,
n n
!
X X
f (x0 ) = f λ0i xi ≤ λ0i f (xi )
i=1 i=1
220 CHAPITRE 14. FONCTIONS CONVEXES
Il est facile de se souvenir de cette propriété. Elle nous dit que les pentes des cordes de
la courbe d’une fonction convexe obéissent à des inégalités. Tout est résumé le dessin ci-
dessous, où est dessiné un triangle dont les trois côtés sont rouge, vert et bleu. Si f est
convexe, les pentes des côtés de tous les triangles vérifient
(1) rouge ≤ bleu (2) rouge ≤ vert (3) vert ≤ bleu
Inversement, si l’une de ces inégalités est valable pour tous les triangles, alors la fonction
est convexe.
f (y) − f (z)
∆f (z, y) =
(1 − λ)(y − x)
f (y) − f (x)
∆f (x, y) =
y−x
Notons α = (1 − λ)f (x) + λf (y) − f (z). On a
La quantité (1) est positive pour tous x < z < y si et seulement si α ≥ 0 pour tous
x < z < y, ce qui équivaut à la convexité de f . Il en est de même pour (2) et (3).
Remarque. Lorsque f : I → R est une fonction convexe, on a donc pour tous x, y, z ∈ I
vérifiant x < z < y,
∆f (x, z) ≤ ∆f (x, y) ≤ ∆f (y, z)
∆f (x, y) ≤ ∆f (x, z)
ou encore
f (z) ≥ f (x) + (z − x)∆f (x, y)
c’est à dire f (z) ≥ w. Le point C est donc au-dessus du point C 0 .
222 CHAPITRE 14. FONCTIONS CONVEXES
Démonstration.
• Soit a ∈ ˚
I. Soient x, x0 ∈ I vérifiant a < x < x0 . Par l’inégalité fondamentale
numéro 2, on a
f (x) − f (a) f (x0 ) − f (a)
≤
x−a x0 − a
La fonction ϕ : x 7→ f (x)−f
x−a
(a)
, définie sur J = I∩]a, +∞[, est donc croissante sur J.
Donnons nous par ailleurs t < a, t ∈ I. Par l’inégalité fondamentale numéro 1, on a
pour tout x ∈ J,
f (a) − f (t)
≤ ϕ(x)
a−t
Ainsi, ϕ est minorée sur J. La fonction ϕ, croissante et minorée, admet donc une
limite réelle en a. En conclusion, f est dérivable à droite en a. La dérivabilité à
gauche se montre de la même façon.
• Soit a ∈ ˚ I. Soient x, x0 ∈ I vérifiant x0 < a < x. Par l’inégalité fondamentale
numéro 1, on a
f (a) − f (x0 ) f (x) − f (a)
0
≤
a−x x−a
Faisant tendre x et x0 vers a, on obtient fg0 (a) ≤ fd0 (a).
• Soient a, b ∈ ˚
I vérifiant a < b. Soient x, x0 ∈ I tels que a < x < b < x0 . En
appliquant deux fois l’inégalité fondamentale numéro 1, on obtient
d’où
∆f (a, x) ≤ ∆f (b, x0 )
Faisant tendre x vers a et x0 vers b, on obtient fd0 (a) ≤ fd0 (b). Ainsi, la fonction fd0
est croissante sur ˚
I. Il en est de même pour fg0 .
3. FONCTIONS CONVEXES DÉRIVABLES 223
Remarque. Une fonction convexe peut fort bien être discontinue aux bornes de son inter-
valle de définition. Il suffit de prendre pour exemple la fonction f : [−1, 1] → R définie par
f (x) = x2 si −1 < x < 1, et f (±1) = 2.
Démonstration.
(⇒) Si f est convexe, sa dérivée est croissante, nous l’avons déjà vu.
(⇐) Supposons f 0 croissante sur ˚ I. Soient x < z < y tois points de I. La fonction f est
continue sur [x, z] et dérivable sur ]x, z[. Par le théorème des accroissements finis, il
existe donc a ∈]x, z[ tel que ∆f (x, z) = f 0 (a). De même, il existe b ∈]z, y[ tel que
∆f (z, y) = f 0 (b). On a x < a < z < b < y, et donc a < b. Par la croissance de f 0 ,
on a donc f 0 (a) ≤ f 0 (b). Ainsi, ∆f (x, z) ≤ ∆f (z, y). Nous venons donc de prouver
la première inégalité fondamentale pour tous x, y, z ∈ I vérifiant x < z < y. Mais
ceci équivaut à la convexité de f .
Proposition 11. Soit f : I → R une fonction continue sur I et deux fois dérivable
sur ˚
I. Alors f est convexe sur I si et seulement si f 00 ≥ 0 sur ˚
I.
3.2 Exemples
Nous disposons maintenant de critères simples pour montrer qu’une fonction est convexe
ou concave. Si elle est deux fois dérivable, il suffit par exemple de regarder le signe de sa
dérivée seconde. Chaque fois que l’on possède une fonction convexe, l’inégalité de convexité
et sa généralisation sont vérifiées. Nous allons voir que cela nous permet de montrer des
inégalités qui sont loin d’être évidentes.
224 CHAPITRE 14. FONCTIONS CONVEXES
Exemple 1. L’exponentielle est convexe sur R. En effet, pour tout réel x, exp00 (x) = ex ≥ 0.
On en déduit que pour tous réels x, y, pour tout t ∈ [0, 1],
e(1−t)x+ty ≤ (1 − t)ex + tey
Exemple 2. La fonction sin est concave sur [0, π] car sa dérivée seconde, − sin, y est
négative. Il en résulte que
a+b 1
∀a, b ∈ [0, π], sin ≤ (sin a + sin b)
2 2
Exemple 3. La fonction ln est concave sur R∗+ . En effet, elle y est deux fois dérivable, et
pour tout x > 0, ln00 (x) = − x12 ≤ 0. On en déduit que pour tous réels x1 , . . . , xn > 0,
n n
!
1X 1X
ln xk ≥ ln xk
n n
k=1 k=1
Si, en revanche, p < 1, l’inégalité est renversée puisque alors la fonction est concave (si
p ≤ 0 il convient alors de se placer sur R∗+ ).
(⇒) Supposons f convexe. Soit a ∈ I. Supposons que a n’est pas la borne supérieure
de I et regardons ce qui se passe à droite de a (ce qui se passe à gauche se montre
de la même manière). Soit x > a. Pour tout t vérifiant a < t < x, on a, par les
inégalités fondamentales,
∆f (a, t) ≤ ∆f (a, x)
Lorsque t tend vers a, ∆f (a, t) tend vers f 0 (a). Par un passage à la limite, on obtient
donc
f (x) − f (a)
f 0 (a) ≤ ∆f (a, x) =
x−a
Multipliant l’inégalité par par x − a > 0 et ajoutant f (a), on obtient
On en déduit
f 0 (z) ≤ ∆f (z, y)
De même,
f (x) ≥ f (z) + (x − z)f 0 (z)
et donc
f 0 (z) ≥ ∆f (x, z)
Ainsi, ∆f (x, z) ≤ ∆f (z, y). Ceci étant vrai pour tous x < z < y, la fonction f est
convexe sur I (inégalités fondamentales).
226 CHAPITRE 14. FONCTIONS CONVEXES
3.4 Inflexions
Définition 4. Soit C une courbe possédant une tangent en un point A. On dit que la
courbe C possède une inflexion en A lorsque, au voisinage de A, la courbe traverse sa
tangente en A.
Il existe cependant une condition suffisante d’inflexion, qui s’avère être réalisée dans beau-
coup de situations.
Proposition 13. Soit f : I → R une fonction deux fois dérivable sur I. Soit a ∈ ˚
I.
00
On suppose que f s’annule en a en changeant de signe. Alors la courbe de f possède
une inflexion au point d’abscisse a.
Remarque. Cette condition d’inflexion est suffisante mais pas nécessaire. Considérons la
fonction f : R → R définie par
5 1
f (x) = x 1 + sin si x 6= 0
x
et f (0) = 1. Comme on peut le vérifier, la fonction f est deux fois dérivable sur R. On a
f 00 (0) = 0 et donc la tangente à la courbe au point d’abscisse 0 est l’axe Ox. Par ailleurs,
f est positive sur R+ et négative sur R− , la courbe traverse donc sa tangente en O. En
revanche, la dérivée seconde de f change une infinité de fois de signe au voisinage de 0,
comme on peut s’en convaincre sur le dessin ci-dessous.
4 Annexe - p-normes
4.1 Introduction
n
!1
X p
kxkp = |xi |p
i=1
Ainsi, k kp possède des propriétés propres aux normes. Il reste évidemment à prouver
l’inégalité triangulaire. C’est ce que nous allons faire dans le reste de la section. Cette
inégalité s’appelle l’inégalité de Minlowski.
La fonction ϕ est continue sur [0, 1], dérivable sur ]0, 1[, et pour tout x ∈]0, 1[
1
1
p−1
0 −1
ϕ (x) = −x p 1−x p
1
−1
Comme p1 − 1 ≤ 0, la fonction x 7→ x p est décroissante. Comme p ≥ 1, la fonction
1 p−1
x 7→ 1 − x p est croissante. Ces deux fonctions sont de plus positives. Il en résulte
que ϕ0 croît sur ]0, 1[. Ainsi, ϕ est convexe sur [0, 1].
n
!1 n
!1 n
!1
p p p
api bpi
X X X
(ai + bi )p ≤ +
i=1 i=1 i=1
api bpi 1
Xi = , Yi = , ti = (ai + bi )p
(ai + bi )p (ai + bi )p S
4. ANNEXE - P -NORMES 229
Les Xi appartiennent à [0, 1], et les ti sont positifs et de somme 1. On peut donc appliquer
l’inégalité de convexité généralisée à ϕ avec les Xi et les ti :
n n
!
X X
ϕ ti Xi ≤ ti ϕ(Xi )
i=1 i=1
Calculons séparément les différentes quantités apparaissant dans cette inégalité. Tout
d’abord,
n n
X 1 X p S1
ti Xi = ai =
S S
i=1 i=1
Puis
n
!
X
S1
ϕ ti Xi = ϕ S
i=1 !p
1
S1p
= 1− 1
Sp
1
p
1
1 p
= S S − S1
p
Poursuivons :
bpi
ϕ(Xi ) = = Yi
(ai + bi )p
Et enfin (calculs identiques à ce qui précède) :
n
X S2
ti ϕ (Xi ) =
S
i=1
1 1 1
S p ≤ S1p + S2p
Cette inégalité possède-t-elle une analogue avec des p-normes ? La réponse est oui, il s’agit
de l’inégalité de Hölder.
Soit p un nombre réel, p > 1. Soit q défini par l’égalité
1 1
+ =1
p q
Remarquons que le réel q vérifie également q > 1.
Commençons par un lemme.
1 1
|xi | |yi | ≤ |xi |p + |yi |q
p q
Comme le membre de gauche de cette inégalité est clairement supérieur à | < x, y > | =
| ni=1 xi yi |, on obtient bien l’inégalité de Hölder.
P
4.6 Le cas p = 1
Démonstration. On a
n
X
| < x, y > | = xi yi
i=1
n
X
≤ |xi | |yi |
i=1
232 CHAPITRE 14. FONCTIONS CONVEXES
Pour tout i ∈ J1, nK, |yi | ≤ kyk∞ . La somme ci-dessus est donc majorée par
n
X
kyk∞ |xi | = kxk1 kyk∞
i=1
Soit x ∈ Rn . Que vaut lim kxkp ? Il s’avère que non seulement cette limite existe, mais
p→∞
qu’elle est précisément égale à . . . kxk∞ .
kxkp −→ kxk∞
p→∞
xi
où 0 ≤ µi = xi0 ≤ 1. On a donc l’encadrement
d’où 1
|xi0 | ≤ kxkp ≤ n p |xi0 |
1
Lorsque p tend vers l’infini, n p tend vers 1. Ainsi, par le théorème d’encadrement des
limites, kxkp tend vers |xi0 | = kxk∞ .
Chapitre 15
Primitives et Équations différentielles
233
234 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
1 Calculs de primitives
Dans tout ce qui suit, K désigne R ou C. Lorsque ce n’est pas précisé, I désigne un intervalle
de R.
Exemple. Soit α ∈ C \ {−1}. Une primitive de x 7−→ xα sur R∗+ (ou plus selon les valeurs
de α) est
xα+1
x 7−→
α+1
Une primitive sur R∗+ de x 7−→ 1
x est x 7−→ ln x.
Une primitive sur R∗− de x 7−→ 1
x est x 7−→ ln(−x).
Nous admettons le théorème suivant. Il sera démontré dans le chapitre d’intégration.
Démonstration. Nous pouvons tout de même, avec ce que nous savons, démontrer «
l’unicité ». Soit F : I −→ R une fonction dérivable. Alors F est une primitive de f sur I
si et seulement si
F 0 = f = F00
c’est à dire
(F − F0 )0 = 0
ou encore, si et seulement si F − F0 est constante sur I.
Notation. Soit f : I → K continue. Soit F : I → K une primitive de f sur I. Pour tous
a, b ∈ I, on note
Z b
f (x) dx = F (b) − F (a)
a
Rb Rb
ou a f (t) dt (ou la lettre que l’on voudra), ou enfin plus simplement a f . Cette quantité
ne dépend pas de la primitive F choisie.
1. CALCULS DE PRIMITIVES 235
Z x
f (t)dt = F (x)
Remarque 1. Nous verrons plus tard que tout ceci est plus qu’une notation, mais il
faudra d’abord avoir étudié la notion d’intégrale.
Le tableau ci-dessous résume les primitives à connaître. On trouve dans la première colonne
la fonction à primitiver. Dans la deuxième colonne sont indiqués le ou les intervalles (les
plus grands possibles) où la fonction possède des primitives. La dernière colonne contient
l’expression d’une primitive de la fonction, valable sur tous les intervalles cités dans la
colonne précédente. Pour avoir toutes les primitives, il convient bien entendu de rajouter
des constantes.
236 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
Rx
Fonction f Intervalle(s) I Primitive f (t)dt sur I
ex R ex
ch x R sh x
sh x R ch x
cos x R sin x
sin x R − cos x
xα+1
xα (α ∈ R \ {−1}) R∗+ (au moins) α+1
1
x R∗+ ou R∗− ln |x|
ln |x| R∗+ ou R∗− x ln |x| − x
1 2
ch2 x
= 1 − th x R th x
2
1
sh2 x
= coth x − 1 R∗+ ou R∗− − coth x
1
cos2 x
= 1 + tan2 x ] − π2 + kπ, π2 + kπ[, k ∈ Z tan x
1 2
sin2 x
= 1 + cotan x ]kπ, (k + 1)π[, k ∈ Z − cotan x
tan x ] − π2 + kπ, π2 + kπ[, k ∈ Z − ln | cos x|
cotan x ]kπ, (k + 1)π[, k ∈ Z ln | sin x|
tanh x R ln(cosh x)
coth x R∗+ ou R∗− ln | sinh x|
1
ch x R 2 arctan ex
1
sh x R∗+ ou R∗− ln th x2
1
] − π2 + kπ, π2 + kπ[, k ∈ Z ln tan x2 + π4
cos x
1
sin x ]kπ, (k + 1)π[, k ∈ Z ln tan x2
1 ∗
(a ∈ R+ ) 1 x
x2 +a2
R a arctan a
1
a2 −x2
(a ∈ R∗+ ) R \ {−a, a} 1
2a
x+a
ln
x−a
√ 1
a2 −x2
(a ∈ R∗+ ) ] − a, a[ arcsin xa
√
√ 1
x2 +h
(h ∈ R∗ ) tout intervalle où x2 + h 6= 0 ln x + x2 + h
Exercice. Soient a, b ∈ R. Quelles sont les primitives sur R des fonctions x 7−→ eax cos bx
et x 7−→ eax sin bx ?
Posons α = a + ib. Considérons la fonction f : R −→ C définie pour tout réel x par
f (x) = eαx . Une primitive de f sur R est la fonction F : R −→ C définie par
1 αx
F (x) = e
α
Il suffit, pour répondre à la question posée, de prendre la partie réelle et la partie imaginaire
de F . Pour tout x ∈ R, on a
1
F (x) = eax (cos bx + i sin bx)
a + ib
a − ib ax
= e (cos bx + i sin bx)
a2 + b2
1
= eax ((a cos bx + b sin bx) + i(a sin bx − b cos bx))
a + b2
2
1. CALCULS DE PRIMITIVES 237
Ainsi,
x
eax
Z
eat cos bt dt = (a cos bx + b sin bx)
a2 + b2
et x
eax
Z
eat sin bt dt = (a sin bx − b cos bx)
a2 + b2
Exercice. Calculer In (x) sous forme d’une somme puis trouver la limite de In (x) lorsque
x tend vers +∞.
Exercice. Déterminer les primitives sur [−1, 1] de la fonction arc sinus.
238 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
Démonstration. Soit F une primitive de f sur l’intervalle I. Une telle primitive existe
car f est continue. On a
Z β Z β Z β
0 0 0
f (ϕ(t))ϕ (t) dt = F (ϕ(t))ϕ (t) dt = (F ◦ ϕ)0 (t) dt = F ◦ ϕ|βα
α α α
Rb
Pratiquement, on procède comme suit. On désire calculer a f (x) dx.
• pose x = ϕ(t).
On
• calcule dx = ϕ0 (t) dt.
On
• remarque que si t = α (resp β) alors ϕ(t) = a (resp b).
On
• On
recolle tous les morceaux.
R eπ/2
Exercice. Calculer 1 sin ln x dx.
R4 √
Exercice. Calculer 0 e x dx.
π π
sinn x dx = cosn x dx.
R R
Exercice. Soit n ∈ N. Montrer que 2
0 0
2
Oui, si on arrive aussi à « voir » que g(t) = f (ϕ(t))ϕ0 (t) où f est une fonction judicieuse.
Dans ce cas,
Z β Z β
g(t) dt = f (ϕ(t))ϕ0 (t) dt
α α
Zϕ(β)
= f (x) dx
ϕ(α)
R π dt
Prenons un exemple. Calculons 04 cos t . Le changement de variable « inversé » ϕ(t) = sin t
est particulièrement adapté, en remarquant que
1 cos t cos t
= =
cos t 2
cos t 1 − sin2 t
et que le numérateur cos t est la dérivée de sin t. Ainsi,
Z π Z π
4 dt 4 cos tdt
=
0 cos t 0 1 − sin2 t
√
Z 2
2 dx
=
0 1 − x2
Remarquons que nous aurions aussi pu remarquer que cos1 x est dans la liste des primitives
usuelles. Z π
4 dt x π π
3π
4
= ln tan + = ln tan
0 cos t 2 4 0 8
Nous aborderons de façon plus complète ce problème lorsque nous aurons traité le chapitre
sur les fractions rationnelles. Nous y verrons que toute fraction rationnelle, c’est à dire
P (x)
toute fonction du type Q(x) où P et Q sont des fonctions polynômes, s’écrit comme une
somme de fractions particulières, appelées éléments simples. Nous calculerons alors des
primitives de tous les éléments simples. Pour l’instant, concentrons nous sur les cas faciles.
1
• Primitives de x 7−→ x−a , où a ∈ R. C’est immédiat, ln |x − a| est une telle primitive,
sur ] − ∞, a[ et sur ]a, +∞[.
240 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
px+q
• Primitives de x 7−→ x2 +bx+c
où p, q, b, c ∈ R. Ici, c’est plus délicat. Commençons
par remarquer que
b 2
2
x + bx + c = x + + c0
2
b
Le changement de variable x = t − 2 permet alors de se ramener au calcul de
primitives de
pt + q
t 7−→
t2 + c
où p, q, c ne sont plus les mêmes que précédemment (pour simplifier l’écriture). Il
suffit évidemment pour cela de savoir intégrer t2 t+c et t21+c . La première primitive
est évidente, car on reconnaît dans la fonction à intégrer une dérivée :
Z t
u du 1
2
= ln |t2 + c|
u +c 2
sur des intervalles qui dépendent, en particulier, du signe de c. Concernant la seconde
primitive, se ramener au tableau des primitives usuelles. La discussion se fait sur la
nullité et le signe de c. Pour simplifier, prenons par exemple c = 0, 1, −1.
• Sur ] − ∞, −1[, ] − 1, 1[ et ]1, +∞,
Z t
du 1 1+t
2
= − ln
u −1 2 1−t
Une équation différentielle est une équation où l’inconnue est une fonction, définie sur un
intervalle I de R, à valeurs dans R ou C, et régulière (dérivable un certain nombre de fois).
L’équation différentielle nous donne l’existence d’une relation entre la fonction inconnue,
la variable (x), et les dérivées de la fonction jusqu’à un certain ordre (ce que l’on appelle
l’ordre de l’équation différentielle).
Une équation différentielle est donc quelque chose du genre :
Résoudre (E), c’est trouver tous les intervalles I et toutes les fonctions f : I −→ R ou C,
n fois dérivables sur I, telles que
On ne sait pas en général résoudre les équations différentielles. Dans certains cas, il existe
des théorèmes permettant d’affirmer l’existence de solutions, voire leur unicité lorsque l’on
impose des conditions initiales ou des conditions aux limites. Nous nous intéresserons dans
les sections suivantes uniquement à des équations d’un type très particulier, dites linéaires
.
2.2 Exemple
Considérons l’équation
(E) y 0 = y
Soit f : R → R dérivable. Posons, pour tout réel x,
c’est à dire si et seulement si g 0 = 0 c’est à dire g est constante. Les solutions de (E) sur R
sont donc les multiples de la fonction exponentielle.
2.3 Exemple
Considérons l’équation
√
(E) y 0 = 2 y
Cherchons les solutions de (E) sur R.
Soit f : R → R. La fonction f est solution de (E) si et seulement si f ∈ D1 (R), f ≥ 0, et
∀x ∈ R, f 0 (x) = 2 f (x)
p
Si f s’annule en un réel a, alors, puisque f est positive et croissante, f est nulle sur ]−∞, a].
Et si f est non nulle en a, alors f > 0 sur [a, +∞[, toujours par la croissance.
Soit E = {x ∈ R, f (x) = 0}. Les remarques précédentes montrent que les seules possibilités
pour E sont (1)∅, les intervalles (2)] − ∞, a[ ou (3)] − ∞, a] avec a réel, et (4)R.
Le cas 2 est à exclure, car si f (x) = 0 pour tout x < a, alors, par continuité de f , f (a) = 0.
Le cas 4 est évident : la fonction nulle est solution de (E). Regardons donc les cas 1 et 3.
√ √
sur I = R ou ]a, +∞], f ne s’annule pas, et f 0 = 2 f , ou encore ( f )0 = 1. Il existe donc
un réel b tel que pour tout x ∈ I, f (x) = (x − b)2 . Mais cette fonction n’est croissante
et non nulle que sur ]b, +∞[. On voit donc que le cas 1 est aussi à exclure, et que b ≤ a.
Mieux, f est nulle à gauche de a, et dérivable en a, donc f 0 (a) = 0. Mais fd0 (a) = 2(a − b),
donc b = a. Finalement, f (x) = 0 si x ≤ a et f (x) = (x − a)2 si x ≥ a.
Pour résumer notre analyse, si f est solution de (E) sur R, on est dans l’un des deux cas
suivants :
• f est nulle sur R, ou alors
• Il existe a ∈ R tel que f est nulle sur ] − ∞, a] et, pour tout x ≥ a, f (x) = (x − a)2 .
Inversement, on vérifie que ces fonctions sont bien solutions de E.
Remarque 3. La résolution de notre second exemple, pourtant très simple, nous a donné
plus de mal que celle du premier exemple. Pour quoi ? Parce que l’équation différentielle
y 0 = y fait partie de la vaste famille des « équations différentielles linéaires ». Il existe
pour cette famille d’équations des méthodes de résolution spécifiques. Leurs ensembles de
solutions possèdent des structures algébriques intéressantes, etc. Nous allons dans ce qui
suit nous intéresser aux équations différentielles linéaire d’ordre 1, et à certaines équations
différentielles linéaires d’ordre 2.
SH = {kϕ0 , k ∈ K}
Démonstration. Supposons trouvée une solution ϕ1 de (E). Alors, pour toute fonction
ϕ, ϕ est solution de (E) si et seulement si ϕ − ϕ1 est solution de (H). Il suffit donc de
trouver une solution de (E) pour avoir toutes les solutions de (H).
244 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
Pour trouver une solution de (E) nous allons utiliser une technique qui s’appelle la variation
de la constante. Cherchons une solution de (E) de la forme
Corollaire 8. L’ensemble SE des solutions de (E) sur I est une droite affine dont la
direction est la droite vectorielle SH
Exercice. Résoudre l’équation différentielle (x − 1)y 0 + (x − 2)y = x(x − 1)2 sur ] − ∞, 1[,
]1, +∞[, puis sur R.
f (0 + 0) = f (0)f (0)
ou encore
f (0) = f (0)2
Ainsi, f (0) = 0 ou f (0) = 1. Si f (0) = 0 alors, pour tout réel x,
et f est donc la fonction nulle. Supposons maintenant que f n’est pas la fonction nulle, et
donc que f (0) = 1. On a pour tous réels x, y (en dérivant « par rapport à y »),
f 0 (x + y) = f (x)f 0 (y)
En particulier, en prenant y = 0, on a
f (x) = keλx
Comme f (0) = 1, on a k = 1.
Inversement, la fonction nulle et les fonctions x 7−→ eλx , où λ ∈ C, sont bien solutions de
(E).
Proposition 10. Les applications f : R∗+ → R dérivables vérifiant pour tous x, y ∈ R∗+ ,
On en déduit que g est solution de (E). Ainsi, pour tout réel x, g(x) = eλx avec λ ∈ C
indépendant de x. La fonction g étant à valeurs réelles, λ = g 0 (0) est aussi réel. On a donc,
pour tout réel x,
exp(f (ex )) = exp(λx)
246 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
d’où
f (ex ) = λx
Soit maintenant t ∈ R∗+ . Il existe un (unique) réel x tel que t = ex , à savoir x = ln t. On a
alors
f (t) = λ ln t
ϕ = ϕ1 + kϕ0
4 Résolution approchée
La plupart des équations différentielles ne peuvent pas être résolues de façon explicite. Il
existe néanmoins des méthodes numériques permettant d’en obtenir une solution appro-
chée. Nous allons dans cette section parler d’une méthode permettant d’obtenir une valeur
approchée d’une solution ϕ de l’équation différentielle
(E) y 0 = F (x, y)
4. RÉSOLUTION APPROCHÉE 247
avec condition initiale : la méthode d’Euler. Nous resterons à un niveau informel. Nous ne
justifierons pas les résultats.
On se fixe un réel δ > 0 supposé « petit ». On pose xn = x0 + nδ, et yn = ϕ(xn ) pour tout
entier n tel que xn ∈ I.
On part de ϕ(x0 ) = y0 . Le réel δ étant supposé « petit », on a
ϕ(x0 + δ) − ϕ(x0 )
≈ ϕ0 (x0 ) = F (x0 , ϕ(x0 ))
δ
ou encore
φ(x0 + δ) ≈ φ(x0 ) + δF (x0 , y0 )
Ainsi,
y1 ≈ y0 + δF (x0 , y0 )
Posons donc
ŷ1 = y0 + δF (x0 , y0 )
L’erreur commise est liée à l’identification entre le taux d’accroissement avec la dérivée.
Rien n’empêche de poursuivre avec l’approximation obtenue et d’itérer le procédé. On pose
donc ŷ0 = y0 et, pour tout n tel que xn ∈ I,
ŷn+1 = ŷn + δF (xn , ŷn )
On peut alors montrer que sous certaines conditions, ŷn est une approximation « intéres-
sante » de yn . La théorie permet en particulier d’estimer l’erreur commise en approchant
yn par ŷn .
Prenons un exemple. Considérons l’équation
(E)y 0 = y
avec x0 = 0 et y0 = 1, c’est à dire, avec les notations ci-dessus, F (x, y) = y. La solution ϕ
est bien sûr ϕ(x) = ex . La relation de récurrence devient
yn+1 = yn + δyn = (1 + δ)yn
c’est à dire que
yn = (1 + δ)n
1
Particularisons encore, en posant δ = N.On a alors
1 N
xN = 1, yN = 1 +
N
La « vraie »valeur de yN est bien sûr e1 = e. On peut montrer (et on le fera) que
1 N
1+ −→ e
N N →∞
lorsque N tend vers l’infini : si l’on diminue la taille du pas δ, on obtient a priori une
meilleure approximation des solutions.
248 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
(H) ay 00 + by 0 + cy = 0
(C) aX 2 + bX + c = 0
Proposition 12.
• Si ∆ 6= 0, les solutions de (H) sont les fonctions
aϕ00 + bϕ0 + cϕ = 0
ou encore
ag 00 + (2aα + b)g 0 + (aα2 + bα + c)g = 0
5. ÉQUATIONS DU SECOND ORDRE 249
g(x) = Kx + K 0
d’où
φ(x) = (Kx + K 0 ) exp(αx)
Corollaire 13. L’ensemble SH des solutions de (H) est un plan vectoriel, engendré
par
• Si ∆ 6= 0 : x 7−→ eα1 x et x 7−→ eα2 x .
• Si ∆ = 0 : x 7−→ eαx et x − 7 → xeαx .
Dit autrement, dans chacun des deux points ci-dessus, en appelant ϕ1 et ϕ2 les fonctions
citées, l’ensemble des solutions de (H) est
SH = {λ1 ϕ1 + λ2 ϕ2 , λ1 , λ2 ∈ C}
ϕ(x) = ϕ(x)
c’est à dire
ou encore
K exp(iωx) + K 0 exp(−iωx) = K exp(−iωx) + K 0 exp(iωx)
La famille (x 7−→ exp(−iωx), x 7−→ exp(iωx)) est libre dans le C-espace vectoriel CR ,
donc, une telle fonction convient si et seulement si K 0 = K. Les solutions réelles de (H)
sont les fonctions
ϕ(x) = eλx ((p + iq)eiωx + (p − iq)e−iωx ) = eλx (2p cos ωx − 2q sin ωx)
ou encore
φ(x) = eλx (A cos ωx + B sin ωx)
avec A, B ∈ R.
(E) ay 00 + by 0 + cy = g(x)
Proposition 14. On suppose connue une solution ϕ0 de (E). Alors une fonction ϕ
est solution de (E) si et seulement si ϕ − ϕ0 est solution de (H).
5. ÉQUATIONS DU SECOND ORDRE 251
Corollaire 15. L’ensemble SE des solutions de (E), s’il est non vide, est un plan affine
dont la direction est SH .
SE = ϕ0 + SH
Il reste évidemment à trouver UNE solution de E. Nous allons nous concentrer sur un cas
particulier : on considère un second membre de la forme
g(x) = Aeαx
où A, α ∈ C∗ .
Encore deux cas. Si l’équation caractéristique a deux racines distinctes, alors 2aα + b 6= 0
et on doit donc avoir do Q = 1. Sinon, l’équation devient
aQ00 = A
A 2
et Q est alors évident : on prend une primitive d’une primitive de aX .
Remarque 4. Soient (E1 ) et (E2 ) les équations différentielles
(E1 ) ay 00 + by 0 + cy = g1 (x)
252 CHAPITRE 15. PRIMITIVES ET ÉQUATIONS DIFFÉRENTIELLES
(E2 ) ay 00 + by 0 + cy = g2 (x)
Si f1 est solution de (E1 ) et f2 est solution de (E2 ), alors f1 + f2 est solution de :
(E) ay 00 + by 0 + cy = g(x)
où g est continue sur l’intervalle I. On suppose que l’équation (E) a une solution. Soit
x0 ∈ I. Soient y0 , y1 ∈ C. Il existe une unique solution ϕ de (E) telle que ϕ(x0 ) = y0
et φ0 (x0 ) = y1 .
où (ϕ1 , ϕ2 ) est une base de l’espace des solutions de (H) (tout dépend du discriminant
de l’équation caractéristique), et ϕ0 est une solution particulière de (E). L’écriture des
conditions initiales fournit le système
λ1 ϕ1 (x0 ) + λ2 ϕ2 (x0 ) + ϕ0 (x0 ) = y0
λ1 ϕ01 (x0 ) + λ2 ϕ02 (x0 ) + ϕ00 (x0 ) = y1
On trouve, si ∆ 6= 0,
D = (α2 − α1 )e(α1 +α2 )x0 6= 0
et si ∆ = 0,
D = e2αx0 6= 0
Ce système a donc une unique solution.
Chapitre 16
Arithmétique
253
254 CHAPITRE 16. ARITHMÉTIQUE
1 Divisibilité dans Z
On suppose connues les propriétés suivantes : (Z, +, ×) est un anneau. De plus, dans cet
anneau, lorsqu’un produit est nul l’un des facteurs est nul (anneau intègre). Cet anneau est
totalement ordonné par la relation ≤, qui est compatible avec l’addition et la multiplication.
On dispose également sur Z du concept de valeur absolue.
a | b ⇐⇒ ∃c ∈ Z, b = ac
Remarque 1.
Pour tout entier a, 0 | a si et seulement si a = 0.
Pour tout entier a, 1 | a et a | 0.
Si a est non nul, l’entier c tel que b = ac est unique car Z est intègre. On l’appelle le
quotient de b par a et on le note ab .
Notation. Soit a ∈ Z. On note
aZ = {na, n ∈ Z}
Proposition 1.
• Pour tout a ∈ Z, a | a.
• Pour tous a, b, c ∈ Z, si a | b et b | c alors a | c.
• Pour tous entiers a, b ∈ Z, a | b et b | a si et seulement si b = ±a.
La relation « divise » n’est donc pas tout à fait une relation d’ordre. C’est ce que l’on
appelle un pré-ordre.
Démonstration.
1. DIVISIBILITÉ DANS Z 255
• Soit a ∈ Z. On a a = 1a donc a | a.
• Soient a, b, c ∈ Z. Supposons que a | b et b | c. Il existe alors p, q ∈ Z tels que b = pa
et c = qb. On en déduit que c = pqa donc a|c.
• Soient a, b ∈ Z. Supposons que a | b et b | a. Il existe p, q ∈ Z tels que b = pa et
a = qb. On en déduit b = pqb. Si b 6= 0, il vient pq = 1 donc p = q = 1 (et a = b) ou
p = q = −1 (et a = −b). Si b = 0, alors a = q0 = 0 et on a toujours b = ±a. Enfin,
si b = ±a, on a évidemment a | b et b | a.
Remarque 3. La dernière propriété nous dit que
aZ = bZ ⇐⇒ b = ±a
Démonstration. Soit
E = {m ∈ N, mb > a}
L’ensemble E est une partie non vide de N, il admet donc un plus petit élément. Notons
le m0 . On a donc (m0 − 1)b ≤ a < m0 b. On a m0 ≥ 1 puisque m0 b > a ≥ 0. Posons
n = m0 − 1 ∈ N. On a nb ≤ a < (n + 1)b d’où l’existence.
Supposons maintenant que n et n0 conviennent. On a alors nb ≤ a < (n0 + 1)b donc
n < n0 + 1 et ainsi n ≤ n0 . De même, n0 ≤ n donc n = n0 d’où l’unicité.
2 PGCD, PPCM
Démonstration.
• Notons 0 le neutre de G. On a 0 ∈ H et 0 ∈ H 0 donc
0 = 0 + 0 ∈ H + H0
• Soient u, v ∈ H + H 0 . On a u = x + x0 , v = y + y 0 où x, y ∈ H et x0 , y 0 ∈ H 0 . De là,
u − v = (x − y) + (x0 − y 0 ) ∈ H + H 0
2.2 PGCD
Remarque 4. Deux entiers relatifs admettent deux pgcd (sauf 0 et 0). On abuse en disant
LE pgcd de a et b.
Notation. On note a ∧ b le (un) pgcd de a et b. D’autres notations existent, comme (a, b)
ou plus évidemment pgcd(a, b).
∀d ∈ Z, d | a et d | b ⇐⇒ d | δ
a ∧ b | d ⇐⇒ ∃u, v ∈ Z, ua + vb = d
Définition 4. Deux entiers sont dits premiers entre eux lorsque leur pgcd est égal à
1 (ou -1, évidemment).
Soient a et b deux entiers. Prenons a, b ∈ N pour simplifier. On définit par récurrence sur
n une suite (rn )n≥0 d’entiers naturels comme suit. On pose
r0 = a, r1 = b
Démonstration. Raisonnons par l’absurde et supposons que pour tout n, rn soit non nul.
On a alors pour tout n ≥ 1, rn+1 < rn , puisque rn+1 est le reste d’une division euclidienne
par rn . On en déduit facilement par récurrence que pour tout n ≥ 1,
rn ≤ r1 − n + 1
Mais alors,
rb+1 ≤ r1 − (b + 1) + 1 = 0
ce qui est impossible car rb+1 > 0.
Proposition 14. Soit n0 le plus petit entier n ≥ 0 tel que rn+1 = 0. Alors, a∧b = rn0 .
Soient a et b deux entiers naturels, a > b. Nous allons estimer le nombre n0 de divisions
nécessaires à l’obtention de leur pgcd par l’algorithme d’Euclide.
Tout d’abord, quelques notations : r0 = a, r1 = b, et pour 1 ≤ k ≤ n0 ,
rk−1 = qk rk + rk+1
où rn0 = a ∧ b et rn0 +1 = 0.
Les quotients successifs sont tous au moins égaux à 1. On a donc pour 1 ≤ k ≤ n0 ,
rk−1 ≥ rk + rk+1
Notons (Fn )n≥0 la suite de Fibonacci, définie par F0 = 0, F1 = 1, et, pour tout n ∈ N,
Fn+2 = Fn+1 + Fn
rn0 −2 ≥ 1 + 0 = F2
rn0 +1−k ≥ Fk
Pour k = n0 , on obtient
r1 = b ≥ Fn0
On peut montrer que pour tout n ∈ N,
ϕn − ϕn
Fn =
ϕ−ϕ
où ϕ et ϕ sont les racines de l’équation x2 = x
√+ 1. Prenons pour ϕ la racine positive de
cette équation. On a alors |ϕ| < 1 et ϕ − ϕ = 5 donc
ϕn − 1
Fn ≥ √
5
Ainsi,
ϕn0 − 1
√ ≤b
5
d’où √
ln(b 5 + 1)
n0 ≤
ln ϕ
Le majorant trouvé est en gros proportionnel au nombre de chiffres de l’entier b, le coeffi-
cient de proportionnalité étant à peu près égal à 4, 8. L’algorithme d’Euclide est donc très
efficace.
2. PGCD, PPCM 261
u0 a + v0 b = a = r0
et
u1 a + v1 b = b = r1
Soit q1 tel que r0 = q1 r1 + r2 . En combinant les deux égalités précédentes, on a
u2 a + v2 b = r2
où
u2 = u0 − q1 u1 et v2 = v0 − q1 v1
Soit 0 ≤ k ≤ n0 − 2. Supposons trouvés uk , vk , uk+1 , vk+1 tels que
on obtient
uk+2 a + vk+2 b = rk+2
On a donc montré comment calculer, pour tout entier 0 ≤ k ≤ n0 , deux entiers uk et vk
tels que uk a + vk b = rk . Mais pour k = n0 , on a rk = δ. D’où la construction effective de
deux entiers u et v tels que ua + vb = δ.
Un exemple illuminera tout cela.
Exemple. Prenons a = 33 et b = 21. On présente le tout dans un tableau. Dans la
deuxième colonne, les uk . Dans la troisième colonne, les vk . Dans la quatrième colonne, les
rk . Dans la dernière colonne, les qk .
k 33× +21× =
0 1 0 33 −
1 0 1 21 1
2 1 −1 12 1
3 −1 2 9 1
4 2 −3 3 3
5 −7 11 0 −
On en déduit 33 ∧ 21 = 3, u = 2, v = −3.
262 CHAPITRE 16. ARITHMÉTIQUE
Supposons maintenant que a est premier avec b1 et b2 . Il existe des entiers u, v, u0 , v 0 tels
que ua + vb1 = 1 et u0 a + v 0 b2 = 1. En multipliant ces égalités on obtient U a + V b1 b2 = 1
avec U = uu0 + uv 0 b2 + u0 vb1 et V = vv 0 . a est donc premier avec b1 b2 , toujours et encore
grâce à Bézout.
La propriété pour n quelconque est une récurrence sur n. Elle est laissée en exercice.
Démonstration. Ici encore, le cas général est laissé en exercice. Traitons le cas où n = 2.
Démonstration. Si a et b sont nuls, le résultat est évident. Supposons donc dans ce qui
suit que a ou b est non nul.
Supposons δ = a ∧ b (on a donc δ 6= 0). On peut alors écrire a = δa1 et b = δb1 , où
a1 , b1 ∈ Z. De plus, il existe u et v tels que ua + vb = δ. En simplifiant par δ, on en tire
ua1 + vb1 = 1, donc a1 ∧ b1 = 1 par le théorème de Bézout.
Inversement, supposons a = δa1 , b = δb1 , avec a1 ∧ b1 = 1. Appelons ∆ le pgcd de a et b.
Par Bézout appliqué à a1 et b1 et une multiplication par δ, on obtient deux entiers u et v
tels que ua + vb = δ. On en déduit que ∆ | δ. Mais δ est clairement un diviseur commun
de a et b, donc δ | ∆. Ainsi, δ = ∆ (au signe près, comme toujours).
Appliquons ce qui précède pour montrer un résultat bien connu sur les rationnels.
2.9 PPCM
Définition 5. « L’ » entier µ ci-dessus est appelé plus petit commun multiple (en
abrégé : ppcm) de a et b. On abuse en parlant du ppcm de a et b. On note µ = a ∨ b
ou encore ppcm(a, b).
µ = δa1 b1
Enfin, si µ1 et µ2 sont des ppcm de a et b, chacun divise l’autre, et ils sont donc égaux au
signe près.
δµ = ab
Remarque 5. Dire que les multiples de µ sont les multiples communs de a et b revient à
dire que
aZ ∩ bZ = µZ
Ceci serait une façon d’introduire le ppcm analogue à celle utilisée pour le pgcd, en remar-
quant que l’intersection de deux sous-groupes d’un groupe est encore un sous-groupe.
2. PGCD, PPCM 265
Une équation diophantienne est une équation dont les inconnues sont des entiers. Ce type
d’équation se résout par des méthodes très différentes de celles utilisées pour les équations à
inconnues réelles ou complexes. Nous allons ici nous intéresser aux équations diophantienne
de degré 1 à deux inconnues.
Soient a, b, c trois entiers relatifs. On considère l’équation d’inconnues x, y ∈ Z
(E) ax + by = c
Si a = b = 0, la résolution de (E) est évidente. Supposons dorénavant que (a, b) 6= (0, 0),
et donc δ 6= 0.
Soit δ = a ∧ b. On voit que si (E) admet une solution, alors δ | c. Première conclusion :
Si δ 6 | c, alors l’équation (E) n’a pas de solution.
Supposons maintenant que δ | c. Écrivons c = δc1 , où c1 ∈ Z. On écrit a = δa1 , b = δb1 , où
a1 , b1 ∈ Z et on est ramenés à l’équation
(E1 ) x, y ∈ Z, a1 x + b1 y = c1
a1 (x − x1 ) = b1 (y1 − y)
Le théorème de Gauss permet alors de conclure que (x, y) est solution si et seulement si il
existe un entier relatif k tel que
x = x1 + kb1
y = y1 − ka1
a1 Z + . . . + an Z = {u1 a1 + . . . + un an , u1 , . . . , un ∈ Z}
a1 Z + . . . + an Z = δZ
266 CHAPITRE 16. ARITHMÉTIQUE
δ = ∧nk=1 ak
Remarquons que
n
X n−1
X
ak Z = ak Z + an Z
k=1 k=1
On a donc
∧nk=1 ak Z = (∧n−1 n−1
k=1 ak )Z + an Z = ((∧k=1 ak ) ∧ an )Z
∧nk=1 ak = (∧n−1
k=1 ak ) ∧ an
On peut donc calculer le pgcd de n entiers de proche en proche, en calculant des pgcd de
deux entiers. On peut en fait montrer que le pgcd est associatif, et les parenthèses peuvent
être placées comme bon nous semble. Nous ne prouverons pas cette propriété.
Définition 6. Soient a1 , . . . , an ∈ Z.
On dit que les ak sont premiers entre-eux deux à deux lorsque ∀i 6= j, ai ∧ aj = 1.
On dit que les ak sont premiers entre-eux dans leur ensemble lorsque ∧nk=1 ak = 1.
Proposition 22. Si des entiers sont premiers entre-eux deux à deux, ils sont premiers
entre-eux dans leur ensemble. La réciproque est fausse.
Démonstration. Le sens direct est est évident. Pour le contre-exemple, prendre par
exemple les nombres 6, 10 et 15.
3 Nombres premiers
3.1 Définition
Définition 7. Soit p ∈ Z. On dit que p est premier lorsque p 6= ±1, et que p est
divisible uniquement par ±1 et ±p. Sinon, on dit que p est composé.
3.2 Propriétés
a ∧ p = 1 ⇐⇒ p 6 | a
(∗) ∀a, b ∈ Z, p | ab =⇒ p | a ou p | b
• d = ±p, ou
• c = ±p et donc d = ±1.
Proposition 27. Deux nombres premiers (positifs) distincts sont premiers entre-eux.
Démonstration. On le prouve par récurrence forte sur n. Pour n = 2, c’est clair, vu que
2 est premier. Supposons maintenant que tout entier k, 2 ≤ k < n, possède un diviseur
premier.
P = {p1 , . . . , pn }
3. NOMBRES PREMIERS 269
L’entier N est clairement supérieur à 2 (il est même très grand !). Donc il possède un
diviseur premier. Mais ce diviseur ne peut être aucun des éléments de P. Contradiction.
où les αp ∈ N sont tous nuls sauf un nombre fini. On peut maintenant reformuler les deux
propositions précédentes.
Démonstration. Supposons
Y Y
n= pαp = p βp
p∈P p∈P
où les αp , βp sont tous nuls sauf un nombre fini. Soit q ∈ P. On isole le facteur correspon-
dant :
q αq A = q βq B
Exemple. De 72 = 23 32 , on déduit
et
νp (a + b) ≥ min(νp (a), νp (b))
Si νp (a) 6= νp (b), l’inégalité ci-dessus est une égalité.
Proposition 34. Soient a = p∈P pαp et b = p∈P pβp deux entiers naturels non
Q Q
nuls. Alors
Y Y
a∧b= pmin(αp ,βp ) et a∨b= pmax(αp ,βp )
p∈P p∈P
Démonstration. Soit d = p∈P pγp un entier non nul. Alors, d divise a si et seulement
Q
si pour tout p ∈ P, on a γp ≤ αp : il suffit dans le sens non trivial d’utiliser le théorème
de Gauss. Il en est de même pour b, donc d divise a et b si et seulement si pour tout
p ∈ P, on a γp ≤ min(αp , βp ). Autrement dit, d divise a et b si et seulement si d divise
min(αp ,βp ) . On procède de même pour le ppcm.
Q
p∈P p
4 Congruences
4.1 Rappels
Nous avons déjà parlé de congruence dans le chapitre sur les relations. Rappelons que si
n ∈ N et a, b ∈ Z, on a ≡ b[n] lorsque b − a ∈ nZ. La relation de congruence modulo n est
une relation d’équivalence sur Z. Si n 6= 0, cette relation possède exactement n classes, qui
sont 0, 1, . . . , n − 1. L’ensemble des classes est ainsi
Z/nZ = {0, . . . , n − 1}
a + a0 ≡ b + b0 [n]
272 CHAPITRE 16. ARITHMÉTIQUE
et
aa0 ≡ bb0 [n]
(b + b0 ) − (a + a0 ) = (b − a) + (b0 − a0 ) = (k + k 0 )n ∈ nZ
et
bb0 − aa0 = b(b0 − a0 ) + (b − a)a0 = (k 0 b + ka0 )n ∈ nZ
Démonstration. On a
p
p! = k!(p − k)!
k
donc p divise k!(p − k)! kp . Mais p est premier avec 1, 2, . . . k donc avec k!. De même, p
ap ≡ a[p]
ap−1 ≡ 1[p]
Nous allons dans cette section introduire les anneaux Z/nZ. Ce sont des anneaux finis qui
possèdent de très nombreuses propriétés. Nous nous contenterons d’une courte introduc-
tion.
Dans toute cette section, n désigne un entier naturel non nul. Pour tout a ∈ Z, on note a
la classe de a modulo n. Rappelons la notation
Z/nZ = {0, . . . , n − 1}
L’ensemble Z/nZ est l’ensemble des entiers modulo n. C’est un ensemble de cardinal n.
a + b ≡ a0 + b0 [n]
c’est à dire
a + b = a0 + b0
Nous avons donc bien défini une opération + dans Z/nZ.
274 CHAPITRE 16. ARITHMÉTIQUE
(a + b) + c = a + b + c
= (a + b) + c
= a + (b + c)
= a+b+c
= a + (b + c)
Il s’agit dans un premier temps de montrer que ceci a un sens. Précisément, il faut prouver
que a × b ne dépend que de a et b, et pas de a et b eux-mêmes. Pour cela, soient a, a0 , b, b0 ∈
0
Z. Supposons que a = a0 et b = b . Cela signifie que a ≡ a0 [n] et b ≡ b0 [n]. On a alors
a × b ≡ a0 × b0 [n]
c’est à dire
a × b = a0 × b0
× 0 1 2 3 4 5 6
0 0 0 0 0 0 0 0
1 0 1 2 3 4 5 6
2 0 2 4 6 1 3 5
3 0 3 6 2 5 1 4
4 0 4 1 5 2 6 3
5 0 5 3 1 6 4 2
6 0 6 5 4 3 2 1
Lorsqu’on compare les deux exemples ci-dessus, on voit une différence : Z/6Z n’est pas un
corps (en fait cet anneau possède des diviseurs de zéro), alors que Z/7Z est un corps.
Proposition 41.
• Si n est premier, alors Z/nZ est un corps.
• Si n est composé, alors Z/nZ n’est pas intègre (et n’est donc pas un corps).
Démonstration.
276 CHAPITRE 16. ARITHMÉTIQUE
a×b=n=0
277
278 CHAPITRE 17. CALCUL MATRICIEL
1 Notion de matrice
1.1 Introduction
A : J1, pK × J1, qK → E
Une matrice est donc une suite finie à deux indices. On représente la matrice
A = (Aij )1≤i≤p,1≤j≤q
par un tableau à p lignes et q colonnes. Ce tableau est noté indifféremment avec des [] ou
des () mais pas avec des || (notation qui sera réservée aux déterminants).
Notation. Mpq (E) désigne l’ensemble des matrices à p lignes et q colonnes à coefficients
dans E. On parle également de matrices de taille p × q.
Lorsque p = q, on note plus simplement Mp (E) l’ensemble des matrices carrées de taille
p × p (ou de taille p) à coefficients dans E.
Remarque 1.
• Une matrice colonne est une matrice qui a une seule colonne, c’est à dire un élément
de Mp1 (K).
• Une matrice ligne est une matrice qui a une seule ligne, c’est à dire un élément de
M1q (K).
Remarque 2. On généralise, et on appelle encore matrice à p lignes et q colonnes toute
application M : I × J → E lorsque I et J sont deux ensembles finis non vides de cardinaux
respectifs p et q.
Dorénavant, nous supposerons que E = K est un corps.
Nous n’expliciterons pas à chaque fois les conditions sur les tailles des matrices. Par
exemple, dans l’expression « Mpq (K) », p et q sont systématiquement des entiers natu-
rels non nuls.
• Le neutre pour l’addition est la matrice nulle, qui a tous ses coefficients égaux à 0.
• L’opposé d’une matrice est la matrice ayant tous ses coefficients opposés à la matrice
de départ.
Proposition 2. Toute matrice A ∈ Mpq (K) s’écrit de façon unique comme combinai-
son linéaire des matrices élémentaires. Plus précisément,
p X
X q
A= Aij Eij
i=1 j=1
280 CHAPITRE 17. CALCUL MATRICIEL
5 1 2
1 2 3
Exemple. Calculer le produit de A = par B = 0 1 1 .
4 5 6
−1 1 0
Démonstration. Soient 1 ≤ m ≤ p et 1 ≤ n ≤ r. On a
q
X
(Eij Ekl )mn = (Eij )ms (Ekl )sn
s=1
q
X
= δim δjs δks δln
s=1
q
X
= δim δln δjs δks
s=1
= δim δln δjk
= (δjk Eil )mn
1. NOTION DE MATRICE 281
(AB)C = A(BC)
Démonstration. Soient 1 ≤ i ≤ p et 1 ≤ j ≤ s. On a
q
X
(A(BC))ij = Aik (BC)kj
k=1
Xq X r
= Aik Bk` C`j
k=1 `=1
A(B + C) = AB + AC
Démonstration. Exercice.
Remarque
3. La multiplication
des matrices
n’est
pas commutative.
Parexemple, soient
0 1 0 0 1 0 0 0
A= et B = . On a AB = alors que BA = .
0 0 1 0 0 0 0 1
Exercice. Généraliser, en fabriquant deux matrices n × n A et B telles que AB 6= BA.
1.4 Transposée
Exercice. Démontrer les autres points.
Exercice. Calculer XX T et X T X lorsque X est une matrice colonne.
On note
Sn (K) = {A ∈ Mn (K), AT = A}
et
An (K) = {A ∈ Mn (K), AT = −A}
(1) A = B + C
(2) AT = (B + C)T = B T + C T = B − C
2. SYSTÈMES LINÉAIRES 283
1 1
B = (A + AT ) et C = (A − AT )
2 2
2 Systèmes linéaires
Soit A ∈ Mpq (K). Soient i, j ∈ J1, pK. Que vaut la matrice Eij A ? Soient k ∈ J1, pK et
` ∈ J1, qK. On a
p
X
(Eij A)k` = (Eij )km Am`
m=1
Xp
= δik δjm Am`
m=1
p
X
= δik δjm Am`
m=1
= δik Aj`
Le produit à gauche de A par Eij a donc eu pour effet de déplacer la ligne j de A vers la
ligne i.
Exercice. Soit A ∈ Mpq (K). Soient i, j ∈ J1, qK. Que vaut la matrice AEij ? On constatera
que l’on obtient cette fois ci un déplacement de la colonne i de A vers la colonne j.
284 CHAPITRE 17. CALCUL MATRICIEL
Il existe trois types d’opérations importantes sur les lignes et les colonnes des matrices.
Nous allons dans ce qui suit discuter surtout de lignes, en faisant simplement des remarques
pour ce qui concerne les colonnes.
Soit A ∈ Mpq (K). Soit λ ∈ K. Soit i ∈ J1, pK. L’opération consistant à multiplier la ième
ligne de A par λ sera notée
Li ←− λLi
Cette opération peut être faite par un produit matriciel. Pour cela, il suffit de multiplier
A à gauche par I + (λ − 1)Eii .
Soit A ∈ Mpq (K). Soient i, j ∈ J1, pK. L’opération consistant à échanger la ième ligne et la
jème ligne de A sera notée
Li ←→ Lj
Cette opération peut être faite par un produit matriciel. Pour cela, il suffit de multiplier
A à gauche par I + Eij + Eji − Eii − Ejj .
Proposition 9. La matrice I + Eij + Eji − Eii − Ejj est inversible. Elle est son propre
inverse.
Démonstration. Soit B = I + Eij + Eji − Eii − Ejj . Pour toute matrice A, le produit
B 2 A a pour effet
2. SYSTÈMES LINÉAIRES 285
Soit A ∈ Mpq (K). Soit λ ∈ K. Soient i, j ∈ J1, pK. L’opération consistant à ajouter à la
ième ligne λ fois la jème ligne de A sera notée
Li ←− Li + λLj
Cette opération peut être faite par un produit matriciel. Pour cela, il suffit de multiplier
A à gauche par I + λEji .
Proposition 10. Si i 6= j, la matrice I + λEji est inversible. Son inverse est I − λEji .
où les aij et les bi sont donnés, et les xj sont les inconnues. Notons
(S) AX = B
286 CHAPITRE 17. CALCUL MATRICIEL
(H) AX = 0
que les mauvaises langues appellent aussi le système sans second membre (ce qui est absurde
car 0, ce n’est pas rien).
Le système (S) est dit compatible lorsqu’il possède au moins une solution. Nous avons le
résultat facile suivant.
Démonstration. On a
Autre résultat important,
(S) x1 C1 + . . . + xq Cq = B
Proposition 13. Les opérations élémentaires sur les équations d’un système linéaire
transforment ce système en un système équivalent.
• Li ←− λLi , où λ 6= 0.
• Li ←→ Lj .
• Li ←− Li + λLj , où j 6= i
Nous avons vu que ces trois opérations sont réalisées en multipliant à gauche par une
matrice M judicieuse. On obtient donc le système
(S 0 ) M AX = M B
M AX = M B ⇐⇒ AX = B
L’algorithme du pivot de Gauss permet d’éliminer une inconnue de (S) de toutes les équa-
tions sauf une. Supposons que Akj 6= 0.
(S 0 ) A0 X = B 0
qui a les mêmes solutions que le système (S), mais pour lequel xj n’apparaît dans aucune
des équations, sauf dans l’équation k.
2.5 Un exemple
x + 4t = 1
(S) 2x + 3y − z = 3
x + 3y − z − 4t = 2
• Étape 2. Le pivot est le A22 = 3. Inutile, dans la pratique, de diviser cette équation
par 3 ! On effectue l’opération L3 ←− L3 − L2 . On obtient un nouveau système
équivalent
x + 4t = 1
3y − z − 8t = 1
0 = 0
Considérons le système
x + 2y + 3z = 6
(S) 4x + 5y + 6z = 15
7x + 8y + 9z = 24
3. L’ANNEAU DES MATRICES CARRÉES 289
L2 ←− L2 − 4L1
L3 ←− L3 − 7L1
On obtient un système équivalent à (S)
x + 2y + 3z = 6
(S1 ) −3y − 6z = −9
−6y − 12z = −18
Proposition 14. Soit n un entier non nul. Mn (K) est un anneau, non commutatif
si n ≥ 2.
Démonstration. Nous avons déjà presque tout vérifié. Le neutre pour la multiplication
des matrices est la matrice identité d’ordre n
1 0 ... 0
0 1 . . . 0
In =
. .
.
0 0 ... 1
290 CHAPITRE 17. CALCUL MATRICIEL
Gardons la non commutativité pour un peu plus tard, nous exhiberons même des matrices
inversibles qui ne commutent pas.
Tout ce que nous avons vu sur les anneaux s’applique donc aux matrices carrées. En
particulier, si A, B ∈ Mp (K) vérifient AB = BA, et n ∈ N, nous avons
• La formule du binôme de Newton :
n
n
X n
(A + B) = Ak B n−k
k
k=0
• L’identité remarquable
n
X
n+1 n+1
A −B = (A − B) Ak B n−k
k=0
Un cas particulier important de la seconde égalité est le cas où l’une des deux matrices est
la matrice identité. Pour tout n ≥ 1,
n−1
X
n
I − A = (I − A) Ak
k=0
Démonstration. GLn (K) est l’ensemble des éléments inversibles de l’anneau Mn (K).
C’est donc un groupe.
Le cas n = 2 est facile à traiter.
a c
Proposition 16. Soit A = ∈ M2 (K). La matrice A est inversible si et
b d
seulement si ad − bc 6= 0. On a alors
−1 1 d −c
A =
ad − bc −b a
Démonstration. On a
a c d −c
= (ad − bc)I2
b d −b a
Si ad − bc = 0, la matrice A est un diviseur de 0 dans l’anneau M2 (K). Elle n’est donc pas
inversible. Si, au contraire, ad − bc 6= 0, on peut diviser l’égalité par ad − bc. On en déduit
l’inversibilité de A et la valeur de A−1 .
On a
2 1 1 1
AB = et BA =
1 1 1 2
Ainsi, AB 6= BA. De plus, A et B ont un déterminant non nul, donc elles sont inversibles.
Proposition 18. Soit A ∈ Mn (K). A est inversible si et seulement si elle est inversible
à gauche, si et seulement si elle est inversible à droite.
Remarque 5. Grâce à ce même théorème du rang, on peut montrer qu’une matrice qui
n’est pas carrée ne peut pas être inversible. Elle peut en revanche être inversible à gauche
ou à droite.
292 CHAPITRE 17. CALCUL MATRICIEL
(SY ) AX = Y
X = A−1 Y
Inversement, supposons que pour tout Y ∈ Mn1 (K), le système (S) a une unique solution.
Pour i = 1, . . . , n, soit Yj = (0 0 . . . 0 1 0 . . . 0)T où le 1 apparaît en position j. Soit Xj
l’unique solution du système SYj . Soit B la matrice dont les colonnes sont les Xj . La
matrice AB est alors la matrice dont les colonnes sont les Yj , c’est à dire In . Ainsi, A est
inversible à droite, donc inversible.
Une technique pratique d’inversion de matrice est donc la suivante : on résout le système
d’équations AX = Y avec un second membre Y « quelconque ». Si, pour un certain Y , le
système n’a pas de solution (ou bien en a plusieurs), alors A n’est pas inversible. Sinon, on
obtient la solution unique X = A−1 Y et on en déduit A−1 .
3.4 Un exemple
1 2 1
Inversons la matrice A = −1 3 1. Donnons nous Y = (a b c)T ∈ M31 (R). Soit
0 1 0
X = (x y z)T ∈ M31 (R). Résolvons le système AX = Y par le pivot de Gauss. Le système
s’écrit
x + 2y + z = a
(S) −x + 3y + z = b
y = c
x = 12 a − 12 b + 12 c
y = c
z = 12 a + 12 b − 52 c
4. MATRICES TRIANGULAIRES 293
Ceci est vrai pour tout Y . La matrice A est donc inversible, et de plus
1
− 12 1
2 2
A−1 = 0 0 1
1 1
2 2 − 52
4 matrices triangulaires
Dans la suite, on note Tn (K) l’ensemble des matrices triangulaires supérieures à coeffi-
cients dans le corps K. Tous les résultats énoncés sont également vrais pour des matrices
triangulaires inférieures.
Remarque 6. Soit A ∈ Mn (K). La diagonale de A est l’ensemble des coefficients Aii ,
1 ≤ i ≤ n. Ainsi,
• A est triangulaire supérieure lorsque les coefficients de A strictement au-dessous de
sa diagonale sont nuls.
• A est triangulaire inférieure lorsque les coefficients de A strictement au-dessus de
sa diagonale sont nuls.
• A est diagonale lorsque les coefficients de A en dehors de sa diagonale sont nuls.
Proposition 20. (Tn (K), +, ×) est un anneau, non commutatif dès que n ≥ 2.
n
X
(AB)i,j = Aik Bkj
k=1
Remarquons que
Regardons tout d’abord un cas facile, celui des matrices diagonales. Notons A = Diag(α1 , . . . , αn )
une matrice diagonale dont les coefficients de la diagonale sont les scalaires αi . Notons
Dn (K) l’ensemble des matrices diagonales de Mn (K).
Proposition 21. Dn (K) est un anneau commutatif. Une matrice diagonale est inver-
sible si et seulement si ses coefficients diagonaux sont non nuls.
Ap = Diag(α1p , . . . , αnp )
Si A est inversible, ceci est encore vrai lorsque p est entier négatif.
4. MATRICES TRIANGULAIRES 295
Supposons tous les Aii non nuls. Le système ci-dessus admet une unique solution, donnée
par
1
xn = yn
Ann
Le système AX = Y a donc une unique solution, ceci pour tout Y , ce qui prouve que A
est inversible. Nous avons même « calculé » l’inverse de A. On constate que cet inverse est
une matrice triangulaire supérieure car pour tout i ∈ J1, nK, xi est combinaison linéaire de
yi , . . . , yn (récurrence facile).
Supposons maintenant que l’un des Aii est nul. Prenons un tel i maximal. Pour tout Y ,
les équations En , En−1P, . . . , Ei+1 fournissent une unique solution xn , xn−1 , . . . , xi+1 . Si l’on
choisit yi tel que yi 6= nj=i+1 Aij xj , l’équation i n’a alors pas de solution. Il existe donc Y
tel que l’équation AX = Y n’ait pas de solution. La matrice A n’est donc pas inversible.
Exemple. Soit
1 2 3 4
0 1 5 6
A=
0
0 1 7
0 0 0 1
296 CHAPITRE 17. CALCUL MATRICIEL
a + 2b + 3c + 4d = x
b + 5c + 6d = y
c + 7d = z
d = t
Il se résout en
a = x − 2(y − 5z + 29t) − 3(z − 7t) − 4t = x − 2y + 7z − 41t
b = y − 5(z − 7t) − 6t = y − 5z + 29t
c = z − 7t
d = t
Ainsi,
1 −2 7 −41
0 1 −5 29
A−1 =
0 0 1 −7
0 0 0 1
Chapitre 18
Polynômes
297
298 CHAPITRE 18. POLYNÔMES
où les ak ∈ K sont tous nuls sauf un nombre fini (nous dirons presque tous
nuls).
Si (A, X) et (B, Y ) sont deux tels couples, il existe un unique isomorphisme d’algèbres
f : A −→ B tel que f (X) = Y .
Démonstration. Admise. Remarquons que toutes les propriétés des espaces vectoriels
et des anneaux commutatifs s’appliquent à A. On a ainsi par exemple les identités remar-
quables, la formule du binôme de Newton, etc.
Remarque 1.
• X est appelé l’indéterminée.
• L’algèbre A sera dorénavant notée K[X].
• Les éléments de K[X] sont appelés les polynômes à coefficients dans K.
• Les ak sont les coefficients du polynôme P .
1.2 Degré
P∞ k
Définition 1. Soit P = k=0 ak X ∈ K[X] \ {0}. On appelle degré de P l’entier
do P = max{k ∈ N, ak 6= 0}
Remarque 2. Soit d ∈ N.
• Si ad 6= 0 alors do P ≥ d.
• Si ∀k > d, ak = 0, alors do P ≤ d.
∞
X
P +Q= (ak + bk )X k
k=0
∞
X
λP = (λak )X k
k=0
Proposition 2.
• Pour tous P, Q ∈ K[X], do (P + Q) ≤ max(do P, do Q).
• Si do P 6= do Q on a égalité ci-dessus. Sinon, on ne peut rien dire a priori.
• Pour tout P ∈ K[X], pour tout λ ∈ K∗ , do (λP ) = do P .
• Pour tout P ∈ K[X], do (0P ) = −∞.
Démonstration. Faisons la preuve pour la somme. Le produit par un scalaire est laissé
au lecteur. Si P ou Q estPnul c’est évident. Supposons donc P et Q non nuls. Posons
P = ∞ k ∞ k
P
k=0 k X et Q =
a k=0 bk X . Soient m et n les degrés respectifs de P et Q. Par
exemple, m ≤ n. Soit k > n. On a ak = bk = 0 donc ak + bk = 0. Ainsi, do (P + Q) ≤ n.
Si, de plus m < n, alors an = 0 donc an +bn = bn 6= 0 donc do (P +Q) = n = max(do P, do Q).
Si do P = dQ on ne peut rien dire de plus que l’inégalité. Prenons par exemple
P = X 3 + X 2 − 2X + 5 et Q = −X 3 + X + 7
On a alors
P + Q = X 2 − X + 12
qui est de degré 2 < 3. Si, en revanche, Q = X 3 + X + 7, alors P + Q = 2X 3 − X + 12 est
de degré 3.
Vocabulaire :
Soit P = ∞ k
P
k=0 ak X ∈ K[X].
1.4 Produit
Soient P = ∞
P k
P∞ k
k=0 ak X et Q = k=0 bk X . Que valent les coefficients du produit P Q ?
Calculons-les. On a
∞
! ∞
X X X
PQ = ai X i bj X j = ai bj X i+j
i=0 j=0 (i,j)∈N2
X ∞
X
i+j
ai bj X = ck X k
i,j∈N k=0
où
k
X
ck = ai bk−i
i=0
Démonstration. C’est évident si P ou Q est nul. Supposons donc nos deuxP polynômes
∞ k
non nuls.
P∞ Soient m et n leurs degrés respectifs.
P∞ Notons comme d’habitude P = k=0 ak X
k
et Q = k=0 bk X . Notons aussi P Q = k=0 ck X . k
1. L’ALGÈBRE DES POLYNÔMES 301
• Soit k > m + n. On a
k
X k
X k
X
ck = ai bk−i = ai bk−i + ai bk−i
i=0 i=0 i=m+1
1.5 Composée
P∞ k
Définition 2. Soit P = k=0 ak X ∈ K[X]. Soit Q ∈ K[X]. On pose
∞
X
P ◦Q= ak Qk
k=0
302 CHAPITRE 18. POLYNÔMES
do (P ◦ Q) = do P × do Q
do Qk = kdo Q ≤ 0
Ainsi, P ◦ Q est constant lui aussi. Son degré est donc −∞ ou 0. Pour certaines valeurs de
Q, le degré peut être −∞, même si P et Q ne sont pas nuls. Par exemple,
(X 2 − 3X + 2) ◦ 2 = 0
Nous en reparlerons longuement plus loin lorsque nous parlerons des racines d’un poly-
nôme.
X∞ ∞
X
(P ◦ Q) ◦ R = ( ak Qk ) ◦ R = ak (Qk ◦ R)
k=0 k=0
Ainsi,
∞
X
(P ◦ Q) ◦ R = ak (Q ◦ R)k = P ◦ (Q ◦ R)
k=0
Proposition 9.
X est l’élément neutre pour la composition.
La composition des polynômes n’est pas commutative.
Pour l’unicité, supposons A = BQ+R = BQ0 +R0 où R et R0 sont de degré strictement plus
petit que le degré de B. On a B(Q−Q0 ) = R0 −R donc do B+do (Q−Q0 ) = do (R0 −R) < do B.
Ainsi, do (Q − Q0 ) < 0. Le seul polynôme de degré strinctement négatif est 0. Donc Q = Q0
puis, en reportant, R = R0 .
3 Fonctions polynômes
Définition 4. Soit f : K → K. On dit que f est une fonction polynôme lorsqu’il existe
une suite presque nulle (a0 , a1 , · · · ) d’éléments de K telle que
∞
X
∀x ∈ K, f (x) = ak xk
k=0
3. FONCTIONS POLYNÔMES 305
P = (X − a)Q
306 CHAPITRE 18. POLYNÔMES
où Q ∈ K[X]. De là,
Pb(a) = (a − a)Q(a)
b =0
Inversement, supposons que Pb(a) = 0. On écrit
P = (X − a)Q + R
avec do R < do (X − a) = 1. R = λ ∈ K est donc constant. En passant aux fonctions
polynômes, on en tire
0 = (a − a)Q(a)
b +λ
d’où λ = 0 et P = (X − a)Q.
Démonstration. Dans un sens, c’est évident. Dans l’autre sens, c’est une récurrence sur
n. Faisons-le pour n = 2. Soient a 6= b deux racines de P . On a P = (X − a)Q, puisque a
est racine de P . Mais alors, Pb(b) = 0 = (b − a)Q(b).
b Comme a 6= b, b est racine de Q, et
Q = (X − b)R. Donc,
P = (X − a)(X − b)R
Donc, do P = do Q + k d’où do P ≥ k.
Théorème 17. La fonction ϕ : K[X] → K[id] définie plus haut est un isomorphisme
si est seulement si le corps K est infini.
Remarque 6. Dans tout corps K infini comme Q, R, C, on peut donc identifier les po-
lynômes et les fonctions polynômes, c’est à dire que l’on n’écrira plus les chapeaux. On
écrira aussi parfois P (X) pour un polynôme P . Bref, les fonctions polynômes se prennent
pour des polynômes, et les polynômes se prennent pour des fonctions.
On parle ainsi de racine simple, double, etc. Une racine de multiplicité 0 est une non-racine.
Nous reviendrons un peu plus loin sur les propriétés des racines multiples.
4 Dérivation
P∞ k.
Définition 7. Soit P = k=0 Pk X On appelle dérivée de P le polynôme
∞
X
P0 = kPk X k−1
k=1
Les formules classiques de dérivation d’une somme, d’un produit, d’une composée, se dé-
montrent sans problème de façon purement formelle. On a bien sûr la notion de dérivée
d’ordre supérieur, la formule de Leibniz, etc. Il convient de remarquer que si K est un sous-
corps de C et P ∈ K[X] est non constant, on a do P 0 = do P − 1. Ainsi, en dérivant do P + 1
fois le polynôme P , on tombe sur le polynôme nul. On remarque enfin que P c0 = (Pb)0
lorsque la notion de dérivée d’une fonction polynôme a un sens, c’est à dire, pour nous,
lorsque K = R.
308 CHAPITRE 18. POLYNÔMES
On peut donc factoriser (X − a)k dans le polynôme. Une fois factorisé, le polynôme restant
ne s’annule pas en a.
Inversement, on fait une récurrence sur k. Si k ≤ 0, c’est évident. Soit k ≥ 1. Supposons
P = (X − a)k Q, où Q(a) 6= 0. Alors,
P 0 = (X − a)k−1 R
où R(a) 6= 0. Par l’hypothèse de récurrence, on a donc
P 0 (a) = · · · = P 0(k−2) (a) = 0 et P 0(k−1) (a) 6= 0
Enfin, on a bien entendu P (a) = 0.
5. FACTORISATION DES POLYNÔMES 309
Exemple.
• Les polynômes de degré 1
• X 2 + X + 1 sur R, mais pas sur C.
• X 3 − 2 sur Q.
• X 2 + X + 1 sur Z/2Z.
Proposition 20. Tout polynôme non constant s’écrit de façon unique, à l’ordre près,
comme un produit de polynômes irréductibles.
Pour tout z ∈ C,
n−1 n−1
!
X X
n k n k−n
|P (z)| ≥ |an ||z| − ak z = |z| |an | − ak z
k=0 k=0
La parenthèse tend vers |an | lorsque |z| tend vers l’infini. Ainsi, il existe un réel M tel que
pour tout z ∈ C,
|z| ≥ M =⇒ |P (z)| ≥ |P (0)|
La fonction |P | est une fonction continue du disque fermé D de centre O et de rayon M
vers R. Ce disque étant fermé et borné, |P | possède un minimum sur D. Autrement dit, il
existe z0 ∈ D tel que pour tout z ∈ D, |P (z)| ≥ |P (z0 )|. Remarquons que 0 ∈ D, et donc,
pour tout z 6∈ D, |P (z)| ≥ |P (0)| ≥ |P (z0 )|. Finalement,
∀z ∈ C, |P (z)| ≥ |P (z0 )|
où α ∈ C∗ , k ≥ 1 et ε(z) −→ 0 lorsque z tend vers z0 . Divisons par P (z0 ), qui est non nul
car P est supposé sans racine. On obtient
P (z)
= 1 + β(z − z0 )k + (z − z0 )k ε(z)
P (z0 )
où β ∈ C∗ . Posons
z = z0 + ρeiθ
où ρ ∈ R+ et θ ∈ [0, 2π]. On a donc
P (z)
(1) = 1 + βρk eikθ + ρk eikθ ε(ρ)
P (z0 )
P (z)
(2) = 1 + βρk e−ikθ + ρk e−ikθ ε(ρ)
P (z0 )
Choisissons maintenant θ tel que que Re(βe−ikθ ) < 0. Pour ρ suffisamment petit, on a
alors !
1 P (z) 2
−1 <0
ρk P (z0 )
et donc
|P (z)| < |P (z0 )|
Contradiction.
Proposition 22.
• Les polynômes irréductibles sur C sont les polynômes de degré 1.
• Les polynômes irréductibles sur R sont les polynômes de degré 1 et les polynômes
de degré 2 à discriminant strictement négatif.
Démonstration.
• Commençons par C. Soit P ∈ C[X]. Si P est de degré 1, il est irréductible. Supposons
P de degré supérieur ou égal à 2. Le théorème de d’Alembert affirme que P a une
racine a. On a donc P = (X − a)Q où Q n’est pas constant. Donc P n’est pas
irréductible.
• Passons à R. Soit P ∈ R[X].
Si P est de degré 1, il est irréductible.
Supposons P de degré 2. Si P = QR avec Q et R non constants alors Q et R sont
de degré 1, donc P a une racine. Donc, si son discriminant est strictement négatif,
P est irréductible. Inversement, si le discriminant de P est positif ou nul, P a une
racine et n’est donc pas irréductible.
Supposons pour terminer que do P ≥ 3. Si P a une racine réelle a, alors X − a divise
P et P n’est pas irréductible. Sinon, P a une racine non réelle ζ. Mais P étant à
coefficients réels, on voit facilement que ζ̄ 6= ζ est aussi racine de P . On peut donc
écrire
P = (X − ζ)(X − ζ̄)Q
où Q est a priori dans C[X]. Remarquons que
Il nous reste à prouver que l’on a en fait Q ∈ R[X]. On a d’une part P = AQ dans
C[X], et d’autre part (division euclidienne dans R[X]) P = AQ0 + R avec Q0 et R
dans R[X]. Mais cette dernière égalité est aussi une égalité dans C[X], et donc une
312 CHAPITRE 18. POLYNÔMES
Définition 9. Soit P ∈ K[X] non nul. On dit que P est scindé (sur K) lorsque P est
un produit de polynômes de degré 1.
Exemple. Tout polynôme non nul de C[X] est scindé. C’est le théorème de d’Alembert.
x1 x2 = ac
En particulier σ1 = X1 + X2 + . . . + Xn et σn = X1 X2 . . . Xn .
Démonstration. On donne juste l’idée de la preuve, qui se fait par récurrence sur n.
Pour n = 1, 2, 3 nous avons déjà vu que c’était vrai. Supposons que l’on sait faire pour un
polynôme de degré n ≥ 1, et prenons
n+1
Y
P =λ (X − αk )
k=1
On réordonne ensuite suivant les puissances de X pour constater que l’on obtient bien les
polynômes symétriques élémentaires en α1 , · · · , αn+1 .
314 CHAPITRE 18. POLYNÔMES
6 Pgcd,Ppcm
Définition 12. Soient A, B ∈ K[X]. On dit que A et B sont premiers entre eux lorsque
A ∧ B = 1.
Exemple. Deux polynômes irréductibles non associés sont premiers entre-eux. En effet,
soient P et Q irréductibles, non associés. Soit D un polynôme. Si D divise P et Q alors
D = 1 ou P et D = 1 ou Q (àcmnnp). Donc D = 1 àcmnnp.
C = U AC + V BC = U AC + V QA = (U C + V Q)A
Les trois propriétés ci-dessous sont analogues aux propriétés vues en arithmétique sur Z.
Elles se démontrent de la même façon, grâce aux théorèmes de Bézout et Gauss.
316 CHAPITRE 18. POLYNÔMES
Rappelons-nous que nous avions jusqu’à présent laissé de côté la preuve de l’unicité de la
décomposition en produit de polynômes irréductibles. Nous en savons maintenant assez
pour montrer ce résultat.
Proposition 31. Tout polynôme Q ∈ K[X] non nul s’écrit de façon unique
Y
Q=c P αP
P ∈I
où c ∈ K∗ et les αP sont des entiers naturels tous nuls sauf un nombre fini.
6. PGCD,PPCM 317
Démonstration. L’existence a déjà été montrée, elle se prouve par récurrence forte sur
le degré de Q. Montrons l’unicité.
Soit Q un polynôme non nul. Supposons
Y Y
Q=c P αP = c0 P βP
P ∈I P ∈I
Soit P0 ∈ I. On a
αP0 βP0 Y
P0 | P0 P βP
P ∈I,P 6=P0
αP0
P βP . Donc, par le théorème de Gauss,
Q
Mais P0 est premier avec P ∈I,P 6=P0
αP0 βP0
P0 | P0
On en déduit que
αP0 ≤ βP0
De la même façon, αP0 ≥ βP0 et donc αP0 = βP0 . Il y a bien unicité de l’écriture.
6.6 Ppcm
Démonstration. Voir le cours sur les entiers relatifs, la preuve est identique. On écrit
A = ∆A1 , B = ∆B1 , où ∆ = A ∧ B et A1 ∧ B1 = 1. On pose
µ = ∆A1 B1
et on montre ensuite que µ est, à constante multiplicative non nulle près, l’unique solution
du problème.
318 CHAPITRE 18. POLYNÔMES
Démonstration. Cette égalité est bien sûr vraie à constante multiplicative non nulle
près. Avec les notations ci-dessus,
(A ∧ B)(A ∨ B) = ∆(∆A1 B1 ) = AB
7 Interpolation de Lagrange
Soit f : K −→ K. Soit n ∈ N. Soient x0 < x1 < . . . < xn n+1 éléments distincts de K. Sans
chercher la généralité, interpoler f en les xk , c’est trouver un polynôme P tel que pour tout
7. INTERPOLATION DE LAGRANGE 319
k ∈ J0, nK, on ait P (xk ) = f (xk ). Il est clair que nous parlons ici d’interpolation polyno-
miale, on pourrait chercher à interpoler f par d’autres types de fonctions. Par exemple, si
K = R, par des combinaisons de fonctions trigonométriques. Ou alors, imposer également
que certaines dérivées de P soient égales aux dérivées de f aux points correspondants.
Lorsque n = 0, la réponse est clairement oui, on peut prendre par exemple un polynôme
constant.
Lorsque n = 1, c’est encore oui en prenant pour P une fonction affine : par deux points
distincts du « plan » il passe une unique droite. Ceci peut se généraliser.
On vérifie facilement que ces polynômes sont de degré n, et que pour tous i, j ∈ J0, nK, on
a
Li (xj ) = δij
Le polynôme P est de degré inférieur ou égal à n (degré d’une somme). De plus, pour tout
j ∈ J0, nK,
Xn n
X
P (xj ) = yi Li (xj ) = yi δij = yj
i=0 i=0
Proposition 35. Avec les notations ci-dessus, soit Q ∈ R[X]. On a Q(xj ) = yj pour
tout j ∈ J0, nK si et seulement si il existe A ∈ K[X] tel que
n
Y
Q=P +A (X − xk )
k=0
321
322 CHAPITRE 19. FRACTIONS RATIONNELLES
Soit K un corps. L’anneau K[X] des polynômes à coefficients dans K est un anneau in-
tègre. Un résultat très général affirme que K[X] possède un corps des fractions, unique à
isomorphisme près, noté K(X) : le corps des fractions rationnelles à une indéterminée.
P
Formellement, une fraction rationnelle est le quotient F = Q de deux polynômes, où le
polynôme Q est non nul. Si P, Q, R, S ∈ K[X] et Q, S 6= 0, on a
P R
= ⇐⇒ P S = QR
Q S
P R P S + QR
+ =
Q S QS
PR PR
=
QS QS
P
F =
Q
P
Définition 1. Soit F = Q ∈ K(X). On appelle degré de F la quantité
do F = do P − do Q
Le degré d’une fraction est soit un entier relatif, soit −∞ lorsque la fraction est nulle.
Attention à quelques pièges : une fraction de degré 0 n’est pas forcément constante, par
exemple.
Il convient de vérifier que cette définition a un sens, c’est à dire qu’elle dépend uniquement
de la fraction F et pas des polynômes P et Q choisis pour la représenter.
do (P S) = dP + do S = do (QR) = dQ + do R
d’où
do P − do Q = dR − do S
do (F + G) ≤ max(do F, do G)
Si les fractions ont des degrés différents, c’est une égalité. Sinon, on ne peut rien dire.
P R
Démonstration. On pose F = Q et G = S. On a
P S + QR
F +G=
QS
d’où
do (F G) = do (P R) − do (QS) = do P + do R − do Q − do S = do F + do G
P
Définition 2. Soit F = Q une fraction écrite sous forme irréductible.
• On appelle racine de F toute racine de P .
• On appelle pôle de F toute racine de Q.
Une fraction a un nombre fini de pôles. Une fraction non nulle a un nombre fini de racines.
P (x)
f (x) =
Q(x)
On ne refait pas ce qui a été fait pour les polynômes. Noter simplement qu’une fonction ra-
tionnelle est définie sur K sauf peut-être en un nombre fini de points, les pôles de la fraction
rationnelle correspondante. On définit également la dérivée d’une fraction rationnelle.
2 Éléments simples
2. ÉLÉMENTS SIMPLES 325
A
Démonstration. On écrit F = B. On fait la division euclidienne de A par B :
A = BE + R
avec do R < do B. D’où
R
F =E+
B
R
On a montré l’existence, en posant G = B.
Démonstration. On admet l’unicité (qui a presque été déjà faite, d’ailleurs). Le poly-
nôme E est la partie entière de F . Le jème terme de la somme est la partie polaire relative
au pôle aj . Elle se décompose en somme d’éléments simples en écrivant la formule de Taylor
(ou en faisant des divisions euclidiennes par X − aj ).
Soit F une fraction possédant a pour pôle simple. Le théorème précédent nous dit que
α
F = +G
X −a
où a n’est pas un pôle de G. Le scalaire α est appelé le résidu de F au point a. Il existe
essentiellement 2 méthodes pratiques de calcul de α
• Supposons ici que l’on sait écrire F sous la forme
P
F =
(X − a)Q
les polynômes P et Q n’ayant pas a pour racine. On a alors
P
(X − a)F = = α + (X − a)G
Q
P (a)
On a donc, en évaluant en a, α = Q(a) .
X 2 +1
Exemple. Soit F = X 3 −1
. Calculons le résidu de F en 1. On a
X2 + 1
(X − 1)F =
X2 +X +1
et cette quantité vaut 2/3 en 1. Donc,
2
F = +G
3(X − 1)
328 CHAPITRE 19. FRACTIONS RATIONNELLES
Exemple. Soit
1
F =
Xn
−1
Les pôles de F sont les racines nièmes de 1. On a donc (rappelons que Un est l’ensemble
des racines nes de l’unité) X αω
F =
X −ω
ω∈Un
avec
1 ω
αω = =
nω n−1 n
P
Proposition 8. Soit F = Q ∈ R(X) une fraction écrite sous forme irréductible. On
suppose que Q se factorise en
m
Y n
Y
Q=c (X − ai )αi (X 2 + pi X + qi )βi
i=1 i=1
où c ∈ R∗ , les αi , βi sont des entiers non nuls, les ai ∈ R sont distincts deux à deux,
les (pi , qi ) ∈ R sont distincts deux à deux et vérifient p2i − 4qi < 0. La fraction F s’écrit
alors de façon unique
αi
m X n βi
X λij XX µij X + νij
F =E+ j
+
(X − ai ) (X 2 + pi X + qi )j
i=1 j=1 i=1 j=1
1 j+1
=
j2 −j+1 2
1 1 −X + 1 1 X +1
= +
X4 2
+X +1 2 2
2X −X +1 2X +X +1
1
Rx
On se donne F = (X−a) n , avec a ∈ R ou C, et n ≥ 1. On désire calculer F (t) dt. La
variable x reste évidemment réelle.
Lorsque n ≥ 2, une primitive de F est
Z x
−1
F (t) dt =
(n − 1)(x − a)n−1
1 (x − p) + iq
F (x) = =
(x − p) − iq (x − p)2 + q 2
3. PRIMITIVES DES FRACTIONS RATIONNELLES 331
Exemple. On a
1 X +i
= 2
X −i X +1
Ainsi, pour tout réel x,
Z x Z x
dt t+i
= dt
t−i t2 + 1
Z x Z x
t dt dt
= + i
t2 + 1 t2 + 1
1
= ln(x2 + 1) + i arctan x
2
et Z x
1
Jn = dt
(t2 + a2 )n
où n ≥ 2.
332 CHAPITRE 19. FRACTIONS RATIONNELLES
x
t2
Z
x
Jn = 2 + 2n dt
(x + a2 )n (t2 + a2 )n+1
1 1 Z 1
x2
Z
dx x
= + 2 dx
0 x2 + 1 2
x +1 0 2
0 (x + 1)
2
Z 1 2
1 (x + 1) − 1
= +2 dx
2 0 (x2 + 1)2
Z 1 Z 1
1 1 1
= +2 2
dx − 2 2 2
dx
2 0 x +1 0 (x + 1)
Z 1
1 1
= +2 2
dx − 2I
2 0 x +1
De là, Z 1
1 1 π 1
2I = dx − = +
0 x2 +1 2 4 2
et finalement
π 1
I= +
8 4
Chapitre 20
Analyse asymptotique
333
334 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
Dans cette section, nous allons explorer la notion de fonction négligeable ou dominée par
une autre fonction, ainsi que la notion de fonctions équivalentes. Nous allons retrouver des
notions que nous avions déjà étudiées pour les suites. La différence essentielle est que pour
les fonctions tout se passe au voisinage d’un point a ∈ R à préciser, alors que pour les
suites c’est toujours lorsque l’indice n tend vers l’infini.
3x2 − 1 1
2
= 3 − 2 −→ 3
x x
lorsque x tend vers +∞. Ce quotient, ayant une limite finie, est borné au voisinage
de +∞.
• Étant donnés deux réels α < β, on a xα = o+∞ (xβ ) mais xβ = o0 (xα ). Il suffit pour
β
le voir de considérer le quotient xxα = xβ−α .
oa (f ) + oa (f ) = oa (f )
1. COMPARAISON DES FONCTIONS AU VOISINAGE D’UN POINT 335
et
oa (f ) × oa (f ) = oa (f 2 )
Si f est bornée au voisinage de a, alors
oa (f ) × oa (f ) = oa (f )
Démonstration. On a
oa (f ) + oa (f ) = (ε + ε0 )f = ε00 f
où toutes les fonctions ε tendent vers 0 en a. Preuves analogues dans tous les cas.
Remarque 3. On remarque, dans la proposition précédente, que 1 + 1 ça ne fait pas 2 et
que les égalités avec des petits o ou des grands O sont à considérer avec précaution. Il faut
effectivement faire attention lorsqu’on manipule des o, car oa (f ) représente UNE fonction
négligeable devant f en a. Donc, par exemple lorsqu’on écrit oa (f ) + oa (f ) on additionne
deux fonctions négligeables devant f , mais ces deux fonctions sont a priori différentes. En
cas de doute, il n’y a qu’à revenir à la définition : oa (f ) = εf où la fonction ε tend vers 0
au point a considéré.
f
Remarque 4. Celà revient à dire que g tend vers 1 en a, dans le cas où la fonction g ne
s’annule pas au voisinage de a.
Remarque 5. Lorsque le point a est clair, on note f ∼ g plutôt que f ∼a g, histoire
d’alléger.
Proposition 4. Si deux fonctions sont équivalentes en un point, elles ont même signe
au voisinage de ce point.
f ∼a g ⇐⇒ f = g + oa (g)
ex − 1 ∼0 x
ln(1 + x) ∼0 x
(1 + x)α − 1 ∼0 αx
sin x ∼0 x
x2
1 − cos x ∼0 2
tan x ∼0 x
sinh x ∼0 x
x2
cosh x − 1 ∼0 2
tanh x ∼0 x
arcsin x ∼0 x
arctan x ∼0 x
argsh x ∼0 x
argth x ∼0 x
ln7 t
f (x) = −
t2
Lorsque x −→ 0, t −→ +∞ donc f (x) −→ 0 lorsque x −→ 0.
Dernier exemple, soit f (x) = x3 ex . Posons t = −x. On a
t3
f (x) = −
et
Lorsque x −→ −∞, on a t −→ +∞, donc f (x) tend vers 0.
Les techniques de calcul sont les mêmes que celles vues dans le chapitre de comparaison
de suites :
• Se ramener à une variable qui tend vers 0
• Chercher à faire apparaître des équivalents usuels
• Se méfier des sommes
Prenons un exemple déjà vu pour les suites, en le transposant à des fonctions.
Soit a un réel strictement positif, a 6= 1. Cherchons un équivalent de f (x) = ax −xa lorsque
x tend vers a.
• Se ramener à 0. Posons x = a + h de sorte que h tend vers 0 lorsque x tend vers a.
• Faire apparaître des équivalents usuels. On a
h a
f (x) = aa+h − (a + h)a = aa ah − 1 +
a
ah − 1 = eh ln a − 1 ∼ h ln a
Ensuite,
h a
h
1+ −1∼a =h
a a
• Se méfier des sommes. Il faut additionner les deux équivalents précédents, ce qui est
interdit. On écrit donc ces équivalents comme des égalités avec des petits o.
ah − 1 = h ln a + o(h ln a) = h ln a + o(h)
2. DÉVELOPPEMENTS LIMITÉS 339
et
h a
1+ − 1 = h + o(h)
a
Regroupant le tout, il vient
Finalement, si a 6= e,
f (x) ∼a aa (ln a − 1)(x − a)
Pourquoi si a 6= e, parce que pour a = e on obtient
f (x) = o(h) = oa (x − a)
Dans ce cas nous avons pas trouvé d’équivalent de f en a. Il nous faudra attendre
la section sur les développements limités pour en obtenir un. Patience !
2 Développements limités
Cela signifie en particulier que g est n − 1 fois dérivable dans un voisinage de a. On utilise
le théorème des accroissements finis pour écrire
On a donc
g(x) = (x − a)(c1 − a) · · · (cn−2 − a)g (n−1) (cn−1 )
avec a < cn−1 < · · · < c1 < x. Ainsi,
Or,
g (n−1) (cn−1 ) g (n−1) (cn−1 ) − g (n−1) (a)
≤
x−a cn−1 − a
2.2 Notion de DL
avec Pn ∈ Rn [X]. La quantité Pn (x − a) est appelée la partie régulière du DL, et o(x − a)n
est le reste.
Démonstration.
• f a un DL à l’ordre 0 en a si et seulement si il existe α ∈ R tel que f (x) = α + o(1).
Ceci revient à dire que f à une limite réelle α en a. C’est la définition de la continuité
en a.
• f a un DL à l’ordre 1 en a si et seulement si il existe α, β ∈ R tels que
f 0 (x) − f 0 (0) 1 1
= 3x sin − cos
x−0 x x
342 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
Il est clair que cette quantité n’a pas de limite en 0. La fonction f n’est donc pas
deux fois dérivable en 0. Cependant,
1
f (x) = x2 × (x sin ) = o(x2 )
x
puisque x sin x1 tend vers 0 lorsque x tend vers 0. Ainsi, f a un développement limité
à l’ordre 2 en 0.
Démonstration. Supposons
n
X n
X
k n
ak (x − a) + o(x − a) = bk (x − a)k + o(x − a)n
k=0 k=0
On en déduit
n
X
ck (x − a)k = o(x − a)n
k=0
où l’on a posé ck = ak − bk . Supposons l’un au moins des ck non nul. Soit j le plus petit
indice tel que cj 6= 0. Alors,
n
X
ck (x − a)k ∼a cj (x − a)j
k=0
et cette quantité n’est pas négligeable devant (x − a)n . On a donc une contradiction. Ainsi,
tous les ck sont nuls, c’est à dire
∀k ∈ J0, nK, ak = bk
Exemple. Si une fonction est définie au voisinage de 0, et paire, tout D.L. de cette fonction
en 0 a ses coefficients de degré impair nuls. Remarque analogue pour une fonction impaire.
Proposition 13. Soit f une fonction définie au voisinage du réel a. On suppose que
f admet en a un DL à l’ordre 2 de la forme
Démonstration. Supposons λ 6= 0. On a
du signe de λ au voisinage de a.
Voici ci-dessous les développements limités EN 0 pour les fonctions usuelles, à un ordre
quelconque.
344 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
1
Remarque 11. Pour le lecteur qui se demanderait ce que vaut 3
2 , on pose, pour tout
α ∈ R,
α α(α − 1) . . . (α − k + 1)
=
k k!
si k 6= 0, et α0 = 1. Ainsi, par exemple,
1 1 −1 −3
2 2 2 2 1
= =
3 3! 16
Ainsi,
f (k) (0) = α(α − 1) . . . (α − k + 1)
On a donc
f (k) (0)
α(α − 1) . . . (α − k + 1) α
= =
k! k! k
Il ne reste plus qu’à appliquer Taylor-Young pour obtenir le D.L. de f à l’ordre n en 0.
1 1
1 1 1 ( −1)
Exemple. On a 02 = 1, 12 = 12 et 22 = 2 22 = − 18 . Ainsi, on a en 0
√ 1 1
1 + x = 1 + x − x2 + o(x2
2 8
Remarque 12. Un autre cas important est le cas α = −1. On a pour tout k ≥ 1,
−1 (−1)(−2) . . . (−k)
= = (−1)k
k k!
1
Ainsi, un DL de 1+x en 0 à l’ordre n est
n
1 X
= (−1)k xk + o(xn )
1+x
k=0
1
En remplaçant x par −x, un DL à l’ordre n en 0 de 1−x est
n
1 X
= xk + o(xn )
1−x
k=0
1
En remplaçant x par −x2 , un DL à l’ordre 2n en 0 de 1−x2
est
n
1 X
2
= x2k + o(x2n )
1−x
k=0
1
et même o(x2n+1 ) puisque la fonction x 7−→ 1−x2
est paire.
346 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
Exemple. Depuis la fin de la section précédente, une question nous obsède : quel est un
équivalent de f (x) = ex − xe lorsque x tend vers e ? Nous pouvons maintenant y répondre
en faisant un DL à l’ordre 2 de f en e. Posons x = e + h, de sorte que h −→ 0 lorsque
x −→ e.
Remarque 13. Comment estimer numériquement la validité d’un tel résultat ? Si nous
posons g(x) = 12 ee−1 (x − e)2 , alors f (x) − g(x) = o(x − e)2 : en prenant un réel x « proche »
de e, f (x) − g(x) devrait être « très proche » de 0. Ici, en prenant x = e + 10−1 et une
calculatrice, on obtient f (x) − g(x) ' 2.2 × 10−3 , ce qui ne prouve rien mais qui est assez
rassurant. En poussant le calcul un peu plus loin et en faisant un DL à l’ordre 3, on montre
qu’en fait
1
f (x) − g(x) ∼ ee−2 (3e − 2)(x − e)3
6
Il s’avère que cette quantité, évaluée en e + 10−1 , vaut environ 2.1 × 10−3 .
Nous allons voir dans cette section que les DLs peuvent s’ajouter, se soustraire, se mul-
tiplier, se diviser, se composer, et même s’intégrer . . . mais pas se dériver ! Les exemples
donnés pour chaque opération sont évidemment essentiels pour bien comprendre comment
opérer en pratique sur les DLs.
Notation. Si P = ∞ k
P
k=0 ak X ∈ R[X], et n ∈ N, on note
n
X
P |n = ak X k
k=0
3. OPÉRATIONS SUR LES DÉVELOPPEMENTS LIMITÉS 347
le polynôme P que l’on a tronqué au degré n (suppression des termes de degré > n).
N.B : le point fondamental dans les calculs qui suivent est la manipulation des petits o.
Nous utiliserons sans modération les deux résultats suivants :
• Soient p ∈ N, λ ∈ R∗ et a ∈ R. Alors
et
g(x) = Q(x − a) + o(x − a)q
où P ∈ Rp [X] et Q ∈ Rq [X]. On en tire
ou encore
(f + g)(x) = (P + Q)|r (x) + o(x − a)r
où r = min(p, q). Bref, additionner des DLs ne pose aucune difficulté.
Exemple. Un DL à l’ordre 4 en 0 de sin x est
1
sin = x − x3 + o(x4 )
6
Un DL à l’ordre 4 en 0 de cos x est
1 1
cos x = 1 − x2 + x4 + o(x4 )
2 24
Donc, un DL à l’ordre 4 en 0 de sin x + cos x est
1 1 1
sin x + cos x = 1 + x − x2 − x3 + x4 + o(x4 )
2 6 24
348 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
et
g(x) = Q(x − a) + o(x − a)q
où P ∈ Rp [X] et Q ∈ Rq [X]. Posons plus précisément
P (x − a) = (x − a)µ P1 (x − a)
où P1 (0) 6= 0, et de même
Q(x − a) = (x − a)ν Q1 (x − a)
où r = min(p+ν, q +µ). Le lecteur est invité à bien comprendre ces quelques lignes, surtout
la seconde : tout l’intérêt des DLs est de n’écrire que ce qui est nécessaire !
Exemple. Déterminons un DL à l’ordre 3 en 0 de ex sin x. Avec les notations ci-dessus,
on a µ = 0 et ν = 1. Il suffit donc de prendre p = 2 et q = 3.
1 1 1
ex sin x = (1 + x + x2 + o(x2 ))(x − x3 + o(x3 )) = x + x2 + x3 + o(x3 )
2 6 3
Lorsque les calculs deviennent un peu compliqués, ce n’est pas une mauvaise idée de calculer
le produit en stockant les coefficients dans un tableau.
Calculons par exemple le DL à l’ordre 4 en 0 de ex ln(1 + x). Un DL à l’ordre 3 de ex suffit
car le DL de ln(1 + x) « commence » par x. On a
ex = 1 +x + 21 x2 + 16 x3 +o(x3)
ln(1 + x) = x − 21 x2 + 13 x3 − 41 x4 +o(x4 )
On effectue le produit en rangeant chaque coefficient dans la bonne case. Les termes de
degré strictement supérieur à 4 ne sont pas pris en compte, ils sont « absorbés » par le
o(x4 ).
3. OPÉRATIONS SUR LES DÉVELOPPEMENTS LIMITÉS 349
x0 0 =0
x1 1 =1
x2 − 21 + 1 = 21
1 1 1
x3 3 − 2 + 2 = 31
1 1 11 1
x4 −4 + 3 − 22 + 6 =0
Ainsi,
1 1
ex ln(1 + x) = x + x2 + x3 + o(x4 )
2 3
où P(0)=0. On a
1 1 o(x − a)p
− = = o(x − a)p
f (x) 1 + P (x − a) f (x)(1 + P (x − a))
ou encore
1 1
= + o(x − a)p
f (x) 1 + P (x − a)
Utilisons le DL usuel de (1 + x)−1 = 1
1+x . On a
1
= 1 − x + x2 + . . . + (−1)k xk + o0 (xk )
1+x
et donc, puisque P (x − a) tend vers 0 lorsque x tend vers a :
1
= 1 − P (x − a) + P (x − a)2 + . . . + (−1)k P (x − a)k + o(P (x − a)k )
1 + P (x − a)
1 1
=
cos x 1−u
350 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
avec
1 1
u = x2 − x4 + o(x4 )
2 24
Remarquons que u est « de l’ordre de » x2 . Donc o(u2 ) = o(x4 ). De là,
1
= 1 + u + u2 + o(u2 )
cos x
= 1 + u + u2 + o(x4 )
1 5
= 1 + x2 + x4 + o(x4 )
2 24
f (x) = ln(1 + u)
où
1 1
u = − x2 + x4 + o(x4 )
2 24
tend vers 0 lorsque x tend vers 0. Donc,
1
f (x) = u − u2 + o(u2 )
2
et on s’arrête à l’ordre 2 parce que o(u2 ) = o(x4 ). On a donc à additionner et multiplier
des DLs, ce que l’on sait déjà faire. Le lecteur vérifiera que
1 1
f (x) = x2 − x4 + o(x4 )
2 12
x
Exemple. Faisons un DL à l’ordre 3 en 0 de f (x) = ee . On a
1 1
f (x) = exp(1 + x + x2 + x3 + o(x3 )) = e exp u
2 6
3. OPÉRATIONS SUR LES DÉVELOPPEMENTS LIMITÉS 351
où
1 1
u = x + x2 + x3 + o(x3 )
2 6
tend vers 0 lorsque x tend vers 0. Donc,
1 1
f (x) = e(1 + u + u2 + u3 + o(u3 ))
2 6
Le lecteur est prié ici de calculer des DLs de u2 et u3 , puis de vérifier que, en fin de compte,
5
f (x) = e(1 + x + x2 + x3 + o(x3 ))
6
où ε(x) tend vers 0 lorsque x tend vers a. Utilisons le théorème des accroissements finis :
car comme c est situé entre a et x, ε(c) tend vers 0 lorsque x tend vers a (théorème de
composition des limites).
Exemple. Soit f : x 7−→ arctan x. La fonction f est de classe C ∞ sur R, elle admet donc
des développements limités de tous ordres en 0. On a
n
1 X
f 0 (x) = 2
= (−1)k x2k + o(x2n+1 )
1+x
k=0
On reconnaît un DL usuel :
1 3 5
arcsin0 x = 1 − (−x2 ) + (−x2 )2 − (−x2 )3 + o(x6 )
2 8 16
1 1
où l’on a utilisé −22 = 38 et −32 = − 16 5
. Comme arcsin 0 = 0, on en déduit, par le
théorème d’intégration des DLs,
1 3 5 7
arcsin x = x + x3 + x5 + x + o(x7 )
6 40 112
Exemple. Soit f (x) = arccos(1 − x2 ), définie sur [−1, 1]. La fonction f est continue sur
[−1, 1] et dérivable sur [−1, 1], sauf peut-être en 0. Vérifions que f est en fait dérivable en
0. Pour tout x ∈ [−1, 1] \ {0}, on a
2
f 0 (x) = √
2 − x2
√
Donc, f 0 (x) tend vers 2 lorsque x tend vers 0. On en déduit par un corollaire du théorème
des accroissements
√ finis que, comme f 0 a une limite finie en 0, f est dérivable en 0 et
f (0) = 2, la limite de f 0 en 0.
0
4. DÉVELOPPEMENTS ASYMPTOTIQUES 353
4 Développements asymptotiques
4.1 Notion de DA
Si l’on reprend l’exemple de la fonction arccos du paragraphe précédent, on voit que l’on
a effectué au voisinage de 1 quelque chose qui ressemble à un développement limité, sauf
que ce n’en est pas un. D’ailleurs, aucun développement limité de arccos au voisinage de
1 n’existe (sauf un DL à l’ordre 0), puisque cette fonction n’est pas dérivable en 1. Si l’on
regarde attentivement ce que l’on a fait, on a écrit arccos x sous forme d’une somme de
fonctions, chaque fonction étant négligeable en 1 devant la précédente.
De façon générale, soit f une fonction définie au voisinage de a ∈ R. On effectue un
développement asymptotique de f en a lorsqu’on écrit
1
f (x) = exp(x ln x) = 1 + x ln x + x2 ln2 x + o(x2 ln2 x)
2
354 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
√
Exemple. On prend f (x) = sinh x et a = +∞. On a
r
1 x
f (x) = (e − e−x )
2
On essaie évidemment de se ramener à ce que l’on sait faire, c’est à dire à un développement
limité. Pour cela, on factorise ex sous la racine :
1 xp
f (x) = √ e 2 1 − e−2x
2
Comme e−2x tend vers 0 lorsque x tend vers l’infini, on peut faire un « DL » de la racine
carrée :
1 x 1 1
f (x) = √ e 2 (1 − e−2x − e−4x + o(e−4x ))
2 2 8
1 x 1 −3x 1 −7x 7
= √ (e 2 − e 2 − e 2 + o(e− 2 x ))
2 2 8
π 1 π 1 1 1
f (x) = − arctan = − + 3 + o( 3 )
2 x 2 x 3x x
cos x 1 cos x
f (x) = =
sin x x g(x)
où
sin x 1 1 4
g(x) = = 1 − x2 + x + o(x4 )
x 6 120
1
On fait ensuite un DL (à l’ordre 5) de g(x) que l’on multiplie par un DL de cos x :
cos x 1 1
= 1 − x2 − x4 + o(x5 )
g(x) 3 45
d’où
1 1 1
cotan x = − x − x3 + o(x4 )
x 3 45
Le lecteur est invité à compléter le détail des calculs.
4. DÉVELOPPEMENTS ASYMPTOTIQUES 355
Il existe des équivalents pas évidents du tout à démontrer. C’est le cas de la formule de
Stirling.
Le lecteur angoissé par la démonstration de 4 pages qui va suivre est autorisé à ne pas lire
les détails. Cela dit, on y raconte des choses très instructives.
√
n n
Proposition 16. On a n! ∼ e 2πn.
1
Lemme 17. On a un+1 − un ∼ − 12n 2.
Démonstration.
1 1
un+1 − un = ln(n + 1) − (n + 1) ln(n + 1) + (n + 1) − ln(n + 1) + n ln n − n + ln n
2 2
1 1
= 1 − (n + ) ln(1 + )
2 n
1
Comme n tend vers 0, on peut utilser un DL de ln(1 + x) en 0 :
1 1 1 1 1 1 1
un+1 − un = 1 − (n + )( − + + o( 3 ))
2 n 2 n2 3 n3 n
1 1
= − 2
+ o( 2 )
12n n
1
∼ −
12n2
On voit donc que la différence un+1 − un entre deux termes successifs de la suite (un ) tend
vers 0. En fait, cette différence tend assez vite vers 0 pour que la suite (un ) converge.
Pn 1
Lemme 19. Soit vn = k=1 k2 . La suite (vn ) est majorée.
Démonstration. La suite (vn ) est croissante. Pour montrer qu’elle est majorée, il suffit
de montrer que la suite extraite (v2n ) est majorée. Or,
2n+1
X−1 1 1
v2n+1 − v2n = 2
≤ 2n × 2n
k 2
k=2n
1
où 2n est le nombre de termes de la somme et 22n
est le plus grand terme, obtenu pour
k = 2n . De là,
1
v2n+1 − v2n ≤
2n
Pour terminer,
v2n = (v2 − v1 ) + (v4 − v2 ) + (v8 − v4 ) + . . . + (v2n − v2n−1 ) + v1
1 1 1
≤ 0
+ 1 + . . . + n−1 + 1
2 2 2
1
= 3 − n−1 ≤ 3
2
Démonstration. Retour à un . . . On a pour tout n ≥ N , un ≥ uN − 83 . La suite (un ) est
décroissante à partir d’un certain rang, minorée, donc converge vers un réel `.
n!
n n√
un = ln
e n
Cette quantité tend vers `, donc exp(un ) tend vers C = e` , d’où l’équivalent cherché.
Il reste maintenant à calculer C, et même cela n’est pas simple. À cet effet, introduisons
les intégrales de Wallis. Pour tout n ∈ N, soit
Z π
2
Wn = sinn t dt
0
Démonstration. La positivité est évidente : on intègre une fonction positive. Pour tout
entier n, on a
Z π
2
Wn+1 − Wn = sinn t(sin t − 1) dt
0
(2n)! π
W2n =
22n n!2 2
et
22n n!2
W2n+1 =
(2n + 1)!
π
Lemme 24. nWn Wn+1 −→ 2 lorsque n tend vers l’infini.
Démonstration. On a
n+1
Wn+2 = Wn ≤ Wn+1 ≤ Wn
n+2
d’où
n+1 Wn+1
≤ ≤1
n+2 Wn
On conclut avec le théorème d’encadrement des limites.
π
p
Lemme 26. Wn ∼ 2n .
√
Lemme 27. C = 2π
Démonstration. On a
2n 2n
√
(2n)! π e C 2n π 1 π
W2n = 2n 2 ∼ n √ 2 = √
2 n! 2 22n n
C n 2 C 2n
e
Par ailleurs r
π
W2n ∼
4n
4. DÉVELOPPEMENTS ASYMPTOTIQUES 359
D’où √
C∼ 2π
Mais C est constant. Donc √
C= 2π
Moralité : il n’est pas toujours facile de trouver un équivalent. . .
360 CHAPITRE 20. ANALYSE ASYMPTOTIQUE
Chapitre 21
Étude des Fonctions
361
362 CHAPITRE 21. ÉTUDE DES FONCTIONS
Voici un plan d’étude des fonctions d’une variable réelle. Certaines parties de cette étude
peuvent être abordées dans un ordre différent, ou être parfois omises. Tout ce qui suit n’est
bien entendu valable que pour des fonctions raisonnablement régulières : on exclut les cas
pathologiques et les courbes monstrueuses.
1 Ensemble de définition
3 Régularité de la fonction
Les théorèmes du cours permettent d’affirmer que la fonction est continue, dérivable,
C 1 , . . . , C ∞ sur certains intervalles.
Tout ce qui précède a permis de mettre en évidence un certain nombre de points que nous
appellerons remarquables . Ce sont
• +∞ ou −∞ si l’ensemble d’étude de f est non borné.
• Les bornes des intervalles trouvés lors de la recherche de Df , ou lors de l’étude de
la régularité de f . En fait, tout point ayant été nommément cité est remarquable.
En général, en un tel point, la fonction n’est pas définie, ou alors elle est définie
mais les théorèmes généraux du cours ne permettent pas d’affirmer si elle y est
continue, dérivable, . . . D’autres points remarquables risquent d’apparaître dans les
paragraphes qui suivent.
4 Variations
Le signe de f 0 permet de déterminer des intervalles sur lesquels f est monotone (on
rappelle que f est supposée être raisonnablement gentille). Les points d’annulation de f 0
5. POINTS REMARQUABLES RÉELS 363
6 Étude à l’infini
on suppose ici à titre d’exemple que la fonction est définie au voisinage de +∞. C’est pareil
en −∞.
Limite finie
Limite infinie
Pas de limite
On suppose ici que f (x) tend vers l’infini (plus ou moins) lorsque x → +∞. On considère
f (x)
x et on regarde ce que fait cette quantité lorsque x → ∞. A-t-on
chercher ce signe « algébriquement » lorsque les expressions mises en jeu sont simples, ou
sinon au voisinage de l’infini par des calculs d’équivalents ou des développements
asymptotiques.
7 Concavité
Cette étude est souvent omise. L’étude du signe de f 00 permet de préciser les inflexions
de la courbe, et les intervalles où la fonction est convexe ou concave .
Lorsque f 00 > 0 sur un intervalle, cela signifie que f 0 croît sur cet intervalle. Les pentes
augmentent, la courbe « tourne » vers la gauche. On dit dans ce cas que la fonction f est
convexe.
8 Tracé
C’est le but ultime de l’étude, et il ne doit pas être négligé. Tout ce qui a été étudié doit se
voir sur le dessin : les points remarquables et leurs éventuelles tangentes, les asymptotes
éventuelles, . . . et des axes avec une indication d’échelle. En revanche, en mathématiques
un tableau de valeurs est totalement inutile en général. Ce qui est important est la forme
de la courbe, beaucoup plus que son exactitude.
9 Un exemple complet
√
3
Nous allons étudier la fonction f : x 7→ x3 − x2 .
La fonction f est continue sur R. Elle ne présente aucune symétrie apparente. Elle est de
classe C ∞ sur ]−∞, 0[, ]0, 1[ et ]1, +∞[. Nous voyons donc se dégager 4 points remarquables :
−∞, 0, 1 et +∞.
366 CHAPITRE 21. ÉTUDE DES FONCTIONS
9.2 Variations
Pour tout x 6= 0, 1, on a
x(3x − 2)
f 0 (x) = p
3 (x3 − x2 )2
3
9.3 Étude en 0
Lorsque x tend vers 0, x > 0, cette quantité tend vers −∞. À gauche de 0, cette même
quantité tend vers +∞. La courbe de f a donc une tangente verticale en 0. Cette tangente
verticale s’accompagne d’un changement de sens de variation : nous avons ce que l’on
appelle un point de rebroussement.
9.4 Étude en 1
Lorsque x tend vers 1, cette quantité tend vers +∞. La courbe de f a donc une tangente
verticale en 1.
9.5 Étude en ±∞
On a pour tout x 6= 0
r
f (x) 3 1
= 1−
x x
9. UN EXEMPLE COMPLET 367
Cette quantité tend vers 1 lorsque x tend vers ±∞. On a donc à l’infini une direction
asymptotique, qui est celle de la droite d’équation Y = X.
Considérons donc f (x) − x :
r !
p
3 3 1
f (x) − x = x3 − x2 − x = x 1− −1
x
1
Comme x tend vers 0 en ±∞, les équivalents usuels nous donnent
r
3 1 1
1− − 1 ∼±∞ −
x 3x
Ainsi,
1
f (x) − x ∼ −
3
Comme deux fonctions équivalentes ont même limite, il en résulte que f (x) − x → − 13
lorsque x tend vers ±∞. La courbe admet donc à l’infini une asymptote qui est la droite
d’équation
1
Y =X−
3
Il s’agit maintenant de déterminer la position de la courbe par rapport à l’asymptote. Pour
cela il faut déterminer le signe de f (x) − x + 13 au voisinage de l’infini. Il s’agit pour cela
de peaufiner notre calcul d’équivalent, en faisant un développement asymptotique. On a,
à l’infini,
r 1
3 1 1 3
1− = 1−
x x
1
11 1 1
= 1− + 3 + o( 2 )
3x 2 x2 x
11 1 1 1
= 1− − 2
+ o( 2 )
3x 9x x
1 11 1
f (x) = x − − + o( )
3 9x x
Ainsi,
1 11
f (x) − x + ∼−
3 9x
Au voisinage de −∞, la courbe est sur l’asymptote. Au voisinage de +∞, la courbe est
sous l’asymptote.
368 CHAPITRE 21. ÉTUDE DES FONCTIONS
9.6 Courbe
9.7 Concavité
2
f 00 (x) = − 2
9(x2 (x − 1)) 3 (x − 1)
On a une inflexion en 1.
10 Un autre exemple
On a très précisément f (x) = etan x ln sin x . La fonction f est donc définie en tout réel x tel
que tan x est défini et sin x > 0. Ainsi,
!
[ π
Df = ]2kπ, (2k + 1)π[ \ {2kπ + , k ∈ Z}
2
k∈Z
Cela fait très peur, mais f est de période 2π. Nous allons donc l’étudier sur
π
D =]0, π[\{ }
2
10.2 Variations
Pour tout x ∈ D,
0 1 cos x f (x)
ln sin x + cos2 x
f (x) = f (x) 2
ln sin x + tan x = 2
cos x sin x cos x
Le signe de f 0 n’est pas évident. Posons ϕ(x) = ln sin x + cos2 x. La fonction ϕ est dérivable
sur ]0, π[ et, pour tout x ∈]0, π[,
π π 3π
x 0 4 2 4
π
ϕ0 (x) + 0 − 0 + 0 −
>0 >0
ϕ(x)
−∞ 0 −∞
π
x 0 α 2 β π
f 0 (x) − 0 + 0 −
? ?
f (x) ?
? ?
π
Avis aux lecteurs : il faudrait une double barre à la verticale de 2 mais, assez paresseuse-
ment, je n’ai pas envie de chercher comment faire.
10.3 Étude en 0
tan x ln sin x ∼ x ln x
Or, x ln x tend vers 0 lorsque x tend vers 0. On en déduit que tan x ln sin x tend aussi vers
0 et, donc, f (x) tend vers e0 = 1 lorsque x tend vers 0.
On peut donc prolonger f par continuité en 0 en posant f (0) = 1. Le prolongement est-il
dérivable ? On a
Les taux d’accroissement tendent donc vers −∞ lorsque x tend vers 0 : la courbe de f
possède au point (0, 1) une tangente verticale.
10.4 Étude en π
L’étude en π est tout à fait analogue. Il suffit de poser x = π − h où h tend vers 0 lorsque
x tend vers π. On obtient que f (x) tend vers 1 lorsque x tend vers π et que la courbe a
une tangente verticale au point (π, 1).
π
10.5 Étude en 2
π π
Posons x = 2 + h, de sorte que h tend vers 0 lorsque x tend vers 2. On a
1
f (x) = exp(tan x ln sin x) = exp − ln cos h
tan h
10. UN AUTRE EXEMPLE 371
1 1
ln cos h = ln(1 − h2 + o(h2 )) = − h2 + o(h2 )
2 2
Ensuite,
tan h = h + o(h2 ) = h(1 + o(h))
et donc
1 1 1 1
= = (1 + o(h))
tan h h 1 + o(h) h
1 1 1 2 2
− ln cos h = (1 + o(h)) h + o(h )
tan h h 2
1
= (1 + o(h)) h + o(h)
2
1
= h + o(h)
2
Pour finir,
1 1 1 π π
f (x) = exp h + o(h) = 1 + h + o(h) = 1 + (x − ) + o(x − )
2 2 2 2 2
π
On en déduit que f (x) tend vers 1 lorsque x tend vers 2, puis que le prolongement par
continuité de f est dérivable en π2 , de dérivée 12 .
10.6 Courbe
10.7 Concavité
Nous avons déjà eu du mal à étudier les variations de f . L’étude de la concavité serait sans
doute truffée de calculs inextricables, nous nous en dispenserons.
Chapitre 22
Espaces vectoriels
373
374 CHAPITRE 22. ESPACES VECTORIELS
1 Généralités
Proposition 1. ∀λ ∈ K, ∀x ∈ E, λx = 0 ⇐⇒ λ = 0 ou x = 0.
1.3 Exemples
• Kn
+ : Kn × Kn −→ Kn
(x1 , · · · , xn ) , (y1 , · · · , yn ) 7→ (x1 + y1 , · · · , xn + yn )
et
. : K × Kn −→ Kn
λ , (x1 , · · · , xn ) 7→ (λx1 , · · · , λxn )
• FX
• K[X]
• Mpq (K)
Exemple. Dans R2 , soient e1 = (1, 1) et e2 = (0, 1). Tout vecteur de R2 s’écrit de façon
unique comme combinaison linéaire de e1 et e2 . On dit que (e1 , e2 ) est une base du plan.
Exemple. Dans R3 , soient e1 = (1, 2, 1), e2 = (2, −1, 0) et e3 = (3, 1, 1). Soit u =
(x, y, z) ∈ R3 . Le vecteur u est combinaison linéaire des ei si et seulement si il existe 3
scalaires λ1 , λ2 , λ3 tels que u = λ1 e1 + λ2 e2 + λ3 e3 . Il est équivalent de dire que le système
ci-dessous admet au moins une solution :
x = λ1 + 2λ2 + 3λ3
(S) y = 2λ1 − λ2 + λ3
z = λ1 + λ3
On voit qu’une condition nécessaire d’existence d’une solution pour (S) est que x+2y = 5z.
Inversement, si cette égalité est vérifiée, on peut trouver une solution avec λ2 = 0.
Remarque 2. Une famille de scalaires tous nuls sauf un nombre fini d’entre-eux est dite
presque nulle.
Exemple. Dans E = CR , on considère la famille F = (fn )n∈Z définie par ∀n ∈ Z, ∀x ∈
R, fn (x) = einx . Alors, la fonction cos3 est combinaison des éléments de la famille F. En
effet, pour tout réel x, on a
3 1
cos3 x = cos 3x + cos x
4 4
donc
3 1
cos3 = f3 + f1
4 4
2. APPLICATIONS LINÉAIRES 377
2 Applications linéaires
Remarque 3. Une application linéaire f est avant tout un morphisme de groupes additifs.
Elle vérifie donc f (0) = 0.
Proposition 3. Soit f : E −→ F .
f est linéaire ⇐⇒ f conserve les combinaisons linéaires.
Cinq exemples choisis parmi les milliers que nous rencontrerons au fil du cours . . .
378 CHAPITRE 22. ESPACES VECTORIELS
À quelle condition ce système admet-il pour unique solution le couple (0, 0) ? On voit que si
un couple (x, y) est solution, alors (combinaison judicieuse) (ad−bc)x = 0 et (ad−bc)y = 0.
Donc, si ad − bc 6= 0, on aura x = y = 0. Inversement, si ad − bc = 0, alors une petite
discussion sur la nullité ou non du couple (a, c) permet de trouver une solution non nulle
au système.
Conclusion : f est injective si et seulement si ad − bc 6= 0.
Cherchons maintenant une condition de surjectivité. On constate, en résolvant le système
(S), que si ad − bc 6= 0, alors f est surjective. Mieux, dans ce cas le système admet une
solution unique : f est donc bijective. La réciproque de f est d’ailleurs linéaire, et est
donnée par (x0 , y 0 ) = f −1 (x, y) où
0 1
x = ad−bc (dx − cy)
0 1
y = ad−bc (−bx + ay)
Si ad − bc = 0, alors , dans le cas où le couple (a, b) n’est pas le couple nul, on constate que
si (S) possède une solution, alors bx0 − ay 0 = 0. L’application f n’est donc pas surjective.
Si (a, b) = (0, 0), on trouve de même des éléments de R2 qui n’ont pas d’antécédent par f .
Conclusion : f est surjective si et seulement si ad − bc 6= 0.
2. APPLICATIONS LINÉAIRES 379
On donne ici quelques théorèmes relatifs aux opérations sur les applications linéaires.
Démonstration. Soient x, y ∈ E et λ, µ ∈ K. On a
g ◦ f (λx + µy) = g(f (λx + µy)) = g(λf (x) + µf (y)) = λg ◦ f (x) + µg ◦ f (y)
380 CHAPITRE 22. ESPACES VECTORIELS
Démonstration. Nous savons déjà que L(E) est un K espace vectoriel. Il reste à vérifier
les propriétés d’anneau et une petite propriété dont nous n’avons pas encore parlé. Le neutre
pour la composition est idE , qui est clairement linéaire. La composition est associative,
ceci est une propriété universelle. Reste à voir la distributivité par rapport à l’addition.
Soient donc f, g, h ∈ L(E) et x ∈ E. On a
D’où
(g + h) ◦ f = g ◦ f + h ◦ f
Remarquons que ceci est vrai sans utiliser la linéarité. En revanche
donc
f ◦ (g + h) = f ◦ g + f ◦ h
Et là, on a eu besoin de la linéarité de f .
La dernière propriété à vérifier relie le produit par un scalaire à la composition. Il s’agit
de voir que
∀f, g ∈ L(E), ∀λ ∈ K, λ(g ◦ f ) = (λg) ◦ f = g ◦ (λf )
C’est vrai parce que g est linéaire. Laissons la non commutativité de côté pour l’instant.
Nous verrons que dès que E est « suffisamment gros » (de dimension strictement supérieure
à 1), L(E) n’est pas commutatif.
3 Sous-espaces vectoriels
3.2 Caractérisation
Démonstration. Exercice.
Remarque 5.
• Cette proposition nous dit que pour prouver qu’un ensemble est un espace vectoriel,
il suffit tout d’abord de remarquer qu’il est inclus dans un « gros » espace vectoriel,
puis de vérifier trois petites propriétés. Comparer avec la définition d’espace vec-
toriel, qui nécessite de prouver 10 propriétés. Moralité, on utilisera ce théorème à
chaque fois que ce sera possible.
• Les deux dernières conditions peuvent être remplacées par
∀λ ∈ K, ∀x, y ∈ E, λx + y ∈ E
• Une partie non vide de E est un s.e.v de E si et seulement si elle est stable par
combinaisons linéaires.
3.3 Exemples
• Les droites vectorielles sont des s.e.v. de R2 . Les droites et les plans vectoriels sont
des sev de R3 .
• L’ensemble des suites réelles convergentes est un sev de l’espace RN des suites réelles.
• L’ensemble des fonctions f : R −→ R de classe C 3 telles que f (0) = 0 est un sev de
RR .
• Pour tout n ≥ 0, l’ensemble Rn [X] des polynômes de degré inférieur ou égal à n est
un sev de R[X].
• L’ensemble Tn (K) des matrices triangulaires supérieures n×n est un sev de Mn (K).
Démonstration. Prouvons le résultat pour l’image directe. L’image réciproque est laissée
en exercice. Tout d’abord, 0 ∈ E 0 , donc f (0) = 0 ∈ f (E 0 ) : f (E 0 ) est non vide. Soient
u, v ∈ f (E 0 ) et λ ∈ K. Il existe x, y ∈ E 0 tels que u = f (x) et v = f (y). On a alors
Deux cas fondamentaux vont suivre.
Im f = f (E)
Exemple.
• f : R2 −→ R2 définie par f (x, y) = (x + 3y, 2x + 6y). Soit u = (x, y) ∈ R2 . Alors
u ∈ ker f si et seulement si x + 3y = 0. ker f est la droite de R2 engendrée par
(−3, 1). On a u ∈ Im f si et seulement si il existe a, b ∈ R tels que x = a + 3b et
4. OPÉRATIONS SUR LES S.E.V 383
y = 2a + 6b. Il est facile de voir que ceci équivaut à y = 2x. Donc, l’image de f est
la droite engendrée par (1, 2).
• Soit ϕ : C 1 (R) −→ RR définie par ϕ(f ) = f 0 . Alors ker ϕ est l’ensemble des fonctions
constantes et le cours d’intégration nous montrera que Im ϕ = C 0 (R).
Démonstration. Voir le chapitre sur les groupes. En effet, une application linéaire est
avant tout un morphisme de groupes.
4.1 Intersection
T
Démonstration. Soit (Ei )i∈I une famille de sev de E. Soit F = i∈I Ei .
0 est dans tous les Ei , donc dans F . Ainsi, F est non vide.
Soient x, y ∈ F et λ ∈ K. x et y sont dans tous les Ei , donc λx + y aussi.
Proposition 12. Soit A une partie d’un espace vectoriel E. L’intersection de tous les
s.e.v de E contenant A est encore un s.e.v de E contenant A, et c’est même le plus
petit au sens de l’inclusion. On l’appelle le s.e.v de E engendré par A et on le note
V ect(A) ou < A >.
Proposition 13. Soit A une partie d’un espace vectoriel E. Le s.e.v de E engendré
par A est l’ensemble des combinaisons linéaires d’éléments de A.
Démonstration.
Premier point : < A > est le plus petit . . . contenant A, donc il contient A. Si on a égalité,
alors < A > est les plus petit sev de E . . . , c’est donc un sev de E. Inversement, si A est
un sev de E, il est clair que le plus petit sev de E qui contient A est A.
Second point : puisque < A > est un sev de E, on a << A >>=< A >.
Troisième point : supposons A ⊂ B. Alors A ⊂< B >. Mais < A > est le plus petit sev de
E contenant A, et < B > en est un, donc < A >⊂< B >.
Dernier point : A ∩ B ⊂ A, donc < A ∩ B >⊂< A >. De même, < A ∩ B >⊂< B > d’où
l’inclusion demandée.
5. SOUS-ESPACES SUPPLÉMENTAIRES 385
5 Sous-espaces supplémentaires
F + G =< F ∪ G >
Démonstration. F + G est non vide et stable par combinaison linéaire. C’est donc un
sev de E.
Pour tout x ∈ F , on a x = x + 0 ∈ F + G donc F ⊂ F + G. De même pour G, d’où
F ∪ G ⊂ F + G.
Soit H un sev de E contenant F ∪ G. Pour tout x ∈ F et y ∈ G, x, y ∈ H donc x + y ∈ H.
Ainsi, F + G ⊂ H. F + G est donc le plus petit sev de E contenant F ∪ G, c’est à dire que
F + G =< F ∪ G >.
Remarque 7. On généralise à la somme de n sev E1 , . . . , En d’un espace vectoriel E.
C’est l’unicité qui importe, vu que l’existence est assurée par la définition même de la
somme de deux sev.
F ∩ G = {0}
F ⊕G=E
Exemple.
5.3 Projecteurs
x = (x − p(x)) + p(x)
5.4 Symétries
Proposition 18. Soit E un espace vectoriel sur un corps K dans lequel 2 6= 0. Soit
f ∈ L(E). L’endomorphisme f est une symétrie si et seulement si il existe deux sous-
espaces vectoriels de E supplémentaires, F et G tels que
388 CHAPITRE 22. ESPACES VECTORIELS
• ∀x ∈ F, f (x) = x.
• ∀x ∈ G, f (x) = −x.
Les deux sev F et G sont uniquement déterminés par la donnée dde la symétrie f .
x + f (x) x − f (x)
x= +
2 2
Remarquons que
x + f (x) x + f (x)
f =
2 2
x+f (x)
donc 2 ∈ F . De même,
x − f (x) x − f (x)
f =
2 2
x−f (x)
donc 2 ∈ G, d’où F ⊕ G = E.
La réciproque est immédiate.
Si F1 et G1 vérifient les mêmes propriétés que F et G, alors pour tout x de F1 , on a
f (x) = x, donc x ∈ F = Ker(f − id). De même, G1 ⊂ G. Soit x ∈ F . Alors, x = x1 + x2 ,
avec x1 ∈ F1 et x2 ∈ G1 . On en tire f (x) = f (x1 ) + f (x2 ) ou encore x = x1 − x2 . Donc, en
additionnant les deux égalités donnant x, x = x1 ∈ F1 . De même, G1 = G.
Définition 15. Soit F = (ei )i∈I une famille de vecteurs d’un espace vectoriel E. On
dit que la famille F est
6. FAMILLES REMARQUABLES DE VECTEURS 389
• Une famille libre lorsque tout vecteur de E s’écrit d’au plus une façon comme
combinaison linéaire des vecteurs de F.
• Une famille génératrice de E lorsque tout vecteur de E s’écrit d’au moins une
façon comme combinaison linéaire des vecteurs de F.
• Une base de E lorsque tout vecteur de E s’écrit d’exactement une façon comme
combinaison linéaire des vecteurs de F.
Exemple.
• La famille vide est libre.
• Une famille (u) de 1 vecteur est libre si et seulement si ce vecteur est non nul.
• Dans Kn , la famille (e1 , . . . , en ) où ei est le n-uplet dont toutes les coordonnées sont
nulles, sauf la ième qui vaut 1, est une base. On l’appelle la base canonique de Kn .
• La famille (X n )n≥0 est une base de K[X]. On l’appelle la base canonique de K[X].
• La famille (Eij )1≤i≤p,1≤j≤q des matrices élémentaires de taille p × q est une base de
Mpq (K). On l’appelle la base canonique de Mpq (K).
6.2 Vocabulaire
Proposition 19. Une famille F = (ei )i∈I de vecteurs de E est libre si et seulement
si pour toute famille presque nulle de scalaires (λi )i∈I , on a
X
λi ei = 0 =⇒ ∀i ∈ I, λi = 0
i∈I
Démonstration. Supposons la familleP F libre. Le vecteur nul s’écrit d’au plus une façon
comme combinaison des ei . Or, 0 = i∈I 0ei . D’où l’implication. Inversement, supposons
F liée. Il existe donc un vecteur x de E s’écrivant de deux façons différentes comme
combinaison des vecteurs de F. On a donc
X X
x= λi ei = µi e i
i ∈I i ∈I
390 CHAPITRE 22. ESPACES VECTORIELS
Proposition 20. Une famille F = (ei )i∈I de vecteurs de E est liée si et seulement si
l’un des vecteurs de la famille est combinaison linéaire des autres.
P
Démonstration. Supposons la famille liée. On a alors une combinaison nulle i∈I λi ei =
0 avec au moins un des λi non nul. Soit i0 ∈ I tel que λi0 6= 0. Alors, on peut exprimer ei0
comme combinaison des autres vecteurs :
X λi
ei0 = − ei
λi0
i6=i0
Il s’agit bien de « ∃i0 ». L’un des vecteurs est combinaison des autres, mais on ne peut pas
a priori dire lequel. Prenons un exemple. Dans E = R3 , soient e1 , (1, 2, 3), e2 = (2, 4, 6) et
e3 = (1, 2, 4). La famille (e1 , e2 , e3 ) est liée car
e2 = 2e1 + 0e3
Remarque 8. Les problèmes intéressants se posent donc lorsqu’on considère des sur-
familles de familles libres ou des sous-familles de familles génératrices, c’est à dire des «
grosses » familles libres ou des « petites » familles génératrices.
Proposition 25. Soient E et F deux K-espaces vectoriels. Soit B une base de l’espace
vectoriel E. Soit f ∈ L(E, F ). Alors
• f est injective, si et seulement si f (B) est libre.
• f est surjective, si et seulement si f (B) est génératrice de F .
• f est bijective, si et seulement si f (B) est une base de F .
392 CHAPITRE 22. ESPACES VECTORIELS
Démonstration. Posons B = (ei )i∈I . Le troisième point est évidemment une conséquence
des deux premiers, et les implications
P des deux premiers points nous sontPdéjà connues.
Supposons f (B) libre. Soit x = i λi ei ∈ ker f . On a donc 0 = f (x) = i λi f (ei ). Les
f (ei ) sont libres, donc les λi sont nuls. Donc x = 0 et f est bien injective. f (B) génératrice
⇒ f surjective est laissé en exercice.
Proposition 26. Soient E et F deux K-espaces vectoriels. Soit B = (ei )i∈I une base
de E. Soit F 0 = (e0i )i∈I une famille de vecteurs de F indexée par le même ensemble I
que la base B. Il existe alors une unique application linéaire f : E −→ F telle que
∀i ∈ I, f (ei ) = e0i
Ainsi, une famille de vecteurs de E est une base si et seulement si elle est libre maximale
ou génératrice minimale.
Démonstration. Posons F = (ei )i∈I . Supposons F libre maximale. P Soit e ∈ E. La
famille F ∪ (e) est donc liée. Il existe une combinaison nulle 0 = i λi ei + λe dans laquelle
6. FAMILLES REMARQUABLES DE VECTEURS 393
tous les coefficients ne sont pas nuls. En fait, λ 6= 0 puisque la famille F est libre. On peut
donc écrire e comme combinaison des vecteurs de F : F est génératrice et c’est donc une
base.
Inversement, supposons que F est une base. Soit e ∈ E. Soit G = F ∪ (e). On peut écrire
e comme combinaison des ei puisque F est une base. Donc G est liée. F est bien libre
maximale.
L’équivalence entre base et génératrice minimale est laissée en exercice.
395
396 CHAPITRE 23. DIMENSION FINIE
1 Dimension
Exemple.
• Kn , dont la base canonique a n éléments.
• Mpq (K), dont la base canonique a pq éléments.
• Kn [X], l’espace des polynômes de degré inférieur ou égal à n, est engendré par les
polynômes X k , k = 0, . . . , n.
• En revanche, l’espace R[X] des polynômes à coefficients dans R, ne l’est pas. En
effet, les polynômes d’une famille génératrice finie ont leurs degrés bornés et leurs
combinaisons linéaires aussi. Une famille finie ne peut donc pas engendrer l’espace
tout entier.
pour j = 1, . . . , n + 2. Si tous les an+1,j sont nuls, alors les vecteurs de F 0 sont
combinaisons de n vecteurs, donc sont liés d’après l’hypothèse de récurrence. Sinon,
quitte à renuméroter, on peut supposer que an+1,n+2 6= 0.
On pose pour 1 ≤ j ≤ n + 1,
avec λj choisi de sorte que les e00j soient combinaisons de e1 , . . . , en . Alors, les e00j
sont liés, et on en tire aisément que les e0j aussi.
Corollaire 3. Toutes les bases d’un espace vectoriel de dimension finie sont finies, de
même cardinal.
Il ne reste plus qu’à prouver que tout espace de dimension finie possède des bases ...
Soit F une famille libre de l’espace vectoriel de dimension finie E. Alors il existe une
sur-famille de F qui est une base de E.
1.4 Bilan
Dans un espace vectoriel de dimension finie, il y a des bases, et elles sont toutes finies, et
de même cardinal.
Définition 2. Le cardinal commun des bases d’un espace vectoriel de dimension finie E
est appelé la dimension de E, et noté dim E, (ou dimK E en cas de confusion possible).
Exemple.
• L’espace nul est de dimension 0. Il a pour seule et unique base la famille vide.
• Une droite est un espace vectoriel de dimension 1, un plan un espace de dimension
2.
• Kn est de dimension n puisque sa base canonique a n vecteurs. Et donc toutes ses
bases aussi.
• Rn [X], l’espace des polynômes de degré inférieur ou égal à n, est de dimension n+1,
puisque sa base canonique (X k )0≤k≤n est de cardinal n + 1.
• Mpq (K) est de dimension pq, puisque sa base canonique, constituée des matrices
élémentaires, est de cardinal pq.
2. SEV D’UN ESPACE DE DIMENSION FINIE 399
Remarque 1. Si l’on voit C comme un R-espace vectoriel, une base de C est (1, i). Ainsi,
dimR C = 2
En revanche, si l’on voit C comme un C-espace vectoriel, alors une base de C est (1). Ainsi,
dimC C = 1
Démonstration.
• Déjà montré.
• C’est la contraposée du premier point.
• Par le théorème de la base extraite, de toute famille génératrice de E on peut
extraire une base. Or, les bases sont de cardinal n.
• C’est la contraposée du troisième point.
• Dans un sens c’est évident. Inversement, une famille libre de cardinal n est, par le
premier point, libre maximale. C’est donc une base.
• Dans un sens c’est évident. Inversement, une famille génératrice de cardinal n est,
par le troisième point, génératrice minimale. C’est donc une base.
Démonstration. Soit F une famille libre de F . C’est aussi une famille libre de E, donc
F possède au plus n éléments. On en déduit les deux premiers points. Si p = n, alors F
possède une base B de cardinal n. Mais B est alors une famille libre de E, de cardinal
n = dim E. On en déduit que B est aussi une base de E. D’où < B >= E = F .
3 Dimensions classiques
Démonstration. Soit B une base de E 0 . Alors, f (B) engendre f (E 0 ). Si, de plus, f est
injective, f (B) est libre, et est donc une base de f (E 0 ).
Proposition 12. Deux espaces vectoriels de dimension finie sur un même corps K
sont isomorphes si et seulement si ils ont la même dimension.
Démonstration. Le sens direct résulte du théorème précédent. Dans l’autre sens, il n’y
a qu’à envoyer une base de l’un sur une base de l’autre pour fabriquer un isomorphisme.
Ce résultat affirme que tous les espaces de même dimension sur un corps K sont « identiques
» du point de vue de la structure d’espace vectoriel. Cependant, certains espaces possèdent
aussi des propriétés non vectorielles. Par exemple, lorsqu’on travaille sur les polynômes, on
dispose du produit de polynômes, de la notion de degré, . . . , qui ne sont pas des propriétés
vectorielles.
B = B 0 ∪ B 00
existe une combinaison linéaire non triviale des vecteurs de B. La famille B est génératrice
mais pas libre, donc
dim(F + G) < card B = dim F + dim G
dim L(E, F ) = p × q
Démonstration. Soient B = (ej )1≤j≤q une base de E, et B 0 = (e0i )1≤i≤p une base de F .
On définit, pour 1 ≤ i ≤ p et 1 ≤ j ≤ q, l’application gij ∈ L(E, F ), par
∀k ∈ J1, qK, gij (ek ) = δjk e0i
Pq
Soit f ∈ L(E, F ). Soit x = j=1 xj ej ∈ E. On a
q
X
f (x) = xj f (ej )
j=1
3. DIMENSIONS CLASSIQUES 403
p
X
f (ej ) = aij e0i
i=1
Il vient alors
p X
X q
f (x) = aij xj e0i
i=1 j=1
Par ailleurs,
q
X X
gij (x) = kxk gij (ek ) = qxk δjk e0i = xj e0i
k=1 k=1
Ainsi,
p X
X q
f (x) = aij gij (x)
i=1 j=1
p X
X q p X
X q p
X
0= aij gij (ek ) = aij δjk e0i = aik e0i
i=1 j=1 i=1 j=1 i=1
Les e0i étant libres, il s’ensuit qu’on a pour tout i ∈ J1, pK et tout k ∈ J1, qK aik = 0. La
famille des gij est donc libre, c’est ainsi une base de L(E, F ).
• dim L(E) = n2 .
• dim E ∗ = dim E = n.
4 Notion de rang
Définition 4. Soit F une famille de vecteurs dans un espace vectoriel E. Si < F >
est de dimension finie, on appelle rang de F l’entier
Proposition 17. Soit F une famille finie de vecteurs dans un espace vectoriel E. On
a
• rg F ≤ card F.
• rg F = card F si et seulement si F est libre.
Démonstration.
rg f = dim(Im f )
Bien entendu, on a des liens entre rang d’une famille et rang d’une application linéaire.
Par exemple, si B est une base de E, alors
rg f = rg f (B)
4. NOTION DE RANG 405
Proposition 18. Soient E et F deux espaces de dimension finie sur un même corps.
Soit f ∈ L(E, F ). Alors
• Pour tout supplémentaire G de ker f , l’application fˆ : G −→ Im f définie, pour
tout x ∈ G, par fˆ(x) = f (x) est un isomorphisme de G sur Im f .
• dim ker f + dim Im f = dim E.
Des méthodes du type « pivot de Gauss » permettent de calculer un rang. Nous allons le
voir sur un exemple. Supposons donnés
• un espace vectoriel E de dimension p.
• une base B = (ei )1≤i≤p de E.
• une famille F = (uj )1≤j≤n de n vecteurs de E dont on connaît les coordonnées dans
la base B :
Xp
uj = aij ei
i=1
Exemple. Dans R3 , u1 = (1, 2, 5), u2 = (2, 1, 4) et u3 = (1, −1, −1). On écrit les vecteurs
en colonnes
u1 u2 u3 v1 v2 v3
1 2 1 1 0 0 1 0 0 1 0 0
→(1) →(2) →(3)
2 1 −1 2 −3 −3 2 −3 0 2 1 0
5 4 −1 5 −6 −6 5 −6 0 5 2 0
avec
4. NOTION DE RANG 407
1. C2 ←− C2 − 2C1 , C3 ←− C3 − C1
2. C3 ←− C3 − C2
3. C2 ←− − 13 C2
On a donc une famille de rang 2.
Exemple. Dans R5 , u1 = (2, 3, −3, 4, 2), u2 = (3, 6, −2, 5, 9), u3 = (7, 18, −2, 7, 7) et
u4 = (2, 4, −2, 3, 1).
On met le tout dans un tableau.
u1 u2 u3 u4
2 3 7 2
3 6 18 4
−3 −2 −2 −2
4 5 7 3
2 9 7 1
2 0 0 0
3 3 15 1
−3 5 17 1
4 −2 −14 −1
2 12 0 −1
2 0 0 0
3 3 0 0
−3 5 −8 −2
4 −2 −4 −1
2 12 −60 −15
Étape 3 : C4 ←− 4C4 − C3 , C3 ←− − 14 C3 .
v1 v2 v3 v4
2 0 0 0
3 3 0 0
−3 5 2 0
4 −2 1 0
2 12 15 0
408 CHAPITRE 23. DIMENSION FINIE
5.1 Rappels
Soit E un K-espace vectoriel. Rappelons que le dual de E est l’espace E ∗ = L(E, K) des
formes linéaires sur E. Lorsque E est de dimension finie, E et E ∗ ont la même dimension
(et sont donc isomorphes). Nous allons dans cette section étudier quelques aspects de ce
que l’on appelle la dualité.
Pn
Remarque 4. Soit x = j=1 xj ej un vecteur de E. On a
n
X n
X
e∗i (x) = xj e∗i (ej ) = xj δij = xi
j=1 j=1
Ainsi, la i-ème forme coordonnée renvoie tout simplement la ième coordonnée de x dans
la base B. On a donc eu raison de l’appeler une « forme coordonnée ».
Notation. On note B ∗ la famille des formes coordonnées dans la base B.
Démonstration. Comme cette famille est de cardinal n, il suffit de montrer qu’elle est
libre. Supposons donc
X n
λi e∗i = 0
i=1
5. DUAL D’UN ESPACE VECTORIEL 409
En évaluant en xj , on obtient λj = 0. La famille B est donc une base de Kn [X]. Quelle est
sa base duale ? La réponse est claire. On doit avoir
e∗i (P ) = P (xi )
5.3 Hyperplans
H⊕ < a >= E
1
b= (a − h)
λ
Soit maintenant x ∈ E. on a
x = h0 + µb = h00 + νa
donc E = H+ < a >. Enfin, H∩ < a > est clairement réduit à 0, donc
E = H⊕ < a >
Démonstration. Soit a un vecteur qui n’est pas dans H, de sorte que H⊕ < a >= E.
La forme linéaire définie par ∀x ∈ H, ϕ(x) = 0 et ϕ(a) = 1 a bien pour noyau H.
Deux formes linéaires non nulles ont clairement même noyau.
Soient enfin deux formes linéaires non nulles ϕ et ψ ayant même noyau H. Soit a 6∈ H.
Soit µ = ψ(a)
ϕ(a) . On a ψ(a) = µϕ(a) donc, par linéarité, ψ et µϕ coïncident sur < a >. Elles
coïncident aussi sur H, qui est leur noyau. Donc, par linéarité, elles sont égales sur E.
Définition 8. La « formule »
n
X
(H) ai xi = 0
i=1
Proposition 26.
• Tout hyperplan possède une équation cartésienne.
• Toute équation cartésienne est l’équation d’un hyperplan.
• Deux équations cartésiennes sont des équations d’un même hyperplan si et seule-
ment si leurs coefficients sont proportionnels.
(D) ax + by = 0
où le couple (a, b) est différent du couple (0, 0). Deux équations représentent une
même droite si et seulement si leurs coefficients sont proportionnels. remarquons
qu’un vecteur directeur de D est n’importe quel vecteur non nul de D, par exemple
le vecteur (−b, a).
• Soit E = R3 , muni de la base canonique. Les hyperplans de E sont les plans vecto-
riels. Une équation d’un plan vectoriel (dans la base canonique) est donc
(P ) ax + by + cz = 0
où le triplet (a, b, c) est différent du triplet (0, 0, 0). Deux équations représentent un
même plan si et seulement si leurs coefficients sont proportionnels.
• etc.
Proposition 27.
• Toute intersection de m hyperplans de E est un sev de E de dimension supé-
rieure ou égale à n − m.
• Tout sev de E de dimension n − m est l’intersection de m hyperplans de E.
Démonstration.
• Pour i = 1, . . . , m, soit Hi = ker ϕi où ϕi est une forme linéaire non nulle sur E.
Soit
F = H1 ∩ . . . ∩ Hm
Considérons l’application linéaire f : E → Km définie par
dim E = n = dim F + r
x∈F ⇐⇒ xn−m+1 = . . . = xn = 0
⇐⇒ e∗n−m+1 (x) = . . . = e∗n (x)
⇐⇒ x ∈ ker e∗n−m+1 ∩ . . . ∩ ker e∗n
Ainsi,
F = ker e∗n−m+1 ∩ . . . ∩ ker e∗n
F est donc l’intersection de n − (n − m + 1) + 1 = m hyperplans de E.
414 CHAPITRE 23. DIMENSION FINIE
Chapitre 24
Matrices
415
416 CHAPITRE 24. MATRICES
et
matB (λx) = λmatB (x)
De plus, toute matrice de Mp1 (K) est la matrice dans la base B d’un unique vecteur de
E.
Pour toutes les opérations sur les vecteurs, on peut donc travailler indifféremment sur les
vecteurs ou leurs matrices, une fois que l’on s’est fixé une base de E .
C’est donc la matrice à p lignes et q colonnes dont la jème colonne est formée des coor-
données du jème vecteur de f (B) dans la base B 0 .
Notation. Lorsque F = E et B 0 = B on note de façon plus légère matB (f ).
Exemple. Soit f = idE où dim E = n. Alors,
matB (f ) = In
où In est la matrice identité d’ordre n. Tous les coefficients diagonaux de In sont égaux à
1 et les autres coefficients sont nuls.
Exemple. Soit f : R3 → R3 définie par
qui à chaque application associe sa matrice dans les bases B et B 0 est un isomorphisme
d’espaces vectoriels.
et
matB,B0 (λf ) = λmatB,B0 (f )
A 7−→ matB A
Effectivement, X 0 = AX.
Soit A ∈ Mpq (K). Il existe alors une unique application linéaire f ∈ L(Kq , Kp ) telle que
A = matB,B0 f , où B et B 0 sont les bases canoniques respectives de Kq et Kp .
Cette application f , que nous noterons fA , est appelée l’application linéaire canoniquement
associée à la matrice A. Remarquons que l’on a
• Pour toutes matrices A, B ∈ Mpq (K),
fA+B = fA + fB
fλA = λfA
fAB = fA ◦ fB
Nous éviterons de le faire par la suite, mais il est bon de noter que le vocabulaire relatif aux
applications linéaires peut être utilisé dans l’univers des matrices. En identifiant Mp1 (K)
et Kn , on peut donc parler :
• Du noyau de A :
• De l’image de A.
A est de rang 2, donc fA ∈ L(R3 , R2 ) aussi. Ainsi, fA est surjectif, donc inversible à droite.
Un inverse à droite de A (ce n’est pas le seul) est
0 1
B = 0 0
1 −1
2 Changements de base
Démonstration. On a
0
In = matB,B id = matB,B (id ◦ id) = matB0 ,B id × matB,B0 id = PBB PBB0
0
De même, PBB0 PBB = I.
X = P X0
Démonstration. On écrit que x = idE (x), où idE part de E muni de la base B 0 et arrive
dans E muni de la base B.
M 0 = P2−1 M.P1
M 0 = P −1 M P
0
où P = PBB .
422 CHAPITRE 24. MATRICES
3 Rang
Exemple.
1 2 3
rg = 2.
0 2 4
1 4 7
rg 2 5 8 = 2.
3 6 9
1 4 7
rg 2 5 8 = 3.
3 6 10
rgIn = n, rg 0 = 0.
Remarque 4.
• Si f ∈ L(E, F ), le rang de f est égal au rang de sa matrice dans n’importe quel
couple de bases.
• Une matrice A ∈ MK (n) est inversible si et seulement si rgA = n.
Notation. On note dorénavant Jp,q,r la matrice ci-dessus. A noter que son rang est égal
à r. A noter également, la forme de Jp,q,r lorsque r est égal à p et/ou q (quand f est une
surjection et/ou une injection).
3. RANG 423
Définition 6. Soient A, B ∈ Mpq (K) deux matrices de même taille. On dit que A est
équivalente à B lorsqu’il existe Q ∈ GLq (K) et P ∈ GLp (K) telles que
B = P −1 AQ
Démonstration. Exercice.
Proposition 13. Deux matrices sont équivalentes si et seulement si elles ont le même
rang.
Inversement, si A et B ont pour rang r, alors elles sont toutes deux équivalentes à Jp,q,r ,
donc elles sont équivalentes.
424 CHAPITRE 24. MATRICES
Remarque 5. Ceci implique en particulier que pour chercher le rang d’une famille de
vecteurs ou d’une matrice, on peut tout aussi bien opérer sur les lignes que sur les colonnes.
En revanche, bien noter que des opérations sur les lignes détruisent toute possibilité de
trouver une image ou un noyau.
En pratique, extraire une matrice de M c’est rayer des lignes et des colonnes de M .
a c
Exemple. M = possède 9 matrices extraites (les écrire).
b d
Exercice. Soit M ∈ Mp,q (K). Montrer qu’on peut extraire (2p − 1)(2q − 1) matrices de
M.
4 Trace
• T r(A + B) = T rA + T rB
• T r(λA) = λT rA
• T r(AT ) = T rA
• T r(AB) = T r(BA)
Exemple. La trace de idE est égale à la dimension de E.
Exemple. Soit p le projecteur sur F (de dimension k) parallèlement à G, où F et G sont
deux sev supplémentaires de E. Soit B une base de E formée de la réunion d’une base de
F et d’une base de G. La matrice de p dans la base B est particulièrement simple. Elle est
diagonale, les k premiers éléments de la diagonale valent 1, les autres valent 0. Ainsi, la
trace de p est égale à k = dim F , c’est à dire au rang de p.
Exercice. Quelle est la trace d’une symétrie ?
5 Similitude
Démonstration. Identique à ce qui a été fait pour les matrices équivalentes. La seule
différence, c’est qu’ici P = Q.
Proposition 19. Deux matrices semblables ont même trace. La réciproque est fausse.
Il y a en fait bien plus à raconter, mais nous n’en dirons pas plus pour l’instant. Finissons
ce chapitre par un exercice.
0 1
Exercice. Soit A = . Soit f l’endomorphisme de R2 dont la matrice dans la base
1 1
canonique B est A.
5. SIMILITUDE 427
429
430 CHAPITRE 25. GROUPES SYMÉTRIQUES
Ce paragraphe éclaire ce que nous ferons dans les sections suivantes. Tous les résultats sont
énoncés pour des groupes « multiplicatifs ». Il convient bien entendu d’adapter dans le cas
de groupes dont l’opération est notée additivement.
Définition 1. Soit (G, ×) un groupe. On dit que G est cyclique lorsque G est fini et
qu’il existe a ∈ G tel que
G = {ak , k ∈ Z}
Notation. On note G =< a >. Le cardinal de G est aussi appelé son ordre. On le note
|G|.
Comme le groupe G est fini, on peut trouver i, j ∈ Z, i < j tels que ai = aj . On a alors
aj−i = e : il existe m ∈ N∗ tel que am = e. Ainsi, E 6= {0} et m > 0.
Il reste à vérifier que toutes ces puissances sont distinctes deux à deux pour en déduire que
|G| = m, donc m = n.
1. COMPLÉMENTS SUR LES GROUPES FINIS 431
Proposition 2.
• |a| est le plus petit entier naturel k tel que ak = e.
• ∀i, j ∈ Z, ai = aj ⇔ j − i ∈ nZ.
• ∀k ∈ Z, ak = e ⇔ k ∈ nZ.
Démonstration. Voir la démonstration faite pour les groupes cycliques : < a > est un
groupe cyclique, engendré par a.
Exemple. Ordre des éléments de U6 , de Z/12Z.
Exercice. Soit G un groupe. Soient a, b ∈ G tels que ab = ba. Alors |ab| divise |a| ∨ |b|.
La relation peut être stricte.
l’ordre de H divise l’ordre de G et le quotient de ces ordres est le nombre de classes modulo
∼.
Exercice. Montrer qu’un groupe d’ordre premier est cyclique.
Exemple. Sous-groupes de D4 , le groupe des isométries du plan laissant invariant l’en-
semble des sommets d’un carré.
2 Notion de permutation
On vérifie aisément que F est une bijection. De plus, pour toutes f, g ∈ S(E),
n × (n − 1) × (n − 2) . . . × 1 = n!
On ne s’occupera dans ce qui suit que des permutations de l’ensemble J1, nK.
Notation.
• On note Sn = S(J1, nK).
• Une permutation σ ∈ Sn est notée par le tableau de ses valeurs :
1 2 ... n
σ=
σ(1) σ(2) . . . σ(n)
2.2 Exemples
E = {σ k , k ∈ Z}
L’ensemble E est inclus dans Sn , c’est donc un ensemble fini. Cependant, il existe une
infinité d’entiers relatifs. Il existe donc i, j ∈ Z, i < j, tels que σ i = σ j . Soit k = j − i ≥ 1.
On a alors
σ k = id
Définition 5. Soit σ ∈ Sn . L’ordre de σ est le plus petit entier k ≥ 1 tel que σ k = id.
{k ∈ Z, σ k = id} = ωZ
σ k = (σ ω )c = idc = id
Ainsi,
{k ∈ Z, σ k = id} ⊃ ωZ
Inversement, soit k ∈ Z tel que σ k = id. Par une division euclidienne, on écrit k = qω + r
où q, r ∈ Z et 0 ≤ r < ω. De là,
id = σ k = (σ ω )q σ r = σ r
3. ORBITES 435
Mais ω est le plus petit entier ≥ 1 tel que σ ω = id. Ainsi, on n’a pas r ≥ 1, donc r = 0.
On en déduit que k = qω, d’où
{k ∈ Z, σ k = id} ⊂ ωZ
3 Orbites
Oσ (a) = {σ k (a), k ∈ Z}
Démonstration. Soit a ∈ J1, nK. On a a = σ 0 (a), donc a ∈ Oσ (a). Ainsi, les orbites sont
non vides et leur réunion est J1, nK.
Prenons maintenant deux orbites O = Oσ (a) et O0 = Oσ (a0 ). Supposons que O ∩ O0 6= ∅.
0 0
Soit b ∈ O ∩ O0 . Il existe donc k, k 0 ∈ Z tels que b = σ k (a) = σ k (a0 ). Donc a0 = σ k−k (a).
On en déduit facilement que O0 ⊂ O. De même, O ⊂ O0 donc O0 = O.
Définition 7.
• Un cycle est une permutation ayant exactement une orbite non réduite à un
point.
• L’orbite en question est appelée le support du cycle.
• La longueur du cycle est le cardinal de son support.
• Une transposition est un cycle de longueur 2.
Remarque 1. Cette notation est ambiguë, puisque l’on ne sait plus à quel Sn le cycle ap-
partient. En général, ceci n’a pas d’importance. Mieux, c’est plutôt un avantage puisqu’un
cycle dont le support est inclus dans J1, nK peut être vu comme un élément de Sn , Sn+1 ,
etc.
Proposition 13. Toute permutation s’écrit de façon unique, à l’ordre près des fac-
teurs, comme un produit de cycles de supports disjoints.
γi = (a σ(a) . . . σ pi −1 (a))
où a ∈ Oi . Le support de γi est précisément Oi . Les orbites étant disjointes, les γi sont des
cycles de supports disjoints.
438 CHAPITRE 25. GROUPES SYMÉTRIQUES
Soit maintenant b ∈ J1, nK. b appartient à une, et une seule des orbites suivant σ, mettons
l’orbite Oi . On a donc pour tout j 6= i, γj (b) = b, et γi (b) = σ(b). Il en résulte facilement
que
(γ1 . . . γq )(b) = σ(b)
Ainsi,
σ = γ 1 . . . γq
La preuve ci-dessus nous dit comment décomposer de façon effective une permutation σ
en produit de cycles de supports disjoints.
Exemple. Soit
1 2 3 4 5 6 7 8 9 10 11
σ=
3 1 7 8 5 6 2 10 11 4 9
Nous avons maintenant une technique pour énumérer de façon logique les éléments d’un
groupe symétrique. On laisse les détails au lecteur. Voici les éléments de S4 :
• id.
• Les transpositions. Il y en a 6.
• Les 3-cycles. Il y en a 8.
• Les 4 cycles. Il y en a 6.
• Les produits de deux transpositions de supports disjoints. Il y en a 3.
4 Signature
(1 2)(2 3) = (1 2 3) = (2 3 1) = (2 3)(3 1)
ε(σ) = (−1)n−m
Exemple. ε(id) = 1. Pour toute transposition τ , ε(τ ) = −1. PLus généralement, si γ est
un cycle de longueur ` ≥ 2, on a
ε(γ) = (−1)`−1
440 CHAPITRE 25. GROUPES SYMÉTRIQUES
ε(στ ) = −ε(σ)
Cela dit, tous les points de σ n’ont pas été passés en revue. Le même raisonnement
nous donne une seconde orbite suivant σ 0 , qui est
ε(τ1 . . . τp ) = (−1)p
Démonstration. On fait une récurrence sur p. C’est évident par la proposition précé-
dente.
Remarque 3. Nous avons vu qu’une permutation pouvait s’écrire de différentes façons
comme produit de transpositions. Il y a en revanche unicité de la parité du nombre de
transpositions qui interviennent dans le produit.
Exercice. Trouver la signature de
1 2 3 4 5 6 7 8 9 10 11 12
σ=
7 11 4 3 1 6 12 5 10 2 9 8
σ = (1 7 12 8 5)(2 11 9 10)(3 4)
De là,
ε(σ) = ε(1 7 12 8 5)ε(2 11 9 10)ε(3 4) = 1 × (−1) × (−1) = 1
An = ker ε
Une permutation est dite paire lorsqu’elle est dans An , impaire sinon.
4.4 Complément
Proposition 20. Soit n ≥ 2. Les seuls morphismes de groupes de (Sn , ◦) vers (C∗ , ×)
sont 1 et ε.
Ainsi,
f =ε
• Cas 2, f ((1 2)) = 1. Par le même raisonnement, on obtient
f =1
5 Annexe : Inversions
Définition 10. Pour σ ∈ Sn , on appelle inversion de σ tout couple (i, j) tel que
i < j et σ(i) > σ(j). On note I(σ) le nombre d’inversions de σ. On note également
e(σ) = (−1)I(σ) .
444 CHAPITRE 25. GROUPES SYMÉTRIQUES
Exemple. I(id) = 0. Soit τ = (pq) une transposition. Prenons par exemple p < q. Les
couples (i, j) tels que i < j et τ (i) < τ (j) ont soit leur premier élément égal à p, soit leur
second élément égal à q. Précisément, les couples concernés sont (p, p + 1), (p, p + 2),. . . ,
(p, q), et aussi (p + 1, q), (p + 2, q),. . ., (q − 1, q). Donc I(τ ) = 2(q − p) − 1.
Notation. On note P2 (n) l’ensemble des parties de {1, . . . , n} à deux éléments. On a ainsi
card P2 (n) = n(n−1)
2 .
Lemme 21. Soit σ ∈ Sn . L’application, notée encore σ, P2 (n) −→ P2 (n) définie par
σ({i, j}) = {σ(i), σ(j)} est une bijection.
Démonstration. Soit
Y σ(i) − σ(j)
ϕ(σ) =
i−j
{i,j}∈P2 (n)
Y
P = (i0 − j 0 )
{i0 ,j 0 }∈P2 (n)
Le second produit est ε(τ ). Quant au premier produit, il suffit de poser {i0 , j 0 } = τ ({i, j}),
pour voir qu’il est égal à ε(σ). Ainsi,
e(στ ) = e(σ)e(τ )
Proposition 24. e = ε.
447
448 CHAPITRE 26. DÉTERMINANTS
1 Applications multilinéaires
1.1 Définitions
f : E1 × . . . × En −→ F
une application. On dit que f est n-linéaire lorsque f est « linéaire en chacune de ses
variables » : ∀i ∈ J1, nK, ∀x1 , . . . , xi−1 , xi+1 , . . . , xn ∈ E1 × . . . × Ei−1 × Ei+1 × . . . × En ,
l’application fi : Ei −→ F définie par
fi (x) = f (x1 , . . . , x, . . . , xn )
est linéaire.
Si F = K, on dit que f est une forme n-linéaire.
Exemple.
• La multiplication des réels, le produit matriciel, la multiplication des polynômes,
sont bilinéaires.
• Le produit scalaire sur Rn est une forme bilinéaire.
• Le produit vectoriel sur R3 est une application bilinéaire.
• Le déterminant sur R2 est une forme bilinéaire (cf chapitre de début d’année).
• Le déterminant sur R3 est une forme trilinéaire.
Notation. On note L(E1 , . . . , En ; F ) l’ensemble des applications n-linéaires de E1 × . . . ×
En vers F . Lorsque E1 = . . . = En , on note plus simplement Ln (E, F ).
Exemple. Déterminons toutes les formes bilinéaires R2 × R2 −→ R. Soit (e1 , e2 ) une base
du plan. Soit f une forme bilinéaire sur R2 . Soient u = xe1 + ye2 et v = x0 e1 + y 0 e2 . On a
f (u, v) = a11 xx0 + a12 xy 0 + a21 x0 y + a22 yy 0
où aij = f (ei , ej ).
Inversement, toute application de cette forme est clairement bilinéaire. Creusons un peu.
Pour i, j ∈ J1, 2K, soit fij définie par
fij (x1 e1 + x2 e2 , x01 e1 + x02 e2 ) = xi x0j
Toute forme bilinéaire sur R2 s’écrit de façon unique f = i,j aij fij où les aij ∈ R. En
P
résumé,
L2 (R2 , R) =< fij , 1 ≤ i ≤ 2, 1 ≤ j ≤ 2 >
est un R-espace vectoriel de dimension 4.
1. APPLICATIONS MULTILINÉAIRES 449
f (x1 , . . . , xj , . . . , xi , . . . , xn ) = f (x1 , . . . , xi , . . . , xj , . . . , xn )
f (x1 , . . . , xj , . . . , xi , . . . , xn ) = −f (x1 , . . . , xi , . . . , xj , . . . , xn )
xi = xj =⇒ f (x1 , . . . , xn ) = 0
Exemple. Recherchons toutes les formes antisymétriques sur R2 . Nous avons déjà la forme
générale d’une forme bilinéaire. En reprenant les notations ci-dessus, supposons que f est
antisymétrique. Alors,
a11 = f (e1 , e1 ) = −f (e1 , e1 ) = −a1,1
Donc a11 = 0. De même, a22 = 0. Et
a12 = f (e1 , e2 ) = −f (e2 , e1 ) = −a21
Finalement, f (u, v) = k(xy 0 − x0 y) où k ∈ R. Inversement, une telle application est bien
antisymétrique.
Exercice. Déterminer toutes les formes bilinéaires alternées sur R2 . Indication : lire le
théorème suivant.
450 CHAPITRE 26. DÉTERMINANTS
Si f est antisymétrique, alors, pour tout x ∈ E, f (x, x) = −f (x, x), d’où 2f (x, x) = 0.
Comme 2 est non nul, f est donc alternée.
0 = f (x + y, x + y) = f (x, y) + f (y, x)
2.1 Notations
2.2 Calculs
où
A = {(i1 , . . . , in ) ∈ J1, nKn , ∀j 6= k, ij 6= ik }
En effet, f (ei1 , . . . , ein ) = 0 dès que deux des eij sont égaux (alternance de f ).
Soit ψ : Sn −→ A définie par
L’application ψ est une bijection. On peut grâce à elle effectuer un changement d’indice
dans la somme qui nous (pré)occupe, et écrire :
X
f (x1 , . . . , xn ) = xσ(1)1 . . . xσ(n)n f eσ(1)1 , . . . , eσ(n)n
σ∈Sn
X
= f (e1 , . . . , en ) × ε(σ)xσ(1)1 . . . xσ(n)n
σ∈Sn
et
C = f (e1 , . . . , en )
Donc, X
ϕ(e1 , . . . , en ) = ε(σ)δσ(1)1 . . . δσ(n)n
σ∈Sn
Or, tous les produits dans la somme ci-dessus sont nuls, sauf lorsque σ = id. Donc,
ϕ(e1 , . . . , en ) = 1. AInsi, ϕ n’est pas la fonction nulle.
• Soit γ ∈ Sn . Posons yj = xγ(j) . On a
X
ϕ(xγ(1) , . . . , xγ(n) ) = ε(σ)yσ(1)1 . . . yσ(n)n
σ∈Sn
X
= ε(σ)xσ(1)γ(1) . . . xσ(n)γ(n)
σ∈Sn
X n
Y
= ε(σ) xσ(k)γ(k)
σ∈Sn k=1
2.3 Bilan
Proposition 4. Les formes n-linéaires alternées sur E sont les multiples de l’applica-
tion ϕ : E n −→ K définie par
X
ϕ(x1 , . . . , xn ) = ε(σ)xσ(1)1 . . . xσ(n)n
σ∈Sn
De plus, ϕ est l’unique application n-linéaire alternée sur E qui prend la valeur 1 en
(e1 , . . . , en ).
2. DÉTERMINANT D’UNE FAMILLE DE VECTEURS 453
Définition 3. Avec les notations qui précèdent, l’application ϕ est appelée « détermi-
nant dans la base B », et est notée detB :
X
det(x1 , . . . , xn ) = ε(σ)xσ(1)1 . . . xσ(n)n
B
σ∈Sn
2.6 Exemples
Pour n = 2, on a
a11 a12
= a11 a22 − a12 a21
a21 a22
Pour n = 3, on a
det F 6= 0
B
det A 6= 0
3. CALCUL DES DÉTERMINANTS 455
Démonstration. Ces deux propositions sont évidemment deux points de vues d’un même
théorème.
(⇒) Supposons que F est une base de E. On dispose alors des deux applications n-linéaires
alternées non nulles, detB et aussi detF . Ces deux applications sont proportionnelles : il
existe donc un réel λ (non nul) tel que detB = λ detF . En particulier
det(F) = λ det(F) = λ 6= 0
B F
(⇐) Supposon que F = (x1 , . . . , xn ) est liée. Alors, l’un des vecteurs est combinaison
linéaire des autres : X
∃i ∈ J1, nK, xi = λ j xj
j6=i
Mais alors,
X
det(F) = det(x1 , . . . , λj xj , . . . , xn )
B B
j6=i
X
= λj det(x1 , . . . , xj , . . . , xn )
B
j6=i
σ(1) ≤ 1, . . . , σ(n) ≤ n
456 CHAPITRE 26. DÉTERMINANTS
D’où σ = id par une petite récurrence. Il n’y a donc au plus qu’un terme non nul dans la
somme.
2 2 3 4
0 1 6 5
Exemple. Soit A = 0 0 4 3. On a
0 0 0 1
det A = 2 × 1 × 4 × 1 = 8
Proposition 10.
• Échanger deux colonnes d’un déterminant change le signe de celui-ci.
• Multiplier une colonne d’un déterminant par un scalaire λ revient à multiplier
ce déterminant par λ.
• Ajouter à une colonne d’un déterminant une combinaison linéaire des autres
colonnes ne change pas la valeur du déterminant.
Remarque 4. Bien entendu, ces résultats sont également valables pour les opérations sur
les lignes. Il suffit de transposer.
x 1 ··· 1
..
1 x . 1
Dn = .... ..
. . . 1
1 ··· 1 x
1 1 ··· 1
..
1 x . 1
Dn = (x + n − 1) .. .. ..
. . . 1
1 ··· 1 x
3. CALCUL DES DÉTERMINANTS 457
det A = det(A1 , . . . , An )
B
n
X
= det(A1 , . . . , aij ei , . . . , An )
B
i=1
n
X
= aij det(A1 , . . . , ei , . . . , An )
B
i=1
458 CHAPITRE 26. DÉTERMINANTS
puis
Cj ←→ Cj+1 , Cj+1 ←→ Cj+2 , . . . , Cn−1 ←→ Cn
ce qui donne
a11 ··· a1n 0
.. .. ..
Dij = (−1)i+j . . .
an1 · · · ann 0
··· ··· ··· 1
Attention, il n’y a « plus » de ligne i et de colonne j dans le déterminant ci-dessus. Le calcul
de ce déterminant par la formule de la définition fait apparaître une somme sur les σ ∈ Sn
tels que σ(n) = n. On change d’indice en remarquant que l’ensemble de ces permutations
est en bijection avec Sn−1 . On trouve alors que
Dij = Cof(A, i, j)
On a ainsi prouvé la
Exemple. Développons
1 2 3
D= 4 5 6
7 8 9
par rapport à la première colonne. On a
5 6 2 3 2 3
D = 1× −4× +7×
8 9 8 9 5 6
= 1 × (−3) − 4 × (−6) + 7 × (−3)
= 0
Exemple. Calculons
1 + x2 x 0 ··· ··· 0
.. ..
x 1 + x2 x . .
Dn = .. .. .. .. ..
0 . . . . .
.. ..
. .
Dn = (1 + x2 )Dn−1 − x∆n−1
Dn = (1 + x2 )Dn−1 − x2 Dn−2
Il ne reste qu’à résoudre cette récurrence, qui est une récurrence linéaire à deux termes. La
fin du calcul ne pose pas de problème, elle est laissée au lecteur.
460 CHAPITRE 26. DÉTERMINANTS
Soit n ∈ N∗ . Soient a0 , . . . , an−1 n réels ou complexes. Soit Vn (a0 , . . . , an−1 ) (que nous
noterons juste Vn s’il n’y a pas d’ambiguïté) le déterminant n × n dans lequel le coefficient
lige i, colonne j est aji . Attention, une fois n’est pas coutume, on numérote les lignes et les
colonnes à partir de 0 et pas de 1. Ce déterminant s’appelle le déterminant de Vandermonde
et on se propose de le calculer. Plus explicitement, on a
n−2
Y
Vn (x0 , . . . , xn−1 ) = Vn−1 (x0 , . . . , xn−2 ) (xn−1 − xi )
i=0
Remarque 5. Dans un sens, c’était évident, puisque si deux des xk sont égaux on a deux
lignes égales dans le déterminant. L’autre implication n’était pas triviale.
Remarque 6. On rencontre des déterminants de Vandermonde dans un grand nombre
de situations. Prenons l’exemple de l’interpolation de Lagrange. Soient x0 , . . . , xn−1 ∈ C
distincts deux à deux, soient y0 , . . . , yn−1 ∈ C. Soit
n−1
X
P = ak xk
k=0
n−1
X
ak xkj = yj
k=0
Interprétons matriciellement ce système dont les inconnues sont les ak . On peut encore
l’écrire AX = Y où
a0 y0
a1 y1
X = . , Y = . , A = (xkj )0≤j,k≤n−1
.
. .
.
an−1 yn−1
4.1 Construction
ϕ est encore une forme n-linéaire alternée sur E. De plus, si ϕ = 0 alors ϕ = 0. Donc,
puisque Λn (E) est une droite, il existe α ∈ K tel que
ϕ = αϕ
Il s’agit maintenant de prouver que α ne dépend pas de ϕ. Pour cela, soient ϕ, ψ ∈ Λn (E).
Prenons ϕ, ψ non nulles. Il existe α, β ∈ K tels que
ϕ = αϕ et ψ = βψ
ψ = γϕ
d’où, facilement,
ψ = γϕ
De là,
βψ = βγϕ = γαϕ
Comme γ et ϕ sont non nuls, il vient α = β.
Exercice. Pourquoi ce scalaire λ est-il unique ? Indication : supposer qu’il y en a eux.
Remarque 7. det f est caractérisé par ∀ϕ ∈ Λn (E), ∀x1 , . . . , xn ∈ E,
Proposition 15. Soit f ∈ L(E). Soit B une base de E. Soit A la matrice de f dans
la base B. Alors
det f = det A
4. DÉTERMINANT D’UN ENDOMORPHISME 463
ϕ = (det f )ϕ
ou encore
ϕ(f (B)) = det f
puisque ϕ(B) = 1. Finalement :
ou encore :
det f = det(matB (f ))
Exemple. Calculons le déterminant d’une symétrie. Soit f est une symétrie de E. On a
det f = (−1)dim G
où G est l’ensemble des vecteurs changés en leur opposé par f . Il suffit pour cela d’écrire
la matrice de f dans une base judicieuse (laquelle ?).
On suppose ici que K = R. Nous ne justifierons pas les résultats qui vont suivre. Soit B la
base canonique de Rn . Soit B 0 = (u1 , . . . , un ) une base de Rn .
Si n = 2, detB B 0 est l’aire du parallélogramme défini par les deux vecteurs de B 0 .
Si n = 3, detB B 0 est le volume du paralléllépipède défini par les trois vecteurs de B 0 .
Nous admettrons que ce résultat se généralise à une dimension quelconque. Soit alors
f ∈ L(Rn ). Les calculs du paragraphe précédent montrent que :
Démonstration. Ces deux théorèmes sont évidemment deux interprétations d’une même
chose. Soit B une base de E. Soit ϕ l’application detB . On a
Mais
ϕ(g ◦ f (B)) = ϕ(g(f (B))) = (det g)ϕ(f (B)) = (det g)(det f )ϕ(B) = det g det f
d’où le résultat.
f ∈ GL(E) ⇐⇒ det f 6= 0
Démonstration. Ces deux résultats sont deux versions d’un même théorème. Il reste
seulement à prouver la surjectivité. Faisons-le pour les matrices. Soit α ∈ K∗ . Soit A ∈
Mn (K) la matrice diagonale dont tous les éléments diagonaux sont égaux à 1, sauf celui
ligne 1, colonne 1, qui vaut α. Alors, det A = α.
Remarque 8. Le cas n = 0 est un peu à part. Un K-espace vectoriel de dimension 0 est
E = {0}. Il possède une unique base qui est la famille vide B = (). Le seul endomorphisme
de E est f = 0, et on a det f = 1 car
Démonstration. L’identité envoie toute base B sur elle-même, et det id = 1 > 0. Donc,
B ∼ B.
Si f ∈ GL(E) envoie B sur B 0 , et det f > 0, alors f −1 envoie B 0 sur B et
1
det(f −1 ) = >0
det f
Donc, ∼ est symétrique.
466 CHAPITRE 26. DÉTERMINANTS
La transitivité est laissée en exercice, il suffit de constater que la composée de deux auto-
morphismes de déterminant strictement positif en est encore un.
Proposition 23. Lorsque dim E > 0, la relation ∼ possède exactement deux classes
d’équivalence.
en tant que produit de deux nombres négatifs. Donc B ∈ C2 , on a au plus deux classes.
Définition 10. Ces deux classes sont appelées les orientations de E. Orienter E, c’est
choisir l’une des deux classes.
Les bases de la classe choisie sont dites directes. Les bases de l’autre classe sont dites
indirectes.
Remarque 9. Une fois l’espace orienté, on passe d’une base directe à une base directe
par un automorphisme de déterminant > 0, d’une base directe à une base indirecte par un
automorphisme de déterminant < 0, et d’une base indirecte à une base indirecte par un
automorphisme de déterminant > 0.
Définition 11. Soit A une matrice carrée. On appelle comatrice de A la matrice dont
les coefficients sont les cofacteurs de A.
Soit B la matrice fabriquée à partir de A comme suit : les lignes de B sont identiques
aux lignes de A, sauf la ligne j de B que l’on prend égale à la ligne i de A. B
a donc deux lignes identiques, d’où det B = 0. De plus, Aik = Bik = Bjk , et
Cof(A, j, k) = Cof(B, j, k), car la ligne j de B, la seule qui diffère des lignes de A,
n’intervient pas dans ce calcul de cofacteur. Donc,
n
X
(AÃ)ij = Bjk Cof(B, j, k) = det B = 0
k=1
468 CHAPITRE 26. DÉTERMINANTS
469
470 CHAPITRE 27. SYSTÈMES LINÉAIRES
Définition 1. Soit E un K-espace vectoriel. Soit E un ensemble dont les éléments sont
appelés des points. On suppose donnée une application ⊕ : E × E −→ E.
On dit que (E, E, +) est un K-espace affine lorsque
• Pour tout a ∈ E l’application x 7−→ a ⊕ x est une bijection de E sur E.
• Pour tout a ∈ E, pour tous x, y ∈ E, (a ⊕ x) ⊕ y = a ⊕ (x + y).
Nous ne chercherons pas dans ce qui suit la généralité. Contentons-nous de remarquer que
si E est un K-espace vectoriel, alors E lui-même est muni de façon évidente d’une structure
d’espace affine en posant pour tous a, x ∈ E, a ⊕ x = a + x.
Ainsi, selon les circonstances, les éléments de E sont vus comme des points ou comme
des vecteurs. Le translaté d’un « point » a ∈ E par le « vecteur » u ∈ E est le « point »
a + u ∈ E, la somme classique de a et de u.
c − a = (b − a) + (c − b)
ou encore
→
− →
− → −
ac = ab + bc
τu (x) = x + u
F =a+F
Remarque 1. La dimension d’un sous-espace affine est par définition celle de sa direction.
On parle ainsi de droite affine, de plan affine, etc.
1.3 Parallélisme
Proposition 3.T Soit (Fi )i∈I une famille de sous-espaces affines de E. Alors, si l’in-
tersection F = i∈I Fi est non vide, c’est un sous-espace affine de E.
T
Démonstration. Soit a ∈ F. Soit F = i∈I Fi . Alors, on montre facilement que F =
a + F.
Démonstration. Soit ω ∈ E. On a
n n
−−→ −→
λk −
−→ =
X X
ωak λk (Oak − Oω)
k=1 k=1
Pn
où O est un point quelconque de E. Notons s = k=1 λk . Le scalaire s est non nul. Le
point ω convient si et seulement si
n
−→ X −−→
sOω = λk Oak
k=1
Proposition 5. Soit F une partie non vide du K-espace vectoriel E. Alors F est un
sous-espace affine de E si et seulement si tout barycentre d’éléments de F est encore
un élément de F.
où z = 1s i λi xi ∈ F . Donc, ω ∈ F.
P
F = {p − a, p ∈ F}
Définition 9. Soit A une partie du K-ev E. A est dite convexe lorsque pour tous
x, y ∈ A on a [x, y] ⊂ A.
où
n
1 X
b = Pn λ k ak
k=1 λk k=1
1. SOUS-ESPACES AFFINES D’UN ESPACE VECTORIEL 475
Proposition 7. Une base de E étant choisie, tout hyperplan affine de E admet une
équation cartésienne du type
Xn
ak xk = b
k=1
où les ak ne sont pas tous nuls. Deux équations représentent le même hyperplan si et
seulement si leurs coefficients (second membre y compris) sont proportionnels. Enfin,
toute équation de ce type est celle d’un hyperplan affine.
Démonstration. Remarquons tout d’abord qu’une forme linéaire non nulle sur E est
surjective. En effet, son image est un sev non nul de K. Comme K est de dimension 1, ce
sev est donc K.
Maintenant, toute équation du type nk=1 ak xk = b s’écrit aussi f (x) = b où f est une
P
forme linéaire non nulle sur E, ou encore f (x) = f (a) puisque f est surjective, ou encore
f (x − a) = 0 c’est à dire x − a ∈ H où H = ker f est un hyperplan vectoriel de E. Le reste
de la preuve consiste à écrire ce que l’on sait sur les équations des hyperplans vectoriels.
Le lecteur est amené à relire la section « dualité » du cours d’algèbre linéaire.
Exemple. Plaçons nous dans R3 . L’équation
(P) 3x − 2y + 5z = 6
est l’équation d’un plan affine P. La direction de P est le plan vectoriel d’équation
(P ) 3x − 2y + 5z = 0
On a donc P = a + P , où a est n’importe quel point de P, par exemple a = (1, 1, 1).
476 CHAPITRE 27. SYSTÈMES LINÉAIRES
q
X
(S) aij xj = bi , 1≤i≤p
j=1
(S) AX = B
2.2 Interprétations
Il y a plusieurs façons d’interpréter l’ensemble des solutions d’un système. Chacune a ses
avantages et ses inconvénients. En voici quelques unes.
• Résoudre p équations à q inconnues : vue naïve du problème, aucune interprétation,
on résout et c’est tout.
• Résoudre l’équation matricielle AX = B à une inconnue X : vue matricielle, fina-
lement on a 1 équation à 1 inconnue.
• Résoudre l’équation f (x) = b où f ∈ L(Kq , Kp ) : et là, tout l’arsenal du cours
d’algèbre linéaire est à notre disposition.
• Intersection d’hyperplans : vue géométrique.
Selon les besoins de telle ou telle démonstration, nous utiliserons l’interprétation qui nous
convient le mieux.
Proposition 9. Soit
(H) AX = 0
un système de p équations à q inconnues, de rang r. L’ensemble SolH des solutions de
(H) est un sous-espace vectoriel de Kq de dimension q − r.
(H) AX = 0
478 CHAPITRE 27. SYSTÈMES LINÉAIRES
Démonstration. Soit x0 une solution de (E). Soit x ∈ Kq . Alors, x est solution de (E)
si et seulement si x − x0 est solution de (H).
Exercice. L’intérêt de cet exercice n’est pas de résoudre des systèmes mais de regarder
la structure de leurs ensembles de solutions. Examiner les systèmes très simples suivants :
trouver leur matrice, leur rang, puis résoudre et regarder la structure de l’ensemble des
solutions.
x+y = 5
1.
x−y = 3
x+y+z = 5
2.
x−y−z = 3
x+y = 1
3. x + 2y = 3
3x − y = λ
x + 4t = 1
4. 2x + 3y − z = 3
x + 3y − z − 4t = −2
3 Systèmes de Cramer
3.1 Définitions
• f est bijective.
• f est bijective (eh oui, encore !).
• f est surjective.
• f est injective.
• ker f = {0}.
Proposition 12. Soit A ∈ GLn (K). Soit (S) AX = B un système de Cramer. Soit
(x1 , . . . , xn ) l’unique solution de (S). Pour 1 ≤ j ≤ n, soit Aj la matrice obtenue en
remplaçant la jème colonne de A par B. On a alors
det Aj
∀j ∈ J1, nK, xj =
det A
x1 C1 + . . . + xn Cn = B
Or,
det Aj = det(C1 , . . . , B, . . . , Cn )
B
n
X
= det(C1 , . . . , x i Ci , . . . , C n )
B
i=1
= xj det(C1 , . . . , Cn ) = xj det A
B
Nous avons déjà parlé de l’algorithme du pivot de Gauss. Nous allons ici formaliser de
façon plus détaillée cet algorithme.
Soit le système (S) AX = B de p équations à q inconnues, de rang r. On se propose
de transformer ce système en un système équivalent, de même rang, et de matrice plus
« simple ». La discussion va porter sur le rang de A.
• Si B = 0, SolS = Kq .
Si r 6= 0, il existe i, j tels que aij 6= 0. Quitte à échanger deux équations, et peut-être éga-
lement deux inconnues, on peut supposer i = j = 1. On effectue les opérations suivantes :
• L1 ←− a111 L1
• Pour i = 2, . . . , p, Li ←− Li − ai1 L1
On obtient ainsi un nouveau système équivalent au premier, et de même rang,
(S1 ) A1 X = B1
où
1 a112 . . . a11q
0 a122 . . . a12q
A1 =
.. .. ..
. . .
1 1
0 ap2 . . . apq
Si r = k, alors on a
Ik ...
Ak =
Op−k,k Op−k,q−k
En effet, les k = r premières colonnes de Ak sont indépendantes. Les autres colonnes sont
donc combinaisons linéaires des k premières. En conséquence, on en déduit les solutions
du système :
• Si brr+1 = . . . = brp = 0, alors les solutions du système sont obtenues en choisissant
arbitrairement les inconnues xr+1 , . . . , xq . Les autres inconnues, x1 , . . . , xr sont alors
uniquement déterminées.
• sinon, il n’y a pas de solution : le système est incompatible.
Si r > k, alors il existe i, j > k tels que aij 6= 0 (sinon la matrice Ak serait de rang k). Quitte
à échanger deux équations, voire deux inconnues, on peut supposer que i = j = k + 1. Le
nombre a(k+1)(k+1) 6= 0 est appelé le pivot. On effectue alors les opérations suivantes :
• Lk+1 ←− a 1 Lk+1
(k+1)(k+1)
• Li ←− Li − ai(k+1) Lk+1 pour i 6= k + 1.
482 CHAPITRE 27. SYSTÈMES LINÉAIRES
où
Ik+1 ...
Ak+1 =
Op−k−1,k+1 ...
Partant d’un système (S) de rang r, on fabrique des systèmes (S1 ), (S2 ), . . . , (Sr ) équiva-
lents à (S) et tels que l’on connaisse les solutions de (Sr ). La méthode du pivot permet
donc de résoudre le système (S) en exactement r étapes, où r est le rang du système.
Remarquons que le rang de (S) n’a pas à être connu a priori. La méthode du pivot termine
au bout d’un certain nombre d’étapes. À la fin du calcul on en déduit le rang de (S).
4.4 Un exemple
Considérons le système
x + 2y + 3z = 6
(S) 4x + 5y + 6z = 15
7x + 8y + 9z = 24
SolS = a + D
L’ensemble des solutions de (S) est la droite affine passant par a et dirigée par D.
5 Compléments
1 2 3 1 0 0
4 5 6 0 1 0
7 8 8 0 0 1
et on utilise l’algorithme du pivot.
Première étape : L2 ←− L2 − 4L1 et L3 ←− L3 − 7L1 . On obtient
1 2 3 1 0 0
0 −3 −6 −4 1 0
0 −6 −13 −7 0 1
Deuxième étape : L2 ←− − 13 L2 puis L1 ←− L1 − 2L2 et L3 ←− L3 + 6L2 . On obtient :
1 0 −1 − 53 2
3 0
4
0 1 2 3 − 13
0
0 0 −1 1 −2 1
Troisième et dernière étape, L3 ←− −L3 puis L1 ←− L1 + L3 et L2 ←− L2 − 2L3 . On
obtient :
1 0 0 − 83 8
3 −1
10 13
0 1 0 3 − 3 2
0 0 1 −1 2 −1
Inverser une matrice par l’algorithme du pivot a un coût du même ordre de grandeur que
multiplier naïvement deux matrices.
Faisons pour clore ce chapitre une petite application numérique. La formule générale pour
calculer un déterminant de taille n avec une somme sur les permutations de Sn nécessite
de l’ordre de (n + 1)! opérations. Pour inverser une matrice A avec la formule
1
A−1 = Ã
det A
il faut calculer 1 déterminant de taille n et n2 déterminants de taille n − 1, ce qui donne
de l’ordre de n2 n! opérations. Notons tn = 4n3 et t0n = n2 n!.
Supposons donnée une machine effectuant 1010 opérations par seconde. Évaluons le temps
tn nécessaire à cette machine pour résoudre un système n × n de Cramer avec la méthode
du pivot, et le temps t0n avec la méthode naïve :
n tn t0n
3 1.8 10−8 s 5.4 10−9 s
5 −8
5 10 s 3 10−7 s
10 4 10−7 s 3 10−2 s
−6
15 1.3 10 s 8 heures
20 3.2 10−6 s 3085 ans
100 4 10−4 s 2.9 10144 ans
Remarque 7. Prenons un ordinateur d’une puissance de 100 Watts. Pour inverser une
matrice de taille 20 avec les formules naïves, il faudra une énergie de 1011 Joules. Sachant
qu’une centrale nucléaire fournit une puissance de 109 Watts, cela représente la quan-
tité d’énergie fournie par cette centrale pendant 5 minutes. C’est à dire la consommation
d’environ un demi-kilo d’uranium enrichi. . .
486 CHAPITRE 27. SYSTÈMES LINÉAIRES
Chapitre 28
Intégration
487
488 CHAPITRE 28. INTÉGRATION
L’intégrale d’une fonction f entre deux réels a et b est un réel qui mesure l’aire sous la
courbe de f . Mais qu’est-ce qu’une aire ?
Le mathématicien prend les choses ... à l’envers. Il définit l’aire comme l’intégrale de la
fonction. Mais alors, me direz-vous, qu’est-ce que l’intégrale ? Le but de ce chapitre est de
répondre à cette question.
Il existe différentes théories de l’intégration : intégrale de Riemann, intégrale de Lebesgue,
intégrale de Stieljes, et bien d’autres. La théorie présentée ici est celle de l’intégrale de
Riemann.
• Nous allons commencer par définir l’intégrale de fonctions très simples, les fonctions
en escalier, qui sont tout simplement des fonctions constantes par morceaux.
• Nous montrerons ensuite que, d’une certaine façon, les fonctions en escalier sont
denses dans un ensemble qui contient, entre-autres, les fonctions continues par mor-
ceaux.
• Cette propriété nous permettra d’étendre la définition de l’intégrale aux fonctions
continues par morceaux.
Notation. On note S([a, b]) l’ensemble des subdivisions du segment [a, b].
Supp(σ) = {xi , 0 ≤ i ≤ n}
1. INTÉGRATION DES FONCTIONS EN ESCALIER 489
Définition 3. Soit σ, σ 0 ∈ S([a, b]). On dit que σ est moins fine que σ 0 , ou σ 0 est plus
fine que σ, et on note σ ≤ σ 0 lorsque
Supp(σ) ⊂ Supp(σ 0 )
Démonstration. C’est par exemple la subdivision dont le support est la réunion des
supports de σ 0 et de σ 00 .
Définition 4. Soit ϕ : [a, b] −→ R. On dit que ϕ est en escalier sur [a, b] lorsqu’il
existe une subdivision σ = (xi )0≤i≤n de [a, b] telle que ϕ soit constante sur les intervalles
]xi , xi+1 [.
Remarque 1. Il est clair que si σ est une subdivision adaptée à ϕ, alors toute subdivision
plus fine que σ est encore adaptée.
Exemple. Les fonctions constantes sont en escalier.
Proposition 2. L’ensemble E([a, b]) des fonctions en escalier sur [a, b] est une R-
algèbre.
Proposition 3. Soit ϕ ∈ E([a, b]). Soit σ = (xi )0≤i≤n une subdivision adaptée à ϕ.
Pour 0 ≤ i ≤ n − 1, soit yi la valeur (constante) de ϕ sur ]xi , xi+1 [. La quantité
n−1
X
yi (xi+1 − xi )
i=0
Démonstration. Sans entrer dans les détails de la preuve, cela signifie que si l’on coupe
un rectangle en plusieurs morceaux, l’aire totale est la somme des aires des morceaux.
Exercice. Dessinez une fonction en escalier. Puis hachurez la partie du plan entre sa
« courbe » et l’axe Ox.
Rb
Remarque 2. Si vous avez fait l’exercice, bravo, vous avez devant les yeux a ϕ ! C’est
l’aire de ce que vous avez hachuré.
1.4 Propriétés
Rb Rb
• Croissance : ϕ ≤ ψ =⇒ a ϕ≤ a ψ.
Rb Rb
• a ϕ ≤ a |ϕ|
Démonstration.
• Pour la linéarité 1, on prend une subdivision adaptée à la fois à ϕ et à ψ.
• La linéarité 2 et la croissance sont évidentes.
• Pour la dernière inégalité, remarquons d’abord que si ϕ ∈ E([a, b]), il en va de même
pour |ϕ|. Maintenant, ϕ ≤ |ϕ|, donc par la croissance, on a
Z b Z b
ϕ≤ |ϕ|
a a
Démonstration. On n’entre pas dans les détails. Disons simplement qu’un réunissant
une subdivision adaptée sur [a, b] et une subdivision adaptée sur [b, c], on fabrique une
subdivision adaptée sur [a, c]. Inversement, si on a une subdivision adaptée sur [a, c], on
obtient des subdivisions adaptées sur [a, b] et [b, c] en la coupant en deux et en rajoutant
éventuellement b aux deux subdivisions obtenues.
Remarque 3. On généralise la notation intégrale en posant pour a > b
Z b Z a
ϕ=− ϕ
a b
et pour tout a Z a
ϕ=0
a
492 CHAPITRE 28. INTÉGRATION
La formule de Chasles est alors vérifiée dans tous les sens (si j’ose dire). La linéarité
fonctionne encore sans problème. En revanche, attention aux inégalités ! Elles ont toutes
tendance à se renverser.
Rb
Moralité : quand on écrit des inégalités sur des intégrales du genre a ϕ on contrôle tou-
jours que a ≤ b.
2 Construction de l’intégrale
Définition 7. Soit f : [a, b] −→ R. On dit que f est continue par morceaux sur [a, b]
lorsqu’il existe une subdivision σ = (xi )0≤i≤n de [a, b] telle que
• f est continue sur les intervalles ouverts ]xi , xi+1 [.
• f admet une limite à gauche et à droite réelles en tous les xi , 1 ≤ i ≤ n − 1,
une limite à droite réelle en a et une limite à gauche réelle en b.
Une telle subdivision est, comme pour les fonctions en escalier, dite adaptée à f . Toute
subdivision plus fine qu’une subdivision adaptée est encore adaptée.
Remarque 4. Toute fonction continue, toute fonction en escalier, est évidemment continue
par morceaux. Nous avons donc les inclusions
Définition 8. On étend cette notion à des fonctions définies sur un intervalle quel-
conque. Soit f : I −→ R. On dit que f est continue par morceaux sur I lorsque sa
restriction à tout segment inclus dans I est continue par morceaux.
Proposition 6. L’ensemble Cm ([a, b]) des fonctions continues par morceaux sur [a, b]
est une R-algèbre et E([a, b]) en est une sous-algèbre.
Démonstration. C’est la même démonstration que celle que nous avons faite pour les
fonctions en escalier.
2. CONSTRUCTION DE L’INTÉGRALE 493
Proposition 7. Soient a, b ∈ R, a < b. L’ensemble E([a, b]) est dense dans Cm ([a, b])
au sens suivant : pour toute fonction f ∈ Cm ([a, b]), pour tout réel ε > 0, il existe deux
fonctions ϕ, ψ ∈ E([a, b]) telles que
ϕ ≤ f ≤ ψ et ψ − ϕ ≤ ε
Démonstration. Pour alléger la preuve, on la fait seulement pour f continue sur [a, b].
Soit ε > 0. D’après le théorème de Heine, f est uniformément continue sur [a, b]. Il existe
donc α > 0 tel que
ϕ(x) = min f
[xk ,xk+1 ]
ϕ≤f ≤ψ
Par ailleurs, soit x ∈ [a, b[. Soit k tel que x ∈ [xk , xk+1 [. On a
|v − u| ≤ µ(σ) ≤ α
donc
|f (v) − f (u)| ≤ ε
Ainsi, pour tout x différent de b, on a ψ(x) − ϕ(x) ≤ ε. Pour x = b aussi. Donc, ψ − ϕ ≤ ε.
et (Z )
E+ (f ) = ψ, ψ ∈ E([a, b]), f ≤ ψ
[a,b]
Remarque 5. E− (f ) est donc une partie de R. C’est l’ensemble de toutes les intégrales
de toutes les fonctions en escalier inférieures ou égales à f . De même pour E+ (f ).
Remarque 6. Toute fonction continue par morceaux sur [a, b] est bornée sur [a, b]. En
effet, elle est bornée sur chacun des morceaux d’une subdivision adaptée.
inf E+ (f ) ≥ sup E− (f )
Démonstration. f est bornée sur [a, b], c’est à dire minorée et majorée par des fonctions
constantes. Comme une fonction constante est en escalier, les ensembles E− et E+ sont
donc non vides.
De plus, soient x ∈ E− et y ∈ E+ . On a
Z b Z b
x= ϕ et y = ψ
a a
sup E− ≤ inf E+
Notation. Pour toute fonction f : [a, b] −→ R bornée, nous noterons
Z b
f = sup E− (f )
∗a
et Z ∗b
f = inf E+ (f )
a
Exercice. Les réels sup E− et inf E+ peuvent être distincts lorsque la fonction f est
« compliquée ». Prenons par exemple la fonction f : [0, 1] −→ R définie par f (x) = 1 si
x ∈ Q et f (x) = 0 sinon. Montrer que
E− (f ) = R− et E+ (f ) = [1, +∞[
2. CONSTRUCTION DE L’INTÉGRALE 495
En déduire que Z 1 Z ∗1
f = 0 et f =1
∗0 0
On en déduit que
Z b Z b
inf E+ (f ) − sup E− (f ) ≤ ψ− ϕ≤ε
a a
Ceci étant vrai pour tout ε > 0, on en déduit que inf E+ (f ) ≤ sup E− (f ). L’autre inégalité
étant vraie pour toute fonction f , on a l’égalité recherchée.
Définition 9. Soit f : [a, b] −→ R une fonction bornée. On dit que f est intégrable
Rb R ∗b
sur [a, b] lorsque ∗a f = a f . On appelle alors intégrale de f sur [a, b] le réel
Z b Z b Z ∗b
f= f= f
a ∗a a
R Rb
Notation. On note aussi, comme pour les fonctions en escalier, [a,b] f , ou encore a f (x) dx.
Exercice. Soi tf : [a, b] → R une fonction en escalier. On dispose alors a priori pour f de
deux notions d’intégrale. Montrer qu’il n’y a pas d’ambiguïté.
Rb
Précisément, prouver que E− (f ) a un plus grand élément, qui est a (f ) au sens de l’in-
tégrale des fonctions en escalier. Ainsi, l’intégrale de f au sens du I et l’intégrale de f au
sens du II sont égales.
R1
Exemple. Calculons 0 x2 dx.
Soit f : [0, 1] −→ R définie par f (x) = x2 . Considérons pour tout n la subdivision régulière
(xk )0≤k≤n où
k
xk =
n
496 CHAPITRE 28. INTÉGRATION
Soit ϕ en escalier définie par ϕ(x) = f (xk ) sur l’intervalle [xk , xk+1 [ (et φ(1) = 1). On a
φ ≤ f . Calculons son intégrale :
1 n−1 2
(n − 1)(2n − 1)
Z
1X k
ϕ= =
0 n n 6n2
k=0
Soit de même ψ en escalier définie par ψ(x) = f (xk+1 ) sur l’intervalle [xk , xk+1 [ (et ψ(1) =
1). On a ψ ≥ f . Calculons son intégrale :
Z 1 n−1 2
1X k+1 (n + 1)(2n + 1)
ψ= =
0 n n 6n2
k=0
R1
Exercice. Calculer de la même manière 0 ex dx.
3 Propriétés de l’intégrale
3.1 Linéarité
Z b Z b Z b
(2) ϕ2 ≤ g≤ ψ2
a a a
d’où
Z b Z b Z b
(f + g) − f− g ≤ε
a a a
Ceci est vrai pour tout ε > 0, donc l’intégrale de la somme est la somme des intégrales.
Pour le produit par un réel, c’est bien plus facile, nous nous dispenserons ici de donner la
preuve.
La propriété de positivité de l’intégrale, ainsi que ses corollaires (croissance, inégalité tri-
angulaire) sont fondamentales.
498 CHAPITRE 28. INTÉGRATION
Démonstration. On a g − f ≥ 0, donc
Z b
(g − f ) ≥ 0
a
Démonstration. Nous l’admettrons. L’idée est de travailler avec des subdivisions adap-
tées auxquelles on rajoute éventuellement le point b.
3. PROPRIÉTÉS DE L’INTÉGRALE 499
Alors
∀x ∈ [a, b], f (x) = 0
Démonstration. Supposons que f n’est pas identiquement nulle sur [a, b]. Il existe
c ∈ [a, b] tel que f (c) > 0.
Supposons c 6= a, b (si c = a ou b, la preuve est analogue). Comme f est continue en c, il
existe δ > 0, tel que
1
∀x ∈ [c − δ, c + δ], f (x) ≥ f (c)
2
Prenons δ suffisamment petit pour que a ≤ c − δ et c + δ ≤ b. On a alors
Z b Z c−δ Z c+δ Z b Z c+δ
f= f+ f+ f ≥0+ f + 0 ≥ δf (c) > 0
a a c−δ c+δ c−δ
Proposition 16. L’application (f, g) 7−→< f, g > vérifie les propriétés suivantes :
• C’est une forme bilinéaire symétrique sur Cm ([a, b]).
• ∀f ∈ Cm ([a, b]), < f, f >≥ 0.
• ∀f ∈ C 0 ([a, b]), < f, f >= 0 =⇒ f = 0.
Démonstration.
• La symétrie est évidente car la multiplication des réels est commutative. La bilinéa-
rité résulte de la linéarité de l’intégrale.
• Soit f ∈ Cm ([a, b]). La fonction f 2 est positive donc, par positivité de l’intégrale,
Z b
< f, f >= f2 ≥ 0
a
• Soit f ∈ C 0 ([a, b]). Supposons < f, f >= 0. La fonction f 2 est continue et positive
sur [a, b] et son intégrale est nulle. Par le théorème de nullité de l’intégrale, on a
donc f = 0.
Remarque 8. Nous reviendrons sur ce sujet dans le chapitre sur les espaces préhilbertiens
réels. Ce que nous raconte le théorème, c’est que la fonction (f, g) 7−→< f, g > est un
produit scalaire sur C 0 ([a, b]).
Si f et g sont continues sur [a, b], l’inégalité précédente est une égalité si et seulement
si f et g sont proportionnelles.
Remarquons tout d’abord que, par positivité de l’intégrale, on a pour tout réel t, ϕ(t) ≥ 0.
De plus, par bilinéarité,
Commençons par le cas où < f, f >= 0. La fonction ϕ est alors une fonction affine de
signe constant. C’est donc une fonction constante, ce qui entraîne < f, g >= 0. L’inégalité
demandée est alors évidente, elle devient 0 ≤ 0. C’est même une égalité.
Supposons maintenant < f, f >6= 0. La fonction ϕ est une fonction polynôme de degré 2
et de signe constant. Son discriminant est donc négatif ou nul. Que vaut le discriminant
en question ? Eh bien c’est
∆ = 4 < f, g >2 −4 < f, f >< g, g >
On a donc
< f, g >2 ≤< f, f >< g, g >
d’où l’inégalité de Schwarz en passant à la racine carrée.
Passons maintenant au cas d’égalité. Supposons f et g continues sur [a, b]. Reprenons les
deux cas ci-dessus.
• Le cas < f, f >= 0. Dans ce cas, nous avons vu que < f, g >= 0. On a donc égalité.
De plus, comme f est continue, < f, f >= 0 entraîne f = 0. Ainsi, f = 0g : f et g
sont proportionnelles. L’équivalence est donc vérifiée.
• Le cas < f, f >6= 0 (et donc f 6= 0).
? Supposons f et g proportionnelles : il existe t ∈ R tel que g = tf . On a
Z b Z b Z b
2
fg = tf = |t| f2
a a a
Par ailleurs,
Z b Z b Z b 2
f2 g 2 = t2 f2
a a a
En prenant la racine carrée on voit qu’on a égalité dans l’inégalité de Schwarz.
? Supposons maintenant l’égalité dans l’inégalité de Schwarz. Rappelons-nous la
démonstration de l’inégalité : l’inégalité de Schwarz nous dit qu’un discriminant
est négatif ou nul. Maintenant, ce discriminant est nul. Qu’est-ce que cela veut
dire ? Eh bien que la fonction ϕ a une racine (double). Il existe donc t ∈ R tel
que ϕ(t) = 0, c’est à dire
< tf + g, tf + g >= 0
La fonction tf + g étant continue sur [a, b], cela implique que tf + g = 0, c’est
à dire
g = −tf
Les fonctions f et g sont effectivement proportionnelles.
Exercice. Voyons sur un exemple comment utiliser ce théorème. Soient a, b ∈ R, a < b.
Posons
E = {f ∈ C 0 ([a, b]), f > 0}
502 CHAPITRE 28. INTÉGRATION
La fonction ϕ est donc minorée par (b − a)2 . Par ailleurs, on a égalité ci-dessus si et
seulement si il existe un réel λ tel que
1
f =λ
f
ϕ admet un minimum sur E qui est (b − a)2 . Ce minimum est atteint pour les fonctions
constantes et elles seulement.
4 Approximations de l’intégrale
•
Notation. On note S([a, b)] l’ensemble des subdivisions pointées de [a, b].
4. APPROXIMATIONS DE L’INTÉGRALE 503
Définition 11. Soient a, b ∈ R tels que a < b. Soit f : [a, b] −→ R. Soit S une
subdivision pointée de [a, b]. On appelle somme de Riemann associée à f et S la quantité
n−1
X
RS (f ) = (xi+1 − xi )f (ξi )
i=0
Exercice. Faire un petit dessin. RS (f ) est l’aire d’une réunion de rectangles : dessiner la
courbe de f , une subdivision de quelques points, hachurer l’aire correspondant à RS (f ).
Proposition 18. Soient a, b ∈ R tels que a < b. Soit f : [a, b] −→ R une fonction
continue. Alors
•
Z b
∀ε > 0, ∃δ > 0, ∀S ∈ S([a, b]), µ(S) ≤ δ =⇒ f − RS (f ) ≤ ε
a
Démonstration. Soit ε > 0. f est uniformément continue sur [a, b], donc il existe δ > 0
tel que
ε
∀x, y ∈ [a, b], |x − y| ≤ δ =⇒ |f (x) − f (y)| ≤
b−a
Soit S une subdivision pointée de [a, b] (mêmes notations que dans la définition) de pas
inférieur ou égal à δ. On a
Z b n−1
X Z xi+1 Z xi+1
f − RS (f ) = f (x) dx − f (ξi ) dx
a i=0 xi xi
n−1
X xi+1
Z
≤ |f (x) − f (ξi )| dx
i=0 xi
n−1
X Z xi+1 ε
≤ dx
xi b−a
i=0
Z b
ε
= dx
a b−a
= ε
La proposition ci-dessus
Rb nous dit les sommes de Riemann associées à la fonction continue
f convergent vers a f lorsque le pas des subdivisions tend vers 0. Le problème, c’est qu’on
ne maîtrise pas l’erreur commise en approchant l’intégrale par une somme de Riemann.
504 CHAPITRE 28. INTÉGRATION
Tout ce que l’on sait, c’est que la somme de Riemann est proche de l’intégrale lorsque le
pas de la subdivision est assez petit. Tout cela est évidemment assez vague.
Si l’on a des renseignements supplémentaires sur f , on peut dire mieux. Par exemple,
lorsque f est lipschitzienne . . .
Démonstration.
Z b n−1
X Z xi+1 Z xi+1
f − RS (f ) = f (x) dx − f (ξi ) dx
a i=0 xi xi
n−1
X xi+1
Z
≤ |f (x) − f (ξi )| dx
i=0 xi
n−1
X Z xi+1
≤ k |x − ξi | dx
i=0 xi
n−1
X Z xi+1
≤ kµ(S) dx
i=0 xi
= k(b − a)µ(S)
b
(b − a)2
Z
f − RS (f ) ≤ k
a n
Exemple. Appliquons la méthode des rectangles à f (x) = exp x sur [0, 1]. Soit n ≥ 1. Avec
les notations ci-dessus, prenons une subdivision régulière en posant xk = nk , 0 ≤ k ≤ n.
4. APPROXIMATIONS DE L’INTÉGRALE 505
Posons également ξk = xk , 0 ≤ k ≤ n − 1. On a
n−1
X
RS (f ) = (xk+1 − xk )f (ξk )
k=0
n−1
X 1 k/n
= e
n
k=0
n−1
1 X k
= e1/n
n
k=0
Remarque 9. Bien évidemment, calculer des intégrales par cette méthode n’est pas de
tout repos. Il existe cependant des cas où l’on ne sait pas trouver de primitives d’une
fonction, mais où la méthode des rectangles permet de calculer quand même l’intégrale de
cette fonction. Voir feuille d’exercices.
Remarque 10. La méthode des rectangles n’est pas une bonne méthode pour approcher
une intégrale. Le majorant de l’erreur en n1 nous dit que si l’on veut, par exemple, obte-
nir une intégrale avec 9 chiffres exacts, il faudra additionner 1 milliard de termes. C’est
évidemment peu rassurant.
Dans le paragraphe suivant, nous allons examiner une méthode plus efficace, où l’erreur
est majorée par n12 .
Soient a, b ∈ R tels que a < b. Soit f : [a, b] −→ R. On suppose dans ce qui suit que f est
de classe C 2 . On note M2 (f ) le maximum de |f 00 | sur le segment [a, b].
Dans un premier temps, considérons la fonction affine ϕ : [a, b] → R égale à f aux points
a et b.
506 CHAPITRE 28. INTÉGRATION
(t − a)(b − t)
|f (t) − ϕ(t)| ≤ M2 (f )
2
Démonstration. Soit
M2
g(x) = f (x) − ϕ(x) − (x − a)(b − x)
2
On a g ∈ C 2 [a, b], g(a) = g(b) = 0, et g 00 = f 00 + M2 ≥ 0. La fonction g 0 est donc croissante.
De plus, par Rolle, il existe c ∈]a, b[, tel que g 0 (c) = 0. Donc, g 0 ≤ 0 sur [a, c] et g 0 ≥ 0 sur
[c, b]. On en tire les variations de g sur [a, b], et on constate (exercice, faire le tableau de
variations de g) que g ≤ 0 sur [a, b]. Donc,
M2
f (x) − ϕ(x) ≤ (x − a)(b − x)
2
Proposition 21. On a
b
(b − a)3
Z
1
f − (b − a)(f (a) + f (b)) ≤ M2
a 2 12
Démonstration. On a
Z b Z b Z b
M2 b (b − a)3
Z
f− ϕ ≤ |f − ϕ| ≤ (t − a)(b − t) dt = M2
a a a 2 a 12
Rb
Par ailleurs, a ϕ est l’aire d’un trapèze (faire un dessin), et donc
Z b
1
ϕ = (b − a)(f (a) + f (b))
a 2
L’idée suivante est de couper le segment [a, b] en n morceaux, et d’appliquer ce qui précède
sur chacun des morceaux. On obtient la proposition ci-dessous.
4. APPROXIMATIONS DE L’INTÉGRALE 507
b
(b − a)3
Z
f − Tn (f ) ≤ M2 (f )
a 12n2
où
n−1
b−aX
Tn (f ) = (f (xi ) + f (xi+1 ))
2n
i=0
Démonstration. Soit ϕ la fonction égale à f aux points xi et affine sur chacun des
morceaux de la subdivision régulière. On a
Z b Z b n−1
X Z xi+1 Z xi+1
f− ϕ ≤ f− ϕ
a a i=0 xi xi
n−1
X (b − a)3
≤ M2
12n3
i=0
(b − a)3
= M2
12n2
Par ailleurs,
Z b n−1
X Z xi+1
ϕ= ϕ = Tn (f )
a i=0 xi
Remarque 11. On a
n−1
b−aX (b − a)(f (b) − f (a))
Tn (f ) = f (xi ) +
n 2n
i=0
On constate donc que la somme associée à la méthode des trapèzes est égale à une somme
de Riemann à laquelle on rajoute le terme correcteur
(b − a)(f (b) − f (a))
2n
R1
Or, 0 f = 31 . Ainsi, l’erreur commise est 1
6n2
. Par ailleurs, l’erreur théorique est
(b − a)3 1
M2 2
= 2
12n 6n
Ainsi, notre calcul de l’erreur était optimal. Le majorant que nous avons trouvé est atteint
pour notre exemple.
5 Primitives
Nous allons enfin voir comment la notion d’intégrale permet de prouver que toute fonction
continue sur un intervalle y admet des primitives.
Démonstration.
• La fonction F est bien définie sur I puisque pour tout x ∈ I, f est continue sur
[a, x] (ou [x, a] si x ≤ a) : l’intégrale existe donc.
• Soit x0 ∈ I. Soit x ∈ I. Alors
Z x Z x
F (x) − F (x0 ) − (x − x0 )f (x0 ) = f (t) dt − (x − x0 )f (x0 ) = (f (t) − f (x0 )) dt
x0 x0
Soit ε > 0. Puisque f est continue en x0 , il existe α > 0 tel que, pour tout t ∈ I,
|t − x0 | ≤ α =⇒ |f (t) − f (x0 )| ≤ ε
D’où
F (x) − F (x0 )
− f (x0 ) ≤ ε
x − x0
Le même résultat est obtenu pour x < x0 . Tout ceci n’est autre que la définition de
limite. Nous venons de prouver que
F (x) − F (x0 )
−→ f (x0 )
x − x0 x→x0
5.3 Application
F et G étant des primitives de f sur [a, b], il existe un réel c tel que pour tout x ∈ [a, b],
on ait
F (x) = G(x) + c
Mais alors Z b
F (b) − F (a) = G(b) − G(a) = G(b) = f (x) dx
a
Le reste de la section est déjà connu (voir le chapitre sur les primitives). Redonnons les
résultats.
Maintenant, la fonction F ci-dessus est parfaitement définie, et même continue, sur [−1, 1].
Nous savons que F est une primitive de arcsin sur ] − 1, 1[, et nous savons que F est
continue sur [−1, 1]. Pourquoi F est-elle une primitive de arcsin sur [−1, 1] ?
La fonction arcsin est continue sur [−1, 1], elle y admet donc une primitive. Choisissons
une telle primitive G de sorte que G(0) = F (0) = −1. F et G sont deux primitives de
5. PRIMITIVES 511
arcsin sur ] − 1, 1[, elles diffèrent donc sur ] − 1, 1[ d’une constante, nulle par notre choix
de G(0). Bref, F = G sur ] − 1, 1[.
Pour terminer, le lecteur est invité à faire l’exercice ci-dessous.
Exercice. Soient F et G deux fonctions continues sur [−1, 1]. On suppose que F = G sur
] − 1, 1[. Montrer qu’on a en fait F = G sur [−1, 1]. La continuité est évidemment la clé,
faire tendre x vers 1 (et −1).
Proposition 27. Soient α, β ∈ R. Soit ϕ ∈ C 1 ([α, β]). Soit f une fonction continue
sur un intervalle I contenant ϕ([α, β]). On a
Z β Z ϕ(β)
0
f (ϕ(t))ϕ (t) dt = f (x) dx
α ϕ(α)
Ainsi,
Z β Z β
f (ϕ(t))ϕ0 (t) dt = (F ◦ ϕ)0 (t) dt
α α
= F ◦ ϕ|βα
= F (ϕ(β)) − F (ϕ(α))
Z ϕ(β)
= f (x) dx
ϕ(α)
Remarque 12. L’énoncé du théorème de changement R b de variable est compliqué, mais
son utilisation est en réalité simple. On désire calculer a f (x) dx. Pour cela, on décide de
poser x = ϕ(t). On cherche alors α et β tels que a = ϕ(α) et b = ϕ(β) (quand x vaut a,
t vaut α). La question est ensuite : que devient dx ? Le théorème nous dit qu’il devient
ϕ0 (t) dt (facile de s’en souvenir : dx = dx
dt dt). Ainsi
Z β Z b
0
f (ϕ(t))ϕ (t) dt = f (x) dx
α a
512 CHAPITRE 28. INTÉGRATION
6 Formules de Taylor
6.1 Introduction
Nous avons déjà rencontré deux formules de Taylor : la formule de Taylor Young, qui
permet de calculer des limites, des équivalents, des développements limités. Et la formule
de Taylor pour les polynômes, qui est une formule « exacte », permettant d’exprimer un
polynôme à l’aide des puissances de X − a et des dérivées de ce polynôme en a.
Nous allons dans ce paragraphe donner deux autres formules de Taylor, toujours bâties
sur le même modèle : f est une fonction possédant une certaine régularité, a, b (ou a, x, ou
autre chose) sont deux réels, et la formule est toujours
f (b) = Tn (b − a) + Rn
où
n
X Xk
Tn = f (k) (a)
k!
k=0
est un polynôme de degré inférieur ou égal à n, et Rn est un « reste ». C’est ce reste qui
va changer selon le théorème.
Proposition 28. Soit n ≥ 0. Soient a, b ∈ R. Soit f : [a, b] −→ R (ou [b, a], si a > b)
de classe C n+1 . Alors
n
X (b − a)k (k)
f (b) = f (a) + Rn
k!
k=0
où
b
(b − t)n (n+1)
Z
Rn = f (t)dt
a n!
6. FORMULES DE TAYLOR 513
qui n’est autre que le théorème fondamental du calcul intégral. Supposons maintenant le
théorème vérifié pour un entier n. Soit f ∈ C n+2 ([a, b]). On a alors
n
X (b − a)k
f (b) = f (k) (a) + Rn
k!
k=0
(b − t)n
u0 = et v = f (n+1) (t)
n!
Il vient
b
(b − a)n+1 (b − t)n+1 (n+2)
Z
Rn = + f (t)dt
(n + 1)! a (n + 1)!
d’où le résultat pour l’entier n + 1.
Nous allons majorer le Rn de la formule de Taylor avec reste intégral pour obtenir une
inégalité : l’inégalité de Taylor-Lagrange.
Le résultat reste valable si a > b en remplaçant le segment [a, b] par le segment [b, a].
Et il est trivial lorsque a = b.
globale. Elle sert donc à prouver. . . des inégalités globales. Prenons un exemple. On prend
f (x) = ex , a = 0, b = x. Et n quelconque. Il vient donc
n
X xk
ex = + Rn
k!
k=0
où
|x|n+1
|Rn | ≤ max | exp |
(n + 1)! S
avec S = [0, x] ou [x, 0] selon que x est positif ou négatif. Ce max vaut en fait 1 si x ≤ 0
et ex si x > 0. Mais il ne dépend pas de n. Lorsque n tend vers l’infini, le majorant tend
vers 0. On vient ainsi de prouver que
n
X xk
−→ ex
k! n→∞
k=0
Lorsque nous aurons vu le chapitre sur les séries, nous écrirons cela
∞
x
X xk
e =
k!
k=0
Cette section contient une très brève extension de la notion d’intégrale aux fonctions tou-
jours définies sur un segment [a, b], mais à valeurs dans C.
Soit f : [a, b] −→ C une fonction continue par morceaux (i.e. sa partie réelle et sa partie
imaginaire sont continues par morceaux). On appelle intégrale de f sur [a, b] le nombre
complexe
Z b Z b Z b
f (x) dx = Re(f (x)) dx + i Im(f (x)) dx
a a a
Démonstration.
Rb Les barres verticales sont bienR entendu des modules de nombres com-
b
plexes. Si a f = 0 c’est évident. Supposons donc a f 6= 0.
Pour tout réel θ, on a
Z b Z b Z b Z b
−iθ −iθ −iθ
Re e f = Re e f ≤ |e f | = |f |
a a a a
Rb
Prenons pour θ un argument de a f , qui est, rappelons-le, non nulle. On a donc, par
définition de l’argument d’un nombre complexe,
Z b Z b
f= f eiθ
a a
517
518 CHAPITRE 29. DÉNOMBREMENTS
1.1 Cardinal
n̄ ' p̄ ⇐⇒ n = p
Lemme 3.
• Soient n et p deux entiers. Il existe une injection de n̄ sur p̄ si et seulement si
n ≤ p.
• Soient n et p deux entiers. Il existe une surjection de n̄ sur p̄ si et seulement si
n ≥ p.
Démonstration. Pour les injections, on peut par exemple faire une démonstration
analogue à celle du résultat sur les bijections.
Pour les surjections, on peut remarquer qu’il existe une surjection de n̄ sur p̄ si et seulement
si il existe une injection de p̄ vers n̄. On est ainsi ramenés au cas des injections.
Définition 1. Soit E un ensemble. On dit que E est fini lorsqu’il existe un entier n
tel que E ' n̄. D’après la proposition précédente, cet entier est unique. On l’appelle le
cardinal de E.
Notation. Il existe un certain nombre de notations pour le cardinal d’un ensemble fini E.
Les plus fréquentes sont Card E, #E ou |E|. Dans ce chapitre nous utiliserons la notation
|E|.
1.2 Propriétés
E ' F ⇐⇒ |E| = |F |
h : A ∪ B −→ n + p
|A \ B| = |A| − |B|
|E ∪ F | = |E \ (E ∩ F )| + |F |
|E \ (E ∩ F )| = |E| − |E ∩ F |
Cette formule se généralise à la réunion de n ensembles finis. La formule que l’on obtient
alors s’appelle la formule du crible.
522 CHAPITRE 29. DÉNOMBREMENTS
|E ∪ F ∪ G| = |(E ∪ F ) ∪ G|
= |E ∪ F | + |G| − |(E ∪ F ) ∩ G|
= |E| + |F | − |E ∩ F | + |G| − |(E ∩ G) ∪ (F ∩ G)|
= |E| + |F | − |E ∩ F | + |G| − (|E ∩ G| + |F ∩ G| − |(E ∩ G) ∩ (F ∩ G)|)
= |E| + |F | + |G| − |E ∩ F | − |E ∩ G| − |F ∩ G| + |E ∩ F ∩ G|
La formule générale pour n ensembles finis est énoncée et montrée en annexe du chapitre.
|E × F | = |E| × |F |
Démonstration. On a [
E×F = E × {y}
y∈F
Soit y ∈ F . La fonction F : E −→ E ×{y} définie par f (x) = (x, y) est clairement bijective.
Ainsi, |E × {y}| = |E|. Ainsi,
X X
|E × F | = |E| = |E| 1 = |E| × |F |
y∈F y∈F
3. APPLICATIONS ENTRE ENSEMBLES FINIS 523
Démonstration. En effet,
Fp = F × F × ... × F
p fois, et donc
|F p | = |F | × |F | × . . . × |F | = |F |p
Notation. Étant donnés deux ensembles A et B, on note I(A, B) l’ensemble des injections
de A vers B.
Notation. Soient n, p ∈ N. On note np = n(n − 1) . . . (n − p + 1).
Proposition 14. Soient E et F deux ensembles finis. L’ensemble I(E, F ) des injec-
tions de E dans F est fini, et
|I(E, F )| = |F ||E|
Une injection f de E (de cardinal p) vers F (de cardinal n ≥ p) se fabrique comme suit.
Appelons x1 , . . . , xp les éléments de E :
• On choisit la valeur de f (x1 ) : n possibilités. Puis,
• On choisit la valeur de f (x2 ) : n − 1 possibilités, car f (x2 ) 6= f (x1 ) puisque f est
injective. Puis,
• On choisit la valeur de f (x3 ) : n − 2 possibilités, car deux valeurs dans l’ensemble
d’arrivées sont déjà « prises »..
• ...
• On choisit enfin la valeur de f (xp ) : n − p + 1 possibilités.
On a au total n(n − 1) . . . (n − p + 1) = np façons de construire une telle injection f .
Cette façon de procéder n’est certes pas totalement rigoureuse, mais nous ne nous prive-
rons pas de l’utiliser pour gagner du temps. En gardant toujours à l’esprit que si nous le
voulions nous pourrions toujours fabriquer des bijections pour déterminer des cardinaux.
Voir l’appendice pour une discussion plus approfondie à ce sujet.
Corollaire 15. Soit E un ensemble fini de cardinal n. L’ensemble S(E) des bijections
de E dans E est fini, et
|S(E)| = n!
Proposition 17. Soit E un ensemble fini. L’ensemble P(E) des parties de E est fini,
et
|P(E)| = 2|E|
Nous allons maintenant calculer les deux cardinaux du membre de droite de cette égalité.
• Pour P 0 (E) c’est facile. En effet, les parties de E qui ne contiennent pas a sont les
parties de E 0 . Ainsi, P 0 (E) = P(E 0 ). Par l’hypothèse de récurrence,
|P 0 (E)| = 2n
• Un élément de P 00 (E) est une partie A de E qui contient a. Une telle partie A est de
la forme A0 ∪ {a} où A0 ⊂ E 0 . On trouve donc facilement une bijection entre P 00 (E)
et P(E 0 ). C’est la fonction φ : P 00 (E) −→ P(E 0 ) définie par φ(A) = A \ {a}. Ainsi,
|P 00 (E)| = |P(E 0 )| = 2n
Finalement,
|P(E)| = |P 0 (E)| + |P 00 (E)| = 2n + 2n = 2n+1
Remarque 4. Il existe une autre démonstration tout aussi instructive de ce résultat.
Soit E un ensemble fini. Rappelons que la fonction indicatrice d’une partie A de E est la
fonction 1A : E −→ {0, 1} définie par 1A (x) = 1 si x ∈ A et 0 sinon.
4. PARTIES D’UN ENSEMBLE FINI 527
Considérons la fonction 1 : P(E) −→ {0, 1}E définie pour tout A ⊂ E par 1(A) = 1A .
On montre facilement que cette fonction est une bijection. Sa réciproque est la fonction
1−1 : {0, 1}E −→ P(E) définie, pour toute fonction f : E −→ {0, 1}, par
1−1 (f ) = f −1 ({1})
Ainsi,
|P(E)| = {0, 1}E = |{0, 1}||E| = 2|E|
Nous allons maintenant introduire une notation déjà utilisée pour les coefficients binomiaux
au début de l’année. Évidemment, nous allons prouver que ces nombres notés comme des
coefficients binomiaux sont bien les coefficients binomiaux.
parties de E de cardinal k.
Remarque 5.
• Pour que notre notation ait un sens, il conviendrait de vérifier que le cardinal de
Pk (E) ne dépend que du cardinal de E et pas de E. En d’autres termes, sir E et
E 0 sont deux ensembles finis de même cardinal alors Pk (E) et Pk (E 0 ) ont le même
cardinal. La vérification est
laissée au lecteur.
• On a bien évidemment nk = 0 dès que k > n puisque, dans ce cas, Pk (E) = ∅. Le
problème est de calculer cette quantité lorsque 0 ≤ k ≤ n.
Démonstration.
• Soit E un ensemble de cardinal n. Pour toute partie A de E de cardinal k, E \ A est
de cardinal n − k. On vérifie alors que l’application A 7−→ E \ A est une bijection
de Pk (E) sur Pn−k (E) d’où la première égalité.
• Soit E un ensemble de cardinal n. La seconde égalité résulte de
n
[
P(E) = Pk (E)
k=0
où C(n, k) est le nombre de façons de choisir a dans k facteurs parmi n. Mais ce choix de
k facteurs n’est rien d’autre que le choix d’une partie de cardinal k dans l’ensemble des n
facteurs. On a donc
n
C(n, k) =
k
d’où la formule cherchée.
On donne dans ce paragraphe une égalité qui permet d’écrire le cardinal d’une réunion
comme une somme de cardinaux d’intersections : la formule du crible, aussi connue sous le
nom de formule de Poincaré. La démonstration donnée ici utilise les relations coefficients-
racines pour les polynômes à l’aide des polynômes symétriques élémentaires.
se développe en
P = X n − σ1 X n−1 + . . . + (−1)n σn
Xn
n
= X + (−1)k σk X n−k
k=1
où X
σk = xi1 . . . xik
1≤i1 <...<ik ≤n
où X X
σk = 1Ai1 . . . 1Aik = 1Ai1 ∩...∩Aik
1≤i1 <...<ik ≤n 1≤i1 <...<ik ≤n
On reporte cette valeur dans l’équation (3), ce qui nous donne l’égalité entre fonctions
indicatrices
n
X X
1∪i=1 Ai =
n (−1)k+1 1Ai1 ∩...∩Aik (29.4)
k=1 1≤i1 <...<ik ≤n
Il ne nous reste plus qu’à déduire de l’égalité (4) une égalité entre cardinaux. Pour cela,
on somme cette égalité sur tous les éléments x de E
n
[ n
XX X
Ai = (−1)k+1 1Ai1 ∩...∩Aik (x)
i=1 x∈E k=1 1≤i1 <...<ik ≤n
n
X X X
= (−1)k+1 1Ai1 ∩...∩Aik (x)
k=1 1≤i1 <...<ik ≤n x∈E
Xn X
= (−1)k+1 |Ai1 ∩ . . . ∩ Aik | (29.5)
k=1 1≤i1 <...<ik ≤n
532 CHAPITRE 29. DÉNOMBREMENTS
Chapitre 30
Probabilités
533
534 CHAPITRE 30. PROBABILITÉS
1 Univers
Qu’est-on censé modéliser par la notion d’univers ? lorsqu’on répète une expérience, l’issue
de cette expérience peut changer à chaque répétition. Bien qu’imprévisible, cette issue est
quand même restreinte à appartenir à un certain ensemble de valeurs. L’univers Ω est
censé être l’ensemble des issues (ou résultats possibles, ou réalisations) de l’expérience.
Dans ce cours, nous ne nous intéresserons qu’à des univers finis. Dans le cours de deuxième
année, les résultats seront étendus à des univers dénombrables. La branche des probabilités
s’intéressant aux univers « continus » est également fondamentale, mais vous ne l’étudierez
pas lors des deux prochaines années. Elle fait appel à la théorie de la mesure et de l’intégrale.
Exemple. On lance une pièce. On peut prendre pour univers l’ensemble
Ω = {P, F }
Exemple. On jette deux dés à 6 faces. On peut prendre pour univers l’ensemble
Ω = J1, 6K2
des couples d’entiers entre 1 et 6.
Exemple. On lance une fléchette sur une cible de rayon R : on peut prendre pour univers
l’ensemble
Ω = [0, R]×] − π, π]
Remarque 1. Dans les exemples ci-dessus, nous avons fait un choix de modélisation.
Nous avons supposé que la pièce ne tombe jamais sur la tranche, que le dé ne peut pas
s’immobiliser sur un coin, que la fléchette ne rate pas la cible. Le choix d’un univers n’est
jamais innocent. Disons que celui ci ne doit pas être trop petit parce qu’il doit prendre en
compte toutes les issues possibles de l’expérience. Mais il ne doit pas être non plus trop
gros si nous voulons éviter d’avoir à manipuler des quantités inextricables dans nos calculs.
Prenons l’exemple du lancer d’un dé. On pourrait prendre pour univers l’ensemble de
toutes les trajectoires possibles du dé dans l’espace, c’est à dire un ensemble de courbes
paramétrées décrivant toutes les trajectoires. On peut également inclure dans cet univers
des renseignements concernant l’humidité de l’air, la pression atmosphérique, le matériau
du tapis sur lequel le dé est jeté, l’humeur du lanceur de dé, etc.
1. UNIVERS 535
L’événement « l’une au moins des pièces est tombée sur pile » est
Les probabilistes utilisent leur propre vocabulaire, un ensemble de mots qui sont des syno-
nymes de mots que nous utilisons couramment dans les autres branches des mathématiques.
Voici un petit dictionnaire, qui permet de passer du vocabulaire de la théorie des ensembles
à celui des probabilités, et vice versa.
Théorie des ensembles Probabilités
A Partie de Ω Événement
{ω} Singleton Événement élémentaire
ω Élément de Ω Issue d’une expérience
Ω\A Complémentaire de A Contraire de A
A∪B Réunion de A et B A ou B
A∩B Intersection de A et B A et B
∅ Ensemble vide Événement impossible
Ω Univers, événement certain
A∩B =∅ Ensembles disjoints Événements incompatibles
Je lance un dé non truqué (« parfait », dit-on aussi). Qu’entends-je par « il y a une chance
sur deux pour que j’obtienne un nombre pair » ?
La réponse est non : si j’ai beaucoup beaucoup de chance, j’obtiendrai indéfiniment des
nombres pairs, et ma fraction vaudra (et tendra vers) 1. Si je n’ai vraiment pas de chance,
elle vaudra (et tendra vers) 0. Et je peux imaginer des suites de lancers qui feront tendre
cette fraction vers n’importe quel nombre entre 0 et 1, ou vers rien du tout.
Je peux alors essayer d’affirmer que cette fraction tendra presque sûrement vers 12 . Le seul
problème est de définir presque sûrement : allons donc, cela veut dire « avec une probabilité
égale à 1 » ! Euh, mais je veux précisément définir le concept de probabilité !
La figure ci-dessous montre la fréquence d’apparition de « pile » lors de 5000 tirages à pile
ou face d’une pièce non truquée. On voit (en tout cas sur cet exemple), la fréquence tendre
vers 0.5. Tout à la fin du prochain chapitre nous verrons apparaître dans l’inégalité de
2. ESPACES PROBABILISÉS FINIS 537
Bienaymé-Tchebychev des indices que notre intuition initiale de limite d’une fréquence est
correcte.
La probabilité d’une partie de Ω est entièrement déterminée par les probabilités des sin-
gletons qui la composent. Pour définir une probabilité sur un univers, il suffit donc de la
définir pour chaque événement élémentaire de cet univers.
Proposition 3. Soit Ω un univers fini. Il existe une unique probabilité sur Ω constante
sur les singletons. On l’appelle la probabilité uniforme sur Ω.
donc
1
p=
n
1
Inversement la fonction définie sur les singletons par P ({x}) = n et par l’égalité, vraie
pour tout événement,
X
P (A) = P ({a})
a∈A
2.2 Un exemple
Choisissons comme univers Ω = J1, 6K3 , de cardinal 216, muni de la probabilité uniforme.
L’événement qui nous intéresse est A où A est l’événement « on a obtenu au moins un 4 ».
Nous avons deux méthodes pour calculer sa probabilité. Pour l’instant, seule la première
méthode nous est accessible. Écrivons A = A1 ∪ A2 ∪ A3 où Ai est l’événement « on a
obtenu exactement i fois le nombre 4 ». Les Ai sont incompatibles, et
3
53−i
i
P (Ai ) =
216
D’où
1 91
P (A) = P (A1 ) + P (A2 ) + P (A3 ) = (3 × 25 + 3 × 5 + 1 × 1) =
216 216
P (A) = P (B) + P (A \ B)
Exemple. Retour au jet de trois dés parfaits. Deuxième méthode, meilleure que la pré-
cédente, pour obtenir la probabilité de l’événement « au moins un 4 ». On cherche la
probabilité de l’événement contraire, qui est « on n’a obtenu aucun 4 ». Cette probabilité
53 125
vaut 216 = 216 . D’où
125 91
P (A) = 1 − =
216 216
540 CHAPITRE 30. PROBABILITÉS
Démonstration. On écrit
A ∪ B = (A \ (A ∩ B)) ∪ B
Exercice. Soient A, B, C trois événements. On a
P (A ∪ B ∪ C) = P (A ∪ B) + P (C) − P ((A ∪ B) ∩ C)
= P (A) + P (B) − P (A ∩ B) + P (C) − P ((A ∩ C) ∪ (B ∩ C)
152 19
P (A) = P (B4 ) + P (B5 ) − P (B4 ∩ B5 ) = =
216 27
Considérons l’expérience suivante : une urne contient r boules rouges et v boules vertes.
On effectue n fois l’opération suivante : on prend une boule dans l’urne, on regarde sa
couleur, on remet la boule dans l’urne, et on mélange bien. Soit k ∈ J0, nK. Quelle est la
probabilité d’avoir tiré k boules rouges ?
remplit ces k positions avec une boule rouge arbitraire : rk possibilités. Puis on remplit les
n − k positions restantes avec une boule verte arbitraire : v n−k possibilités. Au total, le
n k n−k
. Le cardinal de Ω est N n , donc
cardinal de l’événement « k boules rouges » est k r v
la probabilité de notre événement est
n k n−k
k r v n r k v n−k n k
n
= = p (1 − p)n−k
N k N N k
Nous reparlerons de ces probabilités plus loin, lorsque nous aborderons la loi binomiale
B(n, p).
Considérons l’expérience suivante : une urne contient r boules rouges et v boules vertes.
On effectue n fois l’opération suivante : on prend une boule dans l’urne, on regarde sa
couleur, on NE REMET PAS la boule dans l’urne. Soit k ∈ J0, nK. Quelle est la probabilité
d’avoir tiré k boules rouges ?
542 CHAPITRE 30. PROBABILITÉS
Soit N = r +v. On numérote les boules de 1 à N et on choisit pour univers Ω = Pn (J1, N K),
l’ensemble des parties à n éléments de J1, N K. On munit Ω de la probabilité uniforme P .
Chaque élément de Ω représente l’ensemble des n boules tirées. Une même boule ne peut
pas y apparaître plusieurs fois puisque à chaque tirage la boule n’est pas remise dans l’urne.
Combien y-a-t-il d’éléments de Ω comportant k boules rouges ?
On choisit d’abord l’ensemble des k boules rouges qui ont été tirées : il y a kr possibilités.
v
On choisit ensuite l’ensemble des n − k boules vertes qui ont été tirées : il y a n−k
possibilités. Au total, le cardinal de l’événement « k boules rouges » est kr n−k v
. Le
N
cardinal de Ω est n , donc la probabilité de notre événement est
r
v
k n−k
N
n
Exercice. Quelles sont, en fonction de N, v, r, les valeurs de k pour lesquelles ces proba-
bilités sont non nulles ?
Pmin(n,r) r v
Exercice. Que vaut k=0 k n−k ?
Remarque 5. Ces probabilités sont elles aussi liées à une loi importante, la loi hyper-
géométrique H(N, n, p). Nous ne l’étudierons pas plus avant et nous contenterons d’un
histogramme.
Remarque 6. On peut très bien faire les calculs en choisissant comme univers Ω = J1, N Kn ,
l’ensemble des n-uplets d’éléments distincts de J1, N K, muni de la probabilité uniforme. On
a cette fois
N!
|Ω| =
(N − n)!
Pour obtenir un tirage contenant k boules rouges, on choisit d’abord les k indices du n-uplet
qui correspondent aux boules rouges : nk possibilités. Puis, pour ces k positions, on choisit
3. PROBABILITÉS CONDITIONNELLES 543
r!
k boules rouges distinctes : (r−k)! possibilités. Puis, pour les n−k positions restantes, choix
v
de n − k boules vertes distinctes : (v−n+k)! possibilités. La probabilité cherchée est donc
n r! v
r
v
k (r−k)! (v−n+k)! k n−k
N!
= N
(N −n)! n
On retrouve évidemment ( ? ? ?) le même résultat. Remarquons quand même que bien que
le choix de l’univers nous soit laissé, les calculs étaient un peu plus simples avec notre
premier choix.
3 Probabilités conditionnelles
Définition 6. Soit (Ω, P ) un espace probabilisé. Soit B un événement vérifiant P (B) >
0. Soit A un événement. On appelle probabilité (conditionnelle) de A sachant B le réel
P (A ∩ B)
P (A|B) =
P (B)
Exemple. Dans une famille de deux enfants, quelle est la probabilité que le second enfant
soit une fille sachant qu’il y a au moins une fille ? On prend l’univers
Soit A l’événement « le second enfant est une fille » et B l’événement « il y a au moins une
fille ». On a
A = {(F, F ), (G, F )}
et
B = {(F, F ), (G, F ), (F, G)}
D’où A ∩ B = A et P (A|B) = 32 .
(A ∪ A0 ) ∩ B = (A ∩ B) ∪ (A0 ∩ B)
PB (A ∪ A0 ) = PB (A) + PB (A0 )
Exemple. Une urne contient r boules rouges et v boules vertes. Soit N = r + v. Je tire
sans remise deux boules de l’urne. Quelle est la probabilité que la seconde boule soit verte,
sachant que la première boule est verte ?
Prenons Ω = {(x, y) ∈ J1, N K2 , x 6= y} muni de la probabilité uniforme. Pour i = 1, 2 soit
Vi l’événement « la ième boule tirées est verte ». On a
|V1 | = v(N − 1)
|V1 ∩ V2 | = v(v − 1)
d’où
v(v − 1) v−1
P (V 2|V 1) = =
v(N − 1) N −1
P (A1 ∩ . . . ∩ An ) 6= 0
On a alors
Démonstration. On a
n n
!
[ [
B =B∩Ω=B∩ Ai = (B ∩ Ai )
i=1 i=1
Exemple. Les usines U1 U2 et U3 fabriquent des boulons pour construire un pont. 10%
des boulons sont fabriqués par l’usine U1 , 50% des boulons sont fabriqués par l’usine U2 ,
et 40% des boulons sont fabriqués par l’usine U3 . On sait également que 3% des boulons
fabriqués par l’usine U1 sont défectueux, 12% des boulons fabriqués par l’usine U2 sont
défectueux et 5% des boulons fabriqués par l’usine U3 sont défectueux. On contrôle un
boulon au hasard sur le pont. Soit D l’événement « le boulon est défectueux ». On a
3
X
P (D) = P (D|Ui )P (Ui ) = 0.03 × 0.1 + 0.12 × 0.5 + 0.05 × 0.4 = 0.083
i=1
Exercice. Une urne contient r boules rouges et v boules vertes. Soit N = r + v. On tire
deux boules de l’urne sans remise. Quelle est la probabilité que la deuxième boule tirée
soit verte ?
Prenons Ω = {(x, y) ∈ J1, N K2 , x 6= y} muni de la probabilité uniforme. Pour i = 1, 2 soit
Vi (resp : Ri ) l’événement « la ième boule tirées est verte » (resp. : rouge). On a
v−1 v v r v
P (V2 ) = P (V2 |V1 )P (V1 ) + P (V2 |R1 )P (R1 ) = + =
N −1N N −1N N
546 CHAPITRE 30. PROBABILITÉS
On remarque que la probabilité que la d’être verte est la même pour la première et pour
la deuxième boule. Et si on tirait 3 boules ? 8 boules ?
Explication : prenons pour Ω l’ensemble des couples d’entiers distincts entre 1 et N , muni
de la probabilité uniforme. L’application (x, y) 7→ (y, x) est une bijection de l’événement
« la première boule est verte » sur l’événement « la deuxième boule est verte ». Ces deux
événements ont donc même cardinal, et comme nous avons choisi la probabilité uniforme
ils ont même probabilité. L’avantage de ce raisonnement est qu’il s’étend sans difficulté au
tirage de n boules sans remise.
Proposition 12. Soient A et B deux événements tels que P (A) > 0 et P (B) > 0. On
a
P (B|A)P (A)
P (A|B) =
P (B)
P (B|Aj )P (Aj )
P (Aj |B) = Pn
i=1 P (B|Ai )P (Ai )
P (A|B) = P (A)
Définition 8. Soit (Ai )1≤i≤n une famille (finie) d’événements. On dit que la famille
est indépendante lorsque pour toute partie I de l’ensemble J1, nK on a
!
\ Y
P Ai = P (Ai )
i∈I i∈I
Remarque 8. Des événements peuvent être indépendants deux à deux sans que la famille
le soit. Prenons par exemple Ω = {1, 2, 3, 4} muni de la probabilité uniforme. Soient A =
{1, 2}, B = {1, 3} et C = {1, 4}. On a P (A ∩ B) = 41 = P (A)P (B), et de même pour A ∩ C
et B ∩ C. Mais P (A ∩ B ∩ C) = 14 alors que P (A)P (B)P (C) = 81 .
Remarque 9. On lance une pièce parfaite deux fois de suite. Quelle est la probabilité
d’obtenir face au deuxième lancer sachant qu’on a obtenu pile au premier lancer ? L’énoncé
de notre problème sous-entend l’indépendance des lancers. La réponse est donc 12 . C’est
ce que l’on a implicitement supposé lorsque, dans nos exemples, on munissait l’univers
Ω = {P, F }2 de la probabilité uniforme.
Imaginons maintenant que la pièce est truquée. Cette pièce a la probabilité p ∈ [0, 1] de
tomber sur pile lors d’un lancer (et la probabilité q = 1 − p de tomber sur face). Quelle
probabilité va-t-on mettre sur Ω ? C’est là que l’indépendance doit être explicitée ! Notons
Pi (resp : Fi ) l’événement « la pièce tombe sur pile (resp : face) au lancer numéro i ». On
a, par l’indépendance de P1 et P2 :
De même,
1
Exercice. Un dé truqué a une probabilité de tomber sur 6 égale à 3 et une probabilité
1− 13 2
égale de tomber sur les autres faces (qui vaut donc 5 = 15 ).
On lance deux fois le dé.
Quelle est la probabilité que la somme des deux chiffres obtenus soit supérieure ou égale à
7?
L’indépendance des deux lancers est implicite. On prend Ω = J1, 6K2 , muni de la probabilité
« produit » :
2
2 4
P ({(x, y)}) = =
15 225
si x, y 6= 6,
2 1 2
P ({(x, y)}) = =
15 3 45
si x = 6 ou bien y = 6, mais pas les deux, et
1
P ({(6, 6)}) =
9
L’événement qui nous intéresse contient 10 couples ne comportant pas le nombre 6, 10
couples contenant une seule fois le nombre 6, et le couple (6, 6). La probabilité cherchée
4 2
est donc P = 10 × 225 + 10 × 45 + 91 = 15
11
' 0.73.
Chapitre 31
Variables aléatoires
549
550 CHAPITRE 31. VARIABLES ALÉATOIRES
Définition 1. Soit E un ensemble. Une variable aléatoire à valeurs dans E est une
application X : Ω → E. Lorsque E ⊂ R on parle de variable aléatoire réelle.
Remarque 1. Nous ne considérons dans ce cours que des univers Ω finis. Une variable
aléatoire à valeurs dans un ensemble E ne prend donc qu’un nombre fini de valeurs. Re-
marquons également qu’une « variable » aléatoire n’est pas une variable mais une fonction.
Exemple. On lance deux dés à 6 faces. On modélise cette expérience par l’univers Ω =
J1, 6K2 . La fonction X : (x, y) ∈ Ω 7→ x + y ∈ R est une variable aléatoire réelle. L’ensemble
des valeurs prises par X est X(Ω) = J2, 12K.
Notation.
• Soit A une partie de E. On note {X ∈ A} l’événement X −1 (A) de Ω.
• Si x ∈ E, l’événement {X = x} est {X ∈ {x}}.
• Si X est une variable aléatoire réelle, {X ≤ x} est {X ∈] − ∞, x]}. On utilise
évidemment des notations analogues pour d’autres types d’intervalles.
PX (A) = P (X ∈ A)
Démonstration.
Remarquons tout d’abord que, en toute rigueur, l’ensemble E peut être infini. Avec les dé-
finitions restrictives de notre cours (univers finis), la fonction PX est plutôt une probabilité
sur X(Ω). Nous abuserons dans toute la suite.
1. NOTION DE VARIABLE ALÉATOIRE 551
Les événements X −1 (A) et X −1 (B) sont eux aussi disjoints (exercice), donc
ou encore
PX (A ∪ B) = PX (A) + PX (B)
Remarque 2. L’ensemble E devient donc un univers sur lequel PX est une loi de pro-
babilité. Le couple (E, PX ) est ainsi un espace probabilisé. En toute rigueur, nous n’avons
défini que des probabilités sur un univers fini, et il faudrait systématiquement considérer
X(Ω), et non E. Pour des raisons de simplicité, nous ne le ferons pas. De toute façon, pour
toute partie A de E telle que A∩X(Ω) = ∅, on a PX (A) = 0. Les événements incompatibles
avec X(Ω) ont une probabilité nulle.
Notation. Les notations introduites précédemment se répercutent bien entendu sur la
notation des probabilités. Ainsi, on note P (X ∈ A) au lieu de PX (A). P (X ∈ {x}) est tout
simplement noté P (X = x), et si X est une variable aléatoire réelle, P (X ≤ x) dénote
P (X ∈] − ∞, x]), etc.
Remarque 3. La somme ci-dessus est éventuellement infinie mais contient seulement un
nombre fini de valeurs non nulles, puisque l’univers Ω est fini. Si l’on veut absolument
552 CHAPITRE 31. VARIABLES ALÉATOIRES
x 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P (X = x) 36 36 36 36 36 36 36 36 36 36 36
2 Lois usuelles
|A|
∀A ⊂ E, P (X ∈ A) =
n
Définition 4. Soit p ∈ [0, 1]. Soit X : Ω → {0, 1}. On dit que X suit une loi de
Bernoulli de paramètre p lorsque
P (X = 1) = p et P (X = 0) = 1 − p
Remarque 5. La loi de Bernoulli intervient dans tout problème où le résultat peut prendre
deux valeurs, comme le jeu de pile ou face, ou encore le succès ou l’échec d’une expérience,
la réponse oui ou non à une question posée, garçon ou fille, boule rouge ou verte, gaucher
ou droitier, etc.
Le réel p est la probabilité de succès de l’expérience. Le réel q = 1 − p est la probabilité
d’échec.
Remarque 6. Voici une sorte de réciproque. Soit A un événement (le succès d’une ex-
périence), tel que P (A) = p. Soit 1A la fonction indicatrice de A. On a 1A : Ω → {0, 1}.
La fonction 1A est une variable aléatoire réelle. On a P (1A = 1) = P (A) = p et
P (1A = 0) = P (Ac ) = 1 − p. Ainsi, 1A suit une loi de Bernoulli de paramètre p :
P1A = B(p)
Définition 5. Soit n ∈ N∗ . Soit p ∈ [0, 1]. Soit X : Ω → J0, nK. On dit que X suit une
loi binomiale de paramètres n et p lorsque pour tout k ∈ J0, nK,
n k
P (X = k) = p (1 − p)n−k
k
Démonstration. Il faut essentiellement vérifier que le poids total est bien égal à 1. Or
n n
X X n k
B(n, p)({k}) = p (1 − p)n−k = (p + (1 − p))n = 1
k
k=0 k=0
(a) Loi B(40, 0.3) (b) Loi B(40, 0.5) (c) Loi B(40, 0.8)
Remarque 7. Remarquons que B(1, p) = B(p). Y a-t-il en lien entre loi de Bernoulli et
loi binomiale ? Nous verrons plus loin, et ce sera un résultat essentiel, que si la v.a. Y est
la somme de n variables aléatoires indépendantes suivant une loi de Bernoulli B(p), alors
Y B(n, p).
Remarque 8. Soient a ∈ E et b ∈ F . On a
3.2 Un exemple
On dispose de deux variables aléatoires X et Y à valeurs dans {0, 1, 2}. La loi du couple
(X, Y ) est donnée dans le tableau ci-dessous. Par exemple, on lit P ((X, Y ) = (2, 1)) = 0.2.
On a également indiqué dans ce tableau la somme des lignes et la la somme des colonnes.
Bien entendu, la somme de toutes les probabilités est 1.
P {X = 0} {X = 1} {X = 2}
{Y = 0} 0.1 0.3 0 0.4
{Y = 1} 0 0.2 0.2 0.4
{Y = 2} 0.1 0 0.1 0.2
0.2 0.5 0.3
La loi PX est donc déterminée de façon unique à partir de la loi P(X,Y ) . De même, pour
tout b ∈ F , on a
X
PY ({b}) = P(X,Y ) ({(a, b)})
a∈E
Exemple. Dans l’exemple ci-dessus, la probabilité PX est obtenue en sommant les co-
lonnes : P (X = 0) = 0.2, P (X = 1) = 0.5 et P (X = 2) = 0.3. De même, PY est obtenue
en sommant les lignes. Voilà pourquoi PX et PY sont appelées les lois marginales : elles
sont dans les marges du tableau.
Remarque 10. En revanche, connaissant les lois de X et de Y , il n’est pas possible,
sauf informations supplémentaires (cf indépendance, un peu plus loin), de trouver la loi
conjointe de X et Y .
Exemple. On munit S5 de la probabilité uniforme P . Soient X : S5 → R et Y : S5 → R
définies par X(σ) = l’ordre de σ et Y (σ) = la signature de σ. Déterminer la loi conjointe
de X et Y .
Voici, regroupés dans un tableau, les ordres et les signatures des diverses permutations
de S5 , regroupées par « types ». On indique également sur chaque ligne combien il y a
de permutations de chaque type, classées par leur décomposition en produit de cycles de
supports disjoints.
σ X(σ) Y (σ) nb
id 1 1 1
(i j) 2 −1 10
(i j k) 3 1 20
(i j k l) 4 −1 30
(i j k l m) 5 1 24
(i j)(k l) 2 1 15
(i j)(k l m) 6 −1 20
On en déduit la loi du couple (X, Y ), résumée dans un tableau, ainsi, évidemment, que les
lois marginales.
P {X = 1} {X = 2} {X = 3} {X = 4} {X = 5} {X = 6}
10 30 20 1
{Y = −1} 0 120 0 120 0 120 2
1 15 20 24 1
{Y = 1} 120 120 120 0 120 0 2
1 25 20 30 24 20
120 120 120 120 120 120
3. COUPLES DE VARIABLES ALÉATOIRES 557
Ce paragraphe peut être sauté en première lecture. Il ne sera pas utilisé dans le reste du
chapitre.
PY |X=x : P(F ) → R
On peut bien entendu généraliser ce qui vient d’être dit pour des couples de variables
aléatoires à des n-uplets de variables aléatoires. Prenons par exemple un triplet (X, Y, Z) de
variables aléatoires. Nous avons une loi conjointe, trois lois marginales. Les lois marginales
se récupèrent à partir de la loi conjointe. Par exemple,
X
P (X = x) = P (X = x, Y = y, Z = z)
y,z
De même, on peut définir un certain nombre de lois conditionnelles, comme par exemple
P (X = x, Y = y|Z = z) ou encore P (X = x|Y = y, Z = z), etc.
4. VARIABLES ALÉATOIRES INDÉPENDANTES 559
Nous y voilà. L’indépendance est, dans tout ce que nous venons de, et allons, raconter,
la vraie notion probabiliste. Celle qui ne correspond à rien dans les autres branches des
mathématiques (j’exagère à peine).
P (X = x, Y = y) = P (X = x)P (Y = y)
P ((X, Y ) ∈ A × B) = P (X ∈ A)P (Y ∈ B)
Démonstration. Dans un sens c’est évident. Il suffit de prendre des singletons pour A
et B. Inversement, supposons X et Y indépendantes. Soient A ⊂ X(Ω) et B ⊂ Y (Ω).
[
P ((X, Y ) ∈ A × B) = P ( {(X, Y ) = (a, b)})
a∈A,b∈B
X
= P ({(X, Y ) = (a, b)})
a∈A,b∈B
X
= P (X = a)P (Y = b)
a∈A,b∈B
X X
= P (X = a) P (Y = b)
a∈A b∈B
= P (X ∈ A)P (Y ∈ B)
560 CHAPITRE 31. VARIABLES ALÉATOIRES
4.2 Généralisation
Démonstration. La démonstration est analogue à celle vue pour deux variables aléa-
toires.
Démonstration. La petite subtilité est que nous devons montrer que pour tout ensemble
I = {k1 , . . . , kr } ⊂ J1, nK,
Nous allons voir dans ce paragraphe qu’en « combinant » des variables aléatoires indépen-
dantes on ne peut « fabriquer » que des variables indépendantes. Commençons par deux
cas particuliers.
4. VARIABLES ALÉATOIRES INDÉPENDANTES 561
Démonstration. On a
Démonstration. Histoire de ne pas nous noyer dans les indices, faisons la preuve pour
n = 3 et m = 1. Soient X, Y, Z trois variables aléatoires réelles indépendantes. Montrons
que X et (Y, Z) sont aussi indépendantes. On a
P (Y = y)P (Z = z) = P (Y = y, Z = z)
= P ((Y, Z) = (y, z))
En combinant ces deux cas particuliers, on obtient le
S = X1 + . . . + Xn
Démonstration. On fait une récurrence sur n. Pour n = 1, c’est évident puisque B(p) =
B(1, p). Soit maintenant n ≥ 1. Supposons la propriété vraie pour n. Soient X1 , . . . , Xn+1
n + 1 variables aléatoires indépendantes de loi B(p). Soit
S = X1 + . . . + Xn+1
Remarquons que S ne prend que des valeurs entre 0 et n + 1.
Soit tout d’abord k ∈ J1, n + 1K. On a
{S = k} = {Xn+1 = 0, X1 + . . . + Xn = k} ∪ {Xn+1 = 1, X1 + . . . + Xn = k − 1}
ces deux événements étant clairement disjoints. On a donc
P (S = k) = P (Xn+1 = 0, X1 + . . . + Xn = k) + P (Xn+1 = 1, X1 + . . . + Xn = k − 1)
Le lemme des coalitions nous dit que X1 + . . . + Xn et Xn+1 sont indépendantes. Donc
P (Y = k) = P (Xn+1 = 0)P (X1 + . . . + Xn = k) + P (Xn+1 = 1)P (X1 + . . . + Xn = k − 1)
On applique l’hypothèse de récurrence :
n k n−k n
P (Y = k) = (1 − p) p (1 − p) +p pk−1 (1 − p)n−k+1
k k−1
n n
= + pk (1 − p)n+1−k
k k−1
n+1 k
= p (1 − p)n+1−k
k
5. ESPÉRANCE 563
{Y = 0} = {X1 = 0, . . . , Xn+1 = 0}
d’où
n+1 0
P (Y = 0) = P (X1 = 0) . . . P (Xn+1 = 0) = (1 − p)n+1 = p (1 − p)n+1
0
5 Espérance
Définition 10. Soit X une variable aléatoire réelle. On appelle espérance de X le réel
X
E(X) = xP (X = x)
x∈X(Ω)
1 2 6 1
E(X) = 2 + 3 + . . . + 7 + . . . + 12 = 7
36 36 36 36
Remarque 15. L’espérance de X peut-être vue comme la « moyenne » des valeurs prises
par X. Chaque valeur x est prise avec une probabilité px = P (X = x) d’apparaître. La
proposition ci-dessous nous donne une autre façon de calculer une espérance.
Démonstration.
X X X
P ({ω})X(ω) = P ({ω})X(ω)
ω∈Ω x∈X(Ω) ω∈Ω|X(ω)=x
X X
= x P ({ω})
x∈X(Ω) ω∈Ω|X(ω)=x
X
= xP (X = x)
x∈X(Ω)
= E(X)
• Variable aléatoire constante : Soit X une variable aléatoire réelle constante, de valeur
m. On a évidemment E(X) = m. En corollaire, si X est une variable aléatoire réelle,
le réel E(X) peut être considéré comme une variable aléatoire constante. Donc, un
peu abusivement,
E(E(X)) = E(X)
• Loi uniforme : soit X une variable aléatoire réelle prenant les valeurs x1 , . . . , xn
selon une loi uniforme. On a
n
1X
E(X) = xk
n
k=1
E(X) = P (X = 0) × 0 + P (X = 1) × 1 = (1 − p) × 0 + p × 1 = p
• Loi binomiale : soit n ≥ 1, p ∈ [0, 1]. soit X une variable aléatoire suivant la loi
B(n, p). On a
n
X n k
E(X) = k p (1 − p)n−k
k
k=0
Nous allons calculer un peu péniblement cette somme, mais nous verrons très bientôt
que l’espérance de la loi binomiale peut être obtenue beaucoup plus simplement. On
5. ESPÉRANCE 565
a
n n
X n k n−k
X n!
k p (1 − p) = pk (1 − p)n−k
k (k − 1)!(n − k)!
k=0 k=1
n−1
X n!
= pk+1 (1 − p)n−1−k
(k)!(n − k − 1)!
k=0
n−1
X n − 1
= np pk (1 − p)n−1−k
k
k=0
= np(p + 1 − p)n−1
= np
5.3 Propriétés
Démonstration.
X
E(αX + βY ) = P ({ω})(αX(ω) + βY (ω))
ω∈Ω
X X
= α P ({ω})X(ω) + β P ({ω})Y (ω)
ω∈Ω ω∈Ω
= αE(X) + βE(Y )
Exemple. Revenons à l’espérance d’une variable aléatoire X suivant une loi binomiale
B(n, p). L’espérance de X ne dépend que de la loi de X, et pas de X elle-même. Plus
clairement, toutes les variables aléatoires suivant la loi B(n, p) ont la même espérance. On
peut donc prendre
X = X1 + . . . + Xn
où les Xk sont n variables aléatoires (indépendantes, mais on n’en a pas besoin) suivant la
loi de Bernoulli B(p). Par linéarité de l’espérance, on a
n
X n
X
E(X) = E(Xk ) = p = np
k=1 k=1
C’est quand même plus facile que le calcul fait plus haut.
566 CHAPITRE 31. VARIABLES ALÉATOIRES
Exemple. Retour à la somme des deux dés. Soit X la variable aléatoire « valeur du
premier dé ». Soit Y la variable aléatoire « valeur du deuxième dé. On a
7
E(X) = E(Y ) =
2
(loi uniforme). D’où
E(X + Y ) = 7
ce qui est une façon beaucoup plus simple d’obtenir l’espérance que de calculer la loi de
X +Y !
Exemple. Espérance de la loi hypergéométrique. Soit S le nombre de boules rouges tirées
d’une urne lors d’un tirage de n boules dans une urne sans remise. Alors,
S = X1 + . . . + Xn
n
X
E(S) = E(Xk ) = np
k=1
Remarque 16. Nous avons là un exemple d’un phénomène très fréquent. Pour calculer
l’espérance d’une variable aléatoire réelle, on n’a parfois pas besoin de connaître sa loi. Si
une variable aléatoire s’exprime en fonction d’autres variables aléatoires dont on connaît
l’espérance, on a alors l’espoir d’obtenir l’espérance de notre variable. Voyons tout de suite
un autre exemple, où cette idée s’applique pleinement.
Exercice. On munit Sn de la probabilité uniforme P . Soit X : Sn → R définie par
X(σ) = le nombre de points fixes de σ. Calculer E(X).
Pour i = 1, . . . , n, soit Xi (σ) = 1 si σ(i) = i, et 0 sinon. {Xi = 1} est l’ensemble des
permutations σ ∈ Sn telles que σ(i) = i c’est à dire, avec un léger abus, l’ensemble des
permutations de l’ensemble J1, nK \ {i}. On a donc |{Xi = 1}| = (n − 1)!, d’où
|{Xi = 1}| (n − 1)! 1
P (Xi = 1) = = =
|Sn | n! n
Comme Xi ne prend que les valeurs 0 et 1, c’est une variable de Bernoulli. On a donc
1
E(Xi ) = P (Xi = 1) =
n
Enfin,
n
X
X= Xk
k=1
5. ESPÉRANCE 567
Cette somme est clairement positive puisque X(Ω) ⊂ R+ . De plus elle est nulle si et
seulement si
∀x ∈ X(Ω) \ {0}, P (X = x) = 0
ce qui équivaut à
X
P (X = x) = 0
x∈X(Ω),x6=0
Soit X
Y = ϕ(x)1(X=x)
x∈X(Ω)
Soit ω ∈ Ω. On a
X
Y (ω) = ϕ(x)1(X=x) (ω)
x∈X(Ω)
X
= ϕ(x)δX(ω),x
x∈X(Ω)
= ϕ(X(ω))
= ϕ(X)(ω)
Remarque
P 17. Si X est une variable aléatoire réelle et ϕ = idR , on obtient E(X) =
x∈X(Ω) xP (X = x), c’est à dire la définition de l’espérance. Ce qui est évidemment
heureux.
Exemple. La variable aléatoire X prend les valeurs −1, 0, 1, 2 et suit une loi uniforme.
On a E(X) = 21 , E(X 2 ) = 14 (−1)2 + 14 02 + 41 12 + 14 22 = 32
Exercice. Calculer E(X 4 ).
6. VARIANCE, ÉCART-TYPE, COVARIANCE 569
E(XY ) = E(X)E(Y )
Démonstration.
X X
E(X)E(Y ) = xP (X = x) yP (Y = y)
x∈X(Ω) y∈Y (Ω)
X
= xyP (X = x)P (Y = y)
(x,y)∈X(Ω)×Y (Ω)
P
La somme xy=z P (X = x, Y = y) n’est autre que P (XY = z), d’où le résultat.
Remarque 18. L’indépendance de X et Y est inutile pour la somme de deux va-
riables aléatoires, mais indispensable pour leur produit. Prenons par exemple X de
loi de Bernoulli B(p), et Y = X. On a XY = X 2 = X, donc E(XY ) = p. Mais
E(X)E(Y ) = E(X)2 = p2 , donc E(X)2 6= E(X 2 ) sauf dans les cas triviaux où p = 0
ou p = 1.
Remarque 19. L’intérêt de l’écart-type est d’avoir la même dimension que X. Si X est
exprimé en mètres, par exemple, alors V (X) est exprimée en mètres carrés, mais σ(X)
est aussi exprimé en mètres. C’est l’écart-type qui mesure l’écart de X à sa moyenne.
Nous préciserons davantage cela un peu plus loin, lorsque nous parlerons de l’inégalité de
Bienaymé-Tchebychev.
Démonstration.
V (X) = E(X 2 − 2E(X)X + E(X)2
= E(X 2 ) − 2E(X)E(X) + E(X)2
= E(X 2 ) − E(X)2
35
Exemple. On lance deux dés parfaits. Soit X la somme des deux dés. On a V (X) = 6
q
et σ(X) = 35
6 ' 2.4.
V (aX + b) = a2 V (X)
et
σ(aX + b) = |a|σ(X)
Démonstration. Soit Y = aX + b. On a
E(Y ) = aE(X) + E(b) = aE(X) + b
Donc
E((Y − E(Y ))2 = E(a(X − E(X)))2 ) = a2 E((X − E(X))2 ) = a2 V (X)
6. VARIANCE, ÉCART-TYPE, COVARIANCE 571
Définition 13.
• Une variable aléatoire réelle X est dite centrée lorsque E(X) = 0.
• Elle est dite réduite lorsque V (X) = 1.
Inversement, supposons V (X) = 0. Soit Y = (X − E(X))2 . L’énoncé nous dit que E(Y ) =
0. Mais Y ≥ 0. Donc, X − E(X) est presque sûrement nulle.
Loi uniforme
n2 − 1
V (X) =
12
572 CHAPITRE 31. VARIABLES ALÉATOIRES
Loi de Bernoulli
Proposition 24. Soit p ∈ [0, 1]. Soit X une variable aléatoire suivant une loi de
Bernoulli B(p). On a
V (X) = p(1 − p)
6. VARIANCE, ÉCART-TYPE, COVARIANCE 573
Loi binomiale
Proposition 25. Soit p ∈ [0, 1]. Soit n ≥ 1. Soit X une variable aléatoire suivant une
loi binomiale B(n, p). On a
V (X) = np(1 − p)
Proposition 26. Soit X une variable aléatoire à valeurs positives. Soit t > 0. On a
E(X)
P (X ≥ t) ≤
t
574 CHAPITRE 31. VARIABLES ALÉATOIRES
Démonstration.
X
tP (X ≥ t) = t P (X = x)
x∈X(Ω),x≥t
X
= tP (X = x)
x∈X(Ω),x≥t
X
≤ xP (X = x)
x∈X(Ω),x≥t
X
≤ xP (X = x)
x∈X(Ω)
= E(X)
Exemple. Soit X une variable aléatoire suivant la loi binomiale B(n, p). On a donc pour
tout t > 0,
np
P (X ≥ t) ≤
t
Nous apprenons donc par exemple que
1
P (X ≥ 100np) ≤
100
1
C’est intéressant lorsque 100np < n, c’est à dire si p < 100 . Pour continuer l’exemple, si
1
p < 1000 , alors
n 1
P (X ≥ ) ≤ P (X ≥ 100np) ≤
10 100
Proposition 27. Soit X une variable aléatoire réelle. Soit m = E(X) l’espérance de
X. Soit σ = σ(X) l’écart-type de X. Soit λ > 0. On a
σ2
P (|X − m| ≥ λ) ≤
λ2
c’est à dire
σ2
P (|X − m| ≥ λ) ≤
λ2
Remarque 22. Si on remplace λ par λσ dans l’inégalité, on obtient une autre forme plus
homogène de l’inégalité de Bienaymé-Tchebychev :
1
P (|X − m| ≥ λσ) ≤ 2
λ
Anticipons un peu sur les propriétés de la variance. Nous montrerons à la fin du chapitre
que si X1 , . . . , Xn sont n variables aléatoires réelles indépendantes, alors
n n
!
X X
V Xk = V (Xk )
k=1 k=1
Ainsi,
n
!
1 X
V (Y ) = V Xk
n2
k=1
n
1 X
= V (Xk )
n2
k=1
σ2
=
n
Appliquons maintenant l’inégalité de Bienaymé-Tchebychev à Yn . On a
V (Yn ) σ2
P (|Yn − m| ≥ ε) ≤ =
ε2 nε2
Ainsi,
P (|Yn − m| ≥ ε) −→ 0
n→∞
d’où le résultat, puisque
Remarque 24. Regardons un cas particulier de ce théorème, en prenant pour les Xn des
variables aléatoires indépendantes suivant une même loi de Bernoulli de paramètre p. Soit
A un événement de probabilité p. L’événement A représente le succès d’une expérience
aléatoire. On réalise n fois cette expérience, et on appelle ns le nombre de succès, de sorte
que
ns = X1 + . . . + Xn
On a alors, pour tout ε > 0,
ns
P( − p < ε) → 1
n
lorsque n tend vers l’infini. Le quotient nns tend donc d’une certaine façon vers p (c’est ce
qu’on appelle la convergence en probabilité), ce que l’on mourait d’envie de savoir depuis le
début du chapitre précédent. On peut en réalité faire mieux que cela (il s’agit entre autres
de la loi forte des grands nombres), mais ceci est une autre histoire.
6. VARIANCE, ÉCART-TYPE, COVARIANCE 577
6.5 Covariance
Démonstration. Seul le dernier point mérite qu’on s’y attarde. Considérons la fonction
f : R → R définie par
f (t) = E((X + tY )2 )
La fonction f est donc une fonction polynomiale de degré inférieur ou égal à 2. Deux cas
se présentent.
• E(Y 2 ) 6= 0, c’est à dire que Y n’est pas presque sûrement nulle. f est de degré 2 et
de signe constant, son discriminant est donc négatif ou nul :
d’où
E(XY )2 ≤ E(X 2 )E(Y 2 )
Cov(XY )2 ≤ V (X)V (Y )
Cov(XY )2 = V (X)V (Y ) = 0
|Cov(X, Y )| = σ(X)σ(Y )
aX + bY + c = 0
presque sûrement.
Démonstration.
6. VARIANCE, ÉCART-TYPE, COVARIANCE 579
et
0X + 1Y − γ = 0
presque sûrement.
? Y n’est pas est constante presque sûrement. On reprend la démonstration de la
proposition précédente. Le déterminant de la fonction polynomiale f de degré 2
est nul, c’est à dire que f admet une racine (double). Il existe donc t ∈ R tel
que f (t) = 0, c’est à dire
On en déduit que la variable aléatoire X − E(X) + t(Y − E(Y )) est nulle presque
sûrement, ou encore
X + tY − (E(X) + tE(Y )) = 0
Cov(X, Y ) = Cov(A + B, B + C)
= Cov(A, B) + Cov(A, C) + Cov(B, B) + Cov(B, C)
= Cov(A, B) + Cov(A, C) + Cov(B, C) + V (B)
Les trois covariances sont nulles puisque les variables aléatoires sont indépendantes. Et B
suit une loi uniforme, donc
62 − 1 35
V (B) = =
12 12
580 CHAPITRE 31. VARIABLES ALÉATOIRES
35
Ainsi, Cov(X, Y ) = 12 .
35
Remarquons que l’inégalité de Schwarz est bien vérifiée, puisque Cov(X, Y ) = 12 alors que
σ(X)σ(Y ) = σ(X)2 = 356 .
Remarque 26. Toute ressemblance avec les propriété des produits scalaires est non
fortuite. Mais Cov n’est pas un produit scalaire. C’est une forme bilinéaire symétrique
positive (sur quel espace ?). En revanche, Cov(X, X) = 0 si et seulement si V (X) = 0 c’est
à dire si et seulement si X est constante presque sûrement. Mais pas nulle !
Les ressemblances avec les produits scalaires ne s’arrêtent pas là. Nous allons montrer deux
égalités qui correspondent, dans les espaces préhilbertiens, aux identités de polarisation.
V (X + Y ) = Cov(X + Y, X + Y )
= Cov(X, X) + 2Cov(X, Y ) + Cov(Y, Y )
V (X + Y ) = V (X) + V (Y )
Exemple. Exemple du lancer de deux dés. Soit X = A + B la somme des valeurs des
deux dés. Les variables aléatoires A et B sont indépendantes, donc
35 35 35
V (X) = V (A) + V (B) = + =
12 12 6
La morale de l’histoire, c’est que si on connaît espérance et variance du lancer de 1 dé, on
peut calculer sans aucun effort espérance et variance du lancer de deux dés, trois dés, etc..
Corollaire 36. Soit n ≥ 1. Soit p ∈ [0, 1]. Soit X une variable aléatoire suivant la loi
binomiale B(n, p). On a
V (X) = np(1 − p)
Démonstration. Car X suit la même loi que la somme de n variables aléatoires indé-
pendantes suivant la loi de Bernoulli B(p). On peut donc additionner les variances.
Pour finir en beauté, nous allons calculer la variance de la loi hypergéométrique. Remettons
d’abord toutes les notations en place. Une urne contient N ≥ 2 boules, dont r sont rouges
et v = N − r sont vertes. Soit 1 ≤ n ≤ N . On effectue n tirages sans remise dans l’urne.
Choisissons pour univers Ω l’ensemble des n-uplets d’entiers distincts de l’ensemble J1, N K.
Munissons Ω de la probabilité P uniforme.
Pour k ∈ J1, nK, soit Xk : Ω → {0, 1} définie par Xk (x1 , . . . , xn ) = 1 si xk est rouge, et
0 sinon. On peut par exemple convenir que x est rouge si 1 ≤ x ≤ r, et x est vert si
r + 1 ≤ x ≤ N . Notons enfin
Xn
S= Xk
k=1
Nous avons déjà vu que les variables aléatoires Xk suivent une loi de Bernoulli de paramètre
p = Nr . Nous avons donc E(Xk ) = Nr . Il en résulte que
n
X nr
E(S) = E(Xk ) =
N
k=1
r(N −r)
Les variances des Xk nous sont connues, elles valent p(1 − p) = N2
. Il reste à calculer
les covariances.
582 CHAPITRE 31. VARIABLES ALÉATOIRES
(x1 , x2 , . . . xn ) 7→ (xi , xj , . . . , xn )
qui échange x1 et xi , ainsi que x2 et xj , est une bijection de Ω sur Ω. Les événements
{X1 = 1, X2 = 1} et {Xi = 1, Xj = 1} sont donc en bijection. Comme la probabilité P est
la probabilité uniforme, ces deux événements ont la même probabilité. Or,
puisque la variable aléatoire Xi Xj suit une loi de Bernoulli (elle ne prend que 0 et 1 pour
valeurs). Ainsi,
E(Xi Xj ) = E(X1 X2 )
et donc
Cov(Xi , Xj ) = Cov(X1 , X2 ) = E(X1 X2 ) − E(X1 )E(X2 )
Que vaut E(X1 X2 ) ?
r−1 r
E(X1 X2 ) = P (X1 = 1, X2 = 1) = P (X2 = 1|X1 = 1)P (X1 = 1) =
N −1N
et donc
r−1 r r r r(N − r)
Cov(X1 , X2 ) = − =− 2
N −1N NN N (N − 1)
Remarquons enfin que le nombre de couples (i, j) tels que 1 ≤ i < j ≤ n est 21 n(n − 1). De
là,
1
V (S) = nV (X1 ) + 2 n(n − 1)Cov(X1 , X2 )
2
nr(N − r) r(N − r)
= − n(n − 1) 2
N2 N (N − 1)
r r n(n − 1)
= n (1 − ) 1 −
N N N (N − 1)
= λnp(1 − p)
où
n(n − 1)
λ=1−
N (N − 1)
Nous constatons que cette variance est inférieure à celle que nous aurions obtenue pour un
tirage avec remise. Nous voyons également que si n est petit devant N , λ ' 1 et la variance
de S s’approche alors de la variance np(1 − p) de la loi binomiale du tirage sans remise.
Enfi, si n = N , on a V (S) = 0 ce qui est normal puisque dans ce cas S est constante égale
à r (si on retire toutes les boules de l’urne, le nombre de boules rouges tirées est constant
égal à r).
Chapitre 32
Espaces préhilbertiens
583
584 CHAPITRE 32. ESPACES PRÉHILBERTIENS
1 Produits scalaires
Notation. Les produits scalaires sont notés de beaucoup de façons : x.y ou (x|y) ou
< x, y >, etc. Dans la suite, nous utiliserons la notation < •, • >.
Exemple.
• Prenons E = Rn . Le produit scalaire canonique sur E est
n
X
< x, y >= xk yk
k=1
• Prenons E = R[X] :
Z 1
< P, Q >= P (x)Q(x) dx
−1
• Prenons E = Mn (R) :
< A, B >= tr(AT B)
Le lecteur est invité à vérifier que l’on a bien là des produits scalaires.
Exercice. Trouver tous les produits scalaires sur Rn pour n = 1 et n = 2.
Pour n = 1, c’est immédiat. Soit E un R-espace vectoriel de dimension 1. Soit e un vecteur
non nul de E. Soit <, > un produit scalaire sur E. On a pour tous x, y ∈ R,
où λ =< e, e >> 0. Inversement, pour tout λ > 0, la fonction (xe, ye) 7→ λxy est clairement
un produit scalaire sur E.
1. PRODUITS SCALAIRES 585
Définition 2. On appelle espace préhilbertien réel tout espace vectoriel réel muni
d’un produit scalaire. On appelle espace euclidien tout espace préhilbertien réel de
dimension finie .
Démonstration.
• Si y est nul, on a égalité, ce qui prouve la proposition dans ce cas particulier.
• Supposons donc y 6= 0. Soit λ un réel. Alors,
0 ≤< x + λy, x + λy >=< x, x > +2λ < x, y > +λ2 < y, y >
On a là un trinôme du second degré qui garde un signe constant : son discriminant est
donc négatif ou nul : c’est l’inégalité de Schwarz. Si x et y sont colinéaires, l’égalité
est claire. Inversement, si il y a égalité, le trinôme ci-dessus a un discriminant nul.
Le trinôme a ainsi une racine réelle α. On a alors < x + αy, x + αy >= 0, d’où
x + αy = 0. Les vecteurs x et y sont liés.
Définition 3. Soit E un espace vectoriel réel (ou complexe). Une norme sur E est
une application Φ : E −→ R vérifiant :
• ∀x ∈ E, Φ(x) ≥ 0.
• ∀x ∈ E, Φ(x) = 0 ⇒ x = 0.
• ∀x ∈ E, ∀λ ∈ K, Φ(λx) = |λ|Φ(x) (homogénéité).
• ∀x, y ∈ E, Φ(x + y) ≤ Φ(x) + Φ(y) (inégalité de Minkowski).
Démonstration. L’inégalité triangulaire est la seule des propriétés qui soit non triviale :
Démonstration. Soit λ ∈ R. On a
kλuk = |λkuk
Définition 6. Soit E un ensemble non vide. On appelle distance sur E toute appli-
cation d : E × E −→ R vérifiant :
• ∀x, y ∈ E, d(x, y) ≥ 0.
• ∀x, y ∈ E, d(x, y) = 0 ⇔ x = y.
• ∀x, y ∈ E, d(x, y) = d(y, x).
• ∀x, y, z ∈ E, d(x, z) ≤ d(x, y) + d(y, z).
588 CHAPITRE 32. ESPACES PRÉHILBERTIENS
Démonstration.
• ||x + y||2 =< x + y, x + y >= ||x||2 + ||y||2 + 2 < x, y > par bilinéarité du produit
scalaire.
• Preuve identique au premier point.
• Soustraire les égalités du premier point.
• Réarranger l’égalité du premier point.
• Réarranger l’égalité du deuxième point.
• Additionner les égalités du premier point.
Exercice. On définit sur R2 ||(x, y)|| = |x| + |y|. Vérifier que l’on a là une norme, mais
que cette norme n’est pas euclidienne.
La propriété de norme est facile à vérifier. Supposons maintenant que l’on a là une norme
euclidienne, associée à un produit scalaire < •, • > sur R2 .
Prenons u = (1, 1), v = (1, −2) et w = (−1, 1). On a
kuk = 2, kvk = 3, kwk = 2
On a aussi
ku + vk = 3, ku + wk = 2, kv + wk = 1, ku + v + wk = 1
De là, par l’identité de polarisation,
1 1
< u, w >= (ku + wk2 − kuk2 − kwk2 ) = (4 − 4 − 4) = −2
2 2
2. ORTHOGONALITÉ 589
De même,
1
< v, w >= (1 − 9 − 4) = −6
2
et donc, par bilinéarité du produit scalaire,
1 1
< u + v, w >= (ku + v + wk2 − ku + vk2 − kwk2 ) = (1 − 9 − 4) = −6
2 2
On a donc une contradiction. Ainsi, cette norme ne peut pas être une norme euclidienne.
2 Orthogonalité
Démonstration.
• Le produit scalaire est symétrique, donc l’orthogonalité des vecteurs est une relation
symétrique.
• x⊥x ⇐⇒ < x, x >= 0 ⇐⇒ x = 0.
• si x est orthogonal à tous les vecteurs de E il est orthogonal à lui-même. Donc il
est nul.
590 CHAPITRE 32. ESPACES PRÉHILBERTIENS
Si, de plus, on a ∀i ∈ I, < ei , ei >= 1, on dit que la famille est orthonormée (ou
orthonormale).
n 2 n
X X
ek = kek k2
k=1 k=1
Démonstration.
n 2 n n
X X X
ek = < ek , ek >
k=1 k=1 k=1
n
X X
= kek k2 + 2 < ei , ej >
k=1 i<j
On parle ainsi par exemple de deux droites orthogonales du plan ou de l’espace, ou encore
d’une droite et d’un plan orthogonaux dans R3 . En revanche, deux plans de R3 ne sont
jamais orthogonaux.
Exercice. Pourquoi ? Et est-ce que deux plans peuvent être orthogonaux en dimension
4?
A⊥ = {y ∈ E, ∀x ∈ A, < x, y >= 0}
Proposition 9.
1. E ⊥ = {0} et {0}⊥ = E.
2. A et A⊥ sont orthogonaux.
3. A⊥ est un sous-espace vectoriel de E.
4. A ⊂ B ⇒ B ⊥ ⊂ A⊥
5. A⊥ =< A >⊥
6. A ⊂ A⊥⊥
Remarque 2. Nous verrons bientôt que la dernière inclusion est en fait une égalité en
dimension finie.
Démonstration.
1. 0 est le seul vecteur de E orthogonal à tous les vecteurs de E, donc E ⊥ = {0}. Tous
les vecteurs de E sont orthogonaux à 0 donc {0}⊥ = E.
592 CHAPITRE 32. ESPACES PRÉHILBERTIENS
Dans cette partie, E est un espace euclidien (de dimension n sauf mention contraire).
Proposition 10. Soit B = (e1 , . . . , en ) une base de E. Il existe une base orthogonale
B 0 = (u1 , . . . , un ) de E telle que
k
X < ek+1 , ui >
uk+1 = ek+1 − ui
< ui , ui >
i=1
Dans la somme ci-dessus, tous les termes sont nuls (orthogonalité par l’hypothèse
de récurrence), sauf lorsque i = j. Il reste donc
< ek+1 , uj >
< uk+1 , uj >=< ek+1 , uj > − < uj , uj >= 0
< uj , uj >
Corollaire 11. Tout espace euclidien possède des bases orthogonales (et même ortho-
normales).
Remarque 4. Toute famille orthogonale de vecteurs non nuls de E peut être complétée
en une base orthogonale de E : il suffit pour cela d’appliquer :
• le théorème de la base incomplète, puis
• l’algorithme de Schmidt (à partir d’un certain rang).
Exercice. Orthogonaliser la famille des trois vecteurs de l’espace, (1, 2, 3), (4, 5, 6) et
(7, 8, 8).
On reprend les notations du théorème de Gram-Schmidt. Posons e1 = (1, 2, 3), e2 = (4, 5, 6)
et e3 = (7, 8, 8). La famille B = (e1 , e2 , e3 ) est bien une base de E (calculer par exemple
594 CHAPITRE 32. ESPACES PRÉHILBERTIENS
2.5 Conséquences
Soit a = (1, −2, 3). Le vecteur u est dans P si et seulement si ϕa (u) =< a, u >= 0. Bref,
le théorème ci-dessus est une façon très abstraite d’exprimer que P est l’orthogonal de la
droite D = Vect(a).
Proposition 14. Soit E un espace euclidien. Soit B = (e1 , . . . , en ) une base ortho-
normée de E. Soient x, y ∈ E de coordonnées xi , yi dans la base B. On a alors
• xi =< x, eiP
>
• < x, y >=
P 2 x i yi
2
• ||x|| = xi
En définitive, tous les calculs sont identiques à ceux que l’on ferait dans Rn muni du produit
scalaire canonique.
Démonstration. Soit n est la dimension de E. La base B étant orthonormée, on a
• On a
n
X n
X n
X n
X n
X
< x, y >=< xi e i , yj ej >= xi yj < ei , ej >= xi yj δij = xi yi
i=1 j=1 i,j=1 i,j=1 i=1
• L’égalité ||x||2 = x2i est une conséquence du point précédent (prendre y = x).
P
Remarque 7. En base orthogonale, ces formules se compliquent un peu parce que les
normes kei k ne sont plus égales à 1. On a alors (exercice)
• xi = <x,e i>
kei k2 P
• < x, y >= 2
2
P ke2 i k2 xi yi
• ||x|| = kei k xi
Exercice. Que deviennent ces formules dans une base quelconque ?
596 CHAPITRE 32. ESPACES PRÉHILBERTIENS
3.1 Définitions
puisque pD + pH = idE .
Il est donc immédiat de calculer un projeté orthogonal sur une droite ou sur un hyperplan.
En clair, p(x), et lui seul, réalise le minimum de distance entre x et les vecteurs de F .
Démonstration. Soit y ∈ F . On a
y − x = (y − p(x)) + (p(x) − x)
Comme x − p(x) ∈ F ⊥ et y − p(x) ∈ F , ces deux vecteurs sont orthogonaux. Ainsi, par
Pythagore,
||y − x||2 = ||y − p(x)||2 + ||p(x) − x||2
ou encore d(x, y)2 = d(x, p(x))2 + d(p(x), y)2 . Comme un carré est positif, on a donc
d(x, y)2 ≥ d(x, p(x))2 . Et comme seul le carré de 0 est nul, on a égalité si et seulement si
d(p(x), y) = 0, c’est à dire y = p(x).
Exemple. En reprenant les expressions du projeté sur un hyperplan et une droite vus un
peu plus haut, on obtient que
• Si H = e⊥ est un hyperplan de E, alors
< x, e >
d(x, H) =
||e||
• Si D =< e > est une droite vectorielle, alors
2
< x, e >
d(x, D)2 = x − e
||e||2
Développons cette expression. On a
< x, e > < x, e >
d(x, D)2 = < x − e, x − e>
||e||2 ||e||2
< x, e > < x, e > 2
= kxk2 − 2 < x, e > +k ek
||e||2 ||e||2
< x, e >2
= kxk2 −
||e||2
1
kxk2 kek2 − < x, e >2
= 2
kek
598 CHAPITRE 32. ESPACES PRÉHILBERTIENS
Ainsi, p
||x||2 ||e||2 − < x, e >2
d(x, D) =
||e||
Chapitre 33
Endomorphismes orthogonaux
599
600 CHAPITRE 33. ENDOMORPHISMES ORTHOGONAUX
1 Généralités
On a
X =< f (x + y), f (ei ) > − < f (x), f (ei ) > − < f (y), f (ei ) >
par bilinéarité du produit scalaire. Comme f conserve les produits scalaires, on a donc
Le vecteur f (x + y) − f (x) − f (y) est donc orthogonal à tous les vecteurs d’une base de E,
et donc, par linéarité, à tous les vecteurs de E. Ainsi, f (x + y) = f (x) + f (y). On démontre
de façon analogue que pour tout vecteur x de E et tout réel λ, on a f (λx) = λf (x).
Exemple. Les symétries orthogonales sont un exemple important. Soit F un sous-espace
vectoriel de E. Soit s la symétrie par rapport à F , parallèlement à F ⊥ . Alors, s est un
endomorphisme orthogonal de E. En effet, soient x = x0 + x00 et y = y 0 + y 00 deux vecteurs
de E décomposés suivant F ⊕ F ⊥ . On a f (x) = x0 − x00 et f (y) = y 0 − y 00 . D’où
car les produits scalaires des « primes » par les « secondes » sont nuls. Mais cette quantité
est aussi < x, y >.
1. GÉNÉRALITÉS 601
Définition 2. Une symétrie orthogonale par rapport à un hyperplan est appelée une
réflexion. Une symétrie orthogonale par rapport à un sous-espace vectoriel de dimension
n − 2 (où n est la dimension de E) est appelée un demi-tour.
Remarque 2. Le déterminant d’une réflexion vaut −1. Celui d’un demi-tour est égal à
1.
Notation. On note O(E) l’ensemble des endomorphismes orthogonaux de E.
Remarque 3. La réciproque est fausse : par exemple, les translations conservent les
distances mais ne sont pas linéaires. On peut montrer en revanche que si f conserve les
distances et f (0) = 0, alors f ∈ O(E). Nous laissons ce résultat en exercice.
Proposition 4. On rappelle que l’écart angulaire entre deux vecteurs non nuls x et y
est l’unique réel θ ∈ [0, π] tel que
< x, y >
cos θ =
||x||||y||
Démonstration. Si f ∈ O(E), alors f conserve les produits scalaires, donc les vecteurs
orthogonaux. f conserve également la norme, donc les vecteurs unitaires. Donc f conserve
les bases orthonormées.
Démonstration. L’équivalence des trois premiers points est un résultat connu : une
matrice carrée est inversible à gauche si et seulement si elle est inversible à droite, et
inverse à gauche et à droite sont alors uniques et égaux (à l’inverse de la matrice).
Le premier et le quatrième point sont clairement équivalents : à la ligne i, colonne j de
t M M , on trouve justement le produit scalaire des colonnes i et j de la matrice M .
convient car ses colonnes sont de norme 1, et orthogonales deux à deux (le vérifier !).
Proposition 10. Les ensembles SO(E) et SOn (R) formés respectivement des endo-
morphismes orthogonaux de déterminant 1 et des matrices orthogonales de déterminant
1 sont des groupes. Ces deux groupes sont isomorphes. On les appelle respectivement
le groupe spécial-orthogonal de E et le groupe spécial-orthogonal d’ordre n.
Démonstration. Ce sont des groupes, car ce sont les noyaux du morphisme « déterminant
». Ils sont isomorphes par le même isomorphisme que celui vu un peu avant.
0
Proposition 11. Soient B, B 0 deux bases de E. Soit P = PBB la matrice de passage
de B à B 0 . Soient x1 , . . . , xn n vecteurs de E. Soient U = matB (x1 , . . . , xn ) et U 0 =
matB0 (x1 , . . . , xn ). On a
U = PU0
Corollaire 13. Le déterminant detB (x1 , . . . , xn ) est le même dans toutes les bases
orthonormées directes B.
Démonstration. La matrice de passage d’une b.o.n.d à une autre b.o.n.d est une matrice
de rotation. Son déterminant est donc égal à 1.
[x1 , . . . , xn ] = det(x1 , . . . , xn )
B
On se donne dans cette section f ∈ O(E), où E est un plan euclidien orienté. On suppose
fixée une base orthonormée B de E. On appelle M la matrice de f dans cette base. La
a c
matrice M est donc orthogonale. Posons M = .
b d
Les deux premières égalités nous disent qu’il existe des réels θ et ϕ tels que a = cos θ,
b = sin θ, c = cos ϕ,d = sin ϕ. La seconde égalié montre qu’alors cos(ϕ − θ) = 0. Deux cas
se présentent :
• Si ϕ ≡ θ + π/2 mod (2π), alors
cos θ − sin θ
M=
sin θ cos θ
606 CHAPITRE 33. ENDOMORPHISMES ORTHOGONAUX
Proposition 14. L’application φ : R → SO2 (R) définie par φ(θ) = M (θ) est un
morphisme de groupes surjectif.
M (θ)M (θ0 ) = M (θ + θ0 )
D’où la propriété de morphisme. Cette application est surjective par définition même de
SO2 (R). Remarquons enfin que M (θ) = I si et seulement si θ ∈ 2πZ. Notre morphisme a
donc l’ensemble 2πZ pour noyau, et n’est donc pas un isomorphisme.
Si l’on veut fabriquer un isomorphisme entre SO2 (R) et un groupe connu, il nous faut
quelque chose qui représenterait les réels « modulo 2π ». Cela existe : c’est par exemple le
groupe U des nombres complexes de module 1.
Proposition 15. L’application φ : U → SO2 (R) définie par φ(eiθ ) = M (θ) est un
isomorphisme de groupes.
2. LE GROUPE ORTHOGONAL DU PLAN 607
M 0 = P −1 M P
= M (−φ)M (θ)M (φ)
= M (−φ + θ + φ)
= M
π
Exemple. Quelle est la matrice de la rotation de E d’angle 3 ? C’est
√ !
1 3
√2
− 2
3 1
2 2
Proposition 17. Soient x et y deux vecteurs non nuls de E. Il existe une unique
rotation f telle que
x y
f =
||x|| ||y||
L’angle de cette rotation (défini modulo 2π) est appelé angle (orienté) entre les vecteurs
x et y.
Proposition 18. Soient x et y deux vecteurs non nuls du plan. Soit θ l’angle orienté
entre x et y. On a
< x, y > = ||x||||y|| cos θ
[x, y] = ||x||||y|| sin θ
3 Produit vectoriel
Démonstration. L’application w 7→ [u, v, w] est une forme linéaire sur E. Et on sait que
l’application a 7→< a, . > est un isomorphisme de E sur son dual E ∗ .
< (u + u0 ) ∧ v, w > = [u + u0 , v, w]
= [u, v, w] + [u0 , v, w]
= < u ∧ v, w > + < u0 ∧ v, w >
= < u ∧ v + u0 ∧ v, w >
D’où
(u + u0 ) ∧ v = u ∧ v + u0 ∧ v
610 CHAPITRE 33. ENDOMORPHISMES ORTHOGONAUX
e1 ∧ e2 = e3 , e2 ∧ e3 = e1 , e3 ∧ e1 = e2
Ainsi, la famille (u, v, a) est une base (pas orthogonale en général !) directe puisque son
déterminant est strictement positif. Pour caractériser complètement a, il nous faudrait sa
norme. C’est ce que nous allons faire.
3. PRODUIT VECTORIEL 611
Proposition 25. Soient u et v deux vecteurs non nuls. Soit θ l’écart angulaire entre
u et v. On a
ku ∧ vk = kukkvk sin θ
Soit enfin u00 tel que (u, u0 , u00 ) soit une base orthonormée directe. On a alors
u ∧ v = u ∧ (cos θ u + sin θ u0 ) = cos θ u ∧ u + sin θ u ∧ u0 = sin θ u00
et on en tire
||u ∧ v|| = sin θ
u ∧ v = < u1 e1 + u2 e2 + u3 e3 , v1 e1 + v2 e2 + v3 e3 >
= (u2 v3 − u3 v2 )e1 + (u3 v1 − u1 v3 )e2 + (u1 v2 − u2 v1 )e3
La formule n’est pas très jolie, un bon moyen de s’en souvenir est de la voir comme un
« déterminant » 3 × 3 dont la troisième colonne contient des vecteurs. Plus précisément,
on a la formule formelle
u1 v1 e1
u ∧ v = u2 v2 e2
u3 v3 e3
Démonstration. Écrire les vecteurs u, v, w dans une b.o.n.d et développer les deux
membres de l’égalité.
Remarque 7. Le produit vectoriel n’est donc pas associatif.
Exercice. Soient u, v, w ∈ E. Montrer que
[u ∧ v, v ∧ w, w ∧ u] = [u, v, w]2
On a
[u ∧ v, v ∧ w, w ∧ u] =< u ∧ v, (v ∧ w) ∧ (w ∧ u) >
Par la formule du double produit vectoriel,
Le produit scalaire < v ∧ w, w > est nul puisque v ∧ w est orthogonal à w. Donc
(v ∧ w) ∧ (w ∧ u) = < v ∧ w, u > w
= [v, w, u]w
= [u, v, w]w
De là,
Valeurs propres de f
Soit x ∈ E \ {0}. Supposons qu’il existe un réel λ tel que f (x) = λx. Alors, λ = ±1. En
effet, ||f (x)|| = ||λ|||x||, mais aussi ||f (x)|| = ||x|| par conservation de la norme. Comme x
est non nul, il vient |λ| = 1..
Supposons qu’il existe une droite D stable par f . Soit e un vecteur directeur de D. Comme
f (e) ∈ D, il existe donc un réel λ tel que f (e) = λe. Donc, f (e) = ±e. Par linéarité, on a
donc f (x) = x pour tout x ∈ D, ou f (x) = −x pour tout x ∈ D.
Ce qui vient d’être dit ne s’applique bien sûr qu’aux droites stables. Par exemple, dans un
plan stable, il peut arriver qu’aucun vecteur (non nul) ne soit changé par f en un multiple
de lui-même (exemple : une rotation du plan, tout simplement).
bilan
Soit P le plan en question. La droite D = P ⊥ est alors stable par f . Les vecteurs de D
sont donc changés en leur opposé par f (hormis le vecteur nul, ils ne peuvent pas être
invariants, puisque les invariants sont tous dans P , et que D ∩ P = {0}). On constate donc
que f est la réflexion par rapport à P .
4. LE GROUPE ORTHOGONAL DE L’ESPACE 615
Un petit problème se pose alors : il convient d’orienter P , mais il n’y a aucune façon «
logique » d’effectuer cette orientation de manière compatible avec l’orientation de l’espace
E. On procède comme suit :
• On oriente la droite D en choisissant sur D un vecteur unitaire e3 (deux choix
arbitraires sont donc possibles).
• Une base orthonormée (e1 , e2 ) de P est déclarée directe lorsque la base (e1 , e2 , e3 )
est une base orthonormée directe de E.
Là, on est un peu embêtés. Cependant, on peut s’en tirer par une petite acrobatie. Soit λ un
réel. Il existe un vecteur x non nul tel que f (x) = λx si et seulement si det(f − λidE ) = 0.
Or l’application λ 7→ det(f − λidE ) est une fonction polynomiale de degré 3. Or, tout
polynôme de degré 3 a une racine réelle (théorème des valeurs intermédiaires). Il existe
donc un vecteur non nul x et un réel λ tel que f (x) = λx. Ce λ vaut −1 ou 1, mais ce n’est
pas 1. C’est donc −1.
Ainsi, l’ensemble G des vecteurs changés en leur opposé est un sous-espace vectoriel non
trivial de E. Il peut être de dimension 1,2 ou 3. Considérons chacun des trois cas :
• G = E : dans ce cas, f = −idE . Ce n’est pas une rotation.
• G est un plan. C’est impossible, car alors G⊥ serait une droite stable, nécessairement
composée de vecteurs invariants. Mais f n’a pas d’invariants à part le vecteur nul.
616 CHAPITRE 33. ENDOMORPHISMES ORTHOGONAUX
4.6 Conclusion
Nous montrons dans cette section que les réflexions engendrent O(E), c’est à dire que tout
endomorphisme orthogonal est une composée de réflexions. Ainsi, les réflexions sont des
endomorphismes orthogonaux élémentaires, en ce sens que l’on peut avec celles-ci fabriquer
tous les autres. Nous donnons une démonstration purement matricielle. Elle a l’avantage
d’être rapide, mais de cacher le sens géométrique de ce théorème. Il est conseillé de faire
l’exercice qui suit la proposition.
Démonstration. Nous allons démontrer que toute rotation est la composée de deux ré-
flexions. Comme les endomorphismes orthogonaux de E sont les rotations et les composées
d’une réflexion et d’une rotation, cela prouvera le théorème. Soit f une rotation différente
de l’identité, d’angle θ. Dans une base B orthonormée directe judicieuse, la matrice de f
est
cos θ − sin θ 0
M = sin θ cos θ 0
0 0 1
4. LE GROUPE ORTHOGONAL DE L’ESPACE 617
Soit
cos θ sin θ 0
A = sin θ − cos θ 0
0 0 1
A est une matrice orthogonale et A2 = I. C’est donc une matrice de symétrie orthogonale.
De plus, det A = −1 et A 6= −I, c’est donc la matrice d’une réflexion. De même,
1 0 0
B = 0 −1 0
0 0 1
Démonstration. Nous allons démontrer que toute rotation est la composée de deux demi-
tours. Soit f une rotation différente de l’identité, d’angle θ. Dans une base B orthonormée
directe judicieuse, la matrice de f est
cos θ − sin θ 0
M = sin θ cos θ 0
0 0 1
Soit
cos θ sin θ 0
A = sin θ − cos θ 0
0 0 −1
A est une matrice orthogonale et A2 = I, donc A est une matrice de symétrie orthogonale.
De plus, det A = 1 et A 6= I, c’est donc la matrice d’un demi-tour. De même,
1 0 0
B = 0 −1 0
0 0 −1
5 Compléments
5.1 Écart angulaire entre un vecteur et son image par une rotation
Soit f une rotation de l’espace d’angle θ. Dans une bond B = (e1 , e2 , e3 ) judicieusement
choisie, la matrice de f est
cos θ − sin θ 0
M = sin θ cos θ 0
0 0 1
Soit x = ae1 + be2 + ce3 un vecteur unitaire de E. On a
f (x) = (a cos θ − b sin θ)e1 + (a sin θ + b cos θ)e2 + ce3
Ainsi,
< x, f (x) > = a(a cos θ − b sin θ) + b(a sin θ + b cos θ) + c2
= (a2 + b2 ) cos θ + c2
= cos θ + c2 (1 − cos θ)
Les vecteurs x et f (x) étant unitaires, cette quantité est égale à cos ϕ où ϕ est l’écart
angulaire entre x et f (x) : cos φ = cos θ + c2 (1 − cos θ). On constate que cos ϕ ≥ cos θ, c’est
à dire ϕ ≤ θ, avec égalité si et seulement si c = 0, c’est à dire si et seulement si le vecteur
x est orthogonal à l’axe de la rotation.
On reprend
f (x) = (a cos θ − b sin θ)e1 + (a sin θ + b cos θ)e2 + ce3
= cos θ(ae1 + be2 ) + sin θ(−be1 + ae2 ) + ce3
Par ailleurs, ae1 + be2 = x − ce3 , −be1 + ae2 = e3 ∧ x, et c =< x, e3 >. Donc,
f (x) = cos θ(x− < e3 , x > e3 ) + sin θe3 ∧ x+ < e3 , x > e3
Appelons ω le vecteur e3 (vecteur unitaire orientant l’axe). On obtient
Proposition 32. Soit f la rotation d’axe orienté par le vecteur unitaire ω, d’angle θ.
On a pour tout x ∈ E,
(b) Comment trouver cos θ ? Assez curieusement, c’est immédiat. En effet, les ma-
trice de f dans toutes les bases de E ont la même trace. Or, on sait qu’il existe
une base de E dans laquelle la matrice de f est
cos θ − sin θ 0
sin θ cos θ 0
0 0 1
1 + 2 cos θ = Tr A
(c) Enfin, comment trouver sin θ ? Connaissant déjà le cosinus, il nous suffit d’obtenir
le signe du sinus. Pour cela, reprenons la formule d’Euler-Rodrigues, vue au
paragraphe précédent. Soit u un vecteur de E. Calculons un produit mixte :
[u, f (u), e] = [u, (cos θ)u + (sin θ)ω ∧ u + (1 − cos θ) < ω, u > ω, e]
= (cos θ)[u, u, e] + (sin θ)[u, ω ∧ u, e] + (1 − cos θ) < ω, u > [u, ω, e]
Proposition 33. Le signe de sin θ est le signe de [u, f (u), e] où u est n’im-
porte quel vecteur non colinéaire à e.
5.4 Un exemple
Suivons le plan . . .
Sa résolution ne pose aucune difficulté. On obtient que les invariants par f sont la
droite D =< e > où e = (3, −1, −1). f est donc une rotation d’axe D.
(a) Décidons d’orienter D par le vecteur e. Il reste à déterminer l’angle θ de la
rotation f .
16 7
(b) On a 1 + 2 cos θ = Tr A = 9 . Ainsi, cos θ = 18 et donc
7
θ ≡ ± arccos [2π]
18
(c) Déterminons le signe de sin θ. Pour cela, prenons un vecteur non colinéaire à e :
u = (1, 0, 0) fera l’affaire ! On lit f (u) = 19 (8, −4, 1) dans la première colonne de
A. Le signe de sin θ est celui du produit mixte
1 8 3
1 5
[u, f (u), e] = 0 −4 −1 = >0
9 9
0 1 −1
623
624 CHAPITRE 34. SÉRIES
1 Généralités
Remarque 1. Comme pour les suites, les séries peuvent démarrer à un rang autre que
0. Pour les questions de convergence que nous allons bientôt aborder, les premiers termes
de la série ne jouent aucun rôle. En revanche, pour le calcul de ce que nous appellerons la
somme de la série, chaque terme importe.
P
L’inconvénient de la notation un est que l’on ne sait pas quel est le premier terme de la
série. Il faudra parfois être plus précis.
P
Remarque 2. Il convient de faire très attention à la notation un : ce n’est qu’une
notation
P abstraite, avec laquelle il ne s’agit pas de faire des calculs. La soi-disant « somme »
un est une fonction N → R ou C.
X
un = (Sn )n≥0
Exemple. Les deux séries ci-dessous joueront un rôle important dans l’étude de la conver-
gence d’une série.
• Soit q ∈ C. On appelle série géométrique de raison q la série
X
qn
P
Définition 2. Soit (un )n≥0 une suite de nombres complexes. On dit que la série un
converge lorsque la suite de ses sommes partielles est convergente. Sinon, on dit que la
série diverge. En cas de convergence, on appelle somme de la série, et on note
∞
X
un
n=0
la limite en question.
Ainsi,
∞
X N
X
un = lim un
N →+∞
n=0 n=0
Remarque 4. Cette définition est en réalité un pléonasme puisque une série EST la suite
de ses sommes partielles.
Remarque 5. On adapte évidemment la notation si la série démarre à un rang autre que
0.
P
Exercice. Soit (un )n≥0 une suite complexe. Soit P N ∈ N. Montrer que la série un (avec
n ≥ 0) est convergente si et seulement si la série un (avec n ≥ N + 1) est convergente
et que, lorsqu’il y a convergence,
∞
X N
X ∞
X
un = un + un
n=0 n=0 n=N +1
En d’autres termes, le fait de converger ou de diverger ne dépend pas des premiers termes
de la série.
Exemple. Soit q ∈ C. Si q = 1,
n
X
qk = n + 1
k=0
qui tend vers +∞ lorsque n tend vers l’infini. Si q 6= 1, on a
n
X 1 − q n+1
qk =
1−q
k=0
1
Cette quantité converge si et seulement si |q| < 1, et sa limite est alors 1−q .
626 CHAPITRE 34. SÉRIES
P n
Proposition 1. Soit q ∈ C. La série q converge si et seulement si |q| < 1. On a
alors
∞
X 1
qn =
1−q
n=0
P zn
Proposition 2. Soit z ∈ C. La série n! est convergente. Sa somme est
∞
X zn
= ez
n!
n=0
Démonstration. Soit f : [0, 1] → C définie par f (t) = etz . La fonction f est de classe
C ∞ sur [0, 1]. On peut donc lui appliquer l’inégalité de Taylor-Lagrange. Remarquons que
pour tout t ∈ [0, 1] et tout entier n, on a
où
1
|Rn | ≤ max |z n+1 etz |
(n + 1)! t∈[0,1]
Soit x = Re z. Remarquons que pour tout t ∈ [0, 1],
On a donc
|z|n+1
|Rn | ≤ max(1, ex )
(n + 1)!
Comme |z|n+1 = o((n + 1)!), on en déduit que Rn → 0 lorsque n tend vers l’infini. Ainsi,
n
X zk
−→ ez
k! n→∞
k=0
x2n x2n+1
Exercice. Soit x ∈ R. Montrer que les séries (−1)n (2n)! et (−1)n (2n+1)!
P P
sont conver-
gentes, et que
∞
X x2n
(−1)n = cos x
(2n)!
n=0
∞
X x2n+1
(−1)n = sin x
(2n + 1)!
n=0
P P
Proposition
P 3. Soient un et vn deux séries convergentes. Soient λ, µ ∈ R ou C.
La série (λun + µvn ) est alors convergente et on a
∞
X ∞
X ∞
X
(λun + µvn ) = λ un + µ vn
n=0 n=0 n=0
Démonstration. Soit n ∈ N. On a
n
X n
X n
X
(λuk + µvk ) = λ uk + µ vk
k=0 k=0 k=0
628 CHAPITRE 34. SÉRIES
1.3 Restes
P
Définition 3. Soit un une série convergente, de somme S. Les restes de la série
sont les nombres
Rn = S − Sn
Pn
où Sn = k=0 uk est la nième somme partielle de la série.
Remarque 8. La suite (Rn )n≥0 des restes tend évidemment versP 0 lorsque n tend vers
l’infini. Chaque reste Rn est en fait lui-même la somme de la série uk (où k ≥ n + 1) :
∞
X
Rn = uk
k=n+1
1 − q n+1 1
Sn = et S =
1−q 1−q
Donc
∞
X q n+1
Rn = S − Sn = qk =
1−q
k=n+1
P
Proposition 4. Soit un une série.
• Si cette série converge, alors son terme général un tend vers 0.
• La réciproque est fausse : il existe des (tas de) séries divergentes dont le terme
général tend vers 0.
Démonstration.
Pn Supposons que la série converge. La suite de terme général Sn =
k=0 uk converge donc vers une limite S qui est la somme de notre série. On a pour tout
n ≥ 1,
X n n−1
X
un = uk − uk = Sn − Sn−1
k=0 k=0
S’intéresser à la convergence d’une série, c’est par définition même s’intéresser à la conver-
gence d’une suite : la suite de ses sommes partielles. La fin de la démonstration précédente
suggère que pour s’intéresser à la convergence d’une suite, on peut si l’on veut s’intéresser
à la convergence d’une série.
Proposition 5. Soit (un )n≥0 une Psuite réelle ou complexe. La suite (un )n≥0 est conver-
gente si et seulement si la série (un+1 − un ) est convergente.
Les résultats qui suivent s’appliquent uniquement à des séries à termes réels positifs. Ils
sont essentiels dans l’étude de la convergence des séries.
P
Proposition 6. Soit un une série à termes réels. On suppose que pour tout n assez
grand, un ≥ 0. La série converge si et seulement si ses sommes partielles sont majorées.
P P
Proposition 7. Soient un et vn deux séries à termes réels. On suppose
0 ≤ un ≤ vn
P
• La série vn converge.
P
Alors la série un converge aussi.
P P
Corollaire 8. Soient un et vn deux séries à termes réels. On suppose
0 ≤ un ≤ vn
P
• La série un diverge.
P
Alors la série vn diverge aussi.
P P
Proposition 9. Soient un et vn deux séries à termes réels. On suppose
Démonstration. Tout d’abord, deux suites équivalentes ont même signe pour n assez
grand. Ainsi, pour tout n assez grand on a un et vn positifs.
P
Supposons que vn converge. Comme un ∼ vn , on a pour toutP n assez grand 0 ≤ un ≤
3 P 3
v
2 n . La série ( v
2 n ) est à termes positifs et convergente, donc un converge.
632 CHAPITRE 34. SÉRIES
P
Supposons inversement que un converge. Comme vn ∼ P un , on a pour tout n assez grand
0 ≤ vn ≤ 23 un . Donc de même que deux lignes plus haut vn converge.
Exemple. Considérons la série de terme général
n2 + 1 −n
un = e
3n2 + 2
n
On a pour tout n ∈ N, un ≥P0. De plus, un ∼ 13 1e , terme général d’une série géométrique
de raison 1e . Donc la série un converge.
P P
Proposition 10. Soient un et vn deux séries à termes positifs pour n assez
grand. On suppose que
• Les deux séries convergent.
• un ∼ vn lorsque n tend vers l’infini.
Alors les restes des deux séries sont équivalents : lorsque n tend vers +∞,
∞
X ∞
X
uk ∼ vk
k=n+1 k=n+1
Démonstration. Soit ε > 0. prenons ε < 1. Il existe un entier N tel que pour tout
n ≥ N on ait un , vn ≥ 0 et
un (1 − ε) ≤ vn ≤ un (1 + ε)
Soient n, p ≥ N tels que n < p. On a alors
p
X p
X p
X
(1 − ε) uk ≤ vk ≤ (1 + ε) uk
k=n+1 k=n+1 k=n+1
c’est à dire
(1 − ε)Rn ≤ Rn0 ≤ (1 + ε)Rn
où Rn et Rn0 sont les restes des séries n≥0 un et n≥0 vn . En résumé,
P P
f (k + 1) ≤ f (t) ≤ f (k)
c’est à dire
p
X Z p p−1
X
f (k) ≤ f (t) dt ≤ f (k)
k=n+1 n k=n
où l’inégalité (1) est valable pour 0 ≤ n ≤ p et l’inégalité (2) est valable pour 1 ≤ n ≤ p.
Si l’on connaît une primitive de f , on a alors un encadrement des sommes partielles de
la série qui permet très souvent de conclure à sa convergence ou à sa divergence. Nous
pouvons enfin régler le cas des séries de Riemann pour un exposant réel.
Démonstration.
• Pour α ≤ 0, le terme général ne tend pas vers 0, d’où la divergence grossière.
634 CHAPITRE 34. SÉRIES
1
• Supposons 0 < α < 1. On prend dans l’inégalité (1) ci-dessus f (x) = xα , n ← 1 et
p ← n. Il vient donc
n Z n+1
X 1 dt
α
≥
k 1 tα
k=1
1−α n+1
t
=
1−α 1
(n + 1)1−α − 1
=
1−α
Comme α < 1, le minorant tend vers +∞ lorsque n tend vers l’infini. Ainsi, par le
théorème de comparaison des limites,
n
X 1
−→ +∞
kα
k=1
La série est à termes positifs et ses sommes partielles sont majorées. Elle est donc
convergente.
Exercice. La comparaison séries-intégrales permet
P 1également d’évaluer des restes de séries
convergentes. Considérons par exemple la série n2
. Cette série converge, donc
∞
X 1
Rn =
k2
k=n+1
tend vers 0 lorsque n tend vers l’infini. Cherchons un équivalent de Rn . Pour cela, écrivons
l’inégalité :
Z p+1 p Z p
dt X 1 dt
2
≤(1) 2
≤(2) 2
n+1 t k n t
k=n+1
ou encore
p
1 1 X 1 1 1
− ≤ 2
≤ −
n+1 p+1 k n p
k=n+1
Ainsi
1
Rn ∼
n
lorsque n tend vers l’infini.
ou encore
ln(n + 1) ≤ Sn ≤ 1 + ln n
On en déduit aisément que Sn ∼ ln n lorsque n tend vers l’infini.
636 CHAPITRE 34. SÉRIES
lorsque n tend vers l’infini. Cela résulte de l’exemple du paragraphe précédent et du théo-
rème de l’équivalence des restes.
Estimons maintenant
n
X 1
wn = un − γ = − ln n − γ
k
k=1
Dans le calcul ci-dessus, nous avons
n
X
vn = un+1 − u1 = un+1 − 1
k=1
d’où
∞
X
γ =1+ vk
k=1
Ainsi,
n−1 ∞ ∞
!
X X X
wn = un − γ = 1 + vk − 1+ vk =− vk
k=1 k=1 k=n
La remarque faite un peu plus haut nous montre que
1
wn ∼
2n
En conclusion :
n
X 1 1 1
= ln n + γ + +o
k 2n n
k=1
4. CONVERGENCE ABSOLUE 637
n
X 1 1 1 1
= ln n + γ + − 2
+o
k 2n 12n n2
k=1
Application, si l’on veut calculer une valeur approchée de la constante d’Euler on a intérêt
à considérer par exemple la quantité
n
X 1 1 1
− ln n − +
k 2n 12n2
k=1
1
qui va converger vers γ aussi vite qu’un o n2
.
Considérons la fonction Python ci-dessous :
def approx_gamma(n):
s = 0
for k in range(1, n+1):
s = s + 1 / k
return s - log(n) - 1 / (2 * n) + 1 / (12 * n ** 2)
approx_gamma(1000) renvoie instantanément la valeur 0.577215664902 : tous les chiffres
sont exacts. Si l’on s’était contentés de return s - log(n), il aurait fallu additionner 1012
termes, c’est à dire attendre quelques semaines.
Remarque 12. Pourquoi tous les chiffres exacts ? EhPbien, croyez moi sur parole, le
terme suivant dans le développement asymptotique de nk=1 k1 est 120n 1
4 . Notre fonction
1
approx_gamma renvoie donc la valeur de γ avec une erreur de l’ordre de 120n 4 , et pour
−14
n = 1000, cette quantité est inférieure à 10 . Attention, ceci n’est pas une preuve ! Nous
n’avons pas un encadrement de l’erreur commise mais seulement un équivalent.
4 Convergence absolue
P P
Définition 4. Soit un une série àPtermes dans R ou C. On dit que la série un
converge absolument lorsque la série |un | converge.
638 CHAPITRE 34. SÉRIES
P (−1)n
Exemple. Soit α ∈ R. La série nα est absolument convergente si et seulement si
α > 1.
P 1
Proposition 12. Soit α ∈ C. La série nα est absolument convergente si et seule-
ment si Re(α) > 1.
D’où le résultat par le théorème sur les séries de Riemann à paramètre réel.
Proposition 13. Il existe des séries qui convergent, mais ne convergent pas absolu-
ment.
x = x+ − x− et |x| = x+ + x−
Démonstration. C’est évident, il n’y a qu’à considérer deux cas, selon le signe de x.
• Prouvons d’abord le théorème pour une série à termes réels.
P
Démonstration. Soit (un )n≥0 une suite réelle. Supposons que la série |un | est conver-
gente. On a, pour tout entier n,
−
0 ≤ u+
n ≤ |un | et 0 ≤ un ≤ |un |
P + P −
Les séries à termes positifs un et un ont donc leur terme général majoré par le terme
général d’une série convergente. On en déduit que ces deux séries convergent. Par linéarité,
la série X X
−
un = (u+
n − un )
0 ≤ |Re(un )| ≤ |un |
P
La série à termes réels
P Re(un ) est ainsi absolument convergente,
P donc convergente. De
même pour la série Im(un ) et, par linéarité, pour la série un .
Remarque 14. Soit n ∈ N. On a
n
X n
X
uk ≤ |uk |
k=0 k=0
par l’inégalité triangulaire pour les « sommes finies ». On passe à la limite dans l’inégalité
en faisant tendre n vers l’infini (les deux séries mises en jeu convergent), et on obtient
∞
X ∞
X
uk ≤ |uk |
k=0 k=0
640 CHAPITRE 34. SÉRIES
Corollaire 16. Soit (un )n≥0 une suite complexe.PSoit (vn )n≥0 une suite de réels posi-
P On suppose que un = O(vn ) et que la série
tifs. vn est convergente. Alors, la série
un est absolument convergente, donc convergente.
Que faire lorsqu’une série n’est pas absolument convergente ? Dans ce cas, il n’est pas
possible de ramener l’étude de celle-ci à l’étude d’une série à termes positifs. Il existe
cependant une classe de séries pour lesquelles on peut conclure à la convergence. Il s’agit
des séries alternées.
(−1)n un où la suite
P
Définition 5. Une série alternée est une série de la forme
(un )n≥0 est une suite réelle décroissante qui tend vers 0.
Proposition 17. Soit (un )n≥0 est une suite réelle décroissante qui tend vers 0. Notons
Sn la nième somme partielle de la série et Rn le nième reste. Alors,
• La série (−1)n un est convergente.
P
• Pour tout n ≥ 0, Rn est du signe de (−1)n+1 et
|Rn | ≤ un+1
Démonstration. Pour tout entier naturel n, notons Sn0 = S2n et Sn00 = S2n+1 . On a
0
Sn+1 − Sn0 = S2n+2 − S2n
2n+2
X 2n+2
X
= (−1)k uk − (−1)k uk
k=0 k=0
= u2n+2 − u2n+1
≤ 0
5. APPENDICE - REPRÉSENTATIONS P-ADIQUES DES RÉELS 641
Ainsi, la suite (Sn0 )n≥0 est décroissante. Par un calcul analogue, la suite (Sn00 )n≥0 est crois-
sante. Enfin, pour tout n ≥ 0,
2n
X 2n+1
X
Sn0 − Sn00 = (−1)k uk − (−1)k uk
k=0 k=0
= u2n+1
−→ 0
n→∞
Les suites (Sn0 )n≥0 et (Sn00 )n≥0 sont donc adjacentes. Elles convergent vers une même limite
S. Par la « réciproque » du théorème des suites extraites, la suite (Sn )n≥0 converge aussi
vers S.
Venons-en au signe et à la majoration de |Rn |. Par un résultat classique sur les suites
adjacentes, on a pour tout entier n ≥ 0,
S2n+1 ≤ S ≤ S2n
Ainsi,
|R2n | ≤ u2n+1
De même,
S2n+1 ≤ S ≤ S2n+2
et donc, en soustrayant S2n+1 ,
|Rn | ≤ un+1
Dans toute cette section, p désigne un entier supérieur ou égal à 2. Nous allons montrer
que « presque » tous les réels x ∈ [0, 1[ s’écrivent de façon unique comme la somme d’une
série :
∞
X ak
x=
pk
k=1
où les ak sont des entiers entre 0 et p − 1.
642 CHAPITRE 34. SÉRIES
Ce paragraphe n’a rien à voir avec les séries, mais avant de parler de la représentation
p-adique des réels il est logique, en guise d’échauffement, de commencer par s’intéresser
aux entiers.
Démonstration.
• Pour l’existence, on fait une récurrence forte sur n.
Pour n = 0 l’existence est immédiate : on prend tous les ak nuls.
Soit n ≥ 1. Supposons que les entiers entre 0 et n−1 s’écrivent sous la forme voulue.
Effectuons la division euclidienne de n par p :
n = mp + a0
où m ∈ N et a0 ∈ J0, p − 1K. On a 0 ≤ m < n, et on peut donc grâce à l’hypothèse
de récurrence écrire
X∞
m= bk pk
k=0
où les bk sont des entiers entre 0 et p − 1 presque tous nuls. On reporte et on obtient
∞
X
n= bk pk+1 + a0
k=0
L’ensemble des entiers k tels que ak 6= bk est une partie de N non vide par hypothèse,
et majorée puisque les ak et les bk sont nuls (donc égaux) pour k assez grand. Elle
possède donc un plus grand élément que nous appellerons j. On a pour fixer les
idées aj > bj . Soustrayons, il vient
j−1
X
(aj − bj )pj = (bk − ak )pk
k=0
5. APPENDICE - REPRÉSENTATIONS P-ADIQUES DES RÉELS 643
Tout réel x ≥ 0 s’écrit sous la forme n + y où n = bxc ∈ N et y ∈ [0, 1[. Nous allons donc
nous concentrer sur les réels de l’intervalle [0, 1[.
On définit par récurrence sur n une suite (xn )n≥0 et une suite (an )n≥0 comme suit : a0 = 0,
x0 = x et, pour tout n ∈ N,
an+1
an+1 = bpn+1 xn c et xn+1 = xn − n+1
p
644 CHAPITRE 34. SÉRIES
Comme xn < p1n , on a an+1 < p donc an+1 ≤ p − 1. Comme xn ≥ 0, an+1 l’est aussi (c’est
sa partie entière). Enfin,
an+1 an+1 1
n+1
≤ xn < n+1 + n+1
p p p
d’où, après une petite soustraction,
1
0 ≤ xn+1 <
pn+1
P∞ ak
Corollaire 20. On a x = k=0 pk .
1
Exercice. Exhiber un candidat pour développement décimal de 13 et montrer que vous
avez bien choisi.
5. APPENDICE - REPRÉSENTATIONS P-ADIQUES DES RÉELS 645
10x − 4 = 0.9999 . . .
d’où
10(10x − 4) = 9 + 10x − 4
c’est-à dire 90x = 45, d’où x = 12 . Mais on a aussi 1
2 = 0.50000 . . .. Ainsi, 1
2 admet deux
développements décimaux distincts.
Nous allons maintenant regarder quels sont précisément les réels admettant plusieurs dé-
veloppements p-adiques, combien ils en ont, et à quoi ressemblent ces développements.
où les ak et les bk sont des entiers entre 0 et p − 1, et au moins un des ak est différent
du bk correspondant. Prenons un tel k minimal, notons le k0 et supposons par exemple
ak0 > bk0 . On a donc
∞
ak0 − bk0 X bk − ak
k
=
p 0 pk
k=k0 +1
tout le monde ayant reconnu ci-dessus un reste de série géométrique. Et elle est égale à
1
p k0
si et seulement si pour tout k ≥ k0 , on a bk = p − 1 et ak = 0 (le lecteur est invité à
justifier cette affirmation pas si évidente).
Le membre de gauche est quant à lui supérieur ou égal à pk10 , et est égal à cette valeur si
et seulement si ak0 = bk0 + 1. Mais ces deux membres sont égaux. On en déduit donc :
• Pour tout k ≥ k0 , on a bk = p − 1 et ak = 0
• ak0 = bk0 + 1.
646 CHAPITRE 34. SÉRIES
On voit donc que si x possède deux développements p-adiques, l’un de ces deux dévelop-
pements est nul à partir d’un certain rang. Ceci suggère de définir l’ensemble
n
E= , n ∈ Z, k ∈ N
pk
Proposition 21. Soit x ∈ [0, 1[. Le nombre x possède deux développements p-adiques
distincts si et seulement si x ∈ E. Dans le cas où x ∈ E, x possède exactement deux
développements p-adiques. L’un est nul à partir d’un certain rang, de la forme
N
X ak
x=
pk
k=1
Démonstration. Il reste une vérification à faire, à savoir que les deux développements
ci-dessus sont bien égaux à x. Elle est laissée au lecteur.
4675
Exemple. On prend p = 10. Soit x = 10000 . Les deux développements décimaux de x
sont x = 0.4675000 . . . et x = 0.4674999 . . ..
NB : Ce paragraphe est traité à titre de complément. Il peut être sauté en première lecture.
Quels sont précisément les réels admettant un développement p-adique périodique à partir
d’un certain rang ?
5. APPENDICE - REPRÉSENTATIONS P-ADIQUES DES RÉELS 647
x = n + 0.b1 . . . bN a1 . . . ak
Proposition 22. On a x ∈ Q.
y = 10N (x − n) − b1 . . . bN
où a = a1 . . . ak . Ainsi,
a
y= ∈Q
10k −1
C’était le sens facile. Passons au sens intéressant. Soit x ∈ Q+ . Si x est entier il a évidem-
ment un développement p-adique périodique (de période 1). Supposons donc x non entier
et posons x = ab où a, b ∈ N, b ≥ 2.
Supposons dans un premier temps que b ∧ p = 1. Par exemple, si p = 10, nous supposons
que b n’est ni pair ni multiple de 5. Il existe des démonstrations « élémentaires » de ce
qui va suivre mais la théorie des anneaux et la théorie des groupes finis vont nous fournir
une preuve très élégante. Rappelons que Z/bZ est un anneau commutatif. Ses éléments
inversibles forment un groupe G pour la multiplication. Notons g le cardinal de ce groupe.
Comme b ∧ p = 1, la classe de p appartient à G. Le théorème de Lagrange nous dit alors
que pg = 1 dans Z/bZ. En termes de congruences, cela signifie que
pg ≡ 1 mod b
pg = 1 + mb
pg a = a + m0 b
648 CHAPITRE 34. SÉRIES
pg x = x + m0
m0 = a1 a2 . . . ag
et
0.ag+1 ag+2 . . . = 0.a1 a2 . . .
Peut-on faire des identifications dans l’égalité ci-dessus ? Oui, car b est premier avec p, donc
le réel pg x − m0 qui apparaît dans le membre de gauche de l’égalité ci-dessus a un unique
développement p-adique. Ainsi, ag+1 = a1 , ag+2 = a2 , . . . Le développement p-adique de x
est périodique de période g.
Exemple. Prenons x = 71 . L’anneau Z/7Z est un corps car 7 est premier. On a donc
g = 6. De là, 106 ≡ 1 mod 7. Effectivement, une division euclidienne nous donne
106 = 1 + 142857 × 7
106 x = x + 142857
d’où
x = 0.142857
Il nous reste à traiter les rationnels dont le dénominateur n’est pas nécessairement premier
avec p. Pour ne pas surcharger les notations, je vais prendre dans ce qui suit p = 10, mais
les raisonnements s’adaptent sans problème à p quelconque.
a
Soit x = b ∈ Q+ où a, b ∈ N, b ≥ 2. Écrivons
b = 2α 5β b0
a 2β−α a a0
10β x = 10β =
2α 5β b0 b0 b0
5. APPENDICE - REPRÉSENTATIONS P-ADIQUES DES RÉELS 649
Conclusion
651
652 CHAPITRE 35. FAMILLES SOMMABLES
1.1 Introduction
Nous avons déjà étudié la droite réelle achevée dans le chapitre sur les réels. Voici quelques
rappels.
On étend l’addition des réels à l’ensemble [0, +∞] en posant, pour tout x ∈ [0, +∞],
x + ∞ = ∞.
On étend également l’ordre usuel sur R+ à [0, +∞] en posant pour tout x ∈ R+ , x < +∞.
Le plus grand élément de [0, +∞] est donc +∞.
Pour toute partie E de [0, +∞], la borne supérieure de E est, comme d’habitude, le plus
petit majorant de E. On montre facilement que
• Si E = ∅, sup E = 0.
• Si E est non vide et majorée par un réel positif, sup E ∈ R+ est la borne supérieure
usuelle de E.
• Si E est non vide et n’est pas majorée par un réel positif, alors sup E = +∞.
Définition 1. Soit u = (ui )i∈I une famille de réels positifs. La somme de la famille u
est X
ui = sup S(u)
i∈I
Remarque 1. La somme d’une famille de réels positifs est donc un réel positif, ou alors
+∞.
1. FAMILLES SOMMABLES DE RÉELS POSITIFS 653
Exemple. Soit x ∈ [0, 1[. Pour tout n ∈ Z, posons un = x|n| . Montrons que la famille
(un )n∈Z est sommable. Pour cela, soit F ⊂ Z fini. On a
X
un = S1 + S2
n∈F
où X X
S1 = x|n| et S2 = x|n|
n∈F,n<0 n∈F,n≥0
−1 M
X X x − xM +1 x
S1 ≤ x−n = xn = ≤
1−x 1−x
n=−M n=1
De même,
M
X 1 − xM +1 1
S2 ≤ xn = ≤
1−x 1−x
n=0
d’où
X 1+x
x|n| ≤
1−x
n∈F
Ainsi,
1+x
sup S(u) ≤
1−x
donc la famille (un )n∈Z est sommable.
1+x
Montrons maintenant que la somme de cette famille est 1−x . Pour cela, donnons-nous
ε > 0. Il existe une entier N tel que
−1
X x 1
x−n ≥ − ε
1−x 2
n=−N
et
N
X 1 1
xn ≥ − ε
1−x 2
n=0
Il en résulte que
1+x
sup S(u) ≥ −ε
1−x
654 CHAPITRE 35. FAMILLES SOMMABLES
Remarquons l’inégalité entre la somme d’une famille de réels positifs et la somme d’une
sous-famille :
Proposition 1. Soit u = (ui )i∈I une famille de réels positifs. Soit I 0 ⊂ I. Soit
u0 = (ui )i∈I 0 . Alors, X X
ui ≤ ui
i∈I 0 i∈I
Ainsi,
S(u0 ) ⊂ S(u)
d’où X X
ui = sup S(u0 ) ≤ sup S(u) = ui
i∈I 0 i∈I
L’ensemble I des indices des familles que nous considérons est a priori quelconque. Il y a
deux cas particuliers importants à noter.
Proposition 2. Soit u = (ui )i∈I une famille de réels positifs indexée par un ensemble
fini I. Alors, la famille (ui )i∈I est sommable et sa somme est la somme usuelle des ui .
L’ensemble S(u) est majoré par S. De plus, en prenant F = I, on constate que S ∈ S(u).
Donc S(u) possède un plus grand élément, qui est S.
X ∞
X
un = un
n∈N n=0
Démonstration. Posons
∞
X
S= un ∈ [0, +∞]
n=0
Soit F une partie finie de N. L’ensemble F possède un plus grand élément n0 . Comme les
ui sont positifs, on a
X n0
X
ui ≤ ui ≤ S
i∈F i=0
Ainsi, par passage à la borne supérieure,
X
(1) ui ≤ S
i∈I
Soit α < S. Par définition de la somme d’une série, il existe un entier N tel que, pour tout
n ≥ N,
Xn
ui > α
i=0
En prenant F = J0, N K, on a donc X
ui > α
i∈F
De là, X X
ui ≥ ui > α
i∈I i∈F
Ceci étant vrai pour tout α < S, il vient donc
X
(2) ui ≥ S
i∈I
656 CHAPITRE 35. FAMILLES SOMMABLES
Proposition 4. Soit (ui )i∈I une famille de réels positifs. Soit σ : I → I une bijection.
Pour tout i ∈ I, soit vi = uσ(i) . Alors
X X
vi = ui
i∈I i∈I
En particulier, la famille (vi )i∈I est sommable si et seulement si la famille (ui )i∈I est
sommable.
ui et S 0 =
P P
Démonstration. Notons S = i∈I i∈I vi .
Soit F fini inclus dans I. Notons G = σ(F ). Remarquons que G est fini, et inclus dans I.
On a X X X
vi = uσ(i) = uk ≤ S
i∈F i∈F k∈G
De là, par passage à la borne supérieure,
S0 ≤ S
Soit maintenant α < S. Il existe F ⊂ I tel que
X
ui > α
i∈F
Soit G = σ −1 (F ). On a alors X X
vk = ui > α
k∈G i∈F
Ainsi, X X
S0 = vk ≥ vk > α
k∈I k∈G
En résumé, pour tout α < S,
α < S0 ≤ S
d’où
S0 = S
Corollaire 5. Soit (un )n≥0 une suite de réels positifs. Soit σ : N → N une bijection.
Pour tout n ∈ N, soit vn = uσ(n) . Alors
∞
X ∞
X
vn = un
n=0 n=0
1. FAMILLES SOMMABLES DE RÉELS POSITIFS 657
P P
En particulier, la série vn converge si et seulement si la série un converge.
1.5 Linéarité
Proposition 6. Soient (ui )i∈I et (vi )i∈I deux familles de réels positifs. Alors
X X X
(ui + vi ) = ui + vi
i∈I i∈I i∈I
Démonstration. Posons
X X X
S0 = ui , S 00 = vi et S = (ui + vi )
i∈I i∈I i∈I
(1) S ≤ S 0 + S 00
Posons F = F 0 ∪ F 00 . On a alors
X X
ui ≥ ui > α
i∈F i∈F 0
et X X
vi ≥ vi > β
i∈F i∈F 00
658 CHAPITRE 35. FAMILLES SOMMABLES
De là, X X X X
(ui + vi ) ≥ (ui + vi ) = ui + vi > α + β = γ
i∈I i∈F i∈F i∈F
(2) S ≥ S 0 + S 00
Proposition 7. Soit (ui )i∈I une famille de réels positifs. Soit λ ∈ R+ . Alors
X X
(λui ) = λ ui
i∈I i∈I
Démonstration. Exercice.
Proposition 8. Soit (ui )i∈I une famille de réels positifs. On suppose que
[
I= Ij
j∈J
On convient, dans l’égalité ci-dessus, que si l’un des termes d’une « somme » est égal
à +∞, alors la somme est égale à +∞.
∞
X X X x
x|n| = xn = xn =
1−x
n∈Z∗− n∈N∗ n=1
Par le théorème de sommation par paquets, la famille (x|n| )n∈Z est sommable, de somme
X X X x 1
x|n| = x|n| + x|n| = +
1−x 1−x
n∈Z n∈Z∗− n∈N
On peut bien entendu renverser dans le calcul que nous venons de faire le rôle de A et B.
On a ainsi le résultat ci-dessous, appelé le théorème de Fubini.
Exemple. Soit x ∈ [0, 1[. Pour (p, q) ∈ N2 , posons upq = xp+q . Par le théorème de Fubini,
on a
X X X
xp+q = xp xq (Fubini)
(p,q)∈N2 p∈N q∈N
X X
= xp xq (linéarité)
p∈N q∈N
X 1
= xp (série géométrique)
1−x
p∈N
1 X p
= x (linéarité)
1−x
p∈N
1
= (série géométrique)
(1 − x)2
Dans la partie I, manipuler des sommes de réels positifs ne posait pas de difficultés parti-
culière : nos « sommes » étaient finies, ou égales à +∞.
Nous allons maintenant considérer des familles de nombres complexes. Nous allons voir que
les résultats de la section I s’étendent pour la plupart, mais il va falloir être plus prudents.
2.1 Sommabilité
Définition 2. Soit (ui )i∈I une famille de nombres complexes indexée par un ensemble
I. On dit que la famille est sommable lorsque la famille de réels positifs (|ui |)i∈I est
sommable, c’est à dire lorsque X
|ui | < +∞
i∈I
2. FAMILLES SOMMABLES DE NOMBRES COMPLEXES 661
Notation. On note `1 (I) l’ensemble des familles sommables de nombres complexes (ou
réels) indexées par I. Pour être plus précis, on peut utiliser la notation `1 (I, R) ou `1 (I, C).
Les deux résultats ci-dessous permettent de prouver qu’une famille est sommable.
Démonstration. Même démonstration que pour les familles de réels positifs. On ne peut
plus, évidemment, écrire des inégalités reliant la somme de la sous-famille et la somme de
la famille.
Proposition 13. Soient (ui )i∈I une famille de nombres complexes et (vi )i∈I une
famille de réels positifs. On suppose que la famille (vi )i∈I est sommable et que pour
tout i ∈ I, |ui | ≤ vi . Alors, la famille (ui )i∈I est sommable.
P
Démonstration. Notons S = i∈I vi . Soit J une partie finie de I. Alors
X X
|ui | ≤ vi ≤ S
i∈J i∈J
x|n| = |x||n|
Or, |x| ∈ [0, 1[ et nous avons vu au début du chapitre que la famille (|x||n| )n∈Z est une
famille sommable de réels positifs.
Il s’agit maintenant de donner un sens à la somme d’une famille sommable de nombres
réels ou de nombres complexes.
Première étape, ramenons nous à ce que nous savons faire, à savoir des familles de réels
positifs.
Pour tout réel x, notons x+ = max(x, 0) et x− = − min(x, 0). Remarquons que x+ et x−
sont des réels positifs et que, de plus
x = x+ − x− et |x| = x+ + x−
662 CHAPITRE 35. FAMILLES SOMMABLES
Proposition 14. Soit (ui )i∈I une famille de nombres réels. La famille (ui )i∈I est
−
sommable si et seulement si les familles (u+
i )i∈I et (ui )i∈I sont sommables.
Démonstration. Supposons la famille (ui )i∈I sommable, c’est à dire la famille (|ui |)i∈I .
On a pour tout i ∈ I,
0 ≤ u+ i ≤ |ui |
Définition 3. Soit (ui )i∈I une famille sommable de réels. La somme de la famille est
X X X
ui = u+
i − u−i
i∈I i∈I i∈I
Proposition 15. Soit (ui )i∈I une famille de nombres complexes. La famille (ui )i∈I
est sommable si et seulement si les familles (Re ui )i∈I et (Im ui )i∈I sont sommables.
|Re ui | ≤ |ui |
|Im ui | ≤ |ui |
Définition 4. Soit (ui )i∈I une famille sommable de nombres complexes. La somme
de la famille est X X X
ui = Re ui + i Im ui
i∈I i∈I i∈I
2. FAMILLES SOMMABLES DE NOMBRES COMPLEXES 663
Proposition 16. Soit (ui )i∈I une famille sommable de nombres complexes. Il existe
un unique nombre complexe S tel que pour tout ε > 0, il existe F fini inclus dans I tel
que pour tout G fini vérifiant F ⊂ G ⊂ I,
X
ui − S ≤ ε
i∈G
Démonstration. Supposons qu’il existe deux tels nombres complexes S et S 0 . Soit ε > 0.
Soient F, F 0 associés à S, S 0 et ε. Posons G = F ∪ F 0 . On a alors
X X
|S − S 0 | ≤ ui − S + ui − S 0 ≤ 2ε
i∈G i∈G
X 1
u+
i −S
+
≤ ε
2
i∈G
X 1
u−
i −S
−
≤ ε
2
i∈G
664 CHAPITRE 35. FAMILLES SOMMABLES
i∈G i∈G
≤ ε
S = λS 0 + µS 00
X ∞
X
un = un
n∈N n=0
n
X 1
(2) ui − S 0 ≤ ε
2
i=0
Prenons n ≥ N tel que F ⊂ J0, N K. Pour G = J0, nK, on a alors (1), et aussi (2). De là,
n
X n
X
0
|S − S | ≤ |S − ui | + | ui − S 0 | ≤ ε
i∈G i∈G
Sj = (−1)2j + (−1)2j+1 = 0
Démonstration. Identique à celle faite pour les familles sommables de réels positifs.
2. FAMILLES SOMMABLES DE NOMBRES COMPLEXES 667
Proposition 21. Soient (ai )i∈I et (bi0 )i0 ∈I 0 deux familles sommables de nombres com-
plexes. Alors, la famille (ai bi0 )(i,i0 )∈I×I 0 est sommable, et
X X X
ai bi0 = ai bi0
(i,i0 )∈I×I 0 i∈I i0 ∈I 0
Remarque 5. Ce résultat s’étend par récurrence à un nombre fini quelconque de familles
sommables.
Exemple. Reprenons un exemple déjà vu plus haut. Soit x ∈] − 1, 1[. Les familles (xp )p∈N
et (xq )q∈N sont sommables (série géométrique), donc la famille (xp+q )(p,q)∈N2 l’est aussi, et
X X X 1
xp+q = xp xq =
(1 − x)2
(p,q)∈N2 p∈N q∈N
Maintenant que nous savons que notre famille est sommable nous pouvons lui appliquer le
théorème de sommation par paquets et ses corollaires.
L’ensemble des indices étant un produit cartésien, notre première idée est d’appliquer le
théorème de Fubini.
On a pour tout m ∈ N∗ ,
X X xm
xmn = (xm )n =
1 − xm
n∈N∗ n∈N∗
où
Ik = {(m, n) ∈ (N∗ )2 , mn = k}
Les Ik étant des ensembles disjoints, on peut appliquer le théorème de sommation par
paquets. X X X X
xmn = xmn = |Ik |xk
(m,n)∈(N∗ )2 k∈N∗ (m,n)∈Ik k∈N∗
∞ ∞
X X xn
d(n)xn =
1 − xn
n=1 n=1
3 Produit de Cauchy
P P
Définition 5. Soient un et vn deux
P séries de nombres complexes. Le produit de
Cauchy de ces deux séries est la série wn , où, pour tout n ∈ N,
n
X
wn = uk vn−k
k=0
P
Proposition
P P 22. Le produit de Cauchy wn de deux séries absolument convergentes
un et vn est une série absolument convergente. De plus,
∞
X ∞
X ∞
X
wn = un vn
n=0 n=0 n=0
In = {(i, i0 ) ∈ N × N, i + i0 = n}
Les In sont disjoints deux à deux et leur réunion est N × N. Par le théorème de sommation
par paquets,
X ∞
X X
zii0 = zii0
i∈N,i0 ∈N n=0 (i,i0 )∈In
3.2 Un exemple
Soient a, b ∈ C tels que |a| < 1 et |b| < 1. Supposons a 6= b. On a pour tout n ∈ N,
n
an+1 − bn+1 X k n−k
= a b
a−b
k=0
670 CHAPITRE 35. FAMILLES SOMMABLES
P n P n
On reconnaît là le nième terme du produit de Cauchy des séries a et b , qui sont
P an+1 −bn+1
toutes les deux absolument convergentes. Ainsi, la série a−b est convergente, et
∞ ∞ ∞
X an+1 − bn+1 X
n
X 1
= a bn =
a−b (1 − a)(1 − b)
n=0 n=0 n=0
Exercice. Nous aurions pu étudier la série de l’exemple ci-dessus dans le chapitre sur les
séries, en utilisant uniquement des résultats élémentaires. Comment ?
3.3 L’exponentielle
En application de la proposition
P xnprécédente,
P yn prenons l’exemple de l’exponentielle complexe.
0
Soient x, x ∈ C. Les séries n! et n! sont absolument convergentes, de sommes
∞ ∞
X xn X yn
= ex et = ey
n! n!
n=0 n=0
ex+y = ex ey
Le résultat que nous énonçons dans ce paragraphe n’est pas à connaître, il est cependant
très instructif. Un ensemble dénombrable est un ensemble en bijection avec l’ensemble N.
On peut prouver, par exemple, que Z et Q sont dénombrables, mais que R ne l’est pas.
Est-il possible de considérer des familles sommables (ui )i∈I de nombres complexes où, par
exemple, I = R ? Oui, mais alors la plupart des ui sont obligatoirement nuls. Précisé-
ment, nous allons montrer que seuls un nombre dénombrable des ui sont différents de 0.
Commençons par un lemme que nous admettrons.
S
Lemme 23. Soit (En )n∈N une suite d’ensembles finis. Alors, n∈N En est un ensemble
fini ou dénombrable.
4. COMPLÉMENT - LE CARDINAL DES FAMILLES SOMMABLES 671
Démonstration. Admise.
Venons-en au résultat qui nous intéresse.
Proposition 24. Soit (ui )i∈I une famille sommable de nombres complexes. Soit
E = {i ∈ I, ui 6= 0}
P
Démonstration. Notons S = |ui |. Pour tout entier n ≥ 0, soit
i∈I
1
En = i ∈ I, |ui | ≥
n+1
L’ensemble E est une réunion dénombrable d’ensemble finis, c’est donc un ensemble fini
ou dénombrable.
672 CHAPITRE 35. FAMILLES SOMMABLES
Chapitre 36
Fonctions de deux variables
673
674 CHAPITRE 36. FONCTIONS DE DEUX VARIABLES
Dans tout ce chapitre, on se place dans le plan R2 muni du produit scalaire canonique.
Lorsqu’on parle de norme, il s’agit de la norme euclidienne associée. La plupart des résultats
présentés ici restent valables si l’on se place dans Rp (où p est un entier ≥ 2) et avec une
norme quelconque.
1 Un peu de topologie
1.1 Disques
Le cas où r = 0 est un peu à part. Les disques ouverts de rayon 0 sont vides, les disques
fermés de rayon 0 sont les singletons. Dans la suite, nous supposerons implicitement que
le rayon des disques est non nul.
Remarque 1. En dimension 3 ou plus, on peut définir les mêmes notions. Mais on dit
alors boule et sphère au lieu de disque et cercle.
Démonstration. Soit D = D(a, r) un disque (ouvert, pour fixer les idées). Soient
x, y ∈ D et λ ∈ [0, 1]. Soit z = (1 − λ)x + λy. Alors
Ainsi, z ∈ D.
1. UN PEU DE TOPOLOGIE 675
Définition 2. Soit A ⊂ R2 . On dit que A est ouvert lorsque A est une réunion de
disques ouverts.
Exemple. L’ensemble vide, R2 , les disques ouverts, sont des ensembles ouverts.
Nous donnons maintenant une caractérisation plus manipulable des ouverts.
A = R2 \ D
||x − c|| = ||(x − y) + (y − c)|| ≤ ||x − y|| + ||y − c|| < εx + ||y − c||
Ainsi,
||y − c|| > ||x − c|| − εx = r
et donc y ∈ A. On en déduit que Dx ⊂ A. Par la proposition précédente, A est ouvert.
Exercice. Montrons qu’un disque fermé n’est jamais ouvert.
676 CHAPITRE 36. FONCTIONS DE DEUX VARIABLES
2 Continuité
On dit que f est continue sur Ω lorsque f est continue en tout point a ∈ Ω.
2.2 Exemples
|kxk − kak| ≤ kx − ak
kx − a| ≤ α =⇒ |kxk − kak| ≤ ε
Proposition 4. Les applications (x, y) 7−→ x et (x, y) 7−→ y sont continues sur R2 .
Démonstration. Exercice.
Démonstration. Exercice.
Exercice. Quel est l’ensemble de définition de la fonction « division » ? Où est-elle conti-
nue ?
Exemple. Soit c ∈ R. Soit f : R2 −→ R définie par f (0, 0) = c et, pour tout (x, y) ∈ R2 ,
xy
f (x, y) =
x2 + y2
Géométriquement, l’ensemble des points (x, y, z) ∈ R3 tels que z = f (x, y) est une surface.
En voici une représentation graphique.
678 CHAPITRE 36. FONCTIONS DE DEUX VARIABLES
r2 cos θ sin θ 1
f (x, y) = = sin(2θ)
r2 2
Ainsi,
1
f (x, y) − f (0, 0) = sin(2θ) − c
2
Choisissons θ tel que sin θ 6= 2c. Soit ε = 12 12 sin(2θ) − c . Soit α > 0. Pour tout r ≤ α, le
point (x, y) = (r cos θ, r sin θ) vérifie k(x, y)k ≤ α. Pourtant, |f (x, y) − f (0, 0)| > ε. Ainsi,
f n’est pas continue en (0, 0).
Citons sans preuve les deux résultats suivants. Leur démonstration est analogue à celle
faite pour les fonctions d’une variable réelle.
Remarque 2. Rappelons l’exercice vu un peu plus haut : on y a montré que les applica-
tions (x, y) 7−→ x et (x, y) 7−→ y sont continues sur R2 . Les théorèmes sur les opérations
sur les fonctions continues prouvent alors que les formes linéaires sont continues sur R2 . De
même, les fonctions polynômes à plusieurs variables sont continues sur R2 . Les fractions
rationnelles à plusieurs variables sont continues là où elles sont définies.
Exemple. Soit c ∈ R. Soit f : R2 −→ R définie par f (0, 0) = c et, pour tout (x, y) ∈ R2 ,
xy
f (x, y) =
x2 + y2
3. DÉRIVÉES PARTIELLES 679
Nous avons déjà vu que f n’est pas continue en (0, 0). En revanche, par les théorèmes sur
les fonctions continues, f est continue sur R2 \ {(0, 0)}.
Comment prouver qu’une fonction de plusieurs variables est continue ? Les théorèmes sur
les opérations sur les fonctions continues permettent de régler le problème, sauf peut-être
en quelques points (nous avons déjà vu l’exemple de x2xy+y 2
). En ces points, un passage en
« coordonnées polaires » permet souvent de régler la question, du moins pour les fonctions
auxquelles nous nous intéressons.
Exemple. Prenons
x3 − y 3
f (x, y) = si (x, y) 6= (0, 0)
x2 + y 2
et f (0, 0) = 0. Par les opérations sur les fonctions continues, f est continue sur R2 \{(0, 0)}.
Pour l’étude en 0, posons x = r cos θ et y = r sin θ, où r ≥ 0 et θ ∈ R. On a donc
||(x, y)|| = r. Il vient alors
r3 (cos3 θ − sin3 θ)
f (x, y) = = r(cos3 θ − sin3 θ)
r2
Donc,
|f (x, y)| ≤ 2r = 2||(x, y)||
Ainsi, pour tout ε > 0, |f (x, y)| ≤ ε dès que ||(x, y)|| ≤ 2ε . La fonction f est continue en
(0, 0).
3 Dérivées partielles
Démonstration. L’ensemble Ω est ouvert. Il existe donc ε > 0 tel que D(a, ε) ⊂ Ω. On
a donc a + tu ∈ Ω dès que |t|||u|| < ε.
680 CHAPITRE 36. FONCTIONS DE DEUX VARIABLES
f (a + tu) − f (a)
t
admet une limite lorsque le réel t 6= 0 tend vers 0. On appelle alors dérivée de f en a
selon le vecteur u la limite en question.
df (a) : R2 −→ R
est ici une forme linéaire sur R2 . Nous verrons au cours de ce chapitre que sous certaines
conditions de régularité sur f , ce sera toujours le cas.
∂f ∂f
Notation. On note ces dérivées partielles ∂x (a) et ∂y (a), en sous-entendant que x et y
sont les noms des « variables ».
Lorsque les dérivées partielles de f existent en tout point de l’ouvert Ω, on dispose donc
des deux fonctions ∂f ∂f
∂x : Ω −→ R et ∂y : Ω −→ R.
∂f
Posons a = (a1 , a2 ). La dérivée partielle ∂x (a), lorsqu’elle existe, est
∂f f (a1 + t, a2 ) − f (a1 , a2 )
(a) = lim
∂x t−→0 t
3. DÉRIVÉES PARTIELLES 681
De même,
∂f f (a1 , a2 + t) − f (a1 , a2 )
(a) = lim
∂y t−→0 t
En réalité, dans la plupart des cas il n’est pas utile de considérer un taux d’accroissement.
Par exemple, pour dériver « par rapport à x », tout se passe comme si on fixait la deuxième
variable et que l’on dérivait la fonciton d’une variable restante.
Exemple. Soit f : R2 −→ R définie par f (0, 0) = 0 et, pour tout (x, y) 6= (0, 0),
xy
f (x, y) =
x2 + y 2
∂f
Soit a = (x, y) 6= (0, 0). Alors, ∂x (a) existe et
∂f y(y 2 − x2 )
(a) = 2
∂x (x + y 2 )2
Bref, on fixe y et on dérive par rapport à x, comme s’il n’y avait qu’une variable.
Reprenons maintenant ce qui se passe en (0, 0). Pour voir si f a des dérivées partielles en
(0, 0) on ne peut évidemment plus dériver « bêtement ». On revient à la définition avec des
taux d’accroissement. Pour tout t 6= 0,
On en déduit ∂f
∂x (0, 0) existe et vaut 0. Un calcul analogue montre que la dérivée partielle
par rapport à y en (0, 0) existe et vaut aussi 0.
Ce résultat est remarquable si l’on se souvient que la fonction f n’est pas continue en
0. Ainsi, pour les fonctions de plusieurs variables, la « dérivabilité » n’entraîne pas la
continuité.
Exercice. Montrer que la fonction f de l’exemple ci-dessus possède en (0, 0) des dérivées
suivant tout vecteur.
Une dérivée partielle est en fait une dérivée « normale ». On a donc des formules pour
les dérivées partielles d’une somme, d’un produit, d’un quotient,. . . analogues à celles déjà
vues pour les fonctions d’une seule variable. Par souci de complétude, voici le résultat.
• Si g est non nulle dans un disque centré en a, alors fg est dérivable en a selon
le vecteur u, et
f df (a)(u)g(a) − f (a)dg(a)(u)
d (a)(u) =
g g(a)2
∂f ∂f
df (a)(u) = h (a) + k (a)
∂x ∂y
est un plan affine. C’est le plan tangent à la surface représentative de f au point (x0 , y0 , f (x0 , y0 )).
Au voisinage de ce point, la surface représentative de f est, d’une certaine façon, « collée
» au plan P. Nous n’entrerons pas plus avant dans les détails.
Démonstration. Reprenons les notations ci-dessus. Lorsque u tend vers 0, ses compo-
santes h et k également, donc f (a + u) tend vers f (a). C’est précisément la définition de
la continuité de f en a.
3.6 Gradient
Dit autrement,
df (a)(u) =< ∇f (a), u >
Prenons u =6 0 et supposons que ∇f (a) 6= 0. On notons θ l’écart angulaire entre u et
∇f (a). On a alors
En « négligeant » le o(kuk), on constate ainsi que, pour des vecteurs ` de norme fixée,
|f (a + u) − f (a)| est maximal lorsque θ = 0 ou θ = π, c’est à dire lorsque u et ∇f (a) sont
colinéaires. Le gradient de f en a est ainsi la direction dans laquelle f croît le plus vite au
voisinage de a.
df (a)(u) ≥ 0
f (h, 0) = h2 > 0
4 Composition
4. COMPOSITION 685
g(t + h) − g(t) = f (T + H) − f (T )
f (T + H) − f (T ) = df (T )(H) + o(kHk)
H = ϕ(t + h) − ϕ(t) = hφ0 (t) + o(h) = (hx0 (t) + o(h), hy 0 (t) + o(h))
Donc,
∂f ∂f
df (T )(H) = (hx0 (t) + o(h)) (ϕ(t)) + (hy 0 (t) + o(h)) (ϕ(t))
∂x ∂y
De plus, o(kHk) = o(h), donc
g(t + h) − g(t) ∂f ∂f
= (x0 (t) + o(1)) (T ) + (y 0 (t) + o(1)) (T ) + o(1)
h ∂x ∂y
tend vers
∂f ∂f
x0 (t) (T ) + y 0 (t) (T )
∂x ∂y
lorsque h tend vers 0.
Comment retenir cette formule ? Nous avons déjà mis en place les « bonnes notations ».
Remarquons que x et y désignent deux choses
686 CHAPITRE 36. FONCTIONS DE DEUX VARIABLES
dg ∂f dx ∂f dy
= +
dt ∂x dt ∂y dt
Bien évidemment, il faut préciser en quels points les dérivées sont calculées. C’est facile :
• Si c’est une dérivée par rapport à t, c’est au point t.
• Si c’est une dérivée par rapport à x ou y, c’est au point « (x, y) », qu’il faut com-
prendre comme étant (x(t), y(t)).
Exemple. Un point se déplace au cours d’un intervalle de temps I. Son abscisse est son
ordonnée, x et y, sont deux fonctions du temps et définissent une fonction ϕ : I −→ R2 .
Pour tout t ∈ I, ϕ(t) = (x(t), y(t).
Comment trouver les points de la trajectoire qui sont le plus près (ou le plus loin) de
l’origine O ? Il suffit de considérer la fonction f : R2 −→ R définie par
f (x, y) = x2 + y 2
∂f dx ∂f dy dx dy
g 0 (t) = + = 2x + 2y
∂x dt ∂y dt dt dt
Pour prendre un exemple concret, le point décrit une demi-hyperbole. La fonction ϕ, définie
sur R, est donnée par
ϕ(t) = (x(t), y(t)) = (ch t, sh t)
On a donc
g 0 (t) = 2x sh t + 2y ch t = 4ch t sh t
g 0 s’annule donc en t = 0. On a alors ϕ(0) = (1, 0) et f (0, 0) = 1. Si la demi-hyperbole
possède un point à distance minimale, il s’agit du point (1, 0).
Il s’avère que ce point réalise effectivement le minimum des distances des points de la
demi-hyperbole à O. En effet, pour tout t ∈ R,
ch2 t + sh2 t = ch 2t ≥ 1
4.2 Généralisation
4.3 Un exemple
De même,
∂f ∂g ∂u ∂g ∂v
(a) = (ϕ(a)) (a) + (ϕ(a)) (a)
∂y ∂u ∂y ∂v ∂y
∂g ∂g
= (ϕ(a)) − (ϕ(a))
∂u ∂v
Ainsi,
∂f ∂f ∂g
(a) + (a) = 2 (ϕ(a))
∂x ∂y ∂u
La fonction f est solution de l’équation (E) si et seulement si pour tout a ∈ R2 ,
∂g
(ϕ(a)) = 0
∂u
La fonction h étant bijective, cela équivaut à dire que pour tout b ∈ R2 ,
∂g
(b) = 0
∂u
Pour résumer, les fonctions solutions de l’équation aux dérivées partielles sont les « fonc-
tions de x − y ».
Index
689
Index
690
INDEX 691
univers, 534