Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Polynomes

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 11

Intégration de polynômes

Points de Gauss

Commençons par un exercice classique de premier cycle.


Problème 1 Trouver trois réels α, β et γ tels que, pour tout polynôme P de
degré au plus 2, on ait :
Z 1  
1
P(x) dx = α · P(0) + β · P + γ · P(1)
0 2
Montrer que cette relation reste valable pour les polynômes de degré 3.
Solution : En remarquant que les deux membres de l’égalité sont (quels que
soient α, β et γ) des formes linéaires en P, il suffit que l’égalité soit vraie lorsque
le polynôme P décrit une base de l’espace vectoriel R2 [X] des polynômes de
degré au plus 2. Par exemple, la base 1, X, X2 .


On obtient donc la condition nécessaire et suffisante :


 Z 1
1 dx = α · 1 + β · 1 + γ · 1






 Z 1 0
 1
x dx = α · 0 + β · + γ · 1

 0 2
 Z 1  2
1


2 2
x dx = α · 0 + β · + γ · 12



0 2


 α+β+γ = 1


β 1


soit +γ =

 2 2

 β 1
+γ =


4 3
1 2
On trouve α=γ= et β = .
6 3
c’est-à-dire, pour tout polynôme de degré au plus 2 :
Z 1    
1 1
P(x) dx = P(0) + 4P + P(1) .
0 6 2
Une simple vérification nous montre que cette formule reste valable pour les
polynômes de degré 3. Il suffit là aussi d’examiner le cas du polynôme X3 .
Z 1
x3 dx = 1/4 = 1/6 0 + 4 · (1/2)3 + 1 .

Or 
0
N.B. On vérifie en revanche que cette formule est fausse pour les polynômes
de degré 4. . .

1
1 Intégration des polynômes et formes linéaires
1.1 Structure de Rn [X]
Définition-Propriété : On note Rn [X] l’ensemble des polynômes à coefficients
réels, et de degré au plus n. Rn [X] possède une structure d’espace vectoriel sur
R, de dimension finie.
La structure d’espace vectoriel découle de la définition des polynômes. Il
suffit d’observer que la somme de polynômes de degré au plus n est de degré
au plus n. . . D’autre part, la famille 1, X, X , . . . , Xn constitue bien sûr une
2


base de Rn [X], qui est donc de dimension n + 1. Plus généralement :


Propriété 1.1 Si {P0 , P1 , . . . , Pn } est une famille de polynômes telle que pour
tout indice i, Pi est de degré exactement i, alors la famille {P0 , P1 , . . . , Pn } est
une base de Rn [X]. Cette famille est dite « échelonnée en degré ».
Démonstration : La propriété se démontre aisément par récurrence : le résultat
est évident pour n = 0, en effet le polynôme P0 est alors une constante λ non
nulle, et R0 [X] est l’ensemble des polynômes constants, donc des multiples de
P0 .
Supposons le résultat établi jusqu’au rang n, et soit {P0 , P1 , . . . , Pn+1 } une
famille échelonnée en degré. Par hypothèse de récurrence, {P0 , P1 , . . . , Pn } est
une base de Rn [X]. Nous allons montrer que {P0 , P1 , . . . , Pn+1 } est libre.
n+1
P
Soit λ0 , . . . , λn+1 des réels tels que λk Pk = 0. Si λn+1 est non nul, alors on
k=0
peut écrire :
1 n
P
Pn+1 = − λk Pk
λn+1 k=0
ce qui est absurde puisqu’un polynôme de degré n + 1 ne peut s’écrire comme
une combinaison linéaire de polynômes de degrés au plus n. Donc λn+1 = 0, et
l’on obtient :
n
P
λk Pk = 0 .
k=0

Comme la famille {P0 , P1 , . . . , Pn } est libre (par hypothèse de récurrence),


on obtient alors λ0 = λ1 = · · · = λn = 0. On a donc montré que la famille
{P0 , P1 , . . . , Pn+1 } est libre. Comme elle possède exactement n + 2 éléments,
c’est une base de Rn+1 [X]. Le résultat est établi par récurrence.


1.2 Formes linéaires


Définition Soit E un espace vectoriel sur un corps K. On appelle forme linéaire
sur E une application linéaire de E dans K.
Exemple : Si a est un réel, l’application P 7−→ P(a) est une forme linéaire sur
l’espace vectoriel R[X] des polynômes à coefficients réels. Cette application est
appelée évaluation au point a.

2
N.B. La donnée de la valeur en chaque élément d’une base de E définit de
manière unique une forme linéaire. Autrement dit, si (ei )i∈I désigne une base
de E, si (αi )i∈I désigne une famille d’éléments du corps K, alors il existe une
unique forme linéaire f sur E telle que f (ei ) = αi pour tout i.
L’unicité est immédiate : si deux formes linéaires f et g coı̈ncident sur une
base (ei )i∈I , alors la différence f − g est nulle sur ladite base. Comme tout
élément x de E se décompose sur cette base, comme une combinaison linéaire
n
P
finie λk ek , on obtient par linéarité de f − g :
k=1
n
P n
P
(f − g)(x) = λk (f − g)(ek ) = λk · 0 = 0
k=1 k=0
et donc f − g est la forme linéaire nulle, c’est-à-dire que f et g sont égales. Pour
l’existence, on définit une fonction f de E dans K par :
Pn Pn
x= λk ek 7−→ λk αk
k=1 k=1
et l’on vérifie aisément que cette application est bien linéaire sur E.
Propriété 1.2 Soit E un espace vectoriel sur un corps K. L’ensemble E0 des
formes linéaires sur E possède une structure d’espace vectoriel sur K. Si E est
de dimension finie, alors E0 est aussi de dimension finie, et sa dimension est
égale à celle de E.
Démonstration : On vérifie sans problème que la somme de deux formes
linéaires est encore une forme linéaire, tout comme le produit d’une forme
linéaire par un élément du corps K. E0 possède donc une structure d’espace
vectoriel sur K. Supposons désormais que E est de dimension finie n.
Soit {b1 , . . . , bn } une base de E. Pour 1 ≤ i ≤ n, soit b∗i la forme linéaire
définie par b∗i (bi ) = 1 et b∗i (bj ) = 0 pour tout j 6= i. Alors la famille {b∗1 , . . . , b∗n }
constitue une base de E0 . En effet, si f est une forme linéaire donnée, alors on
peut écrire f sous la forme :
n
f (bi )b∗i .
P
f=
k=1
n
f (bi )b∗i coı̈ncident sur chacun des vecteurs de
P
Ces deux formes linéaires f et
k=1
base bi (1 ≤ i ≤ n), donc elles sont égales ! 

N.B. Inversement, si E0 est de dimension finie, on peut associer à toute base


{f1 , . . . , fn } de E0 une base {e1 , . . . , en } de E telle que pour tous i, j, on ait
fi (ej ) = 1 si i = j, 0 sinon.

1.3 Application aux polynômes


Si a0 , a1 , . . . , an sont des réels distincts, alors les évaluations des polynômes
de degré au plus n en ces points forment un famille libre de Rn [X]0 . En effet,
soient a0 , . . . , an des réels distincts, et soit fi ∈ Rn [X]0 l’évaluation au point ai ,
c’est-à-dire la forme linéaire :

Rn [X] → R
fi
P 7−→ P(ai )

3
n
P
Soient λ0 , . . . , λn des réels tels que λk fk soit la forme linéaire nulle sur Rn [X].
k=0
n
Pour i un indice (désormais fixé), on appelle Pi le polynôme Π (X − aj ).
j=0
Le
j6=i
polynôme Pi est de degré exactement n, en particulier on doit avoir :
Pn
λk fk (Pi ) = 0 .
k=0
n
Mais, pour k 6= i, on a fk (Pi ) = Π (ak − aj ) = 0 (lorsque l’indice j est égal à k,
j=0
j6=i
on obtient un terme du produit de la forme (ak − ak ) = 0). Il vient λi fi (Pi ) = 0.
n
Soit λi Π (ai − aj ) = 0 .
j=0
j6=i

Comme par hypothèse, les réels a0 , . . . , an sont distincts deux à deux, tous
les termes ai − aj du produit sont non nuls. On en déduit que λi = 0, et ce
pour tout indice i, ce qui prouve bien que la famille {f0 , . . . fn } est libre. C’est
donc une base de l’espace vectoriel des formes linéaires sur Rn [X] (en tant que
famille libre à n + 1 éléments d’un espace vectoriel de dimension n + 1).
En particulier, toute forme linéaire sur Rn [X] peut s’exprimer comme com-
binaison linéaire des formes f0 , . . . fn .
Or l’application de Rn [X] dans R qui à un polynôme P associe la valeur
Z 1
P(x) dx est une forme linéaire sur Rn [X] (par linéarité de l’intégrale !). Et
0
donc, quels que soient les points a0 , . . . , an deux à deux distincts, on peut trouver
des coefficients α0 , . . . , αn tels que, pour tout polynôme P de degré au plus n,
on ait :
Z 1 Xn
P(x) dx = αk P(ak ) .
0 k=0
N.B. Ceci justifie, entre autre, le fait que nous ayons effectivement trouvé trois
nombres α, β et γ qui répondent à notre problème, en préambule.

2 Produit scalaire et orthogonalité


Définition Soit E un espace vectoriel sur R. Une application (u, v) 7−→ hu, vi
de E2 dans R est un produit scalaire si et seulement si elle est :
– bilinéaire, c’est-à-dire linéaire par rapport à chaque variable :

∀u, u0 , v ∈ E, ∀λ, λ0 ∈ K, hλu + λ0 u0 , vi = λhu, vi + λ0 hu0 , vi


∀u, v, v 0 ∈ E, ∀µ, µ0 ∈ K, hu, µv + µ0 v 0 i = µhu, vi + µ0 hu, v 0 i

– symétrique : ∀u, v ∈ E, hu, vi = hv, ui

– définie : ∀u ∈ E, hu, ui = 0 =⇒ u = 0

– positive : ∀u ∈ E, u 6= 0 =⇒ hu, ui > 0

4
Exemple : Sur R2 , et sur Rn de manière générale, le produit scalaire le plus
classique, c’est l’application définie par :

h(x1 , . . . , xn ), (y1 , . . . , yn )i = x1 y1 + · · · + xn yn .

Définition La norme d’un vecteur u de l’espace vectoriel E (muni du produit


scalaire h., .i) est le réel : p
kuk = hu, ui .

2.1 Bases orthogonales, procédé de Gram-Schmidt


Lorsque l’on dispose d’un espace vectoriel (de dimension finie) sur R, muni
d’un produit scalaire, des bases particulièrement intéressantes sont les bases
orthonormales ou orthonormées.
Définition Une famille {e1 , . . . , en } de vecteurs non nuls (resp. une base) de
l’espace vectoriel E, muni du produit scalaire h., .i, est dite orthogonale si et
seulement si, pour tous indices i 6= j, on a hei , ej i = 0.
N.B. Une famille orthogonale est nécessairement libre : si λ1 , . . . , λn sont tels
n
P
que λk ek = 0, alors en effectuant le produit scalaire de cette somme par ei
k=1
(1 ≤ i ≤ n), on trouve hei , λi ei i = 0 soit λi kei k2 = 0, et donc λi = 0 puisque les
vecteurs sont non nuls.
Définition Une famille de vecteurs (resp. une base) est dite orthonormée si elle
est orthogonale, et constituée de vecteurs de norme 1.
Exemple : Pour le produit scalaire classique sur Rn , la base canonique est
orthonormée. En effet, si ei désigne le vecteur (0, . . . , 0, 1, 0, . . . , 0) dont la seule
composante non nulle est à la i-ème position, alors ces vecteurs sont clairement
orthogonaux et de norme 1.
Théorème 2.1 (Orthonormalisation de Gram-Schmidt) Quelle que soit
la famille libre {u1 , . . . , up } d’un espace vectoriel E muni d’un produit scalaire
h., .i, il existe une unique famille orthonormée {e1 , . . . , ep } telle que :

Vect {e1 , . . . , ek } = Vect {u1 , . . . , uk }
∀k ≤ p,
huk , ek i > 0

Démonstration : On procède par récurrence sur p. Pour p = 1, la condition


Vect {e1 } = Vect {u1 } impose que e1 soit de la forme λu1 , avec λ réel. On veut
que e1 soit de norme 1, c’est-à-dire kλu1 k = |λ| ku1 k = 1. Ceci nous donne deux
solutions possibles pour λ. Comme on doit aussi avoir hu1 , e1 i = λku1 k2 > 0,
on obtient λ > 0, et donc e1 est déterminé de manière unique.
Soit maintenant p ≥ 2, et {u1 , . . . , up } une famille libre d’un espace vectoriel
E muni d’un produit scalaire. Soit {e1 , . . . , ep−1 } l’unique famille orthonormée
construite (grâce à l’hypothèse de récurrence), de façon à ce que l’on ait :

Vect {e1 , . . . , ek } = Vect {u1 , . . . , uk }
∀k ≤ p − 1,
huk , ek i > 0

5
La condition Vect {e1 , . . . , ep } = Vect {u1 , . . . , up } nous impose une relation du
type :
X p p−1
X
ep = αk uk = αp up + λk ek .
k=1 k=1
p−1
P
(En effet, la somme αk uk est dans Vect {e1 , . . . , ep−1 } = Vect {u1 , . . . , up−1 },
k=1
donc peut s’écrire comme combinaison linéaire des vecteurs e1 , . . . , ep−1 .)
Les conditions d’orthogonalité hep , ei i = 0 pour i < p nous donnent alors :
∀j ≤ p − 1, λj + αp hup , ej i = 0 .

p−1
 
P
Donc ep s’écrit ep = αp up − hup , ek iek .
k=1
Comme la famille {u1 , . . . , up } est libre, le vecteur up n’est pas dans dans le
sous-espace vectoriel Vect {u1 , . . . , up−1 } = Vect {e1 , . . . , ep−1 }, c’est-à-dire que
p−1
P
le terme up − hup , ek iek est forcément non nul. On détermine alors (au signe
k=1
près) le coefficient αp par la condition kep k = 1. Enfin, on doit avoir :
p−1
1 X 1
0 < hup , ep i = h ep + hup , ek iek , ep i =
αp αp
k=1
ce qui détermine le signe de αp , donc αp .


2.2 Des formules “économiques” d’intégration


Revenons à notre espace vectoriel Rn [X] des polynômes de degré au plus n.
Z 1
Propriété 2.2 L’application (P, Q) 7−→ hP, Qi = P(x)Q(x) dx définit un
0
produit scalaire sur Rn [X].
Démonstration : La bilinéarité est immédiate. D’autre part, pour tout po-
lynôme P à coefficients réels, l’application x 7−→ P(x)2 est à valeur dans R+ , et
donc le nombre hP, Qi est positif ou nul.
Enfin, si un polynôme P est non nul, alors l’application x 7−→ P(x)2 , continue
sur [ 0 ; 1 ], prend sur cet intervalle des valeurs strictement positives (sinon P
Z 1
aurait une infinité de racines). On en conclut que P(x)2 dx est strictement
0
positive (propriété de positivité de l’intégrale). 

Leprocédé d’orthonormalisation de Gram-Schmidt, partant de la base cano-


nique 1, X, X2 , . . . , Xn , nous fournit alors une base orthonormée {P0 , . . . , Pn }.
Comme l’une des conditions duprocédé de Gram-Schmidt est que pour tout i,
on ait Vect {P0 , . . . , Pi } = Vect 1, X, . . . , Xi = Ri [X], la famille construite est
nécessairement constituée de polynômes de degrés échelonnés (Pi est de degré
i pour tout i). En outre, Pi est orthogonal à Ri−1 [X] (c’est-à-dire à tous les
polynômes de degré au plus i − 1), ce pour tout i.

6
Lemme 2.3 Pour tout i, le polynôme Pi possède i racines réelles distinctes,
toutes dans l’intervalle ] 0 ; 1 [.
Démonstration : La propriété est vraie pour i = 0 (P0 est un polynôme
constant, sans racine). Soit i ≥ 1 un indice désormais fixé. On a :
Z 1 Z 1
Pi (t)P0 (t) dt = Pi (t) dt = 0
0 0

donc Pi change nécessairement de signe sur l’intervalle ] 0 ; 1 [, et possède donc


au moins une racine sur cet intervalle.
Soient x1 < · · · < xk les racines (distinctes) de Pi dans l’intervalle ] 0 ; 1 [.
Alors Pi se décompose sous la forme d’un produit :
k
Π (X − xj )αj Q
j=1

où les nombres αj sont des entiers naturels et Q est un polynôme sans racine
dans l’intervalle ] 0 ; 1 [. Considérons maintenant la séquence j1 < j2 < · · · < jr
des indices j compris entre 1 et k et tels que l’entier αj soit impair.
r
Alors le polynôme Pi · Π (X − xjm ) s’écrit :
m=1

k
Π (X − xj )βj Q
j=1

où βj = αj si αj est pair, et βj = αj + 1 sinon. C’est-à-dire que les nombres βj


k
sont tous pairs, et donc le produit Π (X − xj )βj
j=1
est de signe constant (positif)
sur l’intervalle [ 0 ; 1 ]. D’autre part, comme le polynôme Q n’a pas de racine sur
] 0 ; 1 [, il est lui aussi de signe constant sur [ 0 ; 1 ]. On a donc :
r Z 1 r
hPi , Π (X − xjm )i = Pi (x) Π (x − xjm ) dx 6= 0 .
m=1 0 m=1

Or, par construction, on sait que le polynôme Pi est orthogonal à Ri−1 [X].
r
On en déduit donc que le polynôme Π (X − xjm ) est de degré au moins i. Par
m=1
définition de ce polynôme, ceci signifie que Pi a i racines distinctes dans ] 0 ; 1 [.


Soit Pn le polynôme de degré n obtenu par le procédé de Gram-Schmidt


à partir de la base 1, X, . . . , Xn de Rn [X]. Soient a1 < · · · < an les racines
(distinctes d’après le lemme qui précède) de Pn . Nous avons vu que les formes
linéaires définies par l’évaluation des polynômes en a1 , . . . , an forme une base de
Rn−1 [X]0 (on a n points), et qu’en particulier il existe des coefficients α1 , . . . , αn
tels que pour tout polynôme P de degré au plus n − 1, on ait :
Z 1 Xn
P(x) dx = αk P(ak ) . (1)
0 k=1

7
Théorème 2.4 La formule précédente reste valable pour tout polynôme de
degré au plus 2n − 1.
Autrement dit, l’évaluation des polynômes en n points bien choisis suffit à cal-
culer l’intégrale de polynômes de degré allant jusqu’à 2n − 1 !
Démonstration : Supposons construit la famille de polynômes P0 , . . . , Pn , se-
lon le procédé de Gram-Schmidt. Soient α1 , . . . , αn tels que pour tout polynôme
P de degré au plus n − 1, on ait :
Z 1 Xn
P(x) dx = αk P(ak ) .
0 k=1
Considérons un polynôme P de degré au plus 2n − 1. La division euclidienne
de P par Pn nous donne deux polynômes Q et R, avec R de degré strictement
inférieur au degré de Pn (donc de degré au plus n − 1), tels que P = QPn + R.
D’autre part, on a alors deg (Q) + deg (Pn ) ≤ deg (P) ≤ 2n − 1, et donc le
quotient Q est lui aussi de degré au plus n − 1.
Mais alors, par linéarité de l’intégrale, on a :
Z 1 Z 1 Z 1
P(x) dx = Q(x)Pn (x) dx + R(x) dx .
0 0 0
On reconnaı̂t dans le premier terme de la somme le produit scalaire hQ, Pn i.
Or, par construction, le polynôme Pn est orthogonal à Rn−1 [X], c’est-à-dire que
ce produit scalaire est nul. On obtient :
Z 1 Z 1 Xn
P(x) dx = R(x) dx = αk R(ak ) .
0 0 k=1
En effet le polynôme R est de degré au plus n−1, donc la formule (1) s’applique.
Enfin, évaluant l’égalité P = QPn + R en un point ai , on obtient :
P(ai ) = Q(ai )Pn (ai ) + R(ai ) = R(ai )
puisque ai est par construction racine de Pn .
Z 1 Xn
D’où P(x) dx = αk P(ak ) . 
0 k=1
Définition Les points a1 , . . . , an , racines du n-ième polynôme de la famille
orthogonale construite, s’appellent les points de Gauss.
N.B. On peut énoncer une réciproque au théorème 2.4 : si l’on a n points
a1 , . . . , an , et n réels λ1 , . . . , λn tels que, pour tout polynôme de degré au plus
2n − 1, on ait :
Z 1 Xn
P(x) dx = λi P(ai )
0 k=1
alors a1 , . . . , an sont les points de Gauss d’ordre n, c’est-à-dire les racines du
polynôme Pn .
n
En effet, soit P le polynôme Π (X − ai ).
i=1
Pour tout polynôme Q de degré
au plus n − 1, le produit PQ est de degré au plus 2n − 1, et donc vérifie :
Z 1 Xn
P(x)Q(x) dx = λi P(ai )Q(ai ) = 0 .
0 k=1

8
En d’autres termes, hP, Qi = 0, c’est-à-dire que P est orthogonal à Rn−1 [X].
Le polynôme P est donc, à constante multiplicative près, le n-ième polynôme
de la famille orthonormale précédemment construite.

2.3 Détermination des points de Gauss


En pratique, le procédé de Gram-Schmidt est souvent pénible à mettre
en oeuvre. Ici, nous ne recherchons que les racines des polynômes orthogo-
naux en question. On peut donc alléger la méthode en ne recherchant les po-
lynômes qu’à constante multiplicative près (on y gagne, en particulier, des cal-
culs d’intégrales). Ainsi, on trouve successivement :
– P0 = 1.
– P1 doit être de degré 1, et orthogonal à P0 . En posant P1 sous la forme
X + a (comme on cherche P1 à constante multiplicative près, on peut le
supposer unitaire), on trouve la condition :
Z 1
(x + a) dx = 0 = 1/2 + a .
0

Donc P1 = X − 1/2.
– On pose P2 = X2 + aX + b. P2 doit vérifier hP2 , P0 i = hP2 , Xi = 0,
c’est-à-dire :
Z 1 Z 1
2
(x + ax + b) dx = (x3 + ax2 + bx) dx = 0 .
0 0

On trouve 1/3 + a/2 + b = 1/4 + a/3 + b/2 = 0


√  √ 
donc P2 = X2 − X + 1/6 = X − 1/2 − 1/2 3 X − 1/2 + 1/2 3 .
Les calculs deviennent, on le voit, assez vite compliqués (on a des systèmes
n × n à résoudre pour déterminer Pn ). Dans le cas particulier de notre produit
Z 1
scalaire hP, Qi = P(x)Q(x) dx, une famille orthogonale peut être obtenue de
0
la façon suivante :
(n)
Théorème 2.5 Les polynômes Pn = (X − X2 )n (dérivée n-ième du po-
lynôme (X − X2 )n ) forment une famille échelonnée orthogonale.
Démonstration : En effet, pour tout n, le polynôme Pn est de degré 2n−n = n
(on dérive n fois un polynôme de degré 2n). Pour montrer que cette famille
de polynômes est orthogonale, nous allons montrer que pour tout n, Pn est
orthogonal à Rn−1 [X].
Soit donc n un entier, soit R le polynôme (X−X2 )n (de sorte que Pn = R(n) ),
et Q est un polynôme de degré au plus n − 1. Alors, n intégrations par parties
successives nous donnent :
Z 1
hPn , Qi = R(n) (x)Q(x) dx
0
 n 1
(−1)k+1 R(n−k) (x)Q(k−1) (x)
P
=
k=1 Z 1 0
n 2 n (n)
+ (−1) (x − x ) Q (x) dx .
0

9
D’autre part, comme le polynôme R = (X − X2 )n ainsi que ses dérivées
successives jusqu’à l’ordre n − 1 s’annulent en 0 et en 1, les termes d’intégration
par partie sont tous nuls. . . On trouve donc :
Z 1
hPn , Qi = (−1)n (x − x2 )n Q(n) (x) dx .
0

Enfin, comme le polynôme Q est de degré au plus n−1, sa dérivée n-ième est
nulle, et l’on trouve hPn , Qi = 0, c’est-à-dire que le polynôme Pn est orthogonal
à Rn−1 [X].

Exemple : On obtient ainsi sans beaucoup 3 d’effort le polynôme P3 comme la
dérivée d’ordre 3 du polynôme X − X 2 = X − 3X + 3X5 − X6 . C’est-à-dire
3 4
3 2
que P3 = −120X + 180X − 72X + 6. On remarque que 1/2 est racine de P3 ,
ce qui permet de factoriser le polynôme. On trouve :
  r ! r !
1 1 1 3 1 1 3
P3 = −120 X − X− − X− + .
2 2 2 5 2 2 5
p
Les ppoints de Gauss correspondant sont donc 1/2, 1/2 − 1/2 3/5 et 1/2 +
1/2 3/5. Le même type de calculs que ceux effectués au tout début de ce
texte nous fournit les coefficients correspondants (il suffit là aussi d’examiner
les polynômes 1, X et X2 ). On obtient, pour tout polynôme de degré inférieur
ou égal à 2 · 3 − 1 = 5 :
Z 1 r !   r !
5 1 1 3 4 1 5 1 1 3
P(x) dx = ·P − + ·P + ·P − .
0 18 2 2 5 9 2 18 2 2 5

N.B. À translation près (c’est-à-dire si l’on considère dans tout ce qui précède
l’intégrale des polynômes sur l’intervalle [ −1 ; 1 ] et non plus sur [ 0 ; 1 ]), ces
polynômes s’appellent les polynômes de Legendre.
n Le n-ième polynôme de Le-
gendre est ainsi la dérivée n-ième de 1 − X2 .

2.4 Coefficients
Trouver les points de Gauss revient, on l’a vu, à factoriser un polynôme de
degré n. C’est a priori un problème compliqué, il devient d’ailleurs très vite
impossible de déterminer les racines de manière exacte. En revanche, comme on
sait que toutes ces racines sont dans l’intervalle ] 0 ; 1 [, de nombreuses méthodes
numériques nous permettent de trouver des valeurs approchées de ces racines,
connaissant le polynôme (ce qui est assez simple, en utilisant le théorème 2.5).
La détermination des coefficients ne pose en revanche pas de gros problèmes,
une fois connus les points de Gauss a1 , . . . , an . Il suffit d’écrire les relations
Z 1 X n
P(x) dx = λi P(ai ) pour les polynômes 1, X, . . . , Xn−1 . On obtient ainsi
0 i=1
un système linéaire de n équations à n inconnues λ1 , . . . , λn , qui se résout sans
trop de problème.

10
Une autre solution consiste à utiliser des polynômes interpolateurs de La-
grange. On obtient au passage une propriété supplémentaire pour nos coeffi-
cients : ils sont tous positifs.
n
En effet, si l’on considère le polynôme Li = Π (X − ak )2 , de degré 2n − 2, on
k=1
k6=i
trouve : Z 1 n
X
Li (x) dx = λk L2i (ak ) = λi Li (ai ) .
0 k=1

Comme le polynôme Li est positif, il en va de même pour son intégrale et


pour sa valeur en ai , et donc λi est nécessairement positif.

Conclusion : Ce procédé d’intégration des polynômes par évaluation en des


points particuliers s’inscrit dans un cadre bien plus large. Tout ce qui fait mar-
cher cette méthode, c’est le fait que la fonction :
Z 1
ϕ : P 7−→ P(t) dt
0

est une forme linéaire sur R[X], et que hP, Qi = ϕ (PQ) définit bien un produit
scalaire.
On pourrait bien sûr changer l’intervalle d’intégration, ou encore considérer
une fonction du type : Z
P 7−→ P(t)ω(t) dt
I
où ω est une fonction (encore appelée poids) choisie de façon à ce que l’intégrale
sur I de la fonction Pω soit bien définie quel que soit le polynôme P.
En fonction de l’intervalle I choisi et du poids ω, on construit alors diverses
familles de polynômes, orthogonales pour les produits scalaires correspondant.
Et, à chaque fois, le polynôme de degré n de la famille possède n racines dis-
tinctes dans I, qui sont les points de Gauss correspondant au produit scalaire
en question. . .
Ainsi, si l’on prend I = ] 0 ; +∞ [ et ω de la forme t 7−→ tα e−t , la famille
de polynômes correspondant s’appelle les polynômes de Laguerre. Si l’on prend
2
I = R et ω : t 7−→ e−t , ce sont les polynômes d’Hermitte, etc.
On pourra trouver de plus amples informations sur ces familles de po-
lynômes, et bien d’autres choses, dans un texte de Jean-Etienne Rombaldi
intitulé Approximation et Interpolation disponible sur le site « Maths en
Prépa », à l’adresse http://www.mathprepa.com/.

11

Vous aimerez peut-être aussi