Chap 08
Chap 08
Chap 08
Chapitre 8
v ( t ) n ( t )
" v 1 r a i "
S
u ( t ) y ( t )
s y s st è m e
f _ 0 8 _ 0 4 . e p s
Fig. 8.1 – On n’a pas accès au signal de sortie du "vrai" système, celui-ci étant
perturbé par v(t) subissant l’influence des bruits n(t) (fichier source).
quentiel de systèmes dynamiques linéaires, deux problèmes clés doivent être ré-
solus :
– on doit s’assurer autant que possible que la durée d’acquisition corresponde
à un nombre entier de périodes du signal de sortie du système. Cela est ré-
solu en tenant compte des indications données dès le §8.1.2, où l’on s’arrange
pour que les signaux acquis puissent être considérés comme périodiques ;
– la minimisation de l’effet du bruit (y compris perturbations). Cela se fait
en augmentant la durée d’aquisition (nombre N de points), en traitant le
spectre des signaux (par exemple par moyennage) ou en choisissant judi-
cieusement le signal d’excitation u(k).
v ( k )
1
G ( z ) S
u ( k ) y ( k )
0
s
f _ 0 5 _ 0 5 . e p s
Il vaut ici la peine de remarquer que l’on ne cherche pas à identifier un modèle
analogique, par exemple une fonction de transfert Ga (s), mais directement le
modèle échantillonné G0 (z). Analytiquement, ces 2 fonctions de transfert sont
liées par la relation (§ 5.5.2 page 153) :
Y (z) −1
−1 Ga (s)
G0 (z) = = 1−z ·Z L
U (z) s
Le signal d’entrée u(k), que l’on peut en principe imposer lors des travaux dédiés
à l’identification, est plutôt de nature déterministe alors que la perturbation v(k)
est de nature stochastique. On admet que ses paramètres statistiques sont
où
1
|RN (ω)| ∝ √
N
et VN (ω) est la transformée Fourier de vN (k). On observe d’emblée que l’esti-
mation ĜN (ej·ω ) de G0 (ej·ω ) est d’autant meilleure que le nombre N est élevé,
puisque |RN (ω)| ∝ √1N .
Cas particulier : u(k) périodique On peut montrer que si u(k) est périodique
de période égale à un multiple de N ·h, i.e. si uN (k) est une période ou un nombre
entier de périodes de u(k), alors RN (ω) = 0 pour ω = 2·π h
· i · N1 , i = 0 . . . N − 1,
i.e. aux fréquences auxquelles la TFD est définie. Dans le but d’annuler RN (ω),
il y a donc intérêt à ce que le signal u(k) soit périodique de période N · h.
C’est ce qui est fait avec le logiciel AcqBode (actuellement RTPWatch) créé par
le Prof. F.Mudry dans le but d’identifier les systèmes dynamiques linéaires :
on calcule la transformée de Fourier discrète de deux signaux correspondant à
l’excitation et à la réponse du système étudié. Le signal d’excitation u(k) prend
Signaux (v(k)=0)
1
0.8
u(k), uN(k)
0.6
0.4
0.2
0
0 0.05 0.1 0.15 0.2 0.25
0.2
0.15
y(k)|v=0, yN(k)|v=0
0.1
0.05
0
0 0.05 0.1 0.15 0.2 0.25
t [s]
f_fft_03_01_2.eps
Fig. 8.3 – Signal d’excitation u(k) = uN (k) et réponse y(k) = yN (k). yN (k) ne
constitue à l’évidence pas un nombre entier de périodes de y(k), comme requis
selon la relation (8.2) pour que le terme R N (ω)
UN (ω)
s’annule. L’estimation de la réponse
harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.4 page suivante (fichier source).
Exemple
Pour illustrer l’importance du signal d’excitation u(k), on effectue les 3 tests
suivants, avec v(k) = 0, i.e. sans bruit afin séparer les problèmes. De ce fait, la
relation (8.2) devient
0
z }| {
R N (ω) VN (ω) RN (ω)
ĜN (ej·ω ) = G0 (ej·ω ) + + = G0 (ej·ω ) +
UN (ω) UN (ω) UN (ω)
On examine les cas suivants :
1. u(k) = ∆(k) : c’est un signal qui est spectralement très riche, mais qui ne
met pas le système G0 (z) dans un état de régime permament périodique. La
figure 8.3 montre les signaux uN (k) et yN (k) et la figure 8.4 page suivante
le diagramme de Bode de ĜN (ej·ω·h ) correspondant.
2. uN (k) constitué de deux impulsions unité discrètes, la première en k = 0
et la seconde, avec une polarité inversée, en k = N2 . Ce signal de base est
jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_01_4.eps
répété R = 2 fois, ce qui dans le cas particulier met y(k) dans un état de
régime quasi permament périodique pour k > N (figure 8.5 page suivante).
La dernière période de y(k) est donc extrayable telle quelle pour effectuer
l’analyse selon (8.1 ) et les résultats (figure 8.6 page suivante) sont meilleurs
que précédemment (figure 8.4).
Signaux (v(k)=0)
1
0.5
u(k), uN(k)
0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.25
0.2
y(k)|v=0, yN(k)|v=0
0.15
0.1
0.05
−0.05
−0.1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_02_2.eps
Fig. 8.5 – Signal d’excitation u(k) et réponse y(k). u(k) est constitué de R = 2
périodes. On observe que les transitoires sont amorties dès la fin de la première
période. De ce fait, le signal y(k) peut être admis périodique de période N · h
pour k ≥ N . Si l’on avait généré u(k) avec une période de plus (R = 3), on au-
rait simplement obtenu une 3ème période. L’estimation de la réponse harmonique
ĜN (ej·ω·h ) est donnée sur la figure 8.6 (fichier source).
jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_02_4.eps
Signaux (v(k)=0)
1
0.5
u(k), uN(k)
0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
1.5
y(k)|v=0, yN(k)|v=0
0.5
−0.5
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_03_2.eps
Fig. 8.7 – Signal d’excitation u(k) et réponse y(k). On ne prélève que les N der-
niers échantillons, ce qui correspond à une période du signal y(k) admis périodique
pour k ≥ N (les N premiers échantillons correspondant au régime transitoire).
L’estimation de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.8
(fichier source).
3. uN (k) est cette fois une SBPA (figure 8.7), répétée également R = 2 fois.
Les résultats (figure 8.8) sont équivalents au cas précédent (figure 8.6 page
précédente).
jω h
Diagrammes de Bode de G0(e ) et YN(ω)/UN(ω) (pour v(k)=0)
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
−100
G0(ejω h)
YN(ω)/UN(ω)|v=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_03_4.eps
Moyenne
L’espérance mathématique de ĜN (ej·ω·h ) doit montrer si l’estimateur ĜN (ej·ω·h )
tend bel et bien vers G0 (ej·ω·h ). On a [[12], §6.3, p.148] :
h
j·ω·h
i j·ω·h
RN (ω) VN (ω)
E ĜN (e ) = E G0 (e ) +E + E
| {z } UN (ω) UN (ω)
G0 (ej·ω·h )
| {z } | {z }
RN (ω) 0 car
UN (ω) E [VN (ω)] =
F {E [v(k)]} = 0
On voit que
ĜN (ej·ω·h ) −→ G0 (ej·ω·h ) pour N −→ ∞
puisque limN →∞ RN (ω) = 0 et E [v(k)] = 0. ĜN (ej·ω·h ) est ainsi un estimateur
non biaisé de G0 (ej·ω·h ).
Variance
j·ω·h
La variance dehl’estimateur i ĜN (e ) montre comment fluctue celui-ci autour
de sa moyenne E ĜN (ej·ω·h ) = G0 (ej·ω·h ). On montre que [[12], §6.3, p.149] :
2
j·ω·h j·ω·h Φv (ω)
E ĜN (e ) − G0 (e ) −→ pour N −→ ∞
|UN (ω)|2
où Φv (ω) est la densité spectrale de puissance ("spectre", § 8.C.12 page 329) de
l’entrée stochastique v(k) et UN (ω) est la transformée de Fourier de uN (k). On
voit que la variance de l’estimateur ne tend pas vers 0, même pour un grand
nombre N d’échantillons, mais vers
Φv (ω)
|UN (ω)|2
La variance de ĜN (ej·ω·h ) est donc dépendante du spectre (plus pécisément de
la densité spectrale de puissance) Φv (ω) du bruit v(k). Si Φv (ω) est donnée, la
variance ne peut être réduite qu’en choisissant |UN (ω)| de manière à diminuer le
rapport |UΦv(ω)|
(ω)
2 . On conçoit dès lors que le choix d’un signal d’excitation spec-
N
tralement très riche est un avantage. La conséquence de ce fait est que souvent,
le graphe de la réponse harmonique est très fluctuant lorsque le rapport signal
sur bruit n’est pas satisfaisant (figures 8.9 page suivante, 8.13 page 284 et 8.15
page 285, la figure 8.15 page 285 montrant l’amélioration obtenue en augmentant
la densité spectracle de uN (k)).
−60
−70
−80
−90
−100
−110
−120
1 2 3 4
10 10 10 10
200
100
−100
YN(ω)/UN(ω)|
−200
1 2 3 4
10 10 10 10
ω [rad/s]
f_lse_m_03_9.eps
Fig. 8.9 – Même dans de bonnes conditions d’expériences (ici un cas réel d’iden-
tification d’un système mécanique comportant une élasticité, schéma technolo-
gique de la figure 8.10 page suivante), l’ETFE ĜN (ej·ω·h ) fournit une réponse très
fluctuante, principalement à cause du bruit v(k). Cela est la conséquence de la
variance de ĜN (ej·ω·h ), laquelle est dépendante du spectre de v(k) et tend vers
Φv (ω)
|U (ω)|2
. A v(k) donné, on ne peut donc réduire la variance qu’en choisissant un
N
signal d’excitation uN (k) tel que |UN (ω)|2 soit élevé (fichier source).
c o e f f i c i e n t d e
f r o t t e m e n t v i s q u e u x :
d e s p a l i e r s
R f
[ N m s / r a d ]
T e m
( t ) q 1
( t ) q 2
( t )
R f
R f
r i g i d i t é d e l 'a r b r e
d e t r a n s m i s s i o n :
k [ N m / r a d ]
i n e r t i e d u r o t o r : i n e r t i e d e l a c h a r g e : f _ 0 8 _ 0 6 . e p s
J 1
J 2
1
u (k)
0
N
−1
−2
−3
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
x 10
−3 Réponse du système à la SBPA
3
1
y (k)
0
N
−1
−2
−3
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
t [s]
f_lse_m_03_1.eps
Fig. 8.11 – Signal d’excitation et réponse du système représenté sur la figure 8.10
(fichier source).
Signaux
1
0.5
u(k), uN(k)
0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.3
v≠0 0.2
, y (k)|
N
0.1
v=0
y (k)|
0
N
−0.1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.04
0.02
v(k)
−0.02
−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_04_1.eps
Fig. 8.12 – Signal d’excitation uN (k), réponse yN (k) et bruit v(k). L’estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.13 page suivante
(fichier source).
Cela signifie par exemple que l’estimateur ne voit pas de dépendance forte entre
le gain de la fonction de transfert à deux fréquences voisines l’une de l’autre.
Or, cela contredit l’expérience, puisque l’on sait que la réponse harmonique d’un
système linéaire ne varie que de manière "douce".
Exemple
On considère maintenant le même système que le premier exemple traité
(§ 8.1.2 page 276), désormais perturbé par un bruit √ v(k) de moyenne µ nulle
et de variance λ = 0.0001, soit une valeur efficace σ = λ = 0.01.
– Dans un premier temps, le système excité un signal uN (k) formé à nouveau
par la répétition périodique (R = 2 fois) de deux impulsions unité discrètes
de signes opposés (selon figure 8.5 page 278). Ce signal est également donné
sur la figure 8.12, avec le signal de sortie yN (k), bruité par la perturbation
v(k) également figurée.
– le système est ensuite maintenant excité par une SBPA (figure 8.14 page
suivante). Les résultats sont donnés à la figure 8.15 page 285 qui montre
jω h
Diagrammes de Bode de G0(e ), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
G (ejω h)
0
−100
YN(ω)/UN(ω)|v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_04_6.eps
Φv (ω)
|UN (ω)|2
de ĜN (ej·ω·h ) a été diminuée en choisissant un signal d’excitation ayant |UN (ω)|
élevé.
Néanmoins, la comparaison de l’estimateur ETFE avec la vraie réponse har-
monique montre, même dans le cas de la figure 8.15, toute la difficulté qu’il y a
à identifier la réponse fréquentielle de systèmes dynamiques.
En guise de conclusion de cet exemple, on choisit maintenant un signal d’exci-
tation uN (k) constitué d’une somme de sinus d’amplitude 1, de fréquences variant
de ∆fN
e
à N2 · ∆f
N
e
et de phase aléatoire à distribution uniforme (µ = 0, σ = 1).
Ce signal a pour propriété d’avoir une densité spectrale de puissance encore plus
élevée que la SBPA, i.e. d’être plus puissant pour chaque composante spectrale.
Répété R = 2 fois, ce signal est donné sur la figure 8.16 page suivante et la
réponse harmonique de l’estimateur se trouve sur la figure 8.17 page 287.
Signaux
1
0.5
u(k), uN(k) 0
−0.5
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
2
yN(k)|v=0, yN(k)|v ≠ 0
−1
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.04
0.02
v(k)
−0.02
−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_05_1.eps
Fig. 8.14 – Signal d’excitation uN (k), réponse yN (k) et bruit v(k). L’estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.15 page ci-contre
(fichier source).
Diagrammes de Bode de G0(ejω h), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
G0(ejω h)
−100
YN(ω)/UN(ω)|v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_05_6.eps
Signaux
40
20
u(k), uN(k)
−20
−40
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
15
yN(k)|v=0, yN(k)|v ≠ 0
10
−5
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
0.04
0.02
v(k)
−0.02
−0.04
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
t [s]
f_fft_03_06_1.eps
Fig. 8.16 – Signal d’excitation uN (k), réponse yN (k) et bruit v(k). L’estimation
de la réponse harmonique ĜN (ej·ω·h ) est donnée sur la figure 8.17 page suivante
(fichier source).
Diagrammes de Bode de G0(ejω h), YN(ω)/UN(ω) (pour v(k)=0) et YN(ω)/UN(ω) avec bruit v(k) de variance λ=0.0001
40
20
−20
−40
−60
−80
−100
0 1 2 3
10 10 10 10
200
100
G0(ejω h)
−100
Y (ω)/U (ω)|
N N v=0
YN(ω)/UN(ω)|v ≠=0
−200
0 1 2 3
10 10 10 10
f [Hz]
f_fft_03_06_6.eps
L’inconvénient de cette manière de faire est évidemment que la durée des essais est
prolongée d’un facteur R, puisqu’il faut acquérir R · N mesures. Une alternative
[[13], §8.5, p.212] consiste à partager un ensemble existant de N mesures en
R sous-ensembles de M points et à calculer ĜM (ej·ω·h ) pour chacun des sous-
ensembles avant de sommer. On a :
R
1 X
ĜN (ej·ω·h ) = · ĜM (ej·ω·h )
R l=1
fe fe fe
∆f = =R· =R·
M R · M}
| {z N
N
La résolution fréquentielle est ainsi R fois plus grossière. Cette dernière manière
de faire porte le nom de méthode de Welch.
Une méthode d’amélioration de la variance de l’estimation ĜN (ej·ω·h ) consiste
à lisser la réponse harmonique obtenue à l’aide d’un filtre (ce que font sans autre
nos propres yeux !). C’est la méthode de Blackman-Tukey, décrite dans [[12],§6.4]
et [[13], §8.5].
d’un système dynamique linéaire discret. U (z) et Y (z) sont respectivement les
transformées en z des signaux temporels discrets d’entrée u(k) et de sortie y(k).
k ∈ Z est l’instant d’échantillonnage, i.e. un entier relatif tel que t [s] = k · h
où h est la période (constante) d’échantillonnage en [s]. Les signaux discrets u(k)
et y(k) que l’on considère sont admis nuls pour k < 0, ce qui revient à dire :
a1 a2 ... an b1 b2 ... bn
La qualité des estimations doit pouvoir être chiffrée, typiquement par l’intermé-
diaire de la moyenne et de la variance de chaque paramètre estimé.
e ( k )
H ( z )
v ( k )
1
G ( z ) S
u ( k ) y ( k )
s
f _ 0 5 _ 0 1 . e p s
Structure ARX
Dans le cas de la structure ARX (AR="AutoRegressive", X="eXogeneous"
ou "eXtra" variable), le bruit e(k) perturbe la sortie brute de la fonction de
transfert G(z) du système via la dynamique
1
H(z) =
A(z)
e ( k )
A ( z )
v ( k )
B 1 ( z )
S
u ( k ) y ( k )
A s
( z ) f _ 0 5 _ 0 2 . e p s
On a donc :
B(z) 1
Y (z) = ·U (z) + ·E(z)
A(z) A(z)
| {z } | {z }
G(z) H(z)
L’inconvénient de cette structure est qu’elle impose par A(z) une dynamique
commune pour la propagation du signal d’entrée u(k) et du bruit e(k). On conçoit
que ce modèle ne puisse convenir pour certaines applications. Une conséquence
en est que l’identification des paramètres par la méthode des moindre carrés
présentée au § 8.2.2 page 294 a tendance à favoriser une bonne identification du
système G(z) = B(z)A(z)
aux hautes fréquences, au détriment des basses fréquences
([[12], §8.5 p.228 et relation (8.68)]).
Grâce à C(z), on peut avoir des dynamiques très différentes entre u(k) (signal
déterministe, contrôlé) et y(k) et entre e(k) (bruit blanc à µ = 0 et σ 2 connu) et
y(k), ce qui compense en partie les lacunes de la structure ARX.
e ( k )
C ( z )
A ( z )
v ( k )
B 1 ( z )
S
u ( k ) y ( k )
A s
( z )
f _ 0 8 _ 0 3 . e p s
On a
B(z) C(z)
Y (z) = ·U (z) + ·E(z)
A(z) A(z)
| {z } | {z }
G(z) H(z)
avec
B(z)
z }| {
−1 −2 −nb +1 −nb
b1 · z + b2 · z + . . . + bnb −1 · z + bnb · z B(z)
G(z) = −1 −na +1 −na =
1 + a1 · z + . . . + ana −1 · z + ana · z A(z)
| {z }
A(z)
e ( k )
H ( z )
v ( k )
1
G ( z ) S
u ( k ) y ( k )
s
f _ 0 5 _ 0 1 . e p s
p.56]
G(z) 1
Ŷ (z) = · U (z) + 1 − · Y (z) (8.5)
H(z) H(z)
L’établissement de ce prédicteur dans le cas particulier de la structure ARX est
fait dans le § 8.2.3 page 297.
La méthode PEM a donc pour objectif trouver les paramètres des fonctions
de transfert G(z) et H(z) de telle façon que l’erreur de prédiction
(k) = y(k) − ŷ(k)
soit minimisée.
B(z)
Dans le cas d’une structure ARX (§ 8.2.1 page 290), on a G(z) = A(z)
et
1 B(z) C(z)
H(z) = A(z) , alors que G(z) = et H(z) =
A(z) A(z)
pour une structure ARMAX
(§ 8.2.1 page 292).
Partant d’un ensemble de N mesures yN (k) correspondant aux entrées uN (k),
→
−
on réunit les paramètres de G(z) et H(z) à identifier dans le vecteur-colonne θ ,
lequel prend dans le cas de la structure ARX la forme
→
− T
θ = a1 a2 . . . a n b 1 b 2 . . . b n
→
−̂ →
−
et l’on utilise la méthode PEM pour fournir une estimation θ N de θ minimisant
la fonction
− N −1
→ 1 X
VN θ , yN (k), uN (k) = · `((k))
N k=0
où (k) correspond donc à l’erreur de prédiction y(k) − ŷ(k). On obtient :
→
− n − → o
θ N = arg min VN θ , yN (k), uN (k)
−
→
à comprendre comme "θ̂N est la valeur de l’argument θ de la fonction VN θ , yN (k), uN (k)
minimisant VN ".
→
− −
→
L’estimateur θ N recherché doit donc minimiser la fonction VN θ , yN (k), uN (k)
à partir des signaux d’entrée uN (k) et de sortie yN (k), où N correspond au nombre
d’échantillons prélevés.
Un cas particulier très important est celui où la fonction `((k)) est quadra-
tique :
2
− N −1 N −1
→ 1 X1 1 X1
VN θ , yN (k), uN (k) = · · y(k) − ŷ(k) = · · (k)2 (8.6)
N k=0 2 | {z } N k=0 2
(k)
Dans ce cas, on indique dans le § 8.2.3 page 297 qu’il existe même une solution
→
−
analytique pour θ N .
Exemple
Reprenant l’exemple du système mécanique traité aux figures 8.10, 8.11 et
8.9, on présente ci-dessous (figure 8.22) les résultats de l’identification paramé-
trique par l’intermédiaire de la réponse harmonique Ĝ(ej·ω·h ) de l’estimateur Ĝ(z)
du modèle G(z) dont les paramètres ont été identifiés. Le modèle choisi a une
structure ARMAX. La comparaison l’estimation non-paramétrique (ETFE) de la
réponse harmonique montre une très bonne concordance. Fait remarquable, alors
que l’affichage de l’ETFE tel qu’il est présenté sur la figure nécessite 1024 infor-
mations, celui de Ĝ(ej·ω·h ) n’en nécessite que 9, correspondant aux paramètres
estimés b0 . . . b5 et a1 . . . a5 de Ĝ(z), d’où un facteur de compression d’information
important.
−60
−70
−80
−90
−100
−110
−120
−1 0 1 2 3
10 10 10 10 10
200
100
−100
G(ejω h)
YN(ω)/UN(ω)|
−200
−1 0 1 2 3
10 10 10 10 10
f [Hz]
f_lse_m_03_8.eps
b 0 · z 5 + b1 · z 4 + b 2 · z 3 + b3 · z 2 + b 4 · z + b 5
Ĝ(z) =
z 5 + a1 · z 4 + a2 · z 3 + a3 · z 2 + a5 · z + a5
3.917 · 10−5 · z 5 + 3.469 · 10−5 · z 4 − 10.46 · 10−5 · z 3 + 1.353 · 10−5 · z 2 + 4.631 · 10−5 · z
=
z 5 − 1.286 · z 4 + 0.6549 · z 3 + 0.1233 · z 2 − 0.5827 · z + 0.11
→
−
En réunissant dans le vecteur-colonne θ l’ensemble des 2 · n paramètres à iden-
tifier
a1
a2
. . .
→
− an
θ = b1
b2
. . .
bn
et on considérant un modèle de type ARX,
B(z) 1
Y (z) = · U (z) + · E(z)
A(z) A(z)
on a, dans le domaine temporel :
Il s’agit d’un problème standard en statistique, dont, une fois n’est pas coutume,
la solution existe sous forme analytique ! On a :
n − → o
θ̂N = arg min VN θ , yN (k), uN (k)
#−1
(8.7)
" N −1 N −1
1 X→ − →
− T 1 X− →
= · ϕ (k) · ϕ (k) · · ϕ (k) · y(k)
N k=0 N k=0
Exemple
On considère le système analogique d’ordre 1
Y (s) K 1
Ga (s) = = =
U (s) 1+s·T 1 + s · 0.01
dont le modèle échantillonné est
Y (z) b1
G(z) = =
U (z) z + a1
avec
h 0.001
a1 = −e− T = −e− 0.01 = −0.9048
b1 = K · (1 + a1 ) = 1 · (1 + (−0.9048)) = 0.0952
5
uN(k)
−5
−10
0 0.01 0.02 0.03 0.04 0.05 0.06
10
yN(k)|v=0, yN(k)|v ≠ 0
−5
−10
0 0.01 0.02 0.03 0.04 0.05 0.06
0.1
0.05
v(k)
−0.05
−0.1
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
f_lse_01_1.eps
Fig. 8.23 – Signal d’excitation, réponses (avec et sans bruit) et bruit (fichier source).
Les résultats de l’identification sont donnés sur la figure 8.24 page suivante.
Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.90511 b1est=0.095
8
est
0
est
−2
−4
−6 G(z)
Gest(z)v≠0
Gest(z)v=0
−8
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
f_lse_01_2.eps
Fig. 8.24 – Réponse du vrai système G(z), de son modèle identifié Ĝ(z) avec et
sans bruit (fichier source).
La figure 8.24 montre l’excellent modèle obtenu, le modèle Ĝ(z) étant visi-
blement capable de reproduire le comportement du système G(z). Les valeurs
numériques des paramètres estimés coïncident avec les valeurs effectives.
Résidus ε(k)
0.1
0.05
0
ε(k)
−0.05
−0.1
−0.15
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
Pour valider le modèle ainsi identifié, on peut également visualiser les résidus
(k) (figure 8.25) qui devraient alors être un bruit aléatoire, avant de visualiser
N −1
1 X
RN (k) = · (l) · (l + k)
N l=0
qui devrait tendre vers 0 dès que k 6= 0 si (k) est effectivement un bruit aléatoire.
La figure 8.26 montre que c’est bien le cas. De plus, les résidus devraient être
indépendants de l’entrée uN (k), ce qui se vérifie en examinant la fonction de
covariance croisée
N −1
N 1 X
Ru (k) = · (l) · u(l + k)
N l=0
0.5
−0.5
−1
0 5 10 15 20 25
lag
Cross corr. function between input 1 and residuals from out put 1
0.15
0.1
0.05
−0.05
−0.1
−0.15
−0.2
−25 −20 −15 −10 −5 0 5 10 15 20 25
lag
→
−
y(k) = −
→
ϕ (k)T · θ 0 + v0 (k)
avec
N −1
1 X→ −
RN = · ϕ (k) · −
→
ϕ (k)T
N k=0
On voit d’ores et déjà que si le niveau des perturbations v0 (k) est faible par rap-
port aux composantes de − →ϕ (k) et que RN est non singulière, i.e. inversible, alors
→
− →
− →
−
θ N sera proche de θ 0 . L’estimateur θ N a donc un biais nul, i.e. les paramètres
a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn du système sont estimés sans biais.
→
−
La variance de θ N indique comment les valeurs estimées des mêmes para-
mètres fluctuent autour de leur moyenne. En effet, les estimations de
a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn sont influencées par le signal stochastique
v(k) et sont de ce fait également des variables stochastiques. On peut montrer
qu’une estimation de cette variance est donnée par
" N −1
#−1
−
→ 1 1 X→ − →
−̂ →T
− →
−̂
cov θ N = · λ̂N · · ψ (k, θ N ) · ψ (k, θ N )
N N k=0
avec
N −1
1 X
λ̂N = · (k)2
N k=0
et
−
→ →
−̂ d
ψ (k, θ N ) = ŷ(k)
→
−̂
dθN
→
−
cov θ N est la matrice de covariance des paramètres estimés. Les variances re-
→
−
cherchées se trouvent la diagonale de cov θ N .
→
−
L’expression cov θ N montre en premier lieu qu’un moyen très efficace de
diminuer la dispersion des paramètres estimés consiste à augmenter N .
→
−
La fonction ψ(k, θ N ) indique comment varie le signal de sortie y(k) en fonc-
tion du paramètre a1 , a2 , . . . an−1 , an , b1 , b2 , . . . , bn−1 , bn pour lequel la dérivation
d
→ ŷ(k)
−̂ est effectuée. On voit donc que si la sensibilité de y(k) est grande par
dθN
rapport au paramètre considéré, alors la variance de la distribution de celui-ci
sera d’autant plus faible ! Il y a donc intérêt à choisir un signal d’entrée u(k)
provoquant un signal de sortie y(k) très sensible au paramètre à identifier.
Cette dernière observation met en évidence toute l’importance du choix du
signal d’excitation u(k). Il vaut la peine que le spectre Φu (ω) soit dense dans les
fréquences où la sensibilité de la fonction de transfert par rapport aux paramètres
à identifier est élevée [[12], §14.3, p.371]. Cela sera illustré dans l’exemple du
paragraphe 8.2.4.
Ces résultats, présentés ici dans le cas particulier d’un modèle de type ARX,
sont généralisables aux paramètres correspondant à d’autres structures [[12],
§9.2].
Exemple
Reprenant l’exemple du § 8.2.3 page 298, on se place cette fois dans la situation
où l’amplitude du signal d’excitation u(k) est divisée par 10. Le rapport signal
sur bruit est alors dégradé et l’on peut observer sur la figure 8.27 que l’estimation
des 2 paramètres est moins bonne.
Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.89686 b1est=0.096904
0.8
0.6
0.4
G (z) v≠ 0
0.2
|
est
,y
G (z) v=0
0
|
est
,y
−0.2
G(z)
y
−0.4
−0.6 G(z)
Gest(z)v≠0
Gest(z)v=0
−0.8
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
f_lse_02_2.eps
Fig. 8.27 – Réponse du modèle lorsque le rapport signal sur bruit est médiocre
(comparer avec les résultats présentés sur la figure 8.24 page 300) (fichier source).
on a maintenant :
L’effet du caractère stochastique des estimations est illustré sur les figures
8.28 et 8.29 où les paramètres des 2 modèles identifiés sont perturbés selon leurs
variances respectives. Les réponses correspondantes sont tracées et donnent une
idée de la dispersion des paramètres de chacun des 2 modèles.
Output number 1
10
−2
−4
−6
−8
10 20 30 40 50 60
Output number 1
1
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
10 20 30 40 50 60
Les figures 8.30 et 8.31 montrent les résultats obtenus. Malgré un rapport signal
sur bruit médiocre comme dans le dernier cas traité, les résultats sont nettement
meilleurs, comme les variances en témoignent :
Réponses du système réel et du modèle, avec et sans bruit. a1=−0.90484 b1=0.095163 a1est=−0.90586 b1est=0.094001
2
1.8
1.6
1.4
(z) v≠ 0
|
1.2
est
, yG
(z) v=0
1
|
est
yG(z), yG
0.8
0.6
0.4
G(z)
Gest(z)v≠0
0.2
Gest(z)v=0
0
0 0.01 0.02 0.03 0.04 0.05 0.06
t [s]
Fig. 8.30 – Réponse du modèle obtenu avec rapport signal sur bruit médiocre
mais une excitation adaptée aux paramètres à identifier (fichier source).
Output number 1
1.5
0.5
10 20 30 40 50 60
i.e. chaque élément est une estimation des fonctions de covariance de u(k) et de
y(k).
e ( k )
C ( z )
A ( z )
v ( k )
B 1 ( z )
S
u ( k ) y ( k )
A s
( z )
f _ 0 8 _ 0 3 . e p s
La difficulté réside dans le fait contrairement au cas de la structure ARX, les pa-
ramètres minimisant l’erreur de prédiction (k) ne peuvent se calculer simplement
par une régression linéaire de type (8.6), mais doivent être obtenus itérativement,
par exemple par la méthode du gradient (§ 8.A.3 page 312).
où d ∈ N est un entier naturel. La fonction réalisée par cet opérateur est identique
à z −1 , l’avantage résidant dans le fait qu’il s’applique directement aux signaux
temporels et non pas à leurs transformées en z. On a alors :
L’équation aux différences (8.4) peut alors être réécrite sous la forme :
Estimation de y(k)
La meilleure prédiction de v̂(k) de v(k) ne peut s’appuyer que sur les valeurs
passées de e(k) et v(k) :
C(q)
v̂(k) = · e(k − 1)
A(q)
C(q)
= v(k) − · e(k)
A(q)
A(q)
= v(k) − · v(k)
C(q)
A(q)
= 1− · v(k)
C(q)
On en déduit :
B(q)
ŷ(k) = · u(k) + v̂(k)
A(q)
B(q) A(q)
= · u(k) + 1 − · v(k)
A(q) C(q)
B(q) A(q) B(q)
= · u(k) + 1 − · y(k) − · u(k)
A(q) C(q) A(q)
B(q) A(q) A(q) B(q)
= · u(k) + 1 − · y(k) − 1 − · · u(k)
A(q) C(q) C(q) A(q)
d’où :
B(q) A(q)
ŷ(k, θ) = · u(k) + 1 − · y(k) (8.8)
C(q) C(q)
des vecteurs
−y(k − 1)
−y(k − 2)
. . .
−y(k − na )
u(k − 1)
→
− u(k − 2)
ϕ (k, θ) =
. . .
u(k − nb )
(k − 1, θ)
(k − 2, θ)
...
(k − nc , θ)
et
a1
a2
. . .
ana
b1
→
− b2
θ =
. . .
bn
b
c1
c2
. . .
cnc
on a :
ŷ(k, θ) = −
→
ϕ (k, θ)T · θ
Il ne s’agit malheureusement pas d’une régression linéaire (on parle de régression
pseudo-linéaire) et en conséquence, une solution analytique visant à trouver le
→
−
jeu de paramètre θ minimisant
− N −1
→ 1 X1
VN θ , yN (k), uN (k) = · · (k)2
N k=0 2
2
N −1
1 1 −
→
· y(k) − −
→
X
= · ϕ (k, θ)T · θ (8.10)
N k=0
2 | {z }
(k)
n’existe pas. Il faut alors recourir a une solution numérique. On propose d’étudier
ci-après la méthode dite de descente de gradient.
puis finalement :
→
−
∂ ŷ(k, θ ) 1
=− · y(k − j)
∂aj C(q)
→
−
∂ ŷ(k, θ ) 1
= · u(k − j)
∂bj C(q)
→
−
∂ ŷ(k, θ ) 1 →
− 1 1 →
−
=− · q −j · ŷ(k, θ ) + · y(k − j) = · (k − j, θ )
∂cj C(q) C(q) C(q)
L’évaluation de
∂VN
∂aj
∂VN
∂bj
∂VN
∂cj
donne :
→
−
2·(k, θ ) −1
N −1 N −1
z }| { z}|{
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
−
= · · =− · = · · y(k − j) · (k, θ )
∂aj ∂ ∂ ŷ ∂aj N k=0 ∂aj N k=0 C(q)
N −1 N −1
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
−
= · · =− · =− · · u(k − j) · (k, θ )
∂bj ∂ ∂ ŷ ∂bj N k=0 ∂bj N k=0 C(q)
N −1 N −1
∂VN ∂VN ∂ ∂ ŷ 1 X ∂ ŷ 1 X 1 →
− →
−
= · · =− · =− · · (k − j, θ ) · (k, θ )
∂cj ∂ ∂ ŷ ∂cj N k=0 ∂cj N k=0 C(q)
En introduisant
−y(k − 1)
−y(k − 2)
. . .
−y(k − na )
u(k − 1)
→
− →
− u(k − 2)
ϕ (k, θ ) =
...
u(k − nb )
(k − 1)
(k − 2)
...
(k − nc )
ainsi que
∂ ŷ
∂a1
∂ ŷ
∂a2
...
∂ ŷ
∂ana
∂ ŷ
∂b
∂ ŷ1
→
−
∂b2
ψ(k, θ ) =
...
∂ ŷ
∂bnb
∂ ŷ
∂c1
∂ ŷ
∂c
2
...
∂ ŷ
∂cnc
−̂ (i+1) −̂
→ →(i) (i) −1 →(i)
0 −̂
θ N = θ N − µN · RN · VN ( θ N ) (8.12)
avec
N −1
→
− 1 X →
− →
−
VN0 ( θ ) =− · ψ(k, θ ) · (k, θ ) (8.13)
N k=0
→
−̂ →
−
avec VN ( θ N ) selon (8.10) et ψ(k, θ ) selon (8.11).
(i)
RN est une matrice de dimension na + nb + nc modifiant la direction de
recherche et choisie dans un premier temps égale à la matrice identité, faisant de
(8.12) une méthode de descente de gradient.
→
−̂
Si l’on prend en compte la double dérivée de VN ( θ N ), i.e. le hessien de
−̂
→
VN ( θ N ), on peut affiner la direction de recherche en tenant compte de l’évo-
→
−
lution du gradient VN0 ( θ ) [[12], éq. (10.44)] :
N −1 N −1
→
− 1 X →
− →T
− 1 X 0 − → →
−
VN00 ( θ ) = · ψ(k, θ ) · ψ(k, θ ) − · ψ (k, θ ) · (k, θ ) (8.14)
N k=0 N k=0
Avec
(i) →
−
RN = VN00 ( θ )
→
−
(8.12) est une méthode Newton. Lorsque l’on est proche du minimum de VN0 ( θ ),
on peut admettre [[12], éq. (10.46)] que
N −1
→
− 1 X →
− →
−
VN00 ( θ ) ≈ · ψ(k, θ ) · ψ(k, θ )T (8.15)
N k=0
m e s u r e s = m e s u r e s ( 1 : ind , : ) ;
t = mesures ( : , 1 ) ; %i n s t a n t s d ’ e c h a n t i l l o n n a g e
u = mesures ( : , 4 ) ; %s i g n a l d ’ e n t r e e ( d e t e r m i n i s t e )
y = mesures ( : , 5 ) ; %s i g n a l de s o r t i e
y = y − y (1); %e n l e v e o f f s e t
N = length ( y ) ; %longueur e c h a n t i l l o n de mesures
y e s t = [ zeros ( n , 1 ) ; zeros ( N , 1 ) ] ; %e s t i m a t i o n de y
t = [ 0 : length ( y e s t )−1] ’ ; ␣ ␣ ␣ ␣ ␣ ␣ ␣ ␣ % v e c t e u r ␣ temps
%Parametre de l a r o u t i n e de r e c h e r c h e du minimum s e l o n ( 6 )
VN = zeros ( NBITER , 1 ) ; %1/N∗somme du carre de 0 . 5 ∗ e r r e u r de p r e d i c t i o n
VN( 1 ) = 1 e5 ; %Valeur i n i t i a l e mise a l ’ i n f i n i ou presque
RN = eye ( na+nb+nc ) ; %d i r e c t i o n de r e c h e r c h e , i n i t i a l i s a t i o n pour methode de d e s c e n t e de g r a d i e n t
muN = 0 . 0 1 ; %pas de c a l c u l i n i t i a l pour l a r e c h e r c h e
%t e s t avec ARMAX MATLAB ( ce que l ’ on a i m e r a i t reussir a faire nous−memes avec ce fichier ...)
th_armax = armax ( [ y , u ] , [ na , nb , nc , nk ] )
while ( ( p<NBITER) )
VNp = zeros ( na+nb+nc , 1 ) ; %i n i t i a l i s a t i o n du g r a d i e n t de VN
VNpp = zeros ( na+nb+nc ) ; %i n i t i a l i s a t i o n du Hessien de VN
Chapitre 8 315
VNIdentification, v.1.8 mee \cours_rn.tex\12 avril 2005
eivd Régulation numérique
%Somme des c a r r e s de l ’ e r r e u r de p r e d i c t i o n
VN( p ) = 1 / N∗sum( 0 . 5 ∗ e p s i l o n . ^ 2 ) ; %s e l o n ( 4 )
[ p , VN( p ) − VN( p −1)]
figure
plot (VN( 2 : NBITER) , ’ o ’ )
t i t l e ( ’ E v o l u t i o n ␣ du␣ g r a d i e n t ’ )
Les résultats sont sur les figures 8.33 page ci-contre et 8.34 page 318.
Evolution du gradient
4.5
3.5
2.5
1.5
0.5
0
0 10 20 30 40 50 60 70 80 90 100
No itération
f_test_armax_01_1.eps
6
y
yest
4
y(k), yest(k)
−2
−4
0 10 20 30 40 50 60
20
10
u(k)
−10
−20
0 10 20 30 40 50 60
k
f_test_armax_01_2.eps
Fig. 8.34 – En haut : mesure y(k) et estimation ŷ(k), après p = 100 itérations.
En bas : signal d’entrée u(k) (fichier source).
Des formes bien connues de densités de probabilité sont les distributions [[9],
§14.4]
– uniforme :
1
p(x) = · ((x + a) − (x − b))
b−a
(b−a)2
avec µx = 21 · (b + a) et σx2 = 12
– gaussienne : " #
1 (x − µx )2
p(x) = √ · exp −
2 · π · σx 2 · σx2
Pour µx = 0, on a Rx (τ ) = Cx (τ ).
La fonction d’intercorrélation statistique peut également être définie :
E [f (x)] = f (x(t))
Son évaluation expérimentale ne peut bien sûr s’effectuer que pour une durée T
finie, typiquement en échantillonnant le signal x(t) considéré :
N −1
1 X
RxN (k) = · x(l + k) · x(l)
N l=0
ce qui montre qu’elle est une simple adaptation à la nature discrète de x(k).
La transformée de Fourier inverse s’écrit :
+ ω2e
Z
−1
x (k) = F {X (j · ω)} = X (j · ω) · e+j·ω·k·h · dω
− ω2e
x(k) = xa (t)|t=k·h
xN (k) = x(k) · ((k − k0 ) − (k − k0 − N )) = x(k) · rect (k − k0 , N )
0.5
u(t)
0
−0.5
−1
0 1 2 3 4 5 6 7 8 9 10
t [s]
2.5
2
|U(jω)|
1.5
0.5
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5
f [Hz]
f_fourier_carre_03_1.eps
8.C.4 Propriétés
Comme la figure 8.35 le laisse présager, X (j · ω) = F{x (k)} est une fonction
périodique de période ωe = 2·π
h
, puisqu’en effet
+∞
X
X (j · (ω + ωe )) = x (k) · e−j·(ω+ωe )·k·h
k=−∞
+∞
X
= x (k) · e−j·ω·k·h · e|−j·ωe ·k·h
{z } =X (j · ω)
k=−∞ 1
0.5
u(t)
0
−0.5
−1
0 1 2 3 4 5 6 7 8 9 10
t [s]
2.5
2
|U(jω)|
1.5
0.5
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8
f [Hz]
f_fourier_carre_01_1.eps
Fig. 8.36 – Module de la transformée de Fourier d’une période d’un signal carré
discret, évaluée pour un grand nombre de valeurs de ω. Du fait de la périodicité
de période fe de X (j · ω) et de la parité de |X (j · ω)|, l’affichage du spectre
d’amplitude peut être limité à la zone de fréquences 0 . . . f2e (fichier source).
2.5
2
|U(jf)| et |U (n)|
N
1.5
0.5
0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]
f_fourier_carre_04_2.eps
Fig. 8.37 – Module de la transformée de Fourier d’une période d’un signal carré
discret et sa version échantillonnée dans le domaine des fréquences : ici, on limite
la représentation du spectre d’amplitude a P = 64 points répartis entre − f2e et
+ f2e − fPe (fichier source).
Dans un tel cas de figure, une période de xp (k) coïncide parfaitement avec
xN (k) prélevé précédemment sur xa (t) et aucune information n’est perdue. En
d’autres termes, calculer la TFD de xp (k) ou celle de xN (k) donne le même
résultat.
fsignal=0.1[Hz], fe=1.6[Hz], ∆f=fe/N=0.1[Hz], P=N=16
3
2.5
2
|U(jf)| et |UN(n)|
1.5
0.5
0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]
f_fourier_carre_05_2.eps
0.5
u(t)
−0.5
−1
0 1 2 3 4 5 6 7 8 9 10
t [s]
2.5
2
|U(jω)|
1.5
0.5
0
−0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8
f [Hz]
f_fourier_carre_02_1.eps
être transformés sans erreur. Pour les signaux non périodiques, les techniques de
fenêtrage (Hamming, Hanning, etc) permettent de limiter les inexactitudes [[16],
§3.7].
+N
2
−1
X
xp (k) = F −1 {XN (n)} = XN (n) · e+j·n·2·π·k (8.17)
n=− N
2
8.C.11 Périodogramme
On appelle périodogramme d’un signal x(k) l’expression
1
ΦN (ω) = · |XN (ω)|2
N
Le périodogramme permet de mesurer les contributions des différentes fréquences
à l’énergie du signal.
Notons que pour les signaux déterministes à énergie finie, i.e. les signaux tels que
∞
X
Wx = x(k)2 < ∞
k=0
on préfère utiliser la notion de densité spectrale d’énergie [[13], §3.8, p.66] (aussi
appelée spectre !), dont il est facile de démontrer qu’elle a pour expression :
Φx (ω) = |X(ω)|2
Donc :
1
Φx (ω) = F{Rx (k)} = lim · |XN (ω)|2 (8.18)
N →∞ N
et
1
ΦN · |XN (ω)|2
N
x (ω) = F Rx (k) =
N
On voit que la densité spectrale de puissance ΦN
x (ω) coïncide avec le périodo-
gramme défini au § 8.C.11 page 328.
La densité spectrale de puissance d’un signal aléatoire x(k) peut alors être calculée
de manière analogue à ce qui a été fait pour les signaux déterministes et l’on peut
montrer que
1 2
Φx (ω) = F{Rx (k)} = lim E · |XN (ω)| (8.19)
N →∞ N
Si seules N valeurs sont à disposition, on a également :
ΦN
N
x (ω) = F Rx (k)
E ΦN
x (ω) = Φx (ω) + RN
√
où RN ∝ 1/ N .
et
Φyu (ω) = G(ej·ω ) · Φu (ω)
La dernière égalité provient du fait que u(k) et v(k) sont non corrélés. En consé-
quence, E [u(k) · v(k + l)] = 0 et donc Φuv (ω) = 0.
Bibliographie