chapitre V
chapitre V
chapitre V
Depuis quelques décennies, les signaux réels sont, de plus en plus, traités de façon numérique.
Ce chapitre sera consacré exclusivement aux signaux numériques. Il va nous permettre de
manipuler ces signaux avec la transformée de Fourier discrète, la convolution circulaire, la
transformée en 𝒵…
La transformée de Fourier à temps discret concerne uniquement les signaux à temps discret
non-périodiques. Dans le chapitre précédent, nous avons vu que le signal échantillonné se(t)
est réalisé par la multiplication du signal continu s(t) par un peigne de Dirac de période Te :
+∞ +∞
se (t) = s(t). δTe (t) = s(t) ∑ δ(t − nTe ) = ∑ s(nTe ) δ(t − nTe )
n=−∞ n=−∞
ν est la fréquence.
En permutant l’intégrale et la somme, on a :
+∞ +∞
On trouve :
Signaux à temps discret
+∞
On constate que la transformée de Fourier d’un signal échantillonné ne fait plus intervenir le
calcul d’une intégrale mais s’exprime comme une somme infinie de termes. Se(ν) est une
fonction complexe de la variable réelle continue ν.
1- Périodicité de Se(ν)
+∞ +∞
−2jπ(ν+kFe )nTe
Se (ν + kFe ) = ∑ s(nTe ) e = ∑ s(nTe ) e−2jπνnTe e−2jπkFe nTe
n=−∞ n=−∞
+∞ +∞
−2jπνnTe −2jπkn
= ∑ s(nTe ) e e = ∑ s(nTe ) e−2jπνnTe = Se (ν)
n=−∞ n=−∞
Pour k = 1, on a :
Se (ν + Fe ) = Se (ν)
La transformée de Fourier Se(ν) du signal échantillonné se(t) est une fonction périodique de
F F
période Fe. Il suffit donc d’étudier le comportement de Se(ν) sur l’intervalle [− 2e , 2e ].
Nous avons vu, également dans le cours d’échantillonnage, que le spectre d’un signal
échantillonné idéalement est continu et périodique de période Fe :
+∞
1
Se (ν) = ∑ S(ν − nFe ) (V.2)
Te
n=−∞
L’échantillonnage temporel (t = nTe), périodise le spectre du signal tous les Fe comme illustré
sur la figure (V.1). On a la relation :
+∞ +∞
1
Se (ν) = ∑ s(nTe ) e−2jπνnTe = ∑ S(ν − nFe ) (V.3)
Te
n=−∞ n=−∞
périodisation fréquentielle
échantillonnage temporel
𝒯ℱ
S()
s(t)
0 0
0 0
t
𝒯ℱ𝒯𝒟
Se()
se(t)
0 0
0 -Fe 0 Fe
nTe
2- Fréquence normalisée
On définit alors la transformée de Fourier à temps discret d’un signal discret s[n] résultant de
l’échantillonnage de s(t) toutes les Te secondes, par :
+∞
Nous avons vu que la 𝒯ℱ𝒯𝒟 est périodique de période Fe, nous pouvons alors le décomposer
en série de Fourier :
+∞ +∞
Avec :
Fe
2
1
Cn = ∫ Se (ν) e2jπνnTe dν
Fe
F
- e
2
1 1
En fréquence normalisée, on aura sur l’intervalle [− 2 , ]:
2
1
2
La 𝒯ℱ𝒯𝒟 inverse fait appel à une intégrale et non pas à une somme car f est une variable
continue.
V-1-2 Exemples
1- Impulsion à temps discret
1 si n=0
s[n] = δ[n] = {
0 ailleurs
+∞
2- Signal rectangulaire
1 si − N ≤ n ≤ N
s[n] = {
0 ailleurs
+∞ +N
−2jπfn
S(f) = ∑ s[n] e = ∑ e−2jπfn
n=−∞ n=−N
S(f) est la somme de 2N + 1 termes d’une suite géométrique de raison e−2jπf et de premier
terme e2jπfN :
+N
1 − e−2jπf(2N+1)
S(f) = ∑ e−2jπfn = e2jπfN
1 − e−2jπf
n=−N
Le signal s[n] est réel et pair, sa transformée de Fourier est réel. On vérifie bien la propriété de
la transformée de Fourier.
k
S(f ) = 0 si πf(2N + 1) = kπ et f = 2N+1
k
La transformée de Fourier S(f) s’annule pour toutes les fréquences f = 2N+1
signal rectangulaire
1.5
1
s[n]
0.5
0
-10 -5 0 5 10
n
spectre du signal rectangulaire
20
2N+1=15
S(f)
10
0
0 0.066 0,2 0,4 0,6 0,8 1
f
Exercice 1 :
Calculer la 𝒯ℱ𝒯𝒟 du signal suivant :
1 si 0 ≤ n ≤ N − 1
x[n] = {
0 sinon
Solution :
sin (πfN)
X(f) = e−jπf(N−1)
sin (πf)
Le signal x[n] est réel mais il n’est pas pair, sa transformée de Fourier est complexe.
fait intervenir un nombre infini d’échantillons, ce qui le rend inexploitable par un système
numérique. De plus, on ne peut faire le calcul que pour un nombre fini de fréquences, alors que
la fréquence f varie continument. Cependant, si on veut calculer la 𝒯ℱ𝒯𝒟 d’un signal discret à
l’aide d’un ordinateur, il faut :
1. limiter la durée du signal s[n] en prenant un nombre fini N de points temporels. C’est la
troncature du signal s[n] à N échantillons,
2. discrétiser la fréquence en prenant un nombre fini L de points fréquentiels. C’est
l’échantillonnage fréquentielle.
En réalisant ces deux conditions, on définit la transformée de Fourier discrète (𝒯ℱ𝒟). C’est
une transformée de Fourier à temps discret et à fréquence discrète. C’est la méthode utilisée en
pratique pour calculer la transformée de Fourier d’un signal.
On va limiter la durée du signal s[n] en prenant un nombre fini N de points temporels s[0], s[1],
…, s[N-1]. Sa 𝒯ℱ𝒯𝒟 est :
N−1
Nous allons remplacer la fréquence continu par une fréquence discrète fk comme le montre la
figure (V.3) tel que :
fk = k Δf
Δf : incrément
k : entier
On va diviser alors, l’axe des fréquences en k intervalles juxtaposés.
S()
Discrétisation
S(fk) Δf
fk
Nous allons calculer la transformée de Fourier d’un signal discret qui a un nombre fini
d’échantillons non nuls. On considère donc un nombre fini N de points temporels s[0], s[1], …,
s[N-1] et on discrétise la fréquence en prenant un nombre fini L de points fréquentiels, S[0],
S[1], … , S[L-1].
Puisque S() est périodique de période Fe, on peut diviser la période [0 , Fe] en L incréments
Fe
ou intervalles, comme le montre la figure (V.4). On obtient ainsi Δf = . La distance entre
L
Fe
deux points fréquentiels est .
L
S()
Fe
Fe
Δf =
L
S(fk) fk
Fe Fe F
2 (L − 1) e
L L L
En utilisant la fréquence normalisée, S(f) est périodique de période 1. On peut diviser la période
1 1
[0 , 1] en L incréments Δf = L (figure V.5). La distance entre deux points fréquentiels est L.
S(f) f
1
1
Δf =
L
S(fk) fk
1 2 1
(L − 1 )
L L L
On a donc :
k
fk = k Δf = (V.10)
L
V-2-3 Définition
Pour un signal discret de durée finie s[n], on définit la transformée de Fourier discrète 𝒯ℱ𝒟
par :
N−1
2jπ
S(k) = ∑ s[n] e− L
kn
(V.12)
n=0
avec :
N : nombre de points temporels
n : variable temporelle, n = 0 … N – 1, n ∈ [0 , N − 1]
L : nombre de points fréquentiels
k : variable fréquentielle, k ∈ [0 , L − 1]
Généralement, on prend N = L (Fig V.6), et la transformée de Fourier discrète d’une suite finie
de N termes s[0], s[1], …, s[N-1] est la suite de N termes S[0], S[1], …, S(N-1] définis par :
N−1
2jπ
S(k) = ∑ s[n] e− N kn
(V.13)
n=0
La figure (V.7c) montre qu’en échantillonnant un signal s(t) dans le domaine temporel, avec
une période d’échantillonnage Te, on périodise son spectre dans le domaine fréquentiel.
Également en échantillonnant le spectre S[k] dans le domaine fréquentiel, on périodise le signal
s[n] dans le domaine temporel (Fig.V.7f).
s(t) signal non périodique à temps continu S() spectre continu non périodique
àtempcontinu
Echantillonnage temporel
Périodisation fréquentielle
𝒯ℱ
0 t 0
(a) (b)
se(t) signal non périodique à temps discret Se() spectre continu périodique
𝒯ℱ𝒯𝒟
Périodisation temporelle
Echantillonnage temporel
0 Te nTe -Fe 0 Fe
(c) (d)
s[n] signal périodique à temps discret S[k] spectre discret périodique
𝒯ℱ𝒟
L’axe temporel est caractérisé par la durée du signal T et par l’incrément temporel t qui est la
période d’échantillonnage Te (Fig. V.8a). t est choisi selon le théorème d’échantillonnage de
Shannon pour éviter le recouvrement spectral.
La durée du signal échantillonné est donnée par :
N
T = N × Δt = N × Te =
Fe
d’où :
1 T
Δt = Te = = (V.16)
Fe N
s(t) t
s[n]
0
0
T = N t
(a)
S()
S[k] f
0
0 Fe
fmax
(b)
Fig V.8. Dualité temps fréquence
L’axe fréquentiel est caractérisé par l’incrément fréquentiel f et la fréquence maximale fmax
qui est la fréquence d’échantillonnage Fe (Fig. V.8b). L’incrément fréquentiel est donné par :
fmax Fe
Δf = = (V.17)
N N
par conséquent
1
Fe = NΔf = (V.18)
Te
En comparant (V.16) et (V.18), on en déduit :
T 1
Δt = = (V.19)
N NΔf
par suite
1
Δf = (V.20)
T
L’incrément fréquentiel est l’inverse de la durée temporelle T.
La relation (V.16) nous permet d’écrire :
1 1
Fe = = = fmax (V.21)
Δt Te
La fréquence d’échantillonnage Fe qui est à la fois la fréquence maximale, est l’inverse de
l’incrément temporel.
0 0,2
-1
0
0 50 100 -1 0 1
(a) (b)
0 5
-1
0
0 10 20 -1 0 1
(c) (d)
1
0.4
0
-1
0
0 1 2 3 -3 -1 0 1 3
(e) (f)
Nous avons vu que la 𝒯ℱ𝒟 à N points d’un signal échantillonné s[n] est :
N−1
2jπ
S(k) = ∑ s[n] e− N kn
k = 0, 1, … , N − 1
n=0
En posant :
2jπ
WN = e− N (V.23)
par suite
2jπ kn
−
WNkn =( e N) (V.24)
la 𝒯ℱ𝒟 devient :
N−1 N−1
2jπ
S(k) = ∑ s[n] e− N kn = ∑ s[n]WNkn (V.25)
n=0 n=0
C’est une matrice carrée de taille N×N formée par les éléments WNkn . k désigne le numéro de
ligne et n le numéro de colonne.
Comme WN0×n = WNk×0 = 1, la relation (V.26) devient :
S(0) 1 1 1 … 1 s(0)
S(1) 1 WN1×1 WN1×2 … WN1×3 s(1)
S(2) = 1 WN2×1 WN2×2 … WN2×3 s(2) (V.27)
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮
(N−1)×1 (N−1)×2 (N−1)×(N−1)
[S(N − 1)] [1 WN WN … WN ] [s(N − 1)]
N N
2jπ
− 2
➢ WN = e
2 N = e−jπ = −1 (V.29)
N N
2jπ(n+ ) 2jπn 2jπn
n+ − 2
➢ WN 2
= e N = e− N e−jπ = −e− N = −WNn (la symétrie) (V.31)
Solution :
2jπkn
2jπ(2kn) − N
WN2kn = e− N = e 2 = WNkn
2
S(0) 1 1 1 1 1 1 1 1 s(0)
1 W81×1 W81×2 W81×3 W81×4 W81×5 W81×6 W81×7
S(1) s(1)
S(2) 1 W82×1 W82×2 W82×3 W82×4 W82×5 W82×6 W82×7 s(2)
S(3) 1 W83×1 W83×2 W83×3 W83×4 W83×5 W83×6 W83×7 s(3)
=
S(4) 1 W84×1 W84×2 W84×3 W84×4 W84×5 W84×6 W84×7 s(4) (V.32)
S(5) 1 W85×1 W85×2 W85×3 W85×4 W85×5 W85×6 W85×7 s(5)
S(6) 1 W86×1 W86×2 W86×3 W86×4 W86×5 W86×6 W86×7 s(6)
[S(7)] [1 W87×1 W87×2 W87×3 W87×4 W87×5 W87×6 W87×7 ] [s(7)]
Il y a beaucoup de redondance dans le calcul des valeurs de WNkn . En effet, par application de
la propriété de la périodicité (V.30) on a :
2jπ √2
W83×3 = W81+8 = W81 = e− 8 = (1 − j)
2
De la même façon, on trouve :
√2
W85×5 = W87×7 = W81 = (1 − j)
2
et
jπ
W82×5 = W83×6 = W87×6 = W82 = e− 2 = −j
√2
W85×7 = W83 = − (1 + j)
2
√2
W83×7 = W85 = − (1 − j)
2
√2
W83×5 = W87 = (1 + j)
2
En vertu de (V.29) et (V.30)
W82×6 = W812 = W84+8 = W84 = −1
également
W83×4 = W84×5 = W86×6 = W84×7 = −1
La relation de symétrie nous permet d’écrire :
W86 = W82+4 = −W82 = j
Identiquement :
W82×3 = W82×7 = W85×6 = −W82 = j
Par (V.28)
W82×4 = W84×4 = W84×6 = 1
Il suffit donc de calculer les 8 premières puissances de W8 pour connaitre toutes ls puissances
de W8 de la relation (V.32).
Finalement, la 𝒯ℱ𝒟 s’exprime sous la forme :
S(0) 1 1 1 1 1 1 1 1 s(0)
S(1) 1 W81 W82 W83 −1 W85 W86 W87 s(1)
S(2) 1 W82 −1 W86 1 W82 −1 W86 s(2)
S(3) 1 W83 W86 W81 −1 W87 W82 W85 s(3)
=
S(4) 1 −1 1 −1 1 −1 1 −1 s(4)
S(5) 1 W85 W82 W87 −1 W81 W86 W83 s(5)
S(6) 1 W86 −1 W82 1 W86 −1 W82 s(6)
[S(7)] [1 W87 W86 W85 −1 W83 W82 W81 ] [s(7)]
3 3
0
k = 0 ; X ( 0 ) = ∑ x [ n] e = ∑ x [ n] = 1 + 2 + 1 + 0 = 4
n=0 n=0
|X[0]| = 4 φ (0 ) = 0
3
1 π
k = 1 ; X(1) = ∑ x[n] e−jπ2n = 1 + 2e−j 2 + e−jπ + 0 = −2j
n=0
π
|X[1]| = 2 φ (1) = −
2
3
|X[2]| = 0 φ (1 ) = 0
3
3 3π
k = 3 ; X(3) = ∑ x[n] e−jπ2n = 1 + 2e−j 2 + e−j3π + 0 = 2j
n=0
π
|X[3]| = 2 φ (1 ) =
2
Finalement, la 𝒯ℱ𝒟 de la séquence [1 2 1 0] est une nouvelle séquence de nombre complexe
π π
X[k] = [4 -2j 0 2j], dont le module est |X[k]| = [4 2 0 2] et la phase est φ[k] = [0 − 2 0 2 ]. La
figure (V.10) représente le signal x[n] avec son spectre d’amplitude et son spectre de phase.
2
x[n]
1
0
-0.5 0 0.5 1 1.5 2 2.5 3 3.5
n
4
|X[k]|
2
0
-0.5 0 0.5 1 1.5 2 2.5 3 3.5
k
pi/2
(k)
0
-pi/2
-0.5 0 0.5 1 1.5 2 2.5 3 3.5
k
S(0) 1 1 1 1 s(0)
1×1
S(1) 1 W4 W41×2 W41×3 s(1)
[ ]= [ ]
S(2) 1 W42×1 W42×2 W42×3 s(2)
S(3) [1 W43×1 W43×2 W43×3 ] s(3)
Les propriétés (V.28), (V.29) (V.30) et (V.31) nous permettent d’écrire :
S(0) 1 1 1 1 1
S(1) 1 W41 −1 W43 2
[ ]=[ ][ ]
S(2) 1 −1 1 −1 1
S(3) 1 W43 −1 W41 0
Calculons W41 et W43 :
2jπ 2jπ
W41 = e− N kn = e− 4 = −j
2jπ 2jπ
W43 = e− N kn = e− 4
3
=j
On remplace W41 et W43 dans la relation précédente et on trouve :
S(0) 1 1 1 1 1
S(1) 1 −j −1 j 2
[ ]=[ ][ ]
S(2) 1 −1 1 −1 1
S(3) 1 j −1 −j 0
finalement
S(0 ) = 1 + 2 + 1 + 0 = 4
S(1) = 1 − 2j − 1 + 0 = −2j
S(2 ) = 1 − 2 + 1 + 0 = 0
S(3) = 1 + 2j − 1 + 0 = 2j
On obtient le même résultat que précédemment.
1.5
1
s[n]
0.5
0
-5 0 5
n
3
2
|S(f)|
1
0
0 0.5 1
f
0
(f)
-pi/2
-pi
0 0.5 1
f
Fig V.11. Signal s[n] et sa 𝒯ℱ𝒯𝒟
1 1
b) Dans ce cas, N = 4, Δf = N = 4 = 0.25 et n = 0 … (N-1)
N−1 3 3
k k k
S(k) = ∑ s[n] e−2jπNn = ∑ s [ n] e−2jπ4n = ∑ s[n] e−jπ2n
n=0 n=0 n=0
S(0) 1 1 1 1 1
S(1) 1 −j −1 j 1
[ ]=[ ][ ]
S(2) 1 −1 1 −1 0
S(3) 1 j −1 −j 0
et les coefficients S(k) sont :
S(0 ) = 1 + 1 + 0 + 0 = 2
S(1 ) = 1 − j + 0 + 0 = 1 − j
S(2 ) = 1 − 1 + 0 + 0 = 0
S(3 ) = 1 + j + 0 + 0 = 1 + j
Les spectres d’amplitude et de phase sont donnés par :
|S[0]| = 2 φ (0 ) = 0
π
|S[1]| = √2 φ (1 ) = −
4
|S[2]| = 0 φ (2 ) = 0
π
|S[3]| = √2 φ (1) = 4
Finalement
π π
S[k] = [2 (1 – j) 0 (1 + j)] |S[k]| = [2 √2 0 √2] φ[k] = [0 − 4 0 ]
4
La figure (V.12a) représente la 𝒯ℱ𝒟 du signal s[n]. Les quatre échantillons de la 𝒯ℱ𝒟 sont
superposés sur la courbe obtenue par la 𝒯ℱ𝒯𝒟 du signal discret, comme le montre la figure
(V.12c). Le résultat montre bien que la 𝒯ℱ𝒟 est l’échantillonnage fréquentiel de la 𝒯ℱ𝒯𝒟.
3
2
S[f]
(a)
1
0
0 0.1 0.25 0.5 0.75 1
f
pi/4
(f)
0 (b)
-pi/4
0 0.25 0.5 0.75 1
f
TFD & TFTD de s[n]
3
2
(c)
1
0
0 0.25 0.5 0.75 1
f
et la matrice est :
−0×0 −0×(N−1)
s(0) WN WN−0×1 WN−0×2 … WN S(0)
−1×0
s(1) 1 WN WN−1×1 WN−1×2 … WN−1×3 S(1)
s(2) = −2×0
WN−2×1 WN−2×2 WN−2×3 S(2)
N WN …
⋮ ⋮ ⋮ ⋮ ⋱ ⋮ ⋮
[s(N − 1)] −(N−1)×0
[WN
−(N−1)×1
WN
−(N−1)×2
WN …
−(N−1)×(N−1) [S(N − 1)]
WN ]
(V.33)
Pour obtenir la matrice de la 𝒯ℱ𝒟 inverse, il suffit de prendre tous les conjugués de la matrice
de la 𝒯ℱ𝒟.
On obtient finalement :
s (0) 1 1 1 1 2 4 1
s (1) 1 1 j −1 −j −j 1 2 0.5
[ ]= [ ][ ] = [ ] = [ ]
s (2) 4 1 −1 1 −1 2 4 4 1
(
s 3 ) 1 −j −1 j j −2 −0.5
La 𝒯ℱ𝒟 inverse du signal [2 -j 2 j] est le signal [1 0.5 1 -0.5].
n=0
Ainsi, pour calculer les N valeurs de S[k], on doit effectuer N2 multiplications complexes et
N
N(N - 1) additions. L’algorithme de Cooley-Tukey permet d’effectuer log 2 (N) multiplications
2
Ln(N)
complexes où log 2 (N) = est le logarithme de base 2. La figure (V.13) montre que le
Ln(2)
nombre de multiplications complexes augmente plus vite dans le cas de la 𝒯ℱ𝒟 que dans le cas
de la FFT.
400
TFD
350 FFT
300
nombre de multiplications
250
200
150
100
50
0
0 5 10 15 20
N
La 𝒯ℱ𝒟 a été définie pour des signaux de durée finie. On ne connait pas la durée des signaux
réels. On observera donc, les signaux sur une durée finie NTe appelée durée d’observation, avec
N le nombre d’échantillons et Te la période d’échantillonnage. C’est la troncation des signaux
réels. Le signal tronqué sT[n] est le résultat de la multiplication du signal de durée infinie s[n]
par un signal appelé fenêtre d’analyse ou fenêtre de troncature w[n] qui limitera sT[n] à N
échantillons :
sT [n] = s[n] × w[n]
Cette fenêtre peut être un signal rectangulaire de largeur N :
1 si 0 ≤ n ≤ N − 1
w r [ n] = {
0 ailleurs
2/N
-5/N -4/N -3/N -2/N -1/N 0 1/N 2/N 3/N 4/N 5/N
f
s[n] = cos(2f n)
0 spectre de s[n]
1
(a) (b)
-1
0
-f0 f0
signal rectangulaire w [n] de largeur N
r spectre du signal rectangulaire
1
(c)
(d)
0 0
0 N-1 -1/N0 1/N
signal tronqué s [n] spectre du signal tronqué
T
1
(e) 0 (f)
-1
0
0 N-1 -f0 f0
2/N
Fig V.15. Effet d’une troncation sur une sinusoïde tronquée
La figure (V.15f) montre que la convolution avec le spectre du signal rectangulaire, introduit
2
des ondulations sur le spectre. La raie à la fréquence f0 est devenue un lobe de largeur N, associée
à des lobes secondaires.
L’étalement et la fuite spectrale sont liés à la troncature. Plus le nombre d’échantillons N est
important, plus la fenêtre est large, plus le lobe principal est étroit, plus on approche du pic de
Dirac, mais ne réduit pas la hauteur des lobes secondaires (Fig.V.17).
150
N = 16
N = 64
100 N = 128
50
0
0.4 0.45 0.5 0.55 0.6
2- Zéro padding
Si on observe via la 𝒯ℱ𝒟, on n’observera pas le spectre en continu (la courbe rouge sur la figure
1 2
(V.18)), mais échantillonné avec un échantillon de ST(f) tous les N. Sur un lobe de largeur N, on
aura donc 3 points, les points bleus sur la figure (V.18).
Les points bleus nous donnent la courbe verte de la figure (V.18) qui est loin de la sinc. Pour
améliorer la visualisation, on va augmenter l’échantillonnage fréquentielle de manière à avoir
plus de points. C’est le zéro padding.
Le zéro padding est donc le remplissage avec des zéros. On augmente artificiellement le nombre
d’échantillons en ajoutant des zéros. On ajoute N0 zéros à la suite sT[n] jusqu’à obtenir un
nouveau nombre d’échantillons N’ = N + N0, on aura alors :
sT′ [n] = [sT [0], sT [1], sT [2], … sT [N − 1], 0 , 0 , 0 … ]
1 f0 1
−
N N
Fig V.18. Observation via la 𝒯ℱ𝒟 avec N points
On va prendre la 𝒯ℱ𝒟 de sT′ [n] sur N’ = N + N0 échantillons. Le spectre reste le même ST(f)
mais avec N’ points, on aura donc plus de points, ils seront plus rapprochés, on aura plus de
2
détails. Si N = N0, N’ = 2N, on aura donc 5 points sur le lobe de largeur , les points bleus sur
N
la figure (V.19). La courbe verte a changé d’allure, elle tend vers le sinc.
−1 −1 f0 1 1
N 2N 2N N
Exemple 4 : La FFT d’un signal rectangulaire de largeur N = 16, sur 16 points, 32 points et
128 points
1.5
1
0.5
0
0 2 4 6 8 10 12 14 16
FFT sur 16 points de 16 échantillons d’une fenêtre rectangulaire
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
1.5
1
0.5
0
0 5 10 15 20 25 30 35
FFT sur 32 points de 16 échantillons d’une fenêtre rectangulaire.
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
.
1.5
1
0.5
0
0 20 40 60 80 100 120 140
FFT sur 128 points de 16 échantillons d’une fenêtre rectangulaire
20
10
0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Fig V.20. FFT sur 16, 32 et 128 points d’un signal rectangulaire de largeur N = 16
3- Types de fenêtre
On aimerait que la troncature du signal en temps sT [n] = s[n] × w[n] ne modifie pas son
spectre, ST (f) = S(f) ∗ W(f), c'est-à-dire que S(f) = ST(f), ce qui suppose que W(f) = ẟ(f). La
fenêtre idéale est donc un Dirac. Malheureusement, les fenêtres présentent un lobe principal de
largeur non nulle L, et des lobes secondaires de hauteur non nulle, comme le montre la figure
(V.17).
Il existe plusieurs types de fenêtres. La figure (V.21) représente les principales fenêtres
utilisées : rectangulaire, triangulaire ou Bartlett, Hanning, Hamming et Blackmann. Elles ont
une grande ressemblance, mais leurs effets sont différents.
La transformée de Fourier discrète des différents types de fenêtres est représentée sur la figure
(V.22), en échelle linéaire et en échelle logarithmique pour bien mettre en évidence les lobes
secondaires. On constate que la fenêtre rectangulaire a le lobe principal le plus étroit mais ses
lobes secondaires sont les plus importants, au contraire celle de Blackman a les plus faibles
lobes secondaires, mais un lobe principal plus large.
0.8
0.6
w[n]
Rectangulaire
0.4
Bartlett
Hanning
Hamming
0.2
Blackman
0
0 10 20 30 40 50 60
n
22
rectangulaire
20
Bartlett
18 Hanning
Hamming
16
Blackman
14
12
(a)
W[f]
10
8
6
4
2
0
0 0.2 0.4 0.6 0.8 1
f
40
20
-20
W[f] en dB
-40
(b)
-60
rectangulaire
-80 Bartlett
Hanning
Hamming
-100
Blackman
-120
0 0.2 0.4 0.6 0.8 1
f
A
-10
-20
-30
L
-40
-50
0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.7
On considère un signal composé de deux sinusoïdes avec deux fréquences f1 et f2 très proches
dont le spectre est représenté sur la figure (V.24).
|S(f)|
0
0 f1 f2
f
Fig V.24. Spectre de deux sinusoïdes de fréquences très proches
Le signal est ensuite tronqué par une fenêtre. Si les deux fréquences sont très proches et les
deux lobes principaux sont trop larges, on ne peut pas distinguer les deux sinusoïdes sur le
spectre du signal.
On appelle alors la résolution fréquentielle
α
Rf = F (V.34)
N e
L’écart minimal entre deux fréquences pour qu’elles soient distinguable dans le spectre observé.
D’après le tableau (V.1), la largeur du lobe principal vaut :
α
L= (V.35)
N
avec αrectangle = 2 ; αBartlett = αHanning = αHamming = 4 et αBlackman = 6
α
➢ Si |f2 − f1 | > R f = N Fe , alors il est possible de distinguer les deux fréquences f 1 et f2. Le
spectre résultant en pointillait sur la figure (V.25a) permet de retrouver les deux fréquences.
α
➢ Si |f2 − f1 | < R f = N Fe , les lobes principaux de chacune seront très proches qu’il sera
difficile de distinguer avec certitude les deux fréquences. Le spectre résultant en pointillait
de la figure (V.25b) ne permet pas de retrouver les deux fréquences f1 et f2.
Si on fixe la résolution, alors on doit choisir le nombre d’échantillon N de sorte que :
α α Fe
|f2 − f1 | ≥ R f = F et N≥ (V.36)
N e |f2 − f1 |
La largeur du lobe principal définit la résolution fréquentielle de l'analyse spectrale, c'est-à-dire
l'aptitude à distinguer deux fréquences proches l'une de l'autre. Plus le lobe principal est étroit,
meilleur est la résolution fréquentielle.
f1 f1
f2 f2
spectre résultant spectre résultant
L L
f1 f2 f1 f2
Δf = f2 – f1 Δf = f2 – f1
(a) (b)
Fig V.25. Résolution en fréquence
figure(1)
plot(f,Srect,'r'),grid
xlabel('f')
ylabel('Srect(f)')
title('fenêtre rectangulaire')
figure(2)
plot(f,Sbart,'g'),grid
xlabel('f')
ylabel('Sbart(f)')
title('fenêtre Bartlett')
figure(3)
plot(f,Shann,'m'),grid
xlabel('f')
ylabel('Shann(f)')
title('fenêtre Hanning')
figure(4)
plot(f,Shamm,'c’),grid
xlabel(‘f’)
ylabel(‘Shamm(f)’)
title(‘fenêtre Hamming’)
figure(5)
plot(f,Sblac,’b’),grid
xlabel(‘f’)
ylabel(‘Sblac(f)’)
title(‘fenêtre de Blackman’)
D’après la figure (V.26), seule la fenêtre rectangulaire permet de distinguer les deux fréquences
voisines.
Si on prend N = 64, la figure (V.27) montre une amélioration de la résolution en fréquence pour
toutes les fenêtre sauf pour Blackman. Il faut augmenter davantage N pour la fenêtre de
Blackman.
S[f]
S[f]
0 -20
-20 -40
-40 -60
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
f f
Hanning Hamming
50 20
0
0
S[f]
S[f]
-20
-50
-40
-100 -60
0 0.2 0.4 0.6 0.8 1 0 0,2 0.4 0.6 0.8 1
f f
Blackman
50
0
S[f]
-50
-100
0 0.2 0.4 0.6 0.8 1
f
Fig V.26. Spectre d’un signal composé de deux sinusoïdes à fréquences voisines. N = 32
20 0
S[f]
S[f]
0 -50
-20
0 0,2 0.4 0.6 0.8 1 -100 0 0.2 0.4 0.6 0.8 1
f f
Hanning Hamming
50 40
20
0
S[f]
S[f] 0
-50
-20
-100
0 0,2 0.4 0.6 0.8 1 -400 0,2 0.4 0.6 0.8
f f
Blackman
50
0
S[f]
-50
-100
0 0,2 0.4 0.6 0.8 1
f
Fig V.27. Spectre d’un signal composé de deux sinusoïdes à fréquences voisines. N = 64
On considère cette fois, un signal composé de deux sinusoïdes d’amplitudes très différentes
(Fig.V.28).
Si l’écart est très important, le lobe principal en f2 est masqué par un lobe secondaire de f1. Ainsi
la figure (V.29) montre que :
Le lobe secondaire de f1, en pointillait bleu, ne cache pas le lobe principal de f2, en trait continu
rouge. Il ne va pas masquer la fréquence f2, (Fig.V.29a).
Le lobe secondaire de f1, en pointillait bleu, cache le lobe principal de f2, en trait continu vert.
Il va masquer la fréquence f2, (Fig.V.29b).
A1
|S(f)|
A2
0 f1 f2
f
f1 f2 f1 f2
(a) (b)
Fig V.29. Résolution en amplitude
La résolution en amplitude Ra, est la capacité à distinguer des raies spectrales de faible
amplitude proche d’une raie spectrale plus importante.
amplitude du lobe principal
Ra = (V.37)
amplitude du 1er lobe secondaire
A1 A1
➢ Si < R a ou bien en dB, 20 log < 20 logR a c ′ est à dire A1dB − A2dB < R adB alors
A2 A2
les deux fréquences se distinguent l’une de l’autre.
A1
➢ Si > R a c ′ est à dire A1dB − A2dB > R adB alors les deux fréquences ne se distinguent
A2
pas l’une de l’autre.
La résolution en amplitude n’est pas fonction du nombre de points N de l’analyse mais dépend
du type de fenêtre utilisée.
En général les résolutions en fréquence et en amplitude sont d’autant meilleures que le lobe
principal est étroit et les lobes secondaires sont de faibles amplitudes. Malheureusement, aucune
fenêtre ne peut présenter ces deux caractéristiques. Il est nécessaire donc d’effectuer un
compromis entre ces deux propriétés.
Exemple 6 : Soit un signal composé de deux sinusoïdes ayant des amplitudes très différentes
et des fréquences différentes ; s[n] = sin(2π 0.4 n) + 0.02 sin(2π 0.15 n) en considérant N = 32,
la largeur de la fenêtre. Calculer La 𝒯ℱ𝒟 sur 1024 points en considérant successivement une
fenêtre rectangulaire, bartlett, Hanning, Hamming et Blackman. Comparer la performance de
ces différentes fenêtres.
Solution :
On constate sur la figure (V.30) que le lobe principal en 0.15 est couvert par les lobes
secondaires de 0.4. La fenêtre rectangulaire ne permet pas de différencier correctement les deux
sinusoïdes. En revanche, le premier lobe principal en 0.15 devient visible dans le cas des
fenêtres de Bartlett, de Hanning de Hamming et de Blackman.
20 0
S[f]
S[f]
0 -20
-20 -40
-40 -60
0 0,2 0.4 0.6 0.8 1 0 0,2 0.4 0.6 0.8 1
f f
Hanning Hamming
50 20
0
0
S[f]
S[f]
-20
-50
-40
-100 -60
0 0,2 0.4 0.6 0.8 1 0 0,2 0.4 0.6 0.8 1
f f
Blackman
50
0
S[f]
-50
-100
0 0,2 0.4 0.6 0.8 1
f
Fig V.30. Spectre d’un signal composé de deux sinusoïdes ayant des amplitudes différentes
La fenêtre rectangulaire donne une bonne résolution fréquentielle grâce à son lobe principal
étroit (2/N), mais présente une mauvaise résolution en amplitude parce qu’elle présente des
lobes secondaires plus importants (-13dB). Les autres fenêtres présentent des lobes secondaires
qui s’atténuent plus vite que la fenêtre rectangulaire, malheureusement elles présentent des
lobes principaux plus larges (tableau V.1).
0
-0.5
aucune information sur son contenu fréquentielle.
-1
0 0.005 0.01
t
b- Représentation fréquentielle
0.2
les localisations temporelles de ces fréquences :
existent-elles au début, à la fin ? On dit que la
transformée de Fourier perd la localisation.
0
-500 0 500
f
500
400
Frequency (Hz)
300
Elle donne l’évolution du contenu fréquentiel au
200 cours du temps (Fig.V.33).
100
0
0.5 1 1.5
Time (s)
Un signal est stationnaire si ses caractéristiques spectrales ne varient pas dans le temps. Chaque
composante de fréquence existe à tout instant. Comme exemple, le signal sinusoïdal.
Un signal est non stationnaire si ses caractéristiques spectrales varient au cours du temps.
Chaque composante de fréquence existe à tout instant. Pour décrire ces signaux, on doit faire
appel à des représentations associant le temps et la fréquence.
Un signal chirp linéaire (Fig.V.34) est un signal sinusoïdal dont la fréquence varie linéairement
avec le temps, (Fig.V.35). L’équation est alors :
s(t) = cos[θ(t)] = cos[2πf(t)t + φ]
La fréquence varie comme suit :
f(t) = at + f1
avec : f1 : la fréquence initiale à t = 0
a : la pente de la fréquence exprimée en Hz/s
si t = t2, f = f2 alors :
f2 − f1
a=
t2
0
-0.5
-1
0 0.2 0.4 0.6 0.8 1
t
Fig V.34. Signal chirp linéaire
f2
fréquence (Hz)
f1
0
0 temps (s) t2
La 𝒯ℱ se fait sur toute la durée du signal, c’est pourquoi elle ne permet pas de localiser l’énergie
en fonction du temps alors que la transformée de Fourier à court-terme, 𝒯ℱ𝒞𝒯, estime le
contenu fréquentiel du signal localement autour de chaque instant t.
La 𝒯ℱ𝒞𝒯 découpe le signal en segment d’analyse au moyen d’une fenêtre glissante w(t - τ)
(rectangle, Hamming, …) où l’indice τ représente le positionnement temporel de cette fenêtre.
Sur chaque segment obtenu on applique la transformée de Fourier classique. τ représente
également le positionnement du spectre correspondant (Fig.V.36). On obtient alors un ensemble
de spectres locaux. La juxtaposition de ces spectres locaux donne l’évolution du spectre en
fonction du temps.
Il doit y avoir chevauchement entre les fenêtres pour ne pas perdre de données aux extrémités
de ces dernières.
La 𝒯ℱ𝒞𝒯 du signal s(t) est définie par :
+∞
La taille de la fenêtre joue un rôle important. Plus la fenêtre est petite, plus la résolution
temporelle est meilleure mais plus la résolution fréquentielle est mauvaise. Inversement, plus
la fenêtre est large, plus la résolution fréquentielle est meilleure mais plus la résolution
temporelle est mauvaise. C’est pourquoi il faut adopter un compromis entre la résolution
temporelle et la résolution fréquentielle.
τ1 τ2 τ3 τ4 τ5 temps
chevauchement segment
segment
FFT
4- Spectrogramme
Le spectrogramme est un diagramme associant à chaque instant τ d’un signal son spectre de
fréquence. C’est une représentation temps-fréquence. Il représente en ordonnée les fréquences
et en abscisse le temps.
La puissance est codée par des couleurs. Une forte puissance est représentée par les couleurs
jaune ou rouge tandis que la faible par la couleur bleue.
Le spectrogramme représente le carré du module de la transformée de Fourier à court terme.
spectrogramme = |𝒯ℱ𝒞𝒯|2
x : le signal dont on souhaite trouver le spectrogramme. Par défaut, x est divisé en huit
segments. Chaque segment contient une estimation du contenu fréquentiel de x à court-terme
et localisé dans le temps.
window : décompose le signal en segments et chaque segment a une largeur spécifiée. La
fenêtre définit la largeur de chaque segment en termes d’échantillons.
noverlap : définit le nombre d’échantillons qui se chevauchent entre les segments adjacents.
La valeur de noverlap doit être inférieure à la longueur des segments. La valeur par défaut de
window
noverlap est .
2
Nfft : spécifie le nombre de points de fréquence utilisés pour calculer la transformée de Fourier
discrète. Un nombre plus élevé de points de FFT donne une résolution de fréquence plus élevée
et montre des détails fins le long de l’axe des fréquences du spectrogramme.
Fe : La fréquence d’échantillonnage du signal. La valeur par défaut est 1Hz.
yaxis : affiche la fréquence sur l’axe vertical et le temps sur l’axe horizontal.
f = 15 Hz ; f = 90 Hz f = 90 Hz ; f = 15 Hz
1 2 2 1
1 1
x1(t)
x2(t)
0 0
-1 -1
0 0.1 0,3 0,5 0,7 0,9 0 0,1 0,3 0,5 0,7 0,9
t(s) t(s)
(a1) (a2)
0,2 0.2
X1(f)
X (f)
2
0,1 0.1
0 0
-90 -15 0 15 90 -90 -15 0 15 90
f(Hz) f(Hz)
(b1) (b2)
Frequency (Hz)
Frequency (Hz)
400 400
200 200
90 90
15 15
0,25 0,5 0,75 0,25 0,5 0,75
Time (s) Time (s)
(c1) (c2)
Leurs spectres sont identiques (FigV.37b). On retrouve les deux fréquences de ces deux signaux
mais on n’a aucune information sur leur localisation. En revanche la 𝒯ℱ𝒞𝒯 permet de retrouver
simultanément les fréquences et l’ordre dans lequel ces fréquences apparaissent. On remarque
sur la figure (V.37c) deux droites horizontales (en rouge) qui représentent les deux fréquences
15 Hz et 90 Hz. L’ordre est clairement visible sur le spectrogramme, la fréquence de 15 Hz
apparait à l’instant t = 0 pour le signal x1(t) alors que la fréquence de 90 Hz apparait 0.5s plus
tard. Au contraire, la première fréquence qui arrive dans le cas du signal x2(t) est 90 Hz suivie
de la fréquence de 15 Hz.
V-5 CONVOLUTION
V-5-1 Définition
1 1
a^2
h[n]
x[n]
0 0
0 5 10 0 N -1 5 10
n n
1
a^2
x[-k]
0
-10 -5 0
1
x[n - k]
0
n 0
Fig V.40. Signal x[n] inversé et translaté
3ème étape : multiplication des deux signaux x[n – k] et h[k] point par point,
1
x[n-k] h[k]
0
nn00 N-1
N-1
0
Fig V.41. Signaux x[n – k] et h[k]
❑ Dans le cas de la figure (V.41) le produit est nul, par suite le produit de convolution est nul
aussi. Ceci est valable tant qu’il n’y ait aucune intersection entre x[n-k] et h[k]. A la limite
on aura le cas de la figure ci-dessous relative à la translation n = 0.
D’où
y[n] = h[n] ∗ x[n] = 0 pour tout n < 0 ①
1
x[n-k] h[k]
0
0
0 N-1
N-1
n
❑ Si on continue la translation jusqu’à ce que n dépasse zéro comme le montre la figure (V.43)
ci-dessous :
1
x[n-k] h[k]
0
0 N-1
0 n N-1
0
Fig V.43. Translation n>0
Les deux signaux ont une partie commune qui se trouve entre zéro et n, par suite le produit de
convolution est :
+∞ n n
n−k n −k
1 − a−(n+1)
n
y[n] = h[n] ∗ x[n] = ∑ h[k] x[n − k] = ∑ a = a ∑a =a
1 − a−1
k=−∞ k=0 k=0
1 − a−(n+1)
y[n] = h[n] ∗ x[n] = an ②
1 − a−1
Au fur et à mesure que le signal x[n – k] continue sa translation vers la droite, le nombre
d’échantillons communs entre x[n – k] et le signal h[k] augmente jusqu’à ce qu’on atteigne la
valeur maximale pour n = N -1, comme le montre la figure (V.44).
La relation ② est donc valable pour toute translation 0 ≤ n < N.
1
x[n-k] h[k]
0
00 N-1
N-1
0 n
❑ Le signal x[n – k] se déplace toujours vers la droite et il dépasse la partie non nulle de
h[k] (Fig(V.45)):
h[k] x[n-k]
0
0 N-1 n
0
Fig V.45. Translation n > 0, x[n – k] dépasse la partie non nulle de h[k]
La partie commune entre les deux signaux se trouve maintenant entre zéro et N – 1 et le
nombre d’échantillons en commun reste constant. D’où :
+∞ N−1 N−1
n−k
1 − a−N
y[n] = h[n] ∗ x[n] = ∑ h[k] x[n − k] = ∑ a = a ∑ a−k = an
n
1 − a−1
k=−∞ k=0 k=0
1 − a−N
y[n] = h[n] ∗ x[n] = an ③
1 − a−1
0 si n<0
−(n+1)
1 − a
an si 0 ≤ n < N
y[n] = h[n] ∗ x[n] = 1 − a−1
n
1 − a−N
{ a si n≥N
1 − a−1
Si le signal x[n] est de dimension N et h[n] de dimension M et les signaux sont causaux, le
produit de convolution est :
N−1 M−1
y[n] = [-1 , 0 , 3 , 2] défini dans l’intervalle [0 , 3] est représenté sur la figure (V.46).
x[n]
3
0
0 1 2 3
h[n]
3
2
1
0
-1
0 1 2 3
La convolution normale de deux signaux périodiques n’existe pas. Il faut faire la convolution
périodique ou circulaire.
Si x[n] et h[n] sont tous deux périodiques avec la même période N, alors leur convolution
périodique produira une séquence y[n] périodique et ayant la même période N.
La convolution périodique est définie par :
N−1
x[n]
1
0.8
0.6
0.4
0.2
0
-4 -2 0 2 4 6 8
h[n]
0
-4 -2 0 2 4 6 8
finalement
yp [n] = xp [n]⨂hp [n] = [6 , 6 , 5 , 4]
On peut déterminer rapidement la convolution périodique en suivant les étapes suivantes :
1. Faire la convolution classique d’une période. Le produit de convolution aura 2N – 1
échantillons
2. On ajoute un zéro à la fin pour avoir 2N échantillons.
3. On coupe la réponse en deux et on fait la somme des deux moitiés.
1 2 4 4
+ 5 4 1 0
= 6 6 5 4
On retrouve le résultat précédent.
b) Convolution et 𝓣𝓕𝓓
La transformée de Fourier discrète de la convolution circulaire est le produit des transformées
de Fourier discrètes, cependant la transformée de Fourier discrète de la convolution classique
n’est pas le produit des transformées de Fourier discrètes.
𝓣𝓕𝓓
xp [n] ⨂ yp [n] ⇒ Xp [k] × Yp [k] (V.42)
et
𝓣𝓕𝓓
xp [n] × yp [n] ⇒ Xp [k]⨂Yp [k]
mais
xp [n] ∗ yp [n] ⇏ Xp [k] × Yp [k]
On suppose que x[n] et y[n] sont deux séquences bornées de taille M et N respectivement, la
convolution circulaire coïncide avec la convolution classique en remplissant de zéros chaque
séquence jusqu’à M + N – 1.
xp[n] et yp[n] sont deux séquences de taille M = 2 et N = 2 respectivement, ajoutons des zéros
de telle manière que la taille de chaque séquence soit égale à M + N – 1 = 2 + 2 + 1 = 3.
xp[n] = 1 0 0
×
hp[n] = 1 2 0
1 0 0
+ . 2 0 0
. 0 0 0
= 1 2 0 0 0
La convolution circulaire est alors égale à [1 2 0] qui concorde bien avec la convolution
classique.
Avec Matlab
nx = [0 1]; %Indices de x[n]
x = [1 0]; %Signal x[n]
nh = [0 1]; %Indices de h[n]
h = [1 2]; %Signal h[n]
y = conv(x,h); %Produit de convolution classique
ny = nx(1) + nh(1) : nx(length(x)) + nh(length(h)); %Indices de y[n]
disp(y) ; %Afficher les valeurs de y[n]
stem(ny,y) ; %Représentation du produit de convolution classique
c = ifft(fft(x).*fft(h)); %Produit de convolution circulaire
disp(c) ; %Afficher les valeurs de c[n]
V-6 CORRELATION
La corrélation permet de comparer deux signaux pour mesurer leur ressemblance. La
corrélation entre deux signaux discrets réels x[n] et y[n] est défini par :
+∞ +∞
Intercorrélation
+∞
Autocorrélation
Les fonctions de corrélation sont des signaux numériques périodiques de même période N que
les signaux x[n] et y[n].
Exercice 10 : Trouver l’autocorrélation du signal x[n] = an u[n] avec 0 < a < 1, représenté sur
la figure (V.48).
Solution :
Pour une translation k < 0, cas de la figure (V.49), on a :
+∞ +∞ +∞
a−k
Cxx [k] = ∑ x[n] x[n − k] = ∑ an a(n−k) = a−k ∑ a2n =
1 − a2
n=0 n=0 n=0
L’énergie est :
1
Cxx [0] =
1 − a2
anu[n]
1
a
a^3
a^5
0
-4 -3 -2 -1 0 1 2 3 4 5
anu[n]
1
a
a^3
a^5
0
-4 -3 -2 -1 0 1 2 3 4 5
k
anu[n]
1
a
a^3
a^5
0
-4 -3 -2 -1 0 1 2 3 4 5
k
Fig V.50. Signal x[n] et sa version translatée k > 0
L’énergie est :
1
Cxx [0] =
1 − a2
En résumé :
a|k| 1
Cxx [k] = et Cxx [0] =
1 − a2 1 − a2
N−1 2
Intercorrélation
1
0.5
Cxy[k]
0
-0.5
-1
-1.5
-2
-3 -2 -1 0 1 2 3
k
Fig V.51. Intercorrélation Cxy [k]
Avec Matlab
nx=[0 1 2]; %Indices de x[n]
x=[1 0.5 -1]; %Signal x[n]
ny=[0 1]; %Indices de y[n]
y=[-1 1]; %Signal y[n]
[c,tau]=xcorr(x,y); %Intercorrélation de x[n] et y[n]
stem(tau,c) %Représentation de l'intercorrélation
V-7 TRANSFORMEE EN 𝓩 𝓣𝓩
La transformée en 𝒵 est aux systèmes en temps discrets ce que la transformée de Laplace est
aux systèmes en temps continus.
V-7-1 Définition
On considère un signal discret x[n], sa transformée en 𝒵 est donnée par :
+∞
X1(z) : la 𝒯𝒵 d’une séquence anti causale, ne comportant des éléments que pour les valeurs
négatives de l’indice.
X2(z) : la 𝒯𝒵 d’une séquence causale, ne comportant des éléments que pour les valeurs positives
de l’indice.
➢ Appliquons le critère de Cauchy à la série X2(z)
1 1
lim |x[n]z−n |n < 1 soit lim |x[n]n z −1 | < 1
n→∞ n→∞
On pose
1
R − = lim |x[n]|n
n→∞
d’où
1
lim |x[n]n | = R − < z
n→∞
La série X2(z) converge donc pour |z| > R − . La figure (V.52) montre que z doit être à
l’extérieur d’un cercle de rayon R-.
ℐ𝓂(z)
Domaine de convergence
R-
ℛℯ(z)
X1 (z) = ∑ x[n]z −n
n=−∞
Posons p = -n
+∞
X1 (z) = ∑ x[−p]z p
p=+1
La série converge si :
1
lim |x[−p]z p |p < 1
p→∞
et
1
lim |x[−p]p z| < 1
p→∞
par la suite
1 −1
|z| < [ lim |x[−p]p |] = R+
p→∞
La figure (V.53) montre que z doit être à l’intérieur d’un cercle de rayon R+.
ℐ𝓂(z)
R+
ℛℯ(z)
Domaine de convergence
ℐ𝓂(z)
R+
R- ℛℯ(z)
anneau de convergence
V-7-3 Exemples
1- Impulsion
1 si n=0
x[n] = ẟ[n] = {
0 ailleurs
+∞ +∞
−n
X(z) = ∑ x[n]z = ∑ δ[n] z−n = … δ[−1] z1 + δ[0] z 0 + δ[1] z−1 + ⋯
n=−∞ n=−∞
= ⋯+ 0 +1 +0 + ⋯
Finalement
𝒯𝒵 {ẟ[n]} = 1 (V.54)
La transformée en 𝒵 existe partout, ∀ z ∈ ℂ.
2- Echelon
1 si n ≥ 0
x[n] = u[n] = {
0 ailleurs
+∞ +∞
−n
X(z) = ∑ u[n]z = ∑ z −n = 1 + z −1 + z −2 + ⋯
n=−∞ n=0
-1
C’est une suite géométrique de raison z , d’où :
1 z
X (z) = −1
=
1−z z−1
Enfin
1 z
𝒯𝒵 {u[n]} = −1
= (V.55)
1−z z−1
Appliquons le critère de Cauchy pour trouver le domaine de convergence :
1 1
lim |u[n]z −n |n < 1 , lim |z −n |n < 1 lim |z −1 | < 1 d′ où |z| > 1
n→∞ n→∞ n→∞
La transformée en 𝒵 existe donc pour |z| > 1. Le domaine de convergence est à l’extérieur du
cercle unité.
𝐚𝐧 𝐬𝐢 𝐧≥𝟎
3- 𝐱𝟏 [𝐧] = 𝐚𝐧 𝐮[𝐧] = {
𝟎 𝐬𝐢 𝐧<𝟎
Le signal x1[n] représenté sur la figure (V.55) est un signal causal.
+∞ +∞ +∞
1 z
X (z) = −1
=
1−az z−a
x [n] = an u[n]
1
1
a
a^4
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Finalement
1 z
𝒯𝒵 {an u[n]} = −1
= (V.56)
1−az z−a
Cherchons le domaine de convergence :
1 1
1
lim |x[n]z−n |n = lim |an u[n] z −n |n = lim |a z −1 | < 1 → lim |z −1 | < |𝑎|
n→∞ n→∞ n→∞ n→∞
par suite
|z| > |a|
La transformée en 𝒵 existe donc pour |z| > |a|. Le domaine de convergence est à l’extérieur
du cercle de rayon |a|. Le signal est causal.
−𝐚𝐧 𝐬𝐢 𝐧 < −𝟏
4- 𝐱𝟐 [𝐧] = −𝐚𝐧 𝐮[−𝐧 − 𝟏] = {
𝟎 𝐬𝐢 𝐧 ≥ −𝟏
Le signal x2[n] représenté sur la figure (V.56) est un signal anti causal.
a^4
-a
-1
-5 -4 -3 -2 -1 0 1 2 3 4 5
Posons p = -n
+∞ +∞ +∞
−p p −p
X (z) = − ∑ a z = 1−∑a z = 1 − ∑ [a−1 z]p
p
par suite
|z| < |a|
La transformée en 𝒵 existe donc pour |z| < |a|. Le domaine de convergence est à l’intérieur du
cercle de rayon |a|, car le signal est anti causal.
x1[n) et x2[n] sont deux signaux différents admettant des transformées en 𝒵 ayant même
expressions mais des domaines de convergence différents.
V-7-5 Propriétés
1- Linéarité
Soit
x[n] = a1 x1[n] + a2 x2[n]
La transformée en 𝒵 du signal x[n] est:
+∞ +∞ +∞
−n −n
X(z) = ∑ x[n]z = a1 ∑ x1 [n] z + a2 ∑ x2 [n] z −n = a1 X1 (z) + a2 X2 (z)
n=−∞ n=−∞ n=−∞
2- Décalage
Posons n – n0 = p
+∞ +∞
−(p+n0 ) −n0
Y(z) = ∑ x[p] z =z ∑ x[p] z −p = z −n0 X(z)
p=−∞ p=−∞
Finalement
si
𝒯𝒵 {x[n]} = X(z)
alors
𝒯𝒵 {x[n − n0 ]} = z −n0 X(z) (V.59)
Si on décale un signal de n0 échantillons, on multiplie sa transformée en 𝒵 par z −n0 . C’est le
théorème du retard.
Multiplier une transformée en 𝒵 par z-1, revient donc à retarder la séquence d’une unité. z-1 est
l’opérateur de retard unité comme illustré sur la figure (V.57).
Exemple 9 :
a)
𝒯𝒵 {δ[n]} = 1
𝒯𝒵 {δ[n − k]} = z −k 𝒯𝒵 {δ[n]} = z −k
b)
z
𝒯𝒵 {u[n]} =
z−1
z z −k
𝒯𝒵{u[n − k]} = z −k 𝒯𝒵 {u[n]} = z −k =
z−1 1 − z −1
3- Séquence avancée
Posons n + n0 = p
+∞ +∞ n0 −1
Finalement
n0 −1
Cas particuliers
4- Produit de convolution
sa transformée en 𝒵 est :
+∞ +∞
5- Changement d’échelle
Finalement
z (V.63)
𝒯𝒵 {an x[n]} = X( )
a
6- Théorèmes limites
❑ Valeur initiale :
❑ Valeur finale :
Exercice 16 : Trouver la valeur initiale et la valeur finale du signal x[n] dont la transformée en
𝒵 est :
z
X (z) =
z−1
Solution :
z
x[0] = lim X(z) = lim =1
z→∞ z→∞ z − 1
z
x[∞] = lim x[n] = lim(z − 1)X(z) = lim(z − 1) =1
n→∞ z→1 z→1 z−1
1 z
C’est l’échelon. On sait que 𝒯𝒵 {u[n]} = = .
1+z−1 z−1
Transformée de Fourier :
+∞
ν
X(f) = ∑ x[n] e−2jπfn ① avec f = ∶ fréquence normalisée
Fe
n=−∞
Transformée en 𝒵 :
+∞
X(z) = ∑ x[n]z−n ②
n=−∞
En comparant ① et ②, on a :
ν
2jπ
X(f) = X(z) lorsque z = e2jπf = e Fe = ejθ
La 𝒯ℱ𝒟 est égale à la 𝒯𝒵 lorsque z est de module 1. Ce qui correspond à un cercle de rayon 1
centré sur l’origine. Ainsi, la transformée de Fourier discrète est égale à la transformée en 𝒵
ν π
calculée le long du cercle unité. Par exemple, un angle θ = 2π F = 4 correspond à la fréquence
e
Fe 1
ν= , ou bien en normalisé f = 8 comme illustré sur la figure (V.58).
8
fréquences
ℐ𝓂(z)
θ=π/2 υ=Fe/2 f=1/2
j
υ=3Fe/8 f=3/8
θ=3π/4 θ=π/4
υ=Fe/4 f=1/4
θ=π
υ=Fe/8 f=1/8
-1 θ 1 ℛℯ(z) f=0
υ=0
υ=-Fe/4 f=-1/4
θ=-3π/4
θ=-π/4
υ=-3Fe/8 f=-3/8
-j
θ=-π/2 υ=-Fe/2 f=-1/2
+∞
Avec p = + 2jπf = + jω
On sait que le signal échantillonné xe(t) est la multiplication du signal continu x(t) par un peigne
de Dirac de période Te :
+∞ +∞
xe (t) = x(t). δTe (t) = x(t) ∑ δ(t − nTe ) = ∑ x(nTe ) δ(t − nTe )
n=−∞ n=−∞
On trouve :
+∞ +∞
−pnTe
Xe (p) = ∑ x(nTe ) e = ∑ x(nTe )(epTe )−n ①
n=−∞ n=−∞
X(z) = ∑ x(nTe ) z −n ②
n=−∞
En comparant ① et ②, on trouve :
Xe (p) = X(z) lorsque z = epTe = e(σ+jω)Te = eσTe ejωTe
La transformée en 𝒵 est la transformée de Laplace d’un signal échantillonné, en posant
z = epTe .
On a alors :
z = epTe
Ln(z) = pTe (V.66)
puis
1
p= Ln(z) (V.67)
Te
z est un nombre complexe que l’on peut l’écrire sous la forme :
z = |z|ejθ
avec
θ = arg(z)
Ln(z) = Ln(|z|ejθ ) = Ln(|z|) + jθ
La relation (V.67) devient :
1 1
p= Ln(z) = [Ln(|z|) + jθ] = σ + jω (V.68)
Te Te
d’où
Ln(|z|)
σ=
Te
et
θ
ω=
Te
si
|z| < 1
alors
Ln(|z|) < 0
On déduit que :
Ln(|z|)
σ= <0 (V.69)
Te
A tout point à l’intérieur du cercle de rayon unité dans le plan 𝒵 correspond un point dans le
demi-plan à partie réelle négative du plan 𝓅, la partie jaune de la figure (V.59).
Inversement, si
Ln(|z|)
|z| > 1 ⟹ Ln(|z|) > 0 et σ = >0
Te
L’extérieur du cercle de rayon 1 correspond au demi-plan à partie réelle positive, la partie bleue
de la figure (V.59).
Nous avons vu au chapitre II que la transformée de Fourier peut se déduire de la transformée
de Laplace en posant p = jω. Par ailleurs, la transformée de Fourier est obtenue en parcourant
la transformée en 𝒵 sur le cercle unité. On en déduit que l’axe imaginaire du plan 𝓅 aura pour
transformée en 𝒵 le cercle de rayon unité, les étoiles sur la figure (V.59). En effet :
z = epTe = e(σ+jω)Te = eσTe ejωTe = |z|ejθ
ℐ𝓂(z) ℐ𝓂(p)=2πf
j eσ0 Te ejω0 Te
jω0
ℛℯ(z) ℛℯ(p)=
-1 1 0
-j
Plan 𝒵 Plan 𝓅
Pour les séquences finies, X(z) a une forme polynomiale qui donne immédiatement la
transformée en 𝒵 inverse x[n].
2- fonction rationnelle
a- Division selon les puissances de z-1
Si X(z) est une fonction rationnelle, on peut utiliser la division pour retrouver la transformée en
𝒵 inverse.
Si le signal est causal, on place le numérateur et le dénominateur en ordre croissant de puissance
en z, puis on effectue la division pour obtenir des valeurs décroissantes de z.
La forme de la fonction X(z) la plus couramment rencontrée est un rapport de deux polynômes
en z-1, comme la relation suivante :
N(z) b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M
X (z) = = (V.71)
D(z) 1 + a1 z −1 + a2 z −2 + ⋯ + aN z −N
En plus, avec les z−1, on aura directement des transformées en 𝒵 connues.
On peut écrire X(z), en fonction des pôles pi et des zéros zi, sous la forme :
∏M −1
i=1(1 − zi z )
X (z) = (V.72)
∏N −1
i=1(1 − pi z )
Il faut tenir compte de la relation entre la position des pôles et le domaine de convergence. En
effet, si le domaine de convergence a un rayon plus grand que les pôles, on est donc à l’extérieur
du cercle, ce qui correspond, selon les propriétés du domaine de convergence du paragraphe
(V-7-2) à un signal x[n] causal. La transformée en 𝒵 inverse est dans ce cas :
A1
𝒯𝒵 −1 A1 p1n u[n]
(1 − p1 z −1 )
Au contraire, si le domaine de convergence a un rayon plus petit que les pôles, on est donc à
l’intérieur du cercle, ce qui correspond, selon les propriétés du domaine de convergence du
paragraphe (V-7-2) à un signal x[n] anti-causal. La transformée en 𝒵 inverse est alors :
A1
𝒯𝒵 −1 −A1 p1n u[-n-1]
(1 − p1 z −1 )
1.5
ine de convergence
Do
1
ma
ine de nverg
0.5
Imaginary Part
0
co
-0.5
ma
-1
e
Do
nce
-1.5
-2
-3 -2 -1 0 1 2 3
Real Part
1
A2 = [X(z) × (1 − 2z −1 )]z=p2 = [ (1 − 2z −1 )] =2
(1 − z −1 )(1 − 2z −1 ) z−1 =
1
2
On a à la fin :
1 1 2
X (z) = = − +
1− 3z −1 + 2z −2 (1 − z ) (1 − 2z −1 )
−1
Pour avoir le résultat final, il ne faut pas oublier d’utiliser la relation entre la position des pôles
et le domaine de convergence. En effet, la figure (V.60) montre que le domaine de convergence
|z| > 2 a un rayon plus grand que les pôles p1 = 1 et p2 = 2, on est donc à l’extérieur du cercle
de rayon |z| = 2, ce qui correspond, à un signal x[n] causal. Finalement la transformée en 𝒵
inverse est :
x[n] = −1n u[n] + 2. 2n u[n] = (2n+1 − 1)u[n]
Les pôles :
1 1
1 − z −1 = 0 → z −1 = 2 → pôle p1 = z =
2 2
1
1 − 2z −1 = 0 → z −1 = → pôle p2 = z = 2
2
1 − z −1 = 0 → z −1 = 1 → pôle p3 = z = 1
Les pôles et le domaine de convergence sont illustrés sur la figure (V.61).
On a le degré du numérateur inférieur au degré du dénominateur. La décomposition en élément
simple, suivant la relation (V.73) nous donne :
1 − z −1 + z −2 A1 A2 A3
X (z) = = + +
1 1 −1 1 − z −1
(1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 ) 1 − 2 z −1 1 − 2z
1 1 − z −1 + z −2 1
A1 = [X(z) × (1 − z −1 )] =[ (1 − z −1 )] =1
2 1 2
z=p1 (1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 )
z−1=2
1 − z −1 + z −2
A2 = [X(z) × (1 − 2z −1 )]z=p2 = [ (1 − 2z −1 )] =2
1
(1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 ) 1
z−1 =
2
1 − z −1 + z −2
A3 = [X(z) × (1 − z −1 )]z=p3 = [ (1 − z −1 )] = −2
1
(1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 )
z−1 =1
1.5
nce
Do
e de converge
1
main
0.5
e de convergen
Imaginary Part
0
main
-0.5
o
-1
D
ce
-1.5
-2
1 1 − z −1 + z −2 1
A1 = [X(z) × (1 − z −1 )] =[ (1 − z −1 )] =1
2 1 −1 −1 −1 2
z=p1 (
(1 − z ) 1 − 2z )( 1−z )
2 z−1=2
1 − z −1 + z −2
A2 = [X(z) × (1 − 2z −1 )]z=p2 = [ (1 − 2z −1 )] =2
1
(1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 ) 1
z−1 =
2
1 − z −1 + z −2
A3 = [X(z) × (1 − z −1 )]z=p3 = [ (1 − z −1 )] = −2
1
(1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 )
z−1 =1
On a à la fin :
1 − z −1 + z −2 1 2 2
X (z) = = + −
1 1 −1 1 − z −1
(1 − 2 z −1 ) (1 − 2z −1 )(1 − z −1 ) 1 − 2 z −1 1 − 2z
La figure (V.61) montre que le domaine de convergence 1 < |z| < 2 a un rayon plus grand que
1
les pôles p1 = 2 et p3 = 1, ce qui correspond à un signal causal, mais plus petit que le pôle
p2 = 2 ce qui correspond à un signal anti-causal. Finalement la transformée en 𝒵 inverse est :
1 n
x[n] = ( ) u[n] − 2n+1 u[−n − 1] − 2u[n]
2
1.5
0.5
e de conver
in
Imaginary Part
ge
Doma
nce
0
-0.5
-1
-1.5
R(z) −5z −1 − 2 A1 A2
= = +
D(z) (1+z )(1−2z ) (1+z ) (1−2z −1 )
−1 −1 −1
On en déduit
R(z) −5z−1 −2
A1 = [ × (1 + z −1 )] = [(1+z−1 )(1−2z−1 ) (1 + z −1 )] =1
D(z) z=p1 z−1 =−1
R(z) −5z−1 −2
A2 = [D(z) × (1 − 2z −1 )] = [(1+z−1)(1−2z−1) (1 − 2z −1 )] 1
= −3
z=p2 z−1 =
2
Le rapport devient
R(z) 1 3
= −
D(z) (1+z ) (1−2z −1 )
−1
D’où
1−10z −1 −4z −2 +4z −3 1 3
Y (z) = −1 −2
= −2z −1 + 3 + −
1−z −2z (1+z ) (1−2z −1 )
−1
La figure (V.63) nous montre que le domaine de convergence a un rayon plus petit que les
deux pôles, le signal est anti-causal et la transformée en 𝒵 inverse de Y(z) est :
y[n] = −2δ[n − 1] + 3δ[n] − (−1)n u[−n − 1] + 3(2)n u[−n − 1]
X(z) est relié à Y(z) par la relation :
1
X(z) = z × Y(z)
2
La propriété de la séquence avancée nous permet d’écrire :
1
x[n] = y[n + 1]
2
et ainsi
3 1 3
x[n] = −δ[n] + δ[n + 1] − (−1)n+1 u[−n − 2] + (2)n+1 u[−n − 2]
2 2 2
Le système peut être décrit par une équation aux différences d’ordre N :
N M
Système d’ordre 2 :
Y(z) [b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M ] ∑M
i=0 bi z
−i ∑M
i=0 bi z
−i
H(z) = = = = N
X (z ) 1 + a1 z −1 + a2 z −2 + ⋯ + +aN z −N 1 + ∑N
i=1 ai z
−i ∑i=0 ai z −i
avec a0 = 1
Les racines de Y(z) = 0, sont appelées les zéros zi .
Les racines de X(z) = 0, sont appelées les pôles pi .
Si H(z) possède M zéros zi et N pôles pi, on peut la mettre sous la forme :
Y(z) (z − z1 )(z − z2 ) … (z − zM ) ∏M
i=1(z − zi )
H(z) = = = N
X(z) (z − p1 )(z − p2 ) … (z − pN ) ∏i=1(z − pi )
En plaçant les pôles (x) et les zéros (o) de H(z) dans le plan de 𝒵, on obtient la figure (V.63).
La figure (V.63) montre les vecteurs pôles, notés Vpi (z), reliant les pôles pi à un point z donné
du cercle unité et les vecteurs zéros, notés Vzi (z), reliant les zéros zi à un point z donné du
cercle unité.
Le module et l’argument de H(z) sont donnés par les relations suivantes :
∏M
i=1|Vzi (z)|
|H(z)| =
∏N
i=1|Vpi (z)| (V.76)
M N
ℐ𝓂(z)
j
z
Vp1
p1 Vz1
x
ℛℯ(z)
-1 z1 1
Vp2
p2
x
-j
Il suffit donc de faire varier θ et d’utiliser les relations (V.76) pour déterminer le module et la
θ
phase correspondant à la fréquence réduite f = 2π.
Remarques :
➢ Le gain atteint un maximum lorsque z s’approche d’un pôle. Ce maximum est d’autant plus
élevé que le pôle est plus proche du cercle.
➢ Le gain atteint un minimum lorsque z s’approche d’un zéro. Ce minimum est d’autant plus
faible que le zéro est plus proche du cercle.
θ=π/2
ℐ𝓂(z)
f=1/4
υ=Fe/4 j
z
θ=π
f=1/2
υ=Fe/2
-1 θ 1 ℛℯ(z)
θ=-π θ=0
f=-1/2 f=0
υ=-Fe/2 υ=0
-j
θ=-π/2
f=-1/4
υ=-Fe/4
z
Exercice 22 : Soit H(z) = z−a ou a est un réel < 1. Donner l’allure de la réponse fréquentielle.
Solution :
x Pôles : z – a = 0, z = a
θ=π/2
ℐ𝓂(z)
f=1/4
υ=Fe/4 j
z
θ=π
f=1/2
υ=Fe/2
-1 θ 1 ℛℯ(z)
x
0 a
θ=-π θ=0
f=-1/2 f=0
υ=-Fe/2 υ=0
-j
θ=-π/2
f=-1/4
υ=-Fe/4
θ = 2πf = 0 d’où f = 0 et
z = ejθ = 1.
Le maximum vaut donc :
1
G(0) = |H(z = 1)| = = Hmax
1−a
et localisé en f = 0.
Le minimum est obtenu lorsque z est le plus éloigné du pôle a, c'est-à-dire :
1
θ = 2πf = ±π d’où f = ± 2 et z = ejθ = ej±π = −1
|H(f)|
Hmax
Hmin
f
1 0 1
−
2 2
Avec Matlab
z
H(z) = ; a = 0.8
z−a
%Saisir les coefficients polynomiaux du numérateur et du dénominateur
% On saisit les coefficients dans l'ordre croissant en z-1
num = [1 0]; %num est un vecteur contenant les coefficients polynomiaux du
numérateur
den = [1 -0.8]; %den est un vecteur contenant les coefficients polynomiaux
du dénominateur
%Détermination de la fonction de transfert
sys=tf(num,den,-1); %sys est la fonction de transfert; -1 : fréquence
d'échantillonnage non précisée
%Pôles et zéros de la fonction de transfert
[z,p,k]=tf2zp(num,den) % calcul des pôles, des zéros et du facteur
multiplicatif k
%Représentation des pôles et des zéros dans le plan complexe de z
figure(1)
zplane(z,p);grid;
1 1
Hmax = = =5
1 − a 1 − 0.8
1 1
Hmin = = = 0.555
1 + a 1 + 0.8
réponse en fréquence
1
5=Hmax
Imaginary Part
|H(f)|
0 3
1
0.55=Hmin
-1 0
-1 0 1 0 0.1 f 0.3 0.5
Real Part
(a) (b)
V-9-1 Causalité
Un filtre numérique est dit causal si sa réponse impulsionnelle h[n] est causale, c’est-à-dire h[n]
est nulle pour n < 0. Sa transformée en 𝒵 converge alors à l’extérieur d’un cercle. Nous avons
vu, également qu’un système est causal si sa réponse à un instant donné ne dépend que des
N(z)
entrées du passé et non du futur, c’est pourquoi la fonction de transfert H(z) = D(z), sous sa
1
Imaginary Part
-1
-1 0 1
Real Part
Y1 (z) H(z) z 4 − 1
H1 (z) = = 4 = = 1 − z −4
X(z) z z4
Cette fois-ci, la fonction H1(z) contient une puissance négative de z. H1(z) diffère de H(z)
uniquement par 4 pôles à z = 0, comme illustré sur la figure suivante :
Imaginary Part 0
4
-1
-1 0 1
Real Part
V-9-2 Stabilité
La stabilité est très importante pour concevoir un filtre numérique. Un filtre instable n’a aucune
utilité pratique.
Un filtre numérique est stable si à toute entrée bornée x[n] correspond une sortie y[n] bornée.
∃ M, ∀ n, |x[n]| < M ⟺ ∃ M ′ , ∀ n, |y[n]| < M ′
Il n’est toujours pas facile de prouver qu’un filtre est stable en pratique. Cependant, il y a une
condition nécessaire et suffisante de stabilité qui dit :
un filtre numérique de réponse impulsionnelle h[n] est stable si :
+∞
∑ |h[n]| < A
n=−∞
1/8
0
-5 -4 -3 -2 -1 0 1 2 3 4 5
1 n
Fig V.68. h[n] = (2) u[n]
h[n] = 2n u[n]
40
32
24
16
8
0
-5 0 5
Dans ce cas :
+∞ +∞
∑ |h[n]| = ∑ 2n = 1 + 2 + 22 + 23 + ⋯
n=−∞ 0
La stabilité d’un filtre peut aussi être vérifiée à partir de la fonction de transfert H(z). En effet :
➢ Un filtre causal, sa fonction de transfert est rationnelle, est stable si le cercle de rayon unité
appartient au domaine de convergence. Tous les pôles de H(z) sont donc à l’intérieur du
cercle unité.
➢ Un filtre anti-causal, sa fonction de transfert est rationnelle, est stable si tous les pôles de
H(z) sont à l’extérieur du cercle unité.
➢ Si un pôle unique est sur le cercle unitaire, le système est marginalement table.
➢ Quand les pôles et les zéros d’un système sont à l’intérieur du cercle unité, le système est
appelé à phase minimale.
Exercice 25 : Soit un filtre linéaire dont la fonction de transfert est donnée par :
1 −1
H(z) = 2−z ; a>0
1
(1 − 4 z −1 ) (1 − az −1 )
1) les zéros :
1
− z −1 = 0 ⟹ z = 2
2
Les pôles :
p1 = a
1 −1 −1
(1 − z ) (1 − az ) = 0 ⟹ { 1
4 p2 =
4
1
Imaginary Part
0.5
0
a
-0.5
-1
-1 -0.5 0 0.5 1 1,5 2
Real Part
ℐ𝓂(z)
-j
1
Fig V.71. Domaines de convergence si a < 4
1
si a > ∶
4
on a également trois domaines de convergence illustrés sur la figure (V.72) :
ℐ𝓂(z)
j
1
|z| < ∶ la partie verte de la figure (V. 72)
4
1
< |z| < a ∶ la partie jaune de la figure (V. 72)
4 ℛℯ(z)
-1 1 a1
|z| > a ∶ la partie bleue de la figure (V. 72)
4
-j
1
Fig V.72. Domaines de convergence si a > 4
3) Un filtre causal est stable si le cercle de rayon unité appartient au domaine de convergence.
D’où :
1
➢ pour le cas a < 4 , la figure (V.71) montre que le cercle unité, en rouge, est inclus dans le
1 1 1
domaine bleu qui correspond à |z| > 4. Le filtre est stable pour a < 4, dans le domaine |z| > 4.
1
➢ Pour le cas a > 4 , la figure (V.72) montre que le cercle unité, en rouge, est inclus dans le
1
domaine en bleu qui correspond à |z| > a, mais à condition que 4 < a < 1 sinon le cercle unité
1
n’appartient plus au domaine de convergence. Le filtre est donc stable pour a > 4, dans le
1
domaine |z| > a si 4 < a < 1.
M : ordre du filtre.
bi : coefficients de la fonction de transfert du filtre.
Calculons la transformée en 𝒵 de l’équation aux différences de la relation (V.77) :
Y(z) = b0 X(z) + b1 z −1 X(z) + b2 z −2 X(z) + ⋯ + bM z −M X(z)
La fonction de transfert est :
M
Y(z)
H(z) = = b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M = ∑ bi z −i (V.78)
X(z)
i=0
Un filtre non récursif d’ordre M possède M + 1 coefficients. Il n’y a pas de dénominateur, donc
pas de pôles, par conséquent le filtre est toujours stable.
Cherchons la réponse impulsionnelle. Si l’entrée est l’impulsion de Dirac, x[n] = ẟ[n], la sortie
est la réponse impulsionnelle y[n] = h[n], la relation (V.77) devient :
M M
Après avoir comparé les deux membres de l’équation (V.81) et en utilisant la relation (V.82),
on trouve :
h[0] = b0
h[1] = b1
b si 0≤i≤M
h[2] = b2 d’où h [ n] = { i (V.83)
0 sinon
…
h[M] = bM }
Les coefficients bi constituent la réponse impulsionnelle du filtre. Cette réponse impulsionnelle
est finie car le nombre d’échantillons non nuls en sortie est fini égal au nombre de coefficients
bi non nuls.
Le filtre non récursif est un filtre à Réponse Impulsionnelle Finie (RIF).
0.5
z[n]
-0.5
-1
moyenne mobile sur 5 échantillons
valeurs mesurées
-1.5
0 5 10 15 20
n
(a)
signal sinuoidal bruité
2 2
signal filtré
1.5 1.5
1 1
0.5 0.5
y(t)
z(t)
0 0
-0.5 -0.5
-1 -1
-1.5 -1.5
-2 -2
0 0.5 1 1.5 2 0 0.5 1 1.5 2
t t
(b)
La réponse impulsionnelle :
h[n] = 𝒯𝒵 −1 [H(z)]
M−1
1 1
h[n] = ∑ δ[n − i] = [δ[n] + δ[n − 1] + δ[n − 2] + ⋯ + δ[n − (M − 1)]]
M M
i=0
1 1 1 1
=[ + + + ⋯+ ]
M M M M
...
0
-2 0 2 4 M-1
La réponse fréquentielle :
La réponse fréquentielle est obtenue en remplaçant z par e2jπf, avec f la fréquence normalisée.
M−1
2jπf )
Y(z) 1 1
H(z = e = = [1 + e−2jπf + e−4jπf + ⋯ + e−2jπf(M−1) ] = ∑ e−2jπfi
X(z) M M
i=0
La figure (V.75) montre que la réponse fréquentielle du filtre présente des rebonds qui sont des
inconvénients.
M=2
1
M=5
M=10
0.8
0.6
|H|
0.4
0.2
0
0 0.1 0.2 0.3 0.4 0.5
f
stem(m,hn,'linewidth',2);grid;
xlabel('n');ylabel('h[n]');
title('réponse impulsionnelle')
On va visualiser l’équation aux différences associée à un filtre numérique sous la forme d’une
structure faisant apparaitre les éléments suivants :
➢ Additionneur symbolisé par :
La structure du filtre non récursif est représentée sur la figure (V.76) ; à partir de l’équation
y[n] = ∑ bi x[n − i]
i=0
x[n] b0 y[n]
z-1
b1
z-1
b2 Fig V.76. Structure d’un filtre non
récursif
z-1
bM
3- filtre récursif
La réponse y[n] d’un système causal récursif d’ordre N se calcule à partir du signal d’entrée
x[n] et des valeurs précédentes y[n – i] de la sortie. Son équation aux différences est :
N M
M N
Y(z)[1 + a1 z −1 + a2 z −2 + ⋯ + aN z −N ] = X(z)[b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M ]
La fonction de transfert est :
Y(z) b0 + b1 z −1 + b2 z −2 + ⋯ + bM z −M ∑M i=0 bi z
−i
H(z) = = =
X(z) 1 + a1 z −1 + a2 z −2 + ⋯ + aN z −N ∑N
i=0 ai z
−i
avec a0 = 1.
Cherchons la réponse impulsionnelle.
M N
d’où
si n = 0, h[0] = b0
si n = 1, h[1] = b1 − a1 h[0] = b1 − a1 b0
si n = 2, h[2] = b2 − a1 h[1] − a2 h[0]
finalement
N−1
bn − ∑ ai y[n − i] si n≤M−1
i=1
h [ n] = N−1
∑ ai y[n − i] ailleurs
{ i=1
Stabilité
➢ Il faut s’assurer que H(z) ne possède pas de pôle à l’extérieur du cercle unité.
➢ Les pôles situés le long de z = 1, donnent lieu à des réponses oscillatoires.
➢ Si tous les zéros de la fonction de transfert du filtre sont de module inférieur à 1, le filtre est
dit à minimum de phase.
0.5 0.5
Imaginary Part
Imaginary Part
0 0
-0.5 -0.5
-1 -1
-1 -0.5 0 0.5 1 -1 -0.5 0 0.5 1
Real Part Real Part
0.5
Imaginary Part
0
-0.5
-1
-1 -0.5 0 0.5 1
Real Part
-a > 1
Instable
Réponse impulsionnelle
si x[n] = ẟ[n] alors y[n] = h[n]
h[n] = ẟ[n] – ah[n – 1]
h[0] = ẟ[0] – ah[– 1] = 1
(−1)n an si n ≥ 0
h[1] = ẟ[1] – ah[0] = -a h [ n] = {
0 ailleurs
h[2] = ẟ[2] – ah[1] = a2
h[3] = ẟ[3] – ah[2] = -a3
La réponse impulsionnelle est constituée d’une infinité d’échantillons. C’est bien un filtre RII.
si a < 1 ;
+∞ +∞
1
∑ h[n] = ∑ (−1)n an = fini et le filtre est stable.
1+a
n=0 n=0
si a > 1 ;
+∞ +∞
Réponse fréquentielle
z = e2jπf
1
H(z = e2jπf ) =
1 + ae−2jπf
Le module est :
1
|H(z = e2jπf )| =
√1 + 2 a cos(2πf) + a2
1 1
|H(f = 0)| = =
√1 + 2a + a2 1+a
Si a > 0
1 1
|H(f = 0)| = = <1
√1 + 2a + a2 1+a
1 1 1
|H (f = )| = = >1
2 √1 − 2a + a2 1 − a
module
1
1/(1-a)
0.5
Imaginary Part
0
|H|
-0.5
-1
-1 -0.5 0 0.5 1 1/(1+a)
Real Part 0 0.5
f
Si a < 0
1 1
|H(f = 0)| = = >1
√1 + 2a + a2 1+a
1 1 1
|H (f = )| = = <1
2 √1 − 2a + a2 1 − a
module
1
1/(1+a)
0.5
Imaginary Part
|H|
-0.5
-1
1/(1-a)
-1 -0.5 0 0.5 1 0
0 0,5
Real Part
f
x[n] b0 y[n]
z-1 z-1
b1 -a1
z-1 z-1
bM -aN
Nous avons vu que la transformée en 𝒵 est la transformée de Laplace d’un signal échantillonné,
en posant z = epTe . Pour déterminer, la fonction de transfert H(z) d’un filtre numérique à partir
1
de la fonction de transfert H(p) d’un filtre analogique il suffit donc de poser p = T Ln(z). Si on
e
applique cette transformation à un filtre de fonction de transfert :
1
H(p) =
1+p
on aura
1
H(z) =
1
1 + T Ln(z)
e
On constate que la fonction H(z) n’est pas rationnelle, elle ne décrit pas un système linéaire et
le filtre n’est donc pas réalisable.
Pour passer du filtre analogique au filtre numérique, il faut donc trouver une transformation
p = f(z) qui permet d’écrire la fonction de transfert du filtre discret sous forme rationnelle
(H(z) s’écrit comme le rapport de deux polynômes en z-1). Ceci ne peut se faire qu’au moyen
d’une approximation.
On étudiera deux approximations : approximation avancée et transformation bilinéaire.
le module de z est :
Si p a une partie réelle négative (condition de stabilité dans 𝓅), le module de z n’est pas
automatiquement inférieur à 1, (condition de stabilité dans 𝒵). Du coup la stabilité n’est pas
conservée.
C’est une transformation très fréquente dans la réalisation des filtres. Elle est définie par :
pTe pT
e 2 1 + 2e
pTe
z=e = ≈
pTe pT
e− 2 1 − 2e
puis
pTe pTe
z (1 − )=1+
2 2
ensuite
pTe
( 1 + z) = z − 1
2
enfin
2 z − 1 2 1 − z −1
p= = (V.86)
Te z + 1 Te 1 + z −1
➢ Si p est imaginaire pur : p = jωa
pT T
1 + 2 e 1 + j 2e ωa 2 + jTe ωa
z= = =
pT T
1 − 2 e 1 − j 2e ωa 2 − jTe ωa
le module de z est :
4 + (Te ωa )2
|z| = √ = 1 = ejωn Te (V.87)
4 + (Te ωa )2
T2 T2
1 + Te σ + 4e σ2 + 4e ωa 2
|z| = √
T2 T2
1 − Te σ + e σ2 + e ωa 2
4 4
Si p a une partie réelle négative, le module de z est inférieur à 1. L’image de la partie gauche
du plan 𝓅 est l’intérieur du cercle unité, par conséquent, on a conservation de la stabilité.
Quelle est la relation entre les fréquences analogiques et numériques ? La réponse fréquentielle
est obtenue en évaluant la transformée en 𝒵 sur le cercle unité :
z = ej2πfn Te
fn est la fréquence numérique
Le module et l’argument de z sont :
|z| = 1
arg(z) = 2πfn Te (V.89)
Avec la transformation bilatérale nous avons trouvé les relations (V.87) et (V.88).
Les deux relations (V.89) et (V.88) nous donnent :
arg(z) = 2πfn Te = 2arctg(πfa Te )
On tire
1
fn = arctg(πfa Te ) (V.90)
πTe
On en déduit :
1 (V.91)
fa = tg(πfn Te )
πTe
Ou bien en pulsation :
2
ωa = tg(πfn Te ) (V.92)
Te
La relation entre les fréquences analogiques et numériques n’est pas linéaire. La figure (V.78)
montre que pour les basses fréquences, la courbe peut être assimilée à une droite de pente 1,
F
mais tend vers l’infini lorsque la fréquence tend vers 2e . En effet :
si fa → 0 ⟹ tg(πfn Te ) → 0 d′ où πfn Te → 0 et fn → 0
L’image de le fréquence nulle est la fréquence nulle.
si πfn Te est petit ⟹ tg(πfn Te ) ≈ πfn Te d′ où fa ≈ fn
On peut considérer que pour les basses fréquences la variation est linéaire.
π 1 Fe
si fa → ∞ ⟹ tg(πfn Te ) → ∞ d′où πfn Te → et fn → =
2 2Te 2
Fe
L’image de la fréquence infinie est .
2
Fe F
L’image de l’axe des fréquences analogiques, −∞ < fa < +∞, est l’intervalle [− , + 2e ]
2
comme il est illustré sur la figure (V.78).
Pente = 1
0
fa
-Fe/2 0 Fe/2
f
n
Solution :
1) Grâce à la transformation bilinéaire on a :
2 1 − z −1 1 Te (1 + z −1 ) Y[z]
H1 (z) = H (p = )= −1 = =
Te 1 + z −1 2 1−z Te + 2 + (Te − 2)z −1 X[z]
1+T −1
e1+z
2)
{Te + 2 + (Te − 2)z −1 }Y[z] = Te (1 + z −1 )X[z]
Te (T − 2) −1
Y [ z] = (1 + z −1 )X[z] − e z Y [ z]
Te + 2 (Te + 2)
On obtient par transformée en 𝒵 inverse :
Te Te 2 − Te
y[n] = x[n] + x [ n − 1] + y[n − 1]
Te + 2 Te + 2 2 + Te
3) avec Te = 1s, on a :
z 1
H1 (z) =
Y[z] 1 + z −1
= =
z+1
= 3+3
X[z] 3 − z −1 3z − 1 z − 1
3
L’équation aux différences du système est :
1 1 1
y [ n] = x[n] + x[n − 1] + y[n − 1]
3 3 3
La structure du filtre est :
z-1 z-1
1/3 1/3
1
|H(jω)| = √
1 + ω2
La courbe (V.79) représente les réponses fréquentielles des filtres analogique et numérique.
La fréquence de coupure du filtre analogique est :
1
|H(jω)|2 =
1 + ω2
Hmax 1 1
= =√
√2 √2 1 + 4π2 fca
2
1
fca = = 0.159
2π
Celle du filtre numérique :
1 + cos (2πfcn ) 1
|H(jω)|2 = =
5 − 3cos (2πfcn ) 2
2 + 2cos(2πfcn ) = 5 − 3cos (2πfcn )
3
cos(2πfcn ) =
5
fcn = 0.147
C’est la même valeur que l’on trouve avec la formule :
1 1 1
fcn = arctg(πfca Te ) = arctg (π ) = 0.147
πTe π 2π
module
0,5
0,3
0.1
0
0 0.25 0.5 f 0.75 1
Fig V.79. Réponses fréquentielles des filtres analogique et numérique
Ou bien
[numd,dend] = bilinear(num,den,Fe) %numérateur et dénominateur de la
fonction de transfert numérique par la transformation bilinéaire.
plot(f,abs(H),'linewidth',2);grid;
xlabel('f');ylabel('|H|');
title('module')
Exercice 27 : On veut synthétiser un filtre numérique récursif passe bas, à partir d’un filtre
analogique de type Butterworth en utilisant la transformation bilinéaire. Le filtre numérique
répond au gabarit suivant :
Amax = -3 dB, fp = 2.25 kHz
Amin = -10 dB, fa = 3.25 kHz, on prend Fe = 104 Hz
Solution :
Il faut tout d’abord trouver les paramètres du gabarit analogique, en utilisant la relation (V.91) :
1 104 π
fpa = tg(πfp Te ) = tg ( 4 2.25 103 ) = 2.718 kHz
πTe π 10
Ou bien en pulsation, la relation (V.92) nous donne :
2 2 2.25 103
ωpa = tg(πfp Te ) = tg (π ) = 17081.6 rd/s
Te Te 104
De même :
1 104 π
faa = tg(πfa Te ) = tg ( 4 3.25 103 ) = 5.194 kHz
πTe π 10
et en pulsation :
2 2 3.25 103
ωaa = tg(πfa Te ) = tg (π ) = 32637 rd/s
Te Te 104
Le gabarit analogique est caractérisé par :
Amax = -3 dB, fpa = 2.718 kHz
Amin = -10 dB, faa = 5.194 kHz
Cherchons le filtre analogique respectant ce gabarit :
100.1Amin − 1
1 log [ ] 1 log [ 100.3− 1 ]
100.1Amax − 1 10 − 1 = 1.7
n= =
2 faa 2 5194
log [f ] log [2718]
pa
p
s=
ωpa
1 ω2pa
H(p = sωpa ) = 2 =
p p p2 + pωpa √2 + ω2pa
2 + √2 + 1
ωpa ωpa
Par suite :
291781058.6
H(p) =
p2 + 24157.03p + 291781058.6
La fonction de transfert du filtre numérique est obtenue en appliquant la transformation
bilinéaire donnée par la relation (V.86) :
2 1 − z −1 ω2pa
H(z) = H (p = ) = 2
Te 1 + z −1 4 1 − z −1 2 1 − z −1 2
(
2 1 + z −1 ) +T −1 ωpa √2 + ωpa
Te e1+z
Puis :
ω2pa Te 2 (1 + z −1 )2
H (z) =
4(1 − z −1 )2 + 2√2ωpa Te (1 − z −1 )(1 + z −1 ) + ω2pa Te 2 (1 + z −1 )2
En remplaçant ωpa et Te par leurs valeurs, on trouve :
2.917 (1 + z −1 )2
H ( z) =
11.749 − 2.164 z −1 + 2.086 z−2
Finalement, la fonction de transfert du filtre numérique correspondant au gabarit défini est :
0.2483 + 0.4966 z −1 + 0.2483 z −2
H(z) =
1 − 0.184 z −1 + 0.1775 z −2
V-9-4 Applications
1- Filtre à encoche (Notch filter)
Le filtre à encoches permet de supprimer une composante sinusoïdale parasite. Des zéros
proches du cercle unité produisent des minimas au niveau de la réponse fréquentielle. Des pôles
proches du cercle unité produisent de larges pics sur la réponse fréquentielle.
Pour concevoir un filtre pour supprimer une seule fréquence parasite f 0, on va placer deux zéros
sur le cercle unité pour supprimer la fréquence f 0 et deux pôles proches des zéros à l’intérieur
du cercle pour compenser l’effet des zéros aux autres fréquences.
f0
avec fn = , Fe : fréquence d′ échantillonnage.
Fe
La figure (V.80) montre que plus que le coefficient a est proche de 1 plus le filtre est sélectif, a
permet donc d’ajuster la sélectivité du filtre.
module en fontion de a
2.5
0.98 0.8 0.5 0.1
1.5
|H|
0.5
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
Un filtre en peigne ajoute une version retardée du signal à lui-même. Sa structure est représentée
sur la figure (V.81).
x[n] y[n]
z-N0
Imaginary Part
complexe.
Pôles : 0
10
z N0 = 0
Il y a N0 pôles à z = 0. -0.5
Réponse impulsionnelle
La réponse impulsionnelle (Fig V.83) est obtenue en remplaçant y[n] par h[n] et x[n) par δ[n]
dans l’équation aux différences :
h[n] = δ[n] + α δ[n – N0 ]
réponse impulsionnelle
1
h[n]
alpha
0
0 N0
n
Fig V.83. Réponse impulsionnelle d’un filtre en peigne
Réponse en fréquence
Pour obtenir la réponse en fréquence, on effectue le changement z = e2jπf :
H(z = e2jπf ) = 1 + α e−2jπfN0 = 1 + α cos(2πfN0 ) − j α sin(2πfN0 )
Le module :
La réponse en fréquence du filtre en peigne est périodique. La figure (V.84) montre que les
maximas et les minimas sont à égale distance de 1 et le maximum pour une valeur positive de
α coïncide avec le minimum des valeurs négatives de α et vice versa.
module pour = 1
2
|H|
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
module pour = -1
2
1.5
|H|
0.5
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
Fig V.84. Réponse en fréquence d’un filtre en peigne pour α = ±1
figure(4)
stem(m,hn,'linewidth',2);grid;
axis([0 12 0 1.25]);grid
1 zN0 1 Y(z)
Etudions la fonction inverse G(z) = = = =
H(z) zN0 +α 1+α z−N0 X(z)
-α z-N0
x[n] y[n]
Fig V.85. Structure de G(z)
Zéros :
z N0 = 0
Il y a N0 zéros à z = 0.
Pôles :
N0
z N0 + α = 0 z N0 = − α z = √−α
Il y a N0 solutions régulièrement espacés dans le cercle du plan complexe.
0.5
Imaginary Part
10
0
-0.5
-1
-1 -0.5 0 0.5 1
Real Part
Réponse impulsionnelle
x[n] = y[n] + α y[n – N0 ]
y[n] = x[n] - α y[n – N0 ]
h[n] = δ[n] - α h[n – N0 ]
h[0] = δ[0] – α h[–N0 ] = 1
h[1] = δ[1] – αh[1 – N0 ] = 0
h[2] = δ[2] – αh[2 – N0 ] = 0
h[N0 ] = δ[N0 ] – αh[0] = – α
h[2N0 ] = δ[2N0 ] – αh[2N0 - N0 ] = δ[2N0 ] – αh[N0 ] = – α.(– α) = α2
La réponse impulsionnelle est :
k k
h[n] = {(−1) α si n = k N0 avec k ∈ N
0 ailleurs
réponse impulsionnelle
1
alpha^2
h[n]
0
-alpha^3
-alpha
-1
0 N0 2N0 3N0
n
1
Fig V.87. Réponse impulsionnelle G(z) =
H(z)
Réponse en fréquence
Pour obtenir la réponse en fréquence, on effectue le changement z = e2jπf :
1 z N0 1 Y(z)
G (z) = = N0 = =
H(z) z + α 1 + α z −N0 X(z)
1 1
G(z = e2jπf ) = =
1+αe−2j𝜋fN 0 1 + α cos(2πfN0 ) − j α sin(2πfN0 )
Le module :
1 1
|G(z = e2jπf )| = =
√[1 + α cos(2πfN0 )]2 + α2 sin2 (2πfN0 ) √1 + α2 + 2α cos(2πfN0 )
La réponse en fréquence est aussi périodique. La figure (V.88) montre que les maximas et les
minimas ne sont plus à égale distance de 1.
|G| 10
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
module pour = - 0.9
15
10
|G|
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
f
1
Fig V.88. Réponse en fréquence de G(z) =
H(z)
3- Echo
L’écho est un phénomène acoustique de réflexion du son. La vitesse du son est de 343 m/s.
Pour réaliser un écho, on retarde le signal d’entrée puis l’additionner au signal original.
L’équation sera donc :
y[n] = x[n] + α x[n – N0]
α < 1 : atténuation
N0 : grandeur qui réalise le retard. Cela revient à retarder le signal original de N0 fois la période
N F
d’échantillonnage, soit un retard temporel θ = F 0 , si par exemple, N0 = 2e alors θ = 0.5 s.
e
1
L’oreille humaine ne peut distinguer un écho du son origine si le retard est inférieur à 15 s.
Pour supprimer l’écho, on utilise le système d’équation aux différences :
y[n] + α y[n – N0] = x[n]
x[n] est le signal corrompu par l’écho et y[n] le signal de sortie qui a l’écho supprimé.
4- Réverbération
Dans le cas où les réflexions sont multiples, on parle de réverbération. Pour réaliser une
réverbération, on retarde cette fois le signal de sortie puis l’additionner au signal original.
L’équation sera donc :
Y (z ) 1 Y (z)
H(z) = = −N
=
X (z ) 1 − α z 0 X (z)
Pour supprimer la réverbération, on prend :
Y (z)
G(z) = 1 + α z −N0 =
X (z)
Y(z) = X(z) + α z −N0 X(z)
et
y[n] = x[n] + α x[n – N0]