Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

ch1 TR Thsignal

Télécharger au format ppt, pdf ou txt
Télécharger au format ppt, pdf ou txt
Vous êtes sur la page 1sur 68

CHAPITRE I:

Notions de théorie du signal

1
Signal et Système

Signal : représentation physique de l’information à envoyer de la source à la destination


observation des fluctuations dans le temps d’une grandeur physique, physiologique,
économétrique  il vient du mot latin signum (signe)

Système : ensemble organisé de composants dont l’utilité est la réalisation d’une ou de


plusieurs tâches
– signaux d’entrée : grandeurs sur laquelle le système réalise la tâche
– signaux de sortie : grandeurs caractérisant la tâche
– approche système : ne s’intéresser qu’aux relations entrées-sorties

Théorie du signal: s’intéresse à la description mathématique des signaux. Elle fournit les
outils ou formes mathématiques des principales caractéristiques d’un signal ( distribution
spectrale de son énergie, description statistique de son amplitude…) et conditions
nécessaires permettant de le traiter par la suite

Théorie du signal  Théorie des systèmes : étude des signaux dans leurs relations avec les
systèmes qui les transforment, les traitent ou les transmettent

2
PARTIE I:
Caractérisation des signaux

3
I- Modélisation des signaux
Phénomène
Signaux optique, acoustique, mécanique, …
physique,
physiologique
traduits à l’aide de capteurs ou appareils de
mesure sous forme électrique

Le signal, fonction s(t) à valeurs réelles d’une variable réelle t, possède les
caractéristiques suivantes:
- Énergie et amplitude bornée
- Continu temporellement et causal (s(t)=0 si t< 0)
- Spectre du signal borné
Mais sur le plan théorique, pour la commodité du calcul et l’étude de certains
phénomènes, les signaux sont représentés par des fonctions:
- À énergie théorique infinie, avec des discontinuités( exp: signal carré)
- Définies sur R (signal non causal )
- À valeur complexe s(t)=Aejwt = ACos(wt) + jASin(wt)
- Spectre du signal infini

Il est important de noter que l’introduction de tels modèles mathématiques


4
nécessite une interprétation des résultats pour retrouver la réalité.
II- Classification des signaux

Morphologique

Temporelle
Principales classifications
Enérgetique

Fréquentielle

5
II.1. Classification morphologique

signal analogique signal quantifié

signal échantillonné signal numérique

6
Exemple

Version « analogique » Version « numérique »

Discrétisation :
- du temps : échantillonnage
- de l’amplitude: quantification.
7
Avantages du T.N.S

- Permet d’effectuer des traitements sur des machines informatiques


- Rapidité : plusieurs tâches simultanées possibles ;
- Flexibilité: un système numérique et doté de logiciel, facile à manipuler et à modifier
- Robustesse au bruit: Un 0 codé sur 0v parasité par un bruit de 0.5v sera toujours un 0
- Prédiction : simulation sur ordinateur ;
- Prototypes : changements par modification du logiciel ;

Mais, la numérisation d’un signal est une perte d’information

8
II.2. Classification temporelle

Signaux physiques

Signaux certains Signaux aléatoires


(ou déterministes) (ou stochastiques)

Signaux Signaux non Signaux Signaux non


périodiques périodiques stationnaires stationnaires

Signaux Signaux
Signaux Signaux Signaux Signaux non
sinusoïdaux périodiques
quasi- transitoires ergodiques ergodiques
complexes
périodiques

9
- Signal déterministe :
• Evolution prédite par un modèle mathématique
Représente généralement les signaux de test et d ’excitation

- Signal aléatoire :
• a un caractère non reproductible
• ensemble probabilisé de signaux élémentaires dont chacun apparaît
une fois sélectionné comme un signal déterministe
Représente la plupart des signaux physiques
Exemples : bruit de fond des récepteurs radio, parole, données, image...

-Pseudo-aléatoire :
• Pour le constructeur : déterministe (CI imposés)
• Pour l’utilisateur : aléatoire
Exemple : Séquence binaire produite par un registre à décalage fermé
Remarque: la distinction aléatoire/déterministe est arbitraire
Emetteur canal Récepteur
x(t )  A sin 2ft  x(t )  A sin 2ft   

10
déterministe aléatoire
Signaux usuels déterministes

1- Echelon unité (échelon de Heaviside)


x(t ) x(k )

t k
0 0 1 2 3

x(t )
2- Fonction rectangulaire surface A T
A

x(t)= A rect[(t - )/T] t


0 -T/2  +T/2

3- Signal sinusoidal (signal harmonique)

continu discret complexe


x(t )  A cos(2f 0t  ) x k  A cos(2 0 k   ) x(t )  Ae j ( 2f 0t  )

0 = f0 Te = f0 / fe : fréquence réduite, avec Te = Période d’échantillonnage


11
1
4-Sinus Cardinal
sin( )
sin c( )  

-5 -4 -3 -2 -1 0 1 2 3 4 5

5- Impulsion (ou distribution) de dirac


- Définition : c ’est la fonction (t ) qui vérifie pour toute fonction  (t )continue en
t=t0 
(t0)(t  t0)(t)dt


(k-k0)
c.(t-t0)
1

k
0 t0 k0
Impulsion de Dirac Impulsion discrète de Dirac

-Réalisation : c ’est la limite au sens des distributions de nombreuses fonctions de


surface unité:
t2
1 1 1  sin(Bt )
 (t ) lim rectT (t ) lim triT (t ) lim e 2 a lim B
2

T0 T T0 T a  0 a 2 B 0 Bt 12


1 triT (t)
1 rectT (t) T
T

1 e 2ta22 sin(Bt )
B
a 2 Bt

6-Peigne de dirac (ou fonction d’échantillonnage)


T(t)


T (t)(t  kT) t

-2T -T 0 T 2T 3T
13
II.3. Classification énergétique

- Signal à énergie finie (ou de carré intégrable ou sommable):


Ce sont les signaux vérifiant 0  E x   (ou Px 0 ). Cette catégorie comprend tous
les signaux de type transitoire (déterministes ou aléatoires)

- Signal à énergie infinie et à puissance moyenne finie :


Ce sont les signaux vérifiant E x  (ou 0  Px   ). Cette catégorie comprend tous
les signaux périodiques, quasi périodiques et les signaux aléatoires permanents

Remarque1: Certains signaux n’appartiennent à aucune des deux catégories.


Exemples: x(t) = exp(at) ;

Remarque2: dans la réalité physique, les grandeurs observés sont d ’énergie finie
alors que les systèmes physiques ont certains comportements permanents modélisés par
des signaux électriques de puissance finie :
Exemples:
- Signaux électriques issus d’un générateur de fonction modélisés par des
signaux périodiques
- Tension aux bornes d ’une prise de courant modélisée par un signal 14
sinusoidal
II.4. Classification fréquentielle

Spectre d’un signal : la distribution de l’énergie du signal, de son amplitude ou de


sa puissance en fonction de la fréquence.

Largeur de bande d’un signal : le domaine des fréquences occupé par son spectre
F = Fmax – Fmin.

Un signal dont le spectre est nul en dehors d’une bande de fréquence spécifiée B est
appelé signal à bande limitée .
Distribution

F
spectrale

fréquences

Fmin Fmax

15
On distingue: Signaux à bande étroite
Signaux à large bande

D’une manière générale la bande spectrale du signal est du type large si :

Un signal est à spectre étroit, si:

16
III- Caractérisation des Signaux Déterministes

III-1- Durée:
Signaux de durée finie : dénommés transitoire ou impulsionnels lorsque leur
durée est faible

Signaux de durée infinie : cas des signaux périodiques ou quasi périodiques

III-2- Energie et puissance:


Energie :

E x  x t  dt
2
– cas continu :


E x   x k 
2
– cas discret :
k 

17
Cas des signaux à énergie infinie : on peut espérer définir une puissance
moyenne Pm

 t0
x t  dt
2

2
– cas continu : Pm  x  lim 1
2 t0
t0    t0

N

 xk 
2 2
– cas discret : Pm  x  lim 1
2 N 1
N  
k  N

 signaux bornés en amplitude sont nécessairement à Pm finie

18
III-3- Corrélation des signaux

Autocorrélation : ressemblance d’un signal avec lui même décalé. Ça


mesure la mémoire d’un signal

• Cas des signaux à énergie finie :

– cas continu : x   x t x * t   dt

– cas discret : x n   x k x * k  n 
k

• Cas des signaux à énergie infinie :


 t0
– cas continu : x    lim 1
2 t0  x t x * t   dt
t0    t0
K
– cas discret : x n   lim 1
2 K 1  xk x k  n 
*
K  
k  K

19
• Propriétés :
– |x()|  Ex
– Lorsque x est à valeurs réelles, x() est une fonction réelle et paire
– Lorsque x est périodique, x() est également périodique
 x() s’exprime à l’aide du produit de convolution :
x    x * (   ) * x  ,
x n   x * (  n ) * x n ,

Intercorrélation : ressemblance des signaux x et y décalé


xy   xt y * t   dt yx*   
– cas continu :

xy n   xk y * k  n  yx*  n 


– cas discret : k

20
PARTIE II:
Outils mathématiques nécessaires à la théorie du signal

21
I- Produit de Convolution
Cas continu :
Si x(t) et y(t) sont deux signaux d’énergie finie, alors:

c t   x * y t   x  y t   d  y * x t 

• visualiser y(t0-t) : symétrie % à l’axe des ordonnées et décalage de t0
• multiplier x(t) par y(t0-t)
• calculer la somme algébrique des aires sous la courbe x(t)y(t0-t)

Exemple:
Calculer le produit de convolution des signaux suivants:
f(t) = A si t1< t <t2 avec t1 >0
0 ailleurs
et g(t)= e-at.u(t) a>0

Cas discret :
c n   x * y n    x k y n  k   y * x n 
k 
Existence:
Cas continu : l’existence est liée à la convergence de l’intégrale
Cas discret : l’existence est liée à la convergence de la série
Propriétés du Produit de Convolution

Commutativité, Associativité
Elément neutre : impulsion de Dirac, impulsion discrète

Translation : x t  t0   t0 * x t ,  t0 t   t  t0 

x k  n0   n0 * x k ,  n0 k   k  n0 

Support du produit de convolution : xa ,b  * yc ,d  ca c ,b d 

x M  * y N  c M  N  1

23
II- Séries de Fourier

Notion de fréquence: Qu'est ce qu'une fréquence ?


La fréquence est le nombre de fois qu'un phénomène périodique se reproduit pendant une durée
déterminée, C'est donc l'inverse de la période f = 1/T
La fréquence est mesurée en hertz (= 1/seconde)
 Dans un son: Sons graves = basses fréquences
Sons aigus = hautes fréquences
=> La fréquence permet de caractériser un certain type d'information
Dans une image: Surfaces = basses fréquences
Contours = hautes fréquences
Dans une onde lumineuse, Les couleurs dépendent de la longeur d'onde = la fréquence

24
II- Séries de Fourier
Décomposition en Séries de Fourier¨(DSF) : x(t) périodique de période
T
x(t )  X k e j 2kt / T
kZ
 f0 = 1/T : fréquence fondamentale
T/ 2
1  f = n f0 : fréquences harmoniques
X k  x(t)e  j 2kt/T dt
T  T/ 2
La Décomposition en Série de Fourrier consiste à exprimer un signal périodique comme une
combinaison linéaire de signaux sinusoïdaux
• Sous forme de signaux sinusoïdaux,
les fréquences d'un signal apparaissent
naturellement.
• La (DSF) permet de passer facilement
du domaine temporel au domaine
fréquentiel. 25

Période T  2k / T x(t )   X (k ) exp( j..t )
2
k 
1

1
.
2
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
t
1 T
X (k )  0 x(t ) exp( j..t )dt
X (k ) module de l’harmonique T
12

8.5

1.5
.
2
16 14 12 10 8 6 4 2 0 2 4 6 8 10 12 14 16

fréquence multiple de 1/T


fréquences négatives (numéro d’harmonique)
26
Limitation: les series de Fourier s’appliquent aux signaux:
• périodiques
•Continus
•déterministes

Extension: pour les signaux:


• non périodiques: Transformée de fourrier
•Discrets: Transformée de fourrier Discrète
•Aléatoire: densité spectrale de puissance

27
III. Transformée de Fourier
 pour passer de la SF à la TF, on considère un signal non-périodique d’énergie finie. Ce
signal peut être considéré comme le cas limite d’un signal périodique xT(t) de période
infinie 
T
2
xT t  X k exp j2 kfot  avec Xk 1 xT t exp j2 kfot dt
T T
k  
2

 T2 

 
xT t   xT u exp i2 kfou du (expi2 kfot 1
k   T  T
 2

xT(t)  fonction non-périodique x(t)

Lorsque T  : fo=1/T  df intervalle infinitésimal

kfo  f variable réelle continue



   
x t  xu exp i2 fu du expi2ft df X(f)expi2ft df 28
   
cn > <
xT(t) fo
T 

-T T t fo f

déf.  i2f t
1. Définition Fx(t)X  f  x(t)exp dt "Transformée de Fourier" de xt 

et 
xt F  1X  f X  f exp df "Transformée de Fourier inverse"
i2ft


Existence: 
2
Tout signal à énergie finie (physiquement réalisable): Wx  x ( t ) dt  


N.B: c’est une condition suffisante et pas nécessaire

Extension aux signaux à puissance moyenne finie non nulle


A

Si x(t) est un signal à puissance moyenne finie, alors X (f )  x ( t )e dt


A
 j 2 ft

A
converge en moyenne quadratique vers une fonction X(f) de carré sommable
appelée TF(x(t)), c.à.d: 
2

A   
lim X (f )  X(f ) df 0
A 29

Remarques

 X(f) = fonction complexe d ’une variable réelle


X(f) = “spectre d’amplitude” et Arg[X(f)] =“spectre de phase” du signal
 x(t) et X(f) sont deux descriptions équivalentes (temporelle ou fréquentielle)
du même signal. On écrit : x(t)  X(f)
2. Propriétés:
Dualité Temps Fréquence: x(-t) →X(-f); x*(t) →X*(-f) et x*(-t) →X*(f)
Linéarité: TF(a.x(t)+b.y(t))=a.TF(x(t))+b.TF(y(t))
1 f 
X 
Produit par une constante : TF(x(a.t))= a a
 j2 f t0
Translation temporelle: TF(x(t  t0))e X(f)
Modulation: TF ( x(t ).e j 2  f 0 t )  X ( f  f 0 )
Symétrie Hermitienne: x(t) réel alors X(f)=X*(-f)

X(f) X( f) et arg(X  f ) arg(X( f))


30
Parité: x(t) réelle paire alors X(f) réelle paire
x(t) réelle impaire alors X(f) imaginaire pure et impaire
Involution: x(t) →X(f), X(t)→x(-f)

Produit de convolution: TF(x(t)*y(t))=X(f).Y(f)


TF(x(t).y(t))=X(f)*Y(f)

2 2
Théorème de Parseval: x(t) dtX(f) df
R R
2 2
x(t) dt : énergie de x(t)
R
X(f) df : densité spectrale d'énergie
R
n
n
d (x(t)) n d ( X ( f ))
Dérivation: TF( n
n
)(j2f) X(f) nN TF (( j 2t ) x(t ))  n
n  N
dt df

t
1
Intégration: TF ( x( )d )  X ( f )  X (0) ( f )

j 2f

31
3. TF de signaux usuels

1- TF d ’un dirac :  (t ) 
TF
1
TF
1   (f )
TF 1 (f  f0)(f  f0) TF 1 (f  f0) (f  f0)
sin2f0t 
2- TF d ’une sinusoide : cos2f0t  2 2j
sin(ft)
3- TF de la fonction rectangulaire: rect T (t)  T  T sinc(fT)
ft
4- TF d ’un signal périodique :
 T T
Soit un signal périodique obtenu par périodisation du support temporel   2 , 2  cad
x(t )  xT (t  kT )
k
x(t) X ke j2 Tk t
k
Le développement en Série de Fourrier de x(t) donne:

T/2 
X k 1 x(t)e  j 2 k t
T dt1 xT(t)e j2 Tk tdt1 XT k
T  T/2 T  T T
Or, les coefficients de Fourier d ’écrivent k 1 k k
X ( f )  X k  ( f  )   X T ( ) ( f  )
k T T k T T
Ce qui donne la TF suivante :
Si on périodise un signal xT(t) dans l’espace de temps pour obtenir x(t), le spectre X(f)
de x(t) est discret et les masses des raies sont les échantillons du spectre original
32 X (f)
T
 échantillonnage dans l ’espace des fréquences
4. Spectre

Significations :
• Support spectral: Ensemble de fréquences pour lesquelles la transformée de
Fourier X(f) est non nulle

• Représentation spectrale (spectre d’amplitude, spectre de phase ) d’un signal:


X(f)

• Densité spectrale d’énergie (spectre de puissance): |X(f)|2

33
4.1- Spectre d ’énergie :

La TF de la fonction d’autocorrélation d’un signal x(t) d’énergie finie est


appelée spectre d ’énergie ou densité spectrale d ’énergie:
Sx(f)TFRx()X(f)
2
(Théorème de Wiener Kintchine)

  


2 2
L ’énergie du signal qui s ’écrit E x  x(t ) dt  X ( f ) df devient : E x  R x (0)  S x ( f )df
 
  

4.2- Spectre de puissance :

La TF de la fonction d’autocorrélation d’un signal x(t) de puissance moyenne


finie est appelée spectre de puissance ou densité spectrale de puissance:
Sx(f)TFRx()lim 1 XT (f)
2

T  T
Avec xT(t) = signal x(t) tronqué sur une durée [-T/2;T/2]


La puissance du signal s ’écrit alors: Px  Rx (0)  S x ( f )df




Sx(f) X k (f  k ) C’est un spectre de raies
2
Cas des signaux périodiques: T
34
k 
PARTIE III:
Caractérisation des systèmes

35
I. Définitions
Définition
Un système est un ensemble d'éléments fonctionnels interagissant entre eux et qui établit un lien
de cause à effet entre ses signaux d'entrées et ses signaux de sortie

Système de TS signal de "sortie"


signal "d'entrée" x(t) S y(t)=S{x(t)}
x(k) y(k)=S{x(k)}
S = un système physique délivrant un signal y(t) en réponse à une stimulation x(t)
- un système de mesure conçu pour détecter la présence d'un signal de forme
particulière
- un filtre électronique, un amplificateur, un convertisseur A/D, ...
- un algorithme informatique agissant sur un signal numérique
....
Homogénéité entrées/sorties :
- Système analogique (continu) : entrée et sortie à temps continu
- Système numérique (discret) : entrée et sortie à temps discret 36
- Système hybride
II- Les Systèmes Linéaires Invariants
Les deux propriétés centrales des Systèmes SLI:
1) Linéarité : principe de superposition

a x i i  a y ,
i i yi G xi 
i i

2) Invariance par décalage dans le temps : G(.) ne dépend pas du temps

y t  G x t    , y t    G x t   

conséquence :

si x(t ) est une sinusoïde, y (t ) est une sinusoïde de même fréquence

37
Système à réponse instantanée : si la sortie ne dépend que de la valeur
de l’entrée à l’instant considéré
 cas des SLI : y =  x,  constante

Système dynamique : si la sortie dépend de certaines valeurs de l’entrée


à d’autres instants

Causalité : la réponse à un instant donné ne dépend que des valeurs de


l’entrée aux instants précédents (effet ne précède pas la cause)

Stabilité : à toute entrée x, bornée en amplitude, correspond une sortie y


également bornée en amplitude
 Stabilité BIBO : Bounded Input Bounded Output

38
III. Relation de Convolution dans les SLIs

Réponse impulsionnelle : réponse du système à une entrée impulsion h(t) = S{d(t)}

x(k)=(k) y(k)=h(k)  cas d’un SLI causal


: h(k) = 0 pour k < 0
1 1

k k

Cas discret :
• Contribution de l’impulsion x(k0-n) :

x k0  n  k  k0  n   y k k0   x k0  n h n 

y k   h n x k  n  h * x k 
• Contribution de tout le signal x(k) : n
39
Cas continu :

x(t)=(t) y(t)=h(t)
1

k t


y t   h  x t   d h * x t 


40
IV. Fonction de Transfert

Définition : transformée de la réponse impulsionnelle


 fonction de transfert ou réponse en fréquence

Domaine temporel :

x(t) h(t) y(t) = h*x(t)

Domaine spectral (fréquentiel) :

X H Y =HX

41
V. Association de Systèmes

Séries : x(t) h1(t) h2(t) hn(t) y(t)

Parallèles : h1(t)

x(t) y(t)
h2(t)

Bouclés :

x(t) h1(t) y(t)

h2(t)

42
VI. Réponse en Fréquence des Filtres Idéaux

|H(f)| |H()|
Filtre passe-bas

f 
-fc +fc -c +c
|H(f)| |H()|
Filtre passe-haut

f 
-fc +fc -c +c
|H(f)| |H()|
Filtre passe-bande

f 
-f2 -f1 +f1 +f2 1 2
43
VII. Transmission de l’Energie

x  f  TF x    X  f 
2
Densité Spectrale d’Energie (DSE) :

DSE du signal de sortie d’un SLI causal et stable


SLI causal
x(t) et stable y(t)

 y  f   H  f  x  f ,  y p   H  p H p x p 
2

 y    H   x  f ,  y z  H z  1 H z x z 
2

Energie totale de sortie d’un SLI causal et stable



E y  H  f  x  f df
2


 12
E y 1 H   x  d
2
 2

44
Partie
Partie IV:
IV: Signaux
Signaux aléatoires
aléatoires

45
Introduction
Introduction

 tout signal physique comporte une composante aléatoire:


 perturbation externe (ou "bruit").
ex: agitation thermique  tension aléatoire aux bornes d'une résistan
perturbation atmosphérique  fluctuations de la brillance des éto
 signal issus d'un système très complexe
ex: jet de dés, processus biologique, météorologie, ...

 l'évolution du signal est imprévisible


 description statistique des signaux
46
Définitions
Définitions

Processus aléatoire (ou stochastique): Une famille de fonctions réelles ou


complexes à deux variables notée {x(t,s)}.
La variable s dénote la nature aléatoire du processus: c’est un élément de l’espace
des épreuves (ensemble des résultats possibles d’une expérience statistique) et
dépend des lois du hasard.

47
Plusieurs
Signal aléatoire: Pour chaque si, le processus x(t,s) se réduit à un membre donné
de l’ensemble de fonctions possibles appelé signal aléatoire ou trajectoire
généralement noté xi(t) ou simplement x(t).
Un signal aléatoire est donc une réalisation particulière d’un ensemble de
signaux similaires qui sont tous susceptibles d’être produits par le même
phénomène (ou processus) aléatoire

Variable aléatoire: A chaque instant ti, le processus x(t,s) se réduit à une simple
variable aléatoire généralement noté Xi, dont le comportement statistique est décrit
par sa fonction de répartition F(x,ti) ou sa densité de probabilité p(x,ti).
La connaissance de ces lois de probabilité permet de déterminer les principaux
moments de la variable.

Vecteur aléatoire: si l’on considère k instants t1 , t2 ,… , tk , on peut définir k


variables aléatoires X1 , X2 ,… , Xk formant un vecteur aléatoire à k composantes
X=(X1 , X2 ,… , Xk ) , caractérisé par une loi de probabilité conjointe p(x1 , x2 ,… , xk )
à k dimensions permettant la connaissance des statistiques d’ordre k du processus.
48
 Pratiquement, on se contente des statistiques d’ordre 1 et 2.
Exemple

• Evolution de la température à la
surface d’une navette spatiale.

• La mesure commence à t=0, qui


correspond à l’instant du
lancement.

• X(t) la température en C.

• A chaque lancement, on
enregistre x(t,s).

49
e1 correspond à la mesure enregistrée durant le premier lancement.
à t=2500.10 secondes, x(2500.10,e1)=1200 C

50
Moyenne Temporelle de la
température durant le
premier lancement: 5000C

Moyenne Statistique de la
température à l’instant
t=2500.10s: 1320C

51
I) Notion de Probabilité (Rappels)

I.1. Probabilité d'un événement :


Soit A un résultat possible d'une expérience aléatoire, N le nombre de réalisation de
l'expérience et nA le nombre de fois que le résultat ou événement A est apparu, alors :

déf .
nA
Probabilité de l'événement "le résultat de l'expérience est A" : P  A   lim
N   N

Rq: La limite peut ne pas exister

Probabilité conjointe et conditionnelle :


Soient A et B deux événement distincts alors:
déf .
n AB
Probabilité conjointe que A et B aient lieu : PA, B   lim
N   N

avec nAB = nombre de fois que A et B sont apparus


52
 n AB n A   n AB  déf
 nA 
or PA, B   lim    lim    lim    PB / APA
N   n A N  N   n A  N   N 

"P(B/A)" P(A)

Probabilité
P(B/A) = Probabilité que B ait lieu sachant que A a eu lieu conditionnelle

 PA, B  PB / APA PA / B PB 

Evénements indépendants :

L'apparition de B ne dépend pas de l'éventuelle apparition de A

 P ( B / A) P ( B )  PA, B  PAPB 

53
Axiomes:

Axiome 1: P(A)0
Axiome 2: P(S)1; S Ai
Axiome 3:
P(AB)P(A)P(B) P(AB)
Propriétés:

1. P(A)1
2. P(A)1 P(A)
3. P()0
P(A)P(B)si AB
4.

54
I.2. Densité de probabilité

Exemple: Tension électrique aux bornes d'une résistance


Des mesures effectuées simultanément sur plusieurs résistances identiques (même
R, même environnement,...) donnent lieu à des signaux différents en raison de
l’agitation thermique des électrons.

tension mesurée sur la résistance nu° 

1 t signaux susceptibles d'être


t1 t2 produits en mesurant la
2 tension aux bornes d'une
résistance R
3

55
On peut représenter les résultats de l'expérience « tension à l’instant ti » par un
histogramme: = Xi (« variable aléatoire »)
N(m, ti) = nombre d'événements ou de fréquence d’apparition

« Xi = x à x près »

N(m)
précision de la mesure

x Nmes = nombre total de mesures

m x (m+1) x

Idéalisation: Lorsque x  dx l'histogramme devient une fonction continue de x.

 N m, ti   n( x, ti )dx = nombre d'événements où Xi[x, x+dx]

nombre d'événements par unité de x

56
x2
 Prob x1Xix2px,tidx
x1

nx, ti 
où px, ti   lim = densité de probabilité de X i
N mes   N mes

 p(x, ti) = concept purement théorique. En pratique la précision et Nmes sont finis

 Xi gaussienne  p(x, ti) = gaussienne.




 Normalisation de p(x, ti ): px, ti dx 1




57
I.3. Fonction de répartition :
On appelle fonction de répartition la fonction F(x, ti) = Prob[Xi  x]
x
dF x, ti 
F x, ti   px' , ti dx'  px, ti  

dx

 Il est parfois plus facile de calculer d'abord F(x, ti ) pour ensuite en dériver p(x, ti )
 Le comportement statistique d'une variable aléatoire est décrit par sa fonction de
répartition ou par sa densité de probabilité

Propriétés:
1. F ,ti0
2. F,ti1
3. 0Fx,ti1
4. Prob[x1Xix2]Fx2,ti Fx1,ti

58
Lois de répartitions particulières:
Loi gaussienne, dite loi normale
On dit qu’une variable aléatoire suit une loi normale de moyenne µ et d’écart type σ si
sa densité de probabilité a pour expression:
2 1
 ( x  ) 0.5
2  2
1 2
p X ( x)  e
2 
0.25

.
 X E[X] 0
0 200 400 600 800 1000


La fonction de répartition correspondante a pour expression: 0.5

p( y )
x
r ( x)   p ( y )dy 0.25
.

0
3 2 1 0 1 2 3

y x
probabilité pour que la variable aléatoire
x 
y soit inférieure à une valeur donnée x
x  (  ) 2   2

FX (x) 1 e d  1
2 2

e d
2
59
2    2  
Loi de poisson:
On dit qu’une variable aléatoire suit une loi de poisson de paramètre α si elle prend les
valeurs 0,1,……,n avec une probabilité P(X) telle que:

k
 
p(X k) e
k!

 k


La densité de probabilité de X a pour expression: f X (x)e
 (x k)
k 0 k!
 k


La fonction de répartition correspondante a pour expression: FX (x)e  u(x k)
k 0 k!
 X E[X]
 X2 

60
II.
II.Moyennes
Moyennesstatistiques
statistiques

 Toute fonction f d'une variable aléatoire xi est une variable aléatoire fi


La connaissance des lois de probabilités nous permet de déterminer les valeurs
moyennes statistiques ou « espérance mathématique » de fi :

E f i   f x px, ti dx


Statistique d’ordre 1 :
V.A continue V.A. discrète

Valeur moyenne statistique: xtiEXixpx,tidx xEXi xipxi
 i
(ou moment de 1er degré)

61

mx2tiEX x px,tidx
2
valeur quadratique moyenne: i
2

(ou moment d’ordre 2) 

 

mxntiE X x px,tidx
n n
Moments de degré supérieur: i


Variance :
(ou moment centré d’ordre 2)  x2tiE(Xi xti)2mx  xti2
2

Ecart -type :  xti mx  x2 2

 

E (Xi xti) (x xti) p(x,ti)dx
n n
Moment centré d’ordre n


62
Statistique d’ordre 2 :

Fonction d'autocorrélation statistique :



Rxt1,t2EX1X 2x1x2px1,x2;t1,t2dx1dx2
  

Fonction d'autocovariance statistique :

Cxt1,t2EX1 xt1X 2 xt2Rxt1,t2 xt1xt2

 Pour des processus centrés (µx(t)=0): Cx(t1, t2) = Rx(t1, t2)

 si t1= t2 alors Cx=  x2


Fonction d'intercorrélation statistique : Rxyt1,t2EX1Y2
Fonction d'intercovariance statistique : C xy t1, t2  Rxy t1, t2    x t1  y t2 

63
III.
III.Processus
ProcessusStationnaires
Stationnaires

 On désigne par stationnaire au sens strict les processus dont toutes les
caractéristiques statistiques sont invariantes lorsqu’on change l’origine des temps).
 Un processus est dit stationnaire au sens large si seules ses statistiques d’ordre 1
et d’ordre 2 sont invariantes dans le temps:

xtix  x2ti x2 Rx(t1,t2)Rx() Cx(t1,t2)Cx() =t2-t1

Processus conjointement stationnaires

Deux processus aléatoires X(t) et Y(t) à temps discret ou à temps continu sont dits
conjointement stationnaires au sens large si:
1. Chaque processus est stationnaire au sens large.
2. Leur corrélation croisée Rxy(t1,t2) dépend seulement de la différence  t2 t1
Rxy(t1,t2)Rxy() 64
Exemples:
- les numéros gagnant de la loterie national obéissent à un processus stationnaire!
- les chutes de pluies à Strasbourg sont issues d'un processus non stationnaire: il
peut pleuvoir en moyenne plus souvent au mois de novembre qu'au mois d'août...

65
IV. Moyennes temporelles

 Il n'est pas toujours possible de réaliser un nombre suffisant de mesures pour établir les
propriétés statistiques d'un processus aléatoire.
 On peut calculer les valeurs moyennes temporelles d'un signal aléatoire pour extraire des
informations complémentaires sur le comportement moyen du processus

f = fonction d'un signal aléatoire x(t) :


Définition T
déf . 2
1
 f  xt   lim T f  xt  dt = valeur moyenne temporelle de f
T   T

2

66
IV.1. Principales moyennes temporelles :
T
2
1
valeur moyenne : x  lim
T   T
Tx(t ) dt

2
T
2 !
2 1 2
valeur quadratique moyenne : x  lim
T   T
Tx (t ) dt Px

2

variance temporelle :  x2  xt   x 2

écart-type temporel :  x   xt   x 2 = " valeur efficace"


T

1 2

 x    xt xt     lim xt xt   dt


T   T 
fonction d'autocorrélation :
T 2

fonction d'intercorrélation :  xy    xt y t   

(*) Pour des signaux numériques, par exemple la fonction d’autocorrélation est définie par:
 67
xk  xmxmk 
m
IV.2. Processus ergodiques

Un processus aléatoire est dit ergodique lorsque les valeurs moyennes statistiques et
temporelles sont identiques :

 x  x ; mx 2  x 2 ; Rx    x  

 un processus ergodique est nécessairement stationnaire, mais la réciproque n'est pas


vraie
 lorsque l'hypothèse d'ergodisme est justifiée, on est en droit d'estimer les propriétés
statistiques d'un processus aléatoire par l'analyse temporelle d'un signal x(t) unique
x(t) = x(t,s) pour s fixé.

68

Vous aimerez peut-être aussi