Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Cours Modelisation Et Identification Des Systèmes

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 47

INSTITUT INTERNATIONAL 2i

Pôle Polytechnique

Polycopie du Cours :
Modélisation et Identification des Systèmes

Filière : Génie électrique

Niveau : Licence 2 (semestre 3)

Préparé par : Ing. MOBONDA Gérard

Année académique : 2023--2024


Table des matières

Avant-propos v

Introduction 1

1 Modélisation des Systèmes dynamiques 2


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Systèmes dynamiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Représentation de la fonction de transfert . . . . . . . . . . . . . . . . . . . 3
1.4 Propriétés de la transformée de Laplace . . . . . . . . . . . . . . . . . . . . 4
1.4.1 La dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4.2 L’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.3 Le retard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Représentation de l’espace d’état . . . . . . . . . . . . . . . . . . . . . . . 5

1.6 Modélisation des systèmes mécaniques . . . . . . . . . . . . . . . . . . . . 6

1.7 Modélisation des systèmes électriques . . . . . . . . . . . . . . . . . . . . . 9

2 Rappels des méthodes de base en Automatique 12


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Réponse temporelle d’un système . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.1 Réponse impulsionnelle . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.2 Réponse à un échelon unitaire ou réponse indicielle . . . . . . . . . 13
2.3 Identi…cation d’un système à partir de sa réponse indicielle . . . . . . . . . 13
2.3.1 Système du 1er ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3.2 Système du 2eme ordre . . . . . . . . . . . . . . . . . . . . . . . . . . 15

ii
TABLE DES MATIÈRES

2.3.2.1 Système apériodique . . . . . . . . . . . . . . . . . . . . . 15


2.3.2.2 Système pseudo-périodique . . . . . . . . . . . . . . . . . 16
2.4 Identi…cation d’un système à partir d’une réponse fréquentielle . . . . . . . 17

3 Principe d’ajustement du modèle 19


3.1 Identi…cation des modèles paramétriques . . . . . . . . . . . . . . . . . . . 19
3.1.1 Modèle linéaire par rapport aux paramètres . . . . . . . . . . . . . 20
3.1.1.1 Modèle hypothèse ARX (AutoRégressif à variables eXo-
gènes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.1.2 Modèle hypothèse ARMAX (AutoRégressif à Moyenne Ajus-

tée et à variables eXogènes) . . . . . . . . . . . . . . . . . 21


3.2 Minimisation du critère d’ajustement et calcul de la solution optimale . . . 22
3.2.1 Méthode basée sur l’erreur de sortie . . . . . . . . . . . . . . . . . . 22
3.2.2 Méthode basée sur l’erreur de prédiction . . . . . . . . . . . . . . . 23
3.3 Forme matricielle de la méthode des moindres-carrés . . . . . . . . . . . . 24

4 Analyse de la méthode des moindres-carrés 26

4.1 Biais d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26


4.2 Variance de l’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3 Estimateur du maximum de vraisemblance . . . . . . . . . . . . . . . . . . 27
4.4 Rejet des mesures aberrantes . . . . . . . . . . . . . . . . . . . . . . . . . . 28

5 Moindres-carrés récursifs 30
5.1 Principe du calcul récursif . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.2 Mise en œuvre de la méthode récursive . . . . . . . . . . . . . . . . . . . . 31
5.3 Facteur de pondération . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.4 Facteur d’oubli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Bibliographie et Webographie
TABLE DES MATIÈRES

56

iv
Avant-propos

Ce polycopie a pour objectif de sensibiliser les étudiants aussi bien à la question de la


modélisation ainsi qu’à l’identi…cation des systèmes dynamiques linéaires en leur donnant
tous les détails nécessaires, à savoir : les lois fondamentales de la modélisation et de
l’identi…cation, la présentation de notions fondamentales ainsi que des méthodes de base
qui permettent à un automaticien de développer des modèles de représentation
décrivant le comportement entrée-sortie d'un processus, quel qu'il soit, qu'il faut
commander dans le but de mettre au point un contrôleur performant. A la
n du cours, les étudiants seront capables de modéliser, d'analyser et de concevoir des
systèmes dynamiques linéaires.
De nombreux travaux pratiques accompagnent ce polycopié, conformément aux
programmes des licences LMD Automatique, Électromécanique et Génie électrique afin
de permettre aux étudiants d'analyser et de comprendre les phénomènes qu'ils sont
appelés à rencontrer dans ces domaines.

v
Introduction

La première étape du processus de conception d’un contrôle consiste à développer


des modèles mathématiques appropriés du système à contrôler. Ces modèles peuvent être
dérivés soit des lois physiques soit des données expérimentales.
Un modèle est un produit (physique ou numérique) qui représente un système d’intérêt.
C’est une représentation simpli…ée du système réel qu’il représente et qui s’approche, le
plus possible, de la plupart des caractéristiques importantes de ce système. Un bon modèle
est un compromis judicieux entre réalisme et simplicité. En e¤et, une caractéristique-clé
d’un modèle est la manipulabilité. Par ailleurs, un modèle peut être soit un modèle phy-
sique soit un modèle conceptuel. A titre d’exemple, le modèle d’architecture d’une
maison, celui d’un avion ou celui d’un organisme en recherche biologique constituent
des modèles physique. Par contre, un modèle informatique, un modèle statistique ou
mathématique, ou encore un modèle économique constituent des modèles conceptuels.
L’identication est la sélection d’un modèle pour un processus (c’est-à-dire le système
étudié ou le dispositif testé) tout en veillant à utiliser un nombre de mesures des
entrées et des sorties aussi limitées que possible, qui peuvent être perturbées
volontairement par le bruit, et une connaissance a priori du système.
Dans ce cours, les techniques les plus connues de la modélisation ou l’identi
cation sont citées et détaillées d’une manière facile et sont ordonnées de manière à
répondre aux questions suivantes :

- Qu’est ce qu’un système dynamique ?

- Qu’est ce que la modélisation ?

- Comment modélise-t-on un système dynamique linéaire ?

- Qu’est ce que l’identi…cation ?

- Comment identi…e-t-on un système dynamique linéaire ?

1
Chapitre 1

Modélisation des Systèmes


dynamiques
1.1 Introduction
Dans ce chapitre, nous introduisons la représentation des systèmes dynamiques par
la fonction de transfert et par l’espace d’état. Nous passons ensuite en revue quelques
approches de base de la modélisation des systèmes mécaniques et électriques et nous
montrerons comment exploiter ces modèles dans MATLAB pour une analyse plus poussée.

1.2 Systèmes dynamiques


Les systèmes dynamiques sont des systèmes qui changent ou évoluent dans le temps
selon une règle …xe. Pour de nombreux systèmes physiques, cette règle peut être dé…nie
comme un ensemble d’équations di¤érentielles du premier ordre :

x = f (x (t) ; u (t) ; t) (1.1)

x (t) : est le vecteur d’état.


u (t) : est le vecteur des entrées.
f : est une fonction, éventuellement non linéaire, donnant la dérivée temporelle x (taux
de changement) du vecteur d’état pour un état et une entrée pendant un laps de temps
dé…ni.

2
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

Exemple :

Dans un système mécanique simple qui fait appel à l’ensemble masse-ressort-amortisseur,


les variables d’état pourraient être la position et la vitesse de la masse. Le vecteur des
entrées représente les “forces”appliquées extérieurement sur le système.

1.3 Représentation de la fonction de transfert


Les systèmes dynamiques linéaires ont une propriété extrêmement importante. De ce
point de vue, si l’entrée d’un système est de type sinusoïdal avec une fréquence fc alors
la sortie sera également sinusoïdale avec la même fréquence fc , mais avec une amplitude
et une phase probablement di¤érentes. Ces di¤érences de magnitude et de phase sont
fonctions de la fréquence et capturent ce que l’on appelle la réponse en fréquence du
système.
En utilisant la transformation de Laplace, il est possible de convertir la représentation
du domaine temporel d’un système en une représentation d’entrée/sortie dans le domaine
fréquentiel, appelée fonction de transfert. Ce faisant, elle transforme également l’équation
di¤érentielle gouvernante en une équation algébrique souvent plus facile à analyser.
La transformée de Laplace d’une fonction de domaine temporel f (t) est dé…nie ci-
dessous :

Z +1
P t
F (P ) = f (t) e dt (1.2)
0

Où le paramètre P = ! j est une variable de fréquence complexe. Il est très rare,


en pratique, d’évaluer directement une transformation de Laplace (bien que vous
deviez certainement savoir comment le faire). Il est beaucoup plus commun de rechercher
la transformation d’une fonction temporelle dans le tableau de Laplace, (Tableau 1.1)
qui reproduit les fonctions les plus usuelles dans le domaine d’asservissement.

3
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

f (t) F (P )
Impulsion= (t) 1
E
Échelon = E P
n!
tn (n = 1 s’appelle rampe) P (n+1)
at 1
e P +a
!
sin (! t) P 2 +! 2
P
cos (! t) P 2 +! 2

Tab. 1.1 –Laplace et Laplace inverse des fonctions les plus usuelles.

1.4 Propriétés de la transformée de Laplace

1.4.1 La dérivée

La transformée de Laplace de la dérivée nieme d’une fonction est particulièrement


importante :

dn f
L = P n F (P ) P (n 1)
f (0+ ) P (n 2)
f 0 (0+ ) ::: f (n 1)
(0+ ) (1.3)
dtn

Exemple :
Les méthodes de domaine fréquentiel sont le plus souvent utilisées pour analyser des
systèmes SISO (single-input / single-output), par exemple les systèmes régis par une
équation di¤érentielle à coe¢ cients constants, comme indiqué ci-dessous :

dn y(t) dy(t) dn u(t) du(t)


an n
+ ::: + a 0 n
= b n n
+ ::: + b0 (1.4)
dt dt dt dtn

La transformée de Laplace de cette équation est donnée ci-dessous :

an Pn Y (P ) + ::: + a0 Y (P ) = bn Pn U (P ) + ::: + b0 U (P ) (1.5)

Où Y (P ) et U (P ) sont respectivement les transformées de Laplace de y(t) et u(t).


Notez que lorsque nous trouvons des fonctions de transfert, nous supposons toujours que
chacune des conditions initiales y n (0+ ) ; :::; y (0+ ), un (0+ ) ; :::; u (0+ ) sont nulles.

4
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

La fonction de transfert H(P ) d’un système linéaire qui est le rapport entre la trans-
formée de Laplace de sa sortie Y (P ) et celle de son entrée U (P ) s’écrit :

Y (P ) bn Pn + ::: + b0
H(P ) = = (1.6)
U (P ) an Pn + :::a0

1.4.2 L’intégrale

La transformée de Laplace de l’intégrale d’une fonction est donnée par :

Z Z
F (P ) 1
L f (t) dt = + ::: + f (t) dt (1.7)
P P t=0

1.4.3 Le retard

La transformée de Laplace d’une fonction avec un retard est donnée par :

P
L [f (t )] = F (P ) e (1.8)

1.5 Représentation de l’espace d’état

La représentation d’un comportement réel d’un système par l’espace d’état est donnée
ci-dessous :

8
< X =A X +B U
(1.9)
: Y =C X +D U

Fig. 1.1 –Représentation d’état matricielle.

5
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

Où Xest le vecteur des variables d’état de dimension (n 1), X est la dérivée temporelle
du vecteur d’état de dimension (n 1). U est le vecteur de commande de dimension (m 1),
Y est le vecteur de sortie de dimension (q 1), A est la matrice d’évolution de dimension
(n n), B est la matrice de commande de dimension (n m), C est la matrice d’observation
de dimension (q n), D est la matrice d’action directe de dimension (q m).

L’équation de sortie (Équation 1.9) est nécessaire car il y a souvent des variables d’état
qui sont inaccessibles ou qui ne présentent pas un intérêt évident. La matrice de sortie
C est utilisée pour spécifier les variables d’état (ou combinaisons de variables) qui sont
disponibles pour l’utilisation par le contrôleur. De plus, il est souvent rare d’avoir
l’action directe à laquelle les éléments de la matrice D influencer la sortie.
La représentation par l’espace d’état, également appelée représentation dans le do-
maine temporel, peut facilement prendre en charge des systèmes M IM O (Multi-Input/
Multi-Output), des systèmes avec des conditions initiales non nulles et des systèmes non
linéaires via l’Équation 1.1. Par conséquent, la représentation de l’espace d’état est
largement utilisée dans la théorie du contrôle «moderne» .

Observation :
Notons que nous pouvons également déterminer directement la fonction de transfert à
partir de la représentation de l’espace d’état comme suit :

Y (P ) 1
G(P ) = = C (P I A) B+D (1.10)
U (P )

Où :
I(n n) est la matrice d’identité.

1.6 Modélisation des systèmes mécaniques

Les lois du mouvement de Newton forment la base de l’analyse des systèmes méca-
niques. La deuxième loi de Newton, (Équation 1.11), stipule que la somme des forces
F agissant sur un corps est égale au produit de sa masse m par son accélération a. La
troisième loi de Newton stipule que si deux corps sont connectés, alors ils éprouveraient
des forces de même amplitude mais agissant dans des directions opposées.

6
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

X d2 x
F =m a=m (1.11)
dt2

En appliquant cette équation, il est préférable de construire un diagramme de corps


libre (en anglais “Free Body Diagram (FBD)”) du système montrant toutes les forces
appliquées.

Exemple :

Système Masse-Ressort-Amortisseur :

Fig. 1.2 –Système Masse-Ressort-Amortisseur.

Le diagramme de corps libre pour ce système est montré dans la Figure 1.3.

La force du ressort :

fk = k x (où «k : une constante de raideur » ) est proportionnelle au déplacement x


de la masse m.

Parallèlement, la force d’amortissement :

fk = b x (où «b : le coe¢ cient d’amortissement visqueux» ) est proportionnelle à la


vitesse v = x de la masse m.

Les deux forces s’opposent au mouvement de la masse m et sont donc représentées


dans la direction négative de x et F . Il faut aussi remarquer ici que pour x = 0, cela
correspond à la position de la masse lorsque le ressort n’est pas étiré.

7
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

Fig. 1.3 –Diagramme de corps libre.

En additionnant les forces et en appliquant la seconde loi de Newton (Équation 1.11)


selon toutes les directions, (dans ce cas, il n’y a pas de forces fonctionnant dans la direction
Y ; elles existent seulement selon la direction des X) nous obtenons :

X
Fx = F (t) k x b x=m x (1.12)

Cette équation (Équation 1.12), connue sous le nom d’équation dominante, caractérise
complètement l’état dynamique du système. Plus tard, nous verrons comment l’utiliser
pour calculer la réponse du système pour toute entrée externe F (t), ainsi que pour analyser
les propriétés du système telles que la stabilité et la performance.
Pour déterminer la représentation d’état du système masse-ressort-amortisseur, nous
devons réduire l’équation régissant le second ordre à un ensemble de deux équations
di¤érentielles du premier ordre. À cette …n, nous choisissons la position et la vitesse
comme variables d’état.

2 3
x
X=4 5 (1.13)
x

Notons également que ces variables d’état correspondent respectivement à l’énergie


potentielle et l’énergie cinétique de la masse. Souvent, lors de la modi…cation de variables
d’état, il est utile de considérer les éléments de stockage d’énergie indépendants dans le
système.
Alors, pour trouver l’espace d’état de ce système, On pose que :

x=x (1.14)

8
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

La dérivée de l’Équation 1.14 donne l’Équation 1.15, elle est simpli…ée et reformée
dans l’Équation 1.16 :

x=x (1.15)

k b 1
x= x x+ F (t) (1.16)
m m m

Donc, On peut reformer l’Équation 1.14 et l’Équation 1.16 en espace d’état par l’équa-
tion suivante :

2 3 2 3 2 3 2 3
x 0 1 x 0
X=4 5=4 5 4 5+4 5 F (t) (1.17)
k b 1
x m m
x m

Si, par exemple, nous voulons contrôler la position de la masse, l’équation de sortie
serait la suivante :

2 3
h i x
y= 1 0 4 5 (1.18)
x

Pour déterminer la fonction de transfert du système masse-ressort- amortisseur, on


applique la transformée de Laplace à l’équation (l’Équation 1.12) avec des conditions
initiales nulles, on aura :

m P 2 X(P ) + b P X(P ) + k X(P ) = F (P ) (1.19)

Par conséquent, la fonction de transfert de l’entrée de force excitatrice à la sortie de


déplacement est :

X(P ) 1
H(P ) = = (1.20)
F (P ) m P2 + b P + k

1.7 Modélisation des systèmes électriques

Comme pour les lois de Newton dans les systèmes mécaniques, les lois de Kircho¤ sont
considérées comme un outil analytique de base dans les systèmes électriques. La loi des
nœuds stipule que dans un circuit, la somme des courants électriques entrants dans un

9
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

nœud est égale à la somme des courants électriques sortants de ce nœud. De même, la loi
des mailles stipule que dans une maille, la somme algébrique des chutes de tensions aux
bornes de toutes les résistances est nulle.
Exemple :

Circuit RLC :
Nous allons maintenant considérer un circuit contenant trois éléments électriques pas-
sifs en série : une résistance, une inductance et un condensateur. Ce circuit est commu-
nément connu sous le nom de circuit RLC.

Fig. 1.4 –Circuit RLC.

Puisque ce circuit est constitué d’une seule maille, le courant i(t) est le même à travers
tout le circuit. En appliquant la loi des mailles à ce circuit et en tenant compte de la
convention des signes indiquées dans la Figure 1.4, nous arrivons à l’Équation 1.21 de
décision suivante :

Z
di 1
V (t) L R i i dt = 0 (1.21)
dt C

Nous notons que l’Équation 1.21de décision pour le circuit RLC a une forme analogue
à celle du système mécanique masse-ressort-amortisseur. En particulier, ils sont tous des
systèmes du second ordre où la charge (intégrale du courant) correspond au déplacement,
l’inductance à la masse, la résistance à l’amortissement visqueux et la capacité inverse à
la raideur du ressort. Ces analogies ainsi que d’autres s’avèrent être un concept très utile
pour comprendre le comportement des systèmes dynamiques.

10
MODÉLISATION DES SYSTÈMES DYNAMIQUES CHAPITRE 1

La représentation d’état est obtenue en choisissant la charge et le courant comme


variables d’état :
2 3
q
X=4 5 (1.22)
dq
i= dt

L’équation d’état du système électrique se déduit de la même manière que pour l’espace
d’état du système masse –ressort –amortisseur :
2 3 2 3 2 3 2 3 2 3
q i 0 1 q 0
X=4 5=4 5=4 5 4 5+4 5 V (t) (1.23)
R 1 1
i i L LC
q L

2 3
h i q
y= 1 0 4 5 (1.24)
q

La représentation de la fonction de transfert peut être trouvée en considérant la trans-


formée de Laplace à partir de l’équation d’espace d’état comme suit :

0 2 3 2 31 1 2 3
I(P ) h i 1 0 0 1 0
G(P ) = = 1 0 @P 4 5 4 5A 4 5 (1.25)
V (P ) 0 1 R 1 1
L LC L

alors :
1
G(P ) = 1 (1.26)
L P2 +R P + C

Pour représenter les modèles dans l’environnement Matlab, on utilise la fonction tf


pour déclarer le modèle comme une fonction de transfert (pour plus détails, taper help
tf). De même, on utilise la fonction ss pour déclarer le modèle comme un espace d’état.
Ainsi, les fonctions ss2tf et tf2ss donnent le passage entre les deux modèles.
Par exemple, le modèle précédent est déclaré par :

G = tf (1; [L; R; 1=C]) (1.27)

11
Chapitre 2

Rappels des méthodes de base en


Automatique

2.1 Introduction

Si le modèle de connaissance s’avère trop peu précis ou impossible à obtenir, on peut


alors le dé…nir à partir de ces données d’entrée - sortie. On parle dans ce chapitre de
l’identi…cation non paramétrique du système. L’objectif est d’obtenir un modèle qui "se
comporte comme" le système. La plupart du temps, les paramètres de ce modèle n’ont
qu’un rapport lointain avec les paramètres d’un modèle de connaissance. En premier lieu,
il faut donc répondre aux deux questions suivantes :

- Quelles sont les grandeurs d’entrée-sortie ?

- Comment traiter la sortie ?

2.2 Réponse temporelle d’un système

2.2.1 Réponse impulsionnelle

Soumettons une impulsion à l’entrée d’un système : e(t) = (t), L[ (t)] = E(P ) = 1,
sa réponse, appelée réponse impulsionnelle, aura pour transformée de Laplace S(P ) =
1 H(P ) = H(P ). Donc, la fonction de transfert est obtenue via la transformée de Laplace
du transfert h(t).

12
RAPPELS DES MÉTHODES DE BASE EN AUTOMATIQUE CHAPITRE 2

2.2.2 Réponse à un échelon unitaire ou réponse indicielle


1
Soumettons le système à une entrée en échelon unitaire : e(t) = 1, E(P ) = P
, la
1
transformée de Laplace de la réponse indicielle q(t) est : L[q(t)] = P
H(P ).
Donc :
dq(t)
- La réponse impulsionnelle est la dérivé de la réponse indicielle : h(t) = dt
;

- Il est possible de caractériser un système par sa réponse unitaire q(t) ou sa réponse


impulsionnelle h(t).

2.3 Identi…cation d’un système à partir de sa réponse


indicielle

2.3.1 Système du 1er ordre

La réponse indicielle d’un système de premier ordre est donnée par :

t
s(t) = K 1 e (2.1)

L’allure de l’équation qui représente ce système est illustrée dans la …gure suivante :

Fig. 2.1 –Réponse indicielle d’un système du 1er ordre.

La connaissance de K et T est donc su¢ sante pour identi…er la fonction :

13
RAPPELS DES MÉTHODES DE BASE EN AUTOMATIQUE CHAPITRE 2

- Le gain statique du système est calculé selon la formule suivante :

K = lim s (t) (2.2)


t!1

- La constante de temps est calculée selon l’une des trois possibilités suivantes :

8
>
> s (0) = K
>
< T

tr5% = 3 T (2.3)
>
>
>
: s (T ) = 0:63 K

En cas de di¢ culté pour tracer la tangente à l’origine comme illustré dans la Figure 2.2,
on utilise :
Pour un système du 1er ordre, la tangente à la courbe à un instant t1 quelconque coupe
l’asymptote de s(t) en un point situé T plus loin, à cette …n la tangente est donnée par :

K t
s (t) = e T (2.4)
T
L’équation de la tangente est de la forme :

K t1
y= e T t +b (2.5)
T
Au point de contact entre la tangente et la courbe, on peut écrire :

K t1 t1
e T t1
+b=K 1 e T b (2.6)
T
D’où :

t1 + T t1
b=K 1 e T (2.7)
T
L’équation de la tangente est donc :

K t1 t1 + T t1
y= e T +K 1 e T (2.8)
T T
L’intersection avec l’asymptote de s(t)est obtenue pour y = K, alors :

t = t1 + T (2.9)

14
RAPPELS DES MÉTHODES DE BASE EN AUTOMATIQUE CHAPITRE 2

Fig. 2.2 –Réponse indicielle d’un système du 1er ordre (deuxième version).

2.3.2 Système du 2eme ordre

2.3.2.1 Système apériodique

Les notions permettant l’identi…cation complète des systèmes du 2eme ordre apério-
dique, présenté par l’allure dans la Figure 2.3, dépasse le cadre de ce cours. Aussi, elle ne
pourra donc être qu’approximative. La réponse indicielle est exprimée par :

K h t t
i
s(t) = T1 1 e T1
T2 1 e T2
(2.10)
T1 T2

Le tracé obtenu résulte de la di¤érence de deux fonctions dont leurs dérivées à l’origine
sont égales :

K h t
i
s1 (t) = T1 1 e T1
(2.11)
T1 T2

K h t
i
s2 (t) = T2 1 e T2
(2.12)
T1 T2

15
RAPPELS DES MÉTHODES DE BASE EN AUTOMATIQUE CHAPITRE 2

Fig. 2.3 –Réponse indicielle d’un système du 2eme ordre apériodique.

Sachant que T2 < T1 , on peut considérer qu’au delà du point d’in‡exion, s1 (t) repré-
sente à peu près l’allure de s(t) et on peut alors déterminer T1 en utilisant la méthode
décrite pour les systèmes du 1er ordre avec di¢ culté pour tracer la tangente à l’origine.
On détermine ensuite T2 en exprimant s(t) pour une valeur de t bien au delà de l’in‡exion,
t
alors e T2
sera négligeable et s(t) étant prise s’exprime par :
" t !#
T1 e T1
s(t) = K T1 1 (2.13)
T1 T2

2.3.2.2 Système pseudo-périodique

La réponse indicielle d’un système du 2eme ordre pseudo-périodique est représentée


dans la Figure 2.4, où E est connu ; K est une constante donnée par l’asymptote. Le
premier dépassement permet de calculer z est donné par :

T pz
1 z2
pz
1 z2
D1 = s = KE 1+e KE = KE e (2.14)
2
T
Sachant que la valeur 2
est mesurée directement sur le graphe, en conséquence, le
calcul de la pulsation ! 0 est assuré via l’expression ci-dessous :

16
RAPPELS DES MÉTHODES DE BASE EN AUTOMATIQUE CHAPITRE 2

2 p 2
!= =) ! = ! 0 1 z 2 =) ! 0 = p (2.15)
T T 1 z2

Fig. 2.4 –Réponse indicielle d’un système du 2eme ordre pseudo apériodique.

2.4 Identi…cation d’un système à partir d’une réponse


fréquentielle
Dans ce cas, l’excitation utilisée est sinusoïdale dé…nie par u = Asin(!t). De plus,
! qui balaye l’espace des pulsations susceptibles peut contenir une pulsation de coupure,
notée par ! c . En outre, l’amplitude et le déphasage de la sortie vis-à-vis de cette excitation
permetent de tracer le diagramme de Bode et l’analyse du système dans le plan fréquentiel
permet de déterminer le modèle mathématique désirè. Notant ici que les résultats obtenus
sont souvent di¢ ciles à exploiter si les constantes de temps sont proches avec une bonne
excitation sur tout le spectre de fréquences. Généralement, l’identi…cation à partir d’une
réponse fréquentielle n’est pas une commande industrielle classique et par conséquent elle
est di¢ cile à mettre en œuvre.
Exemple d’un système du 1er ordre :

17
RAPPELS DES MÉTHODES DE BASE EN AUTOMATIQUE CHAPITRE 2

La pulsation de coupure ! c est obtenue graphiquement à partir du diagramme de phase


pour un déphasage de 4 . Dans ce cas, la constante de temps T est alors déterminée par
l’inverse de cette pulsation et le gain statique K est obtenu à partir de la limite du gain
1
de GdB lorsque ! ! 0, d’où K = 10(GdB =20) et T = !c
.

Fig. 2.5 –Digramme de Bode d’un système du 1er ordre .

Ainsi nous obtenons :

5 1:8
K = 10 20 1:8 et T = 0:01 =) H (P ) = (2.16)
1 + 0:01 P

18
Chapitre 3

Principe d’ajustement du modèle

3.1 Identi…cation des modèles paramétriques

Ce chapitre considère la représentation paramétrique des systèmes dynamiques sur


la base des mesures entrées-sorties. Les méthodes paramétriques présentent un avantage
considérable quant au nombre de paramètres à identi…er. Dans le cas d’une approche
paramétrique, la structure du modèle doit être spéci…ée à priori.

Dans ce chapitre, l’identi…cation des paramètres du modèle se fera sur la base d’un
critère d’écart entre des mesures expérimentales provenant du processus et une «simu-
lation» des équations constituant le modèle (Figure 3.1). Pour cela, il faudra choisir au
préalable :

- la structure du modèle (ou caractérisation du processus),

- le critère de performance,

- l’algorithme d’identi…cation (c’est-à-dire la méthode de calcul des paramètres),

- Le signal d’excitation u.

19
PRINCIPE D’AJUSTEMENT DU MODÉLE CHAPITRE 3

Fig. 3.1 –Schéma pour l’identi…cation des paramètres du modèle.

Où :
u : Entrée(ajustable) ;
yp : Sortie du processus(non mesurable) ;
n : bruit(inconnu) ;
y : Sortie bruitée(mesurée) ;
ym : Sortie du modèle(calculable) ;
es : Erreur de sortie(calculable) ;
: Vecteur des paramètres estimés.

3.1.1 Modèle linéaire par rapport aux paramètres

On cherche à identi…er les paramètres d’un modèle entrée-sortie linéaire (en temps
discret) sous la forme générale :

y(k) = G(q) u(k) + H(q) n(k) (3.1)

On fait généralement des hypothèses sur la structure du modèle, c’est-à-dire sur la


forme des fonctions G(q), H(q). On parle alors de modèle hypothèse. Un modèle-hypothèse
traduit le fait que l’on fait une hypothèse sur la structure du système (ordre, retard, etc.)
et sur le type de bruit (bruit de sortie, bruit de boucle, etc.).

20
PRINCIPE D’AJUSTEMENT DU MODÉLE CHAPITRE 3

3.1.1.1 Modèle hypothèse ARX (AutoRégressif à variables eXogènes)

Ce modèle, appelé aussi “Equation Error Model Structure”en anglais, il est représenté
souvent sous une forme plus compacte :

A(q) y(k) = B(q) u(k) + n(k) (3.2)

1 1 na
A(q) = 1 + a1 q + a2 q + + ana q (3.3)

1 1 nb
B(q) = b1 q + b2 q + + bna q (3.4)

Où :
n(k) : appelé généralement bruit de boucle.

Fig. 3.2 –Modèle hypothèse ARX.

3.1.1.2 Modèle hypothèse ARMAX (AutoRégressif à Moyenne Ajustée et à

variables eXogènes)

Ce modèle est souvent donné sous une forme plus compacte comme suit :

A(q) y(k) = B(q) u(k) + C(q) n(k) (3.5)

Avec :

1 1 na
A(q) = 1 + a1 q + a2 q + + ana q (3.6)

1 1 nb
B(q) = b1 q + b2 q + + bna q (3.7)

21
PRINCIPE D’AJUSTEMENT DU MODÉLE CHAPITRE 3

1 1 nc
C(q) = c1 q + c2 q + + cnc q (3.8)

Fig. 3.3 –Modèle hypothèse ARMAX.

3.2 Minimisation du critère d’ajustement et calcul


de la solution optimale

Le problème d’identi…cation paramétrique peut être étudié dans un cadre plus général
avec la méthode de l’erreur de sortie ou l’erreur de prédiction.

3.2.1 Méthode basée sur l’erreur de sortie

Le principe de cette méthode d’identi…cation est illustré sur la Figure 3.4. Le modèle
est une fonction de n paramètres . Il s’agit alors de déterminer les paramètres tels que le
critère soit minimum. Le critère est en général choisi sous forme d’une erreur quadratique
moyenne donnée par :

1X 2
N
J( )= e (K) (3.9)
N K=1

La recherche des paramètres optimaux se fait par la résolution d’un problème d’op-
timisation non linéaire. Il s’agit donc de résoudre ce problème par un algorithme d’opti-
misation adéquat. Parmi les algorithmes les plus utilisés, on peut citer :
– Gradient
– Quasi Newton
– Nelder et Mead

22
PRINCIPE D’AJUSTEMENT DU MODÉLE CHAPITRE 3

– Algorithmes génétiques
– Recuit simulé

Fig. 3.4 –Principe d’identi…cation foncée sur l’erreur de sortie.

3.2.2 Méthode basée sur l’erreur de prédiction

Dans ce cas, la sortie du modèle est assurée par un prédicteur optimal. Ce dernier à
pour but de prédir la sortie prédite à l’instant k en fonction des données d’entrée-sortie
réelles suivantes : u(k 1); u(k 2); : : : ; u(k nb); y(k 1); y(k 2); : : : ; y(k na). Le
principe de cette méthode peut être illustré par la Figure 3.5 comme suit :

Fig. 3.5 –Principe d’identi…cation foncée sur l’erreur de prédiction.

Cette méthode est basée sur les trois étapes suivantes :


– Choisir la structure du modèle du système. Le choix de la structure dépend des
hypothèses sur l’ordre du modèle du processus et la nature du bruit.

23
PRINCIPE D’AJUSTEMENT DU MODÉLE CHAPITRE 3

– Dé…nir le prédicteur de la sortie en relation avec la structure du modèle. Le pré-


dicteur est une fonction des paramètres du modèle à identi…er ( inconnu) et des
signaux d’entrée et sortie.
– Minimiser l’erreur de prédiction avec une méthode numérique. Après avoir dé…ni
le prédicteur pour la structure choisie, on obtient l’erreur de prédiction e(k) =
y(k) y(k) qui est une fonction du vecteur des paramètres à identi…er . On obtient
ainsi un problème d’optimisation numérique dont le critère à minimiser est la norme
2 de l’erreur de prédiction :

1X 2
N
= arg min J ( ) = e (K) (3.10)
N K=1

Exemple : identi…cation paramétrique utilisant le modèle ARX


La détermination de ce modèle est assurée via la minimisation de l’erreur de prédiction
dé…nie comme suit :

e(k) = y(k) y(k) = y(k) (B(q) u(k) + [1 A(q)] y(k)) (3.11)

Dans ce cas, le prédicteur y(k) est particulièrement simple à calculer, car il dé…nit une
régression linéaire que l’on écrit généralement sous la forme :

T
y(k) = (k) (3.12)

Avec :

(k) = [ y(k 1) : : : y(k na) u(k 1) : : : u(k nb)]T (3.13)

= [a1 : : : ana b1 : : : bnb ]T (3.14)

3.3 Forme matricielle de la méthode des moindres-


carrés

Nous recherchons le vecteur de paramètre qui minimise J. Etant donné que le critère
est quadratique et qu’il est donné par :

24
PRINCIPE D’AJUSTEMENT DU MODÉLE CHAPITRE 3

T T T T
J = (y ) (y )T = y y T y yT T
+ T
(3.15)

Dans ce cas, le vecteur optimal est obtenu par la condition nécessaire d’optimalité,
donnée par :

@J T
= 0 =) 2 y+2 =0 (3.16)
@ = =

D’où l’on en déduit :

T 1
= y (3.17)

Il reste à véri…er que cet optimum représente le vecteur minimisant le critère précédent.
Pour cela, on doit passer par la véri…cation de la condition su¢ sante qui représente ici la
matrice Hassienne. Elle est donc dé…nie par :

@ 2J T
=0)2 >0 (3.18)
@ 2= =

est un vecteur minimum si et seulement si la matrice Hassienne est dé…nie positive.

25
Chapitre 4

Analyse de la méthode des


moindres-carrés

Un estimateur est une valeur calculée sur un échantillon tiré au hasard. Dans ce
cas, est une valeur aléatoire possédant une espérance E[ ] et une variance V ar[ ] .
On comprend alors que sa valeur puisse ‡uctuer selon l’échantillon. Elle a de très faibles
chances de coïncider exactement avec la valeur qu’elle est censée représenter. L’objectif
est donc de maîtriser l’erreur commise en prenant la valeur pour celle de .

4.1 Biais d’estimation


En statistique, le biais (ou fonction de biais) d’un estimateur est la di¤érence entre la
valeur attendue de cet estimateur et la valeur réelle du paramètre estimé. Un estimateur
ou une règle de décision avec un biais nul est appelé non biaisé. Sinon, l’estimateur est
dit biaisé.
Alors :
Si est l’éstimateur de ; Bais( ) = E[ ] (4.1)

L’erreur quadratique moyenne (Mean Squared Error en anglais) est l’espérance du


carré de l’erreur entre la valeur vraie et sa valeur estimée :

M SE( ) = E(( )2 ) (4.2)

Rappels :

26
ANALYSE DE LA MÉTHODE DES MOINDRES-CARRÉS CHAPITRE 4

En théorie des probabilités, l’espérance mathématique d’une variable aléatoire réelle


est, intuitivement, la valeur que l’on s’attend à trouver, en moyenne, si l’on répète un
grand nombre de fois la même expérience aléatoire. Elle se note E(X) et se lit “espérance
de X.

4.2 Variance de l’estimation

La variance mesure dans quelle mesure un ensemble de données est étalé. La dé…ni-
tion technique s’énonce ainsi : “La moyenne des di¤érences quadratiques par rapport à
la moyenne”, mais tout ce qu’elle fait est de vous donner une idée très générale de la
propagation de vos données. Une valeur de zéro signi…e qu’il n’y a pas de variable ; Tous
les nombres dans l’ensemble de données sont les mêmes.
Soit X1 ; X2 ; : : : ; Xn , on a n point de données (Variables aléatoires indépendantes et
identiquement distribuées) d’une distribution F (distribution Fisher–Snedecor), l’estima-
teur de est une fonction de X1 ; X2 ; : : : ; Xn :

n = g (X1 ; X2 ; : : : ; Xn ) (4.3)

Alors, l’estimateur de la variance de l’échantillon de la loi gaussienne :

1 X
n
2
S = (Xi Xmoy )2 ) E S 2 = 2
(4.4)
n 1 i=1

Où :

1X
n
Xmoy = Xi (4.5)
n i=1

4.3 Estimateur du maximum de vraisemblance

Le principe du maximum de vraisemblance est relativement simple. Comme aupara-


vant, nous commençons avec un échantillon x = (x1 ; x2 ; : : : ; xn ) de variables aléatoires
choisies selon une famille de probabilités P . En outre, f (x= ), x = (x1 ; x2 ; : : : ; xn ) sera
utilisé pour désigner la fonction de densité pour les données lorsque est le vrai état de
la nature.

27
ANALYSE DE LA MÉTHODE DES MOINDRES-CARRÉS CHAPITRE 4

Ensuite, le principe de maximum de vraisemblance donne un choix de l’estimateur


rend les valeurs des paramètres comme des données observées les plus probables.
Alors, la fonction de vraisemblance est la fonction de densité considérée comme une
fonction de :

l ( =x) = f (x= ) (4.6)

L’estimateur du maximum de vraisemblance :

= arg max l ( =x) (4.7)

Nous apprendrons que, surtout pour les grands échantillons, les estimateurs du maxi-
mum de vraisemblance ont de nombreuses propriétés souhaitables, notamment pour les
grands échantillons. Cependant, en particulier pour les données de grande dimension, en
particulier, la probabilité peut avoir de nombreux maxima locaux. Ainsi, trouver le global
du maximum peut être un dé… informatique majeur.
Cette classe d’estimateurs a une propriété importante. Si (x)est une estimation du
maximum de vraisemblance pour , alors g( (x))est une estimation du maximum de vrai-
semblance pour g( ). Par exemple, si est un
q paramètre pour la variance et est le

maximum estimateur de vraisemblance, alors est l’estimateur du maximum de vrai-


semblance pour l’écart-type. A noter ici que la ‡exibilité dans ce critère d’estimation n’est
pas disponible dans le cas des estimateurs sans biais.
Typiquement, en maximisant la fonction de score, En l ( =x), le logarithme de la
vraisemblance, sera plus facile. L’existence des valeurs de paramètres en tant qye variable
d’intérêt peu inhabituelle.

4.4 Rejet des mesures aberrantes

Une valeur aberrante dans un ensemble de données peut être dé…nie comme étant
une observation (ou un ensemble d’observations) qui semble être inconsistante avec le
reste des données. Dit d’une autre manière, il y a une valeur aberrante lorsque l’une ou
l’autre parmi les observations d’un ensemble de données, détonne ou n’est pas en harmonie
avec les autres observations. Ce qui caractérise la valeur aberrante, c’est son impact sur

28
ANALYSE DE LA MÉTHODE DES MOINDRES-CARRÉS CHAPITRE 4

l’observateur.
Soit x1 ; x2 ; :::; xn , un échantillon aléatoire uni varié de taille n, provenant d’une dis-
tribution F , et soit x(1); x(2); :::; x(n) les données ordonnées dans l’ordre croissant. Les
valeurs x(1) et x(n) sont respectivement ,par dé…nition, l’observation extrême inférieure
et supérieure. Le fait de déclarer qu’une observation extrême est une valeur aberrante
dépend de la manière avec laquelle elle apparaît en fonction du modèle F .
Par exemple :
Dans la Figure 4.1(a), ni la valeur x(1), ni x(n) ne semble correspondre à une valeur
aberrante. Par contre, dans la Figure 4.1(b), x(n) est une valeur aberrante supérieure ou
située au niveau de la queue droite de la distribution.

Fig. 4.1 –Exemple de valeurs aberrantes.

29
Chapitre 5

Moindres-carrés récursifs

5.1 Principe du calcul récursif

L’estimation des paramètres par la méthode des moindres carrés simples présente un
inconvénient majeur, à savoir la nécessité de calculer l’inverse d’une matrice, ce qui est
long et parfois impossible sur un microcontrôleur.
Les avantages d’une formulation récursive tiennent essentiellement en deux points :
– La possibilité de traiter un plus grand nombre de données que dans le cas de la
formulation directe (pas de pseudo-inverse à calculer), notamment dans le cas de
l’implantation sur un microcontrôleur.
– Dans le cas des systèmes variants dans le temps, la forme récursive permet de
“suivre” les paramètres du système. Dans ce cas, l’identi…cation en ligne est géné-
ralement suivie d’une commande qui elle aussi “s’adapte”aux paramètres courants,
on entre alors dans le domaine des commandes auto-adaptatives qui dépassent le
cadre de ce cours.
Notons, qu’en vue d’une implantation sur ordinateur, l’Équation 3.17 peut être trans-
formée sous forme récurrente. En considérant les mesures jusqu’à l’instant k et avec les
notations suivantes similaires à celles de l’Équation 5.1 :

2 3 2 3 2 3
e(1) y(1) (1)
6 7 6 7 6 7
6 .. 7 6 .. 7 6 .. 7
ek = 6 . 7 yk = 6 . 7 k =6 . 7 (5.1)
4 5 4 5 4 5
e(k) y(k) (k)

L’Équation 3.17 donne :

30
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

X
k
T
k = Pk (i) y (i) (5.2)
i=1

" k # 1
X
T
Pk = (i) (i) (5.3)
i=1

En général, le vecteur de paramètres à l’instant k + 1 peut s’écrire :

T
k+1 = k + Pk+1 (k + 1) y (k + 1) (k + 1) k (5.4)

1
Pk+1 = Pk 1 + T
(k + 1) (k + 1) (5.5)

5.2 Mise en œuvre de la méthode récursive

Pour éviter l’inversion de la matrice Pk+1 à chaque itération, on peut utiliser le lemme
1 1
d’inversion matricielle. Selon ce lemme soient A, C et C +D A B des matrices
inversibles, alors :

1 1 1 1 1 1 1
(A + B C D) =A A B C +D A B D A (5.6)

Prenons A = Pk 1 , B = T
(k + 1), C = 1 et D = (k + 1), alors on obtient :

T
Pk (k + 1) (k + 1) Pk
Pk+1 = Pk T (k + 1)
(5.7)
1+ (k + 1) Pk

Cette équation a l’avantage de ne pas nécessiter l’inversion d’une matrice, mais uni-
quement celle d’un scalaire.
Il existe deux façons d’initialiser la récurrence :
– des valeurs initiales sont …xées, généralement k = 0 et P0 = I où représente
un très grand scalaire (par exemple = 10000) et I la matrice unité,
– la récurrence commence à l’itération p + 1 (si l’on estime p paramètres) avec :

T 1
k = p yp et Pp = p p (5.8)

Il est utile de mentionner qu’il existe d’autres formules récurrentes, équivalentes à celles

31
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

présentées ci-dessus, mais qui sont mieux adaptées pour les calculs numériques (équations
“stabilisées”, équations “factorisées”). Elles sont cependant moins didactiques et ne sont
pas données ici.
Par rapport à l’algorithme batch (ou par paquet) des moindres carrés donne è à
l’Équation 3.17, l’identi…cation récurrente o¤re les avantages suivants :
– estimation du modèle en temps réel,
– compression importante des données, car l’algorithme récurrent traite à chaque ins-
tant une seule paire entrée/sortie au lieu de l’ensemble des données,
– exigence mémoire et puissance de calcul plus faibles,
– implantation aisée sur microprocesseur.

5.3 Facteur de pondération

On rappelle que l’équation de l’erreur de prédiction est donnée par :

T
e=y (5.9)

Cette équation matricielle comporte N lignes. Toutes les erreurs de prédiction ne


doivent pas nécessairement avoir la même importance dans le critère quadratique. Il est
possible de les pondérer, par exemple, comme suit :

T
eW = W y (5.10)

W est une matrice de pondération de dimensions (N N ).


Les éléments de eW se calculent à partir des éléments de W et de e de la manière
suivante :

X
n
eW (i) = Wij e (j) ; i = 1; :::; N (5.11)
j=1

Après minimisation du critère quadratique, le vecteur des paramètres estimés de


l’Équation 3.17 devient alors :

1
= WT W T
WT W T
(5.12)

32
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

5.4 Facteur d’oubli


Un critère de choix indique que des mesures plus anciennes possèdent une in‡uence
réduite dans le calcul des paramètres actuels. Pour cette raison, l’in‡uence des mesures
plus anciennes est arti…ciellement réduite par l’introduction du facteur d’oubli , par
exemple :

2 3
N 1
0 0
6 7
T 6 .. 7
W W =6 0 . 0 7 avec : 1 (souvent : 0 0:99) (5.13)
4 5
0
0 0

À partir de l’Équation 5.12 et l’Équation 5.13, on obtient :

X
k
T k 1
k = Pk (i) y (i) (5.14)
i=1

La matrice Pk+1 se calcule de façon récurrente comme suit :

1
Pk+1 = Pk 1 + T
(k + 1) (k + 1) (5.15)

L’introduction d’un facteur d’oubli permet d’éviter une diminution trop rapide des
T
éléments de la matrice Pk+1 ce qui résulterait en un gain Pk+1 (k + 1) faible et ainsi
en une correction trop petite de k. En suivant la même démarche pour l’algorithme des
moindres carrés récurrente et le lemme d’inversion matricielle, on obtient la formulation
suivante avec le facteur d’oubli :

T
1 Pk (k + 1) (k + 1) Pk
Pk+1 = Pk T (k + 1)
(5.16)
1+ (k + 1) Pk

T
k+1 = k + Pk+1 (k + 1) y (k + 1) (k + 1) k (5.17)

L’introduction du facteur d’oubli permet également d’identi…er des paramètres qui


varient lentement dans le temps. Un plus petit permet une meilleure “poursuite” de
paramètres variables, alors qu’un plus grand permet une meilleure élimination des per-
turbations par e¤et de lissage.
Exemple :

33
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

Soit un système de premier ordre donné par :

y(k) + a0 y(k 1) = b0 u(k 1) + e0 (k) (5.18)

Avec 0 = [a0 b0 ] les vrais paramètres du système, u(k) l’entrée spéci…ée, y(k) la sortie
mesurée et e0 (k) un bruit blanc de moyenne nulle. Remarquons que dans cet exemple,
e0 (k) ne correspond pas au traditionnel bruit additif sur la sortie (“bruit de sortie”), mais
plutôt à un “bruit d’équation”blanc.

L’objectif est d’estimer le vecteur de paramètres sur la base des séquences d’entrée et
de sortie u(k) et y(k). La minimisation du critère quadratique basée sur l’erreur d’équation
sera utilisée.

Système stationnaire sans facteur d’oubli :

Le cas d’un système stationnaire est d’abord considéré : 0 = [0:5 0:5]T .

La Figure 5.1 représente l’entrée u(k) excitant le système et la Figure 5.2 représente
la réponse bruitée y(k).

Fig. 5.1 –Signal d’entrée.

34
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

Fig. 5.2 –Réponse bruitée.

Pour 0 =[0 0]T et P = I, l’Équation 5.3 et l’Équation 5.4 permettent d’estimer les pa-
ramètres du système (voir Figure 5.2) et la matrice P appelée communément la matrice de
covariance de l’erreur d’estimation. On remarque ici que les paramètres estimés convergent
rapidement vers les vraies valeurs et que les éléments de la matrice P (P21 = P21 = 1000
puisque la matrice P est symétrique).

Fig. 5.3 –Paramètres estimés sans un facteur d’oubli.

35
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

Système stationnaire avec facteur d’oubli :


Pour le système stationnaire précédent, l’utilisation d’un facteur d’oubli ( =
0:97; 0:9; 0:8) permet de conserver un gain su¢ samment important pour suivre la va-
riation des paramètres. Les éléments de P sont toujours les ceux utilisés précédemment
(grâce à < 1) lorsque l’excitation du système est faible. Mais, comme auparavant, ils
diminuent rapidement lorsque le système est fortement excité.

Fig. 5.4 –Paramètres estimés avec un facteur d’oubli ( = 0:97).

Fig. 5.5 –Paramètres estimés avec un facteur d’oubli ( = 0:90)

36
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

Fig. 5.6 –Paramètres estimés avec un facteur d’oubli ( = 0:80)

Système stationnaire sans facteur d’oubli avec variation de la matrice P :

1. P > 1000 :

Fig. 5.7 –Paramètres estimés sans un facteur d’oubli pour P = 1100

37
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

Fig. 5.8 –Paramètres estimés sans un facteur d’oubli pour P = 1500

Fig. 5.9 –Paramètres estimés sans un facteur d’oubli pour P = 5000

38
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

1. P < 1000 :

Fig. 5.10 –Paramètres estimés sans un facteur d’oubli pour P = 500

Fig. 5.11 –Paramètres estimés sans un facteur d’oubli pour P = 1

39
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

Système stationnaire avec facteur d’oubli et avec variation de la matrice


P :

1. P > 1000 :

Fig. 5.12 –Paramètres estimés avec un facteur d’oubli ( = 0:97) pour P = 1100

Fig. 5.13 –paramètres estimés avec facteur d’oubli ( = 0:97) pour P = 5000

40
MOINDRES-CARRÉS RÉCURSIFS CHAPITRE 5

2. P < 1000 :

Fig. 5.14 –Paramètres estimés avec un facteur d’oubli ( = 0:97) pour P = 500

Fig. 5.15 –Paramètres estimés avec un facteur d’oubli ( = 0:97) pour P = 1

En comparant le comportement des éléments de P dans les …gures précédentes, on


remarque que :

- Comme le gain d’adaptation reste su¢ sant ;

- L’algorithme peut ajuster correctement la valeur des paramètres.

41
Bibliographie et Webographie

1. Bourlès, Henri. Systèmes linéaires : de la modélisation à la commande. Lavoisier,


2006.

2. Borne, Pierre, and Jean-Pierre Richard. Modélisation et identi…cation des processus.


Vol. 1. Editions Technip, 1992.

3. Landau, Ioan Doré, and Gianluca Zito. Digital Control Systems : Design, Identi…-
cation and Implementation. Springer Science & Business Media, 2005.

4. Du‡os, Emmanuel, and Philippe Vanheeghe. Estimation prédiction : éléments de


cours et exercices résolus. Vol. 13. Editions Technip, 2000.

5. Abdennour, Ridha Ben. Identi…cation et commande numérique des procédés indus-


triels. Vol. 11. Editions Technip, 2001.

6. Bonvin D, Karimi A. Identi…cation de systemes dynamiques. Lausanne, October.


2006.

7. www.Wékipédia.org

Vous aimerez peut-être aussi