Approximation Du Modèle Géométrique Inverse D'un Robot Manipulateur Par Les Réseaux de Neurones Artificiels
Approximation Du Modèle Géométrique Inverse D'un Robot Manipulateur Par Les Réseaux de Neurones Artificiels
Approximation Du Modèle Géométrique Inverse D'un Robot Manipulateur Par Les Réseaux de Neurones Artificiels
Présenté par :
MEZID Mohamed
THEME
Mots clés : Model géométrique direct, Model géométrique inverse, réseau de neurones artificiels
Abstract:
In this paper, we present a procedure for approximating the inverse geometric model of a serial
manipulator robot by an artificial neural network, while avoiding the classical problems associated with
calculating the inverse geometric model by methods giving a closed shape solution (an explicit solution).
Our procedure uses the direct geometric model calculated by the Denavit-Hartenberg Convention, to
generate the learning database in reverse identification with a neural network.
:ملخص
مع تجنب، نقدم إجراء لتقريب النموذج الهندسي العكسي لروبوت مناور تسلسلي بواسطة شبكة عصبونية اصطناعية،في هذه الورقة
يستخدم اإلجراء الخاص بنا.)المشكالت الكالسيكية المرتبطة بحساب النموذج الهندسي العكسي بطرق تعطي حالً لشكل مغلق (حل واضح
إلنشاء قاعدة بيانات التعلم في تحديد عكسي بواسطة شبكة، هارتمبرك-النموذج الهندسي المباشر المحسوب بواسطة اتفاقية دينافيت
.عصبونية
Avant de présenter ce travail, je tiens à remercier DIEU tout puissant, de m’avoir permis
d’arriver à ce niveau, et aussi pour m’avoir donné beaucoup de patience et de courage sans
oublier mes parents qui n’ont lésiné sur aucun problème pour apporter toute l’aide nécessaire
pour atteindre ce niveau qui me permettra d’assurer mon avenir.
A travers cette mémoire je tiens à présenter mes sincères remerciements et mes profondes
reconnaissances à mon encadreur AIB Abdelghani pour sa patience, sa disponibilité et
surtout ses judicieux Conseils, qui ont contribué à alimenter ma réflexion.
Merci à tous ceux et celles qui ont contribués de près ou de loin dans l’accomplissement de ce
travail.
Dédicace
A ma bien-aimée mère Mahjouba, qui m’a entouré d’amour, d’affection et
qui fait tout pour ma réussite, que dieu la garde ;
Mon père, Mohamed Lemin qui m’a aidé à devenir ce que je suis
aujourd’hui, que dieu le garde et le protège ;
Mon petit frère cheikh, mon conseiller, et ami fidèle, qui m’a assisté dans les
moments difficiles et m’a pris doucement par la main pour traverser
ensemble des épreuves pénibles….
A ma grande sœur, Khadija le bonheur d'avoir une grande sœur sur laquelle
on peut compter.
Ma sœur, Bebouta la généreuse, merci pour tous les sacrifices consentis et ses
précieux conseils.
A mon deuxième père Med abdallahi Memin qui m’a offert l’occasion
d’étudier en Algérie que dieu le garde.
A Tout le monde.
Puisse Dieu vous garder, éclairer votre route et vous aider à réaliser à votre
tour vos vœux les plus chers.
Liste des matières
Table des matières
Introduction générale……..…………………………………………………………...…1
Figure I.4: Exemple de réseau MLP à une couche cachée avec 5 entrées, 3 neurones
dans la couche cachée, et quatre 4 sorties ..................................................................... 8
Figure II.5 MGD et MGI dans une boucle de commande d'un robot…………......28
Figure III.1 Schéma d’identification directe d’un processus par réseau de neurones.
...................................................................................................................................... 31
1
CHAPITRE I
LES RESEAUX DE NEURONES
ARTIFICIELLES
Chapitre I Les réseaux de neurones Artificiels
2
Chapitre I Les réseaux de neurones Artificiels
Le conduire.
Le transmettre à un autre neurone capable de le recevoir.
3
Chapitre I Les réseaux de neurones Artificiels
d’impulsions chaque une de durée d’environ 1ms et une amplitude d’environ 100mv)
résultant de ce traitement aux neurones auxquels il est connecté par l’intermédiaire de
son axone[3].
Le schéma classique présenté par les biologistes est celui d’un soma effectuant une
sommation des influx nerveux transmis par ses dendrites Si la sommation dépasse un
certain seuil, le neurone répond par un influx nerveux au potentiel d’action qui se
propage le long de son axone, Si la sommation est inférieure à ce seuil, le neurone reste
inactif[3]
I.4 Neurone formel :
Par définition un neurone formel est une fonction algébrique non linéaire,
paramétrée, à valeurs bornées.
McCulloch et pitts ont proposés une unité a seuil binaire comme un modèle
neuronal diagramme de McCulloch-Pitts est montre dans le Figure suivant :
{
0 Si w x
i 1
i i
4
Chapitre I Les réseaux de neurones Artificiels
Les poids positifs correspondent à des synapses excitatrices, tandis que les poids
négatifs correspondent aux synapses inhibitrices. Il y a une analogie évidente (Tableau
I-1) avec les neurones biologiques :
Tableau I.1 : L’analogie entre les neurones biologiques et les neurones artificiels.
Le modèle de McCulloch et Pitts a été généralisé par de nombreuses façon, une
généralisation évidente et celle d’utiliser une autre fonction d’activation que la fonction
à seuil, ℯ. ℊ, la fonction logistique, tangente hyperbolique, ou bien Gaussienne, qui son
montrées dans la (Figure I.3).La fonction sigmoïde est de loin la plus utilisée dans les
RNA, c’est une fonction qui est caractérisée par sa propriété asymptotique [4].
La fonction sigmoïde standard est la fonction logistique et elle est définie par :
𝑮(𝒙) = 𝟏/(𝟏 + 𝐞𝐱𝐩(−𝒃𝒙))
Où b est le paramètre de pente.
5
Chapitre I Les réseaux de neurones Artificiels
6
Chapitre I Les réseaux de neurones Artificiels
I.8.2 L'algorithme :
I.8.2.1 Définition du réseau :
Soit un réseau multicouche défini par :
-Une couche d'entrée à 𝑚 cellules d'entrées 𝑥𝑖 = 𝑒𝑖 (Il ne s'agit pas de neurones, ces
cellules présentent simplement les entrées 𝑒𝑖 au réseau).
-Une couche de sortie a𝑝 neurones d'activation 𝑍𝐾
-Une couche cachée a 𝑛 neurones d'activation
yj
-𝑛 ∗ 𝑚 connexions entre la couche d'entrée et la couche cachée, chacune
pondérée par 𝒗𝒊𝒋
-𝑛 ∗ 𝑝 connexions entre la couche cachée et la couche de sortie, chacune
pondérée par 𝑤𝑗𝑘 .
I.8.2.2 Les étapes de l’algorithme :
Figure I.4: Exemple de réseau MLP à une couche cachée avec 5 entrées, 3
neurones dans la couche cachée, et quatre 4 sorties
• ETAPE 1: Initialisation au hasard ou aléatoire des poids des connexions et 𝒗𝒊𝒋 et 𝒘𝒋𝒌
• ETAPE 2: Propagation des entrées xi= ei.
On propage vers la couche cachée :
yj f m
i 1
xiij x0 (I.2)
8
Chapitre I Les réseaux de neurones Artificiels
zk f n
i 1
y j wkj y0 (I.3)
Les valeurs x0 et y0 sont des biais, f est la fonction d’activation qu’on a choisie où on a
défini notre réseau MLP.
• ETAPE 3: Rétro-propagation de l’erreur pour chaque neurone de la couche de sortie,
(obtenue) zk .
Ek Z k (1 Z k )(SK Z K ) (I.4)
On propage cette erreur sur la couche cachée ; l’erreur de chaque neurone de la couche
cachée est donnée par :
Fj y j (1 y j ) k 1 wkj Ek
p
(I.5)
ji . y j .Fj
(I.6)
x0 .Fj
{
-Entre la couche cachée et la couche de sortie :
-𝜂 Etant un paramètre qu’il reste à déterminer.
-BOUCLER à l’étape 2 jusqu'à un critère d’arrêt à définir.
I.9 Architecture des réseaux de neurone :
On classe généralement les réseaux de neurones en deux catégories : les réseaux
faiblement connectés à couches que l'on appelle des réseaux "feedforward" ou réseaux
directs et les réseaux fortement connectés que l'on appelle des réseaux "récurrents".
Dans ces deux configurations, on retrouve des connexions totales ou partielles entre les
couches. La figure Suivante présente les différentes topologies d’un Réseau de
neurones artificiels[9].
9
Chapitre I Les réseaux de neurones Artificiels
Le perceptron est un réseau très simple grâce à sa composition d'une couche d'entrée et
d'une couche de sortie sans avoir de couche cachée. Sa structure est montrée dans la
(figure I.6), Différents neurones sont arrangés dans une couche d’entrées et ils sont
connectés avec chaque neurone de la couche de sortie par l'intermédiaire des poids.
dernière couche qui produit les résultats est appelée couche de sortie. Toutes les autres
couches qui se trouvent au milieu sont appelées couches cachées. La (figure I.7) donne
un exemple d’un réseau contenant une couche d’entrée, deux couches cachées et une
couche de sortie. Les neurones sont reliés entre eux par des connexions pondérées.
Les neurones de la couche d'entrée sont connectés uniquement à la couche suivante
tandis que les neurones des couches cachées ont la particularité d’être connecté à tous
les neurones de la couche précédente et de la couche suivante, par contre il n'y a pas de
connexions entre les neurones elle-même dans n'importe quelle couche.
11
Chapitre I Les réseaux de neurones Artificiels
Les couches intermédiaires n’ayant aucun contact avec l’extérieur sont appelées
couches cachées[11].
13
Chapitre I Les réseaux de neurones Artificiels
le traitement est donc réalisé en boucle ouverte. Ces réseaux peuvent être utilisés pour
les problèmes de classification ou d’approximation des fonctions.
I.12.2 Réseaux dynamiques :
Les réseaux dynamiques ou bien récurrents, sont les réseaux pouvant comporter des
boucles (feed-back) entre les neurones. En général, la sortie de chaque neurone peut être
envoyée vers l’entrée de tous les autres neurones du réseau. Ainsi, ces boucles ramènent
l’information en provenance de la couche de sortie sur la couche d’entrée
simultanément avec le signal d’entrée présent au même instant.
Un réseau dynamique peut donner une sortie différente en lui présentant la même entrée
des instants différents, contrairement aux réseaux statiques qui donnent la même sortie
pour une même entrée.
Au début, ces réseaux étaient souvent utilisés pour les problèmes de classification et de
mémorisation. Actuellement, dans plusieurs travaux la structure interne dynamique de
ces réseaux est exploitée pour l’identification ou la commande des systèmes
dynamiques.
I.12.3 Réseaux auto-organisés :
Les réseaux de neurones auto-organisés sont des réseaux qui changent leurs structures
internes pendant l’apprentissage. Ainsi les neurones se regroupent typologiquement
suivant la représentation des exemples. Ces réseaux sont des dérivées des modèles de
Kohonen.
I.12 Application des réseaux de neurones :
Les réseaux de neurones servent dans aujourd’hui à toutes sortes d’applications dans
divers domaines. On peut citer par exemples :
Autopilotage des avions.
Système de guidage des automobiles.
Lecture automatique des chèques bancaires et d’adresses postales.
Les réseaux de neurones sont utilisés aussi pour les systèmes de vision par
ordinateur.
Ils sont utilisés en robotique et en télécommunication.
Ils sont aussi utilisés dans les domaines de finance.
Ils sont utilisés pour le diagnostic médical.
Production des systèmes de traitement signal et pour la synthèse de la parole.
14
Chapitre I Les réseaux de neurones Artificiels
15
CHAPITRE II
Modélisation des robots
manipulateurs
Chapitre II Modélisation des robots manipulateurs
d. Robots de troisième génération : Ce sont les plus évolués, ils n'existent pour
l'instant qu'à l'état embryonnaire, l'aspect décisionnel prend chez eux une grande
16
Chapitre II Modélisation des robots manipulateurs
importance, sans toutefois se confondre avec le contrôle direct des effecteurs ou des
capteurs. Ils sont ainsi capables de déterminer de manière autonome leur comportement
suivant l'état de l'environnement de façon à remplir les tâches qui leur sont assignées.
b. La fonction modélisation : Elle consiste à traiter les informations qui lui sont fournies
par la fonction perception pour constituer et maintenir à jour un modèle interne du monde
extérieur. Ce modèle est celui qui sera utilisé par la fonction décision.
c. La fonction action : Elle permet au robot d'agir sur le réel au moyen d'effecteurs
(moteurs de déplacement, manipulateurs variés, laser, …).
17
Chapitre II Modélisation des robots manipulateurs
a. Modélisation géométrique.
b. Modélisation cinématique.
c. Modélisation dynamique.
II.4 La modélisation[17]
La modélisation du robot est nécessaire, elle nous permet d’avoir une vision globale de
l’état et du comportement du robot manipulateur. Pour commander le robot, on utilise le
modèle géométrique :
a. Le modèle géométrique
b. Modèle cinématique
18
Chapitre II Modélisation des robots manipulateurs
c. Modèle dynamique
Le modèle dynamique exprime les équations du mouvement du robot, qui permettent
d’établir les relations entre les couples (forces exercés par les actionneurs) et les situations
des articulations.
II.5 Modélisation géométrique d'un robot manipulateur [9]
Px
P
P y (II.1)
Pz
1
19
Chapitre II Modélisation des robots manipulateurs
U x
U
U y (II.2)
U z
0
Px
P
Q.P = [ , , , ] y (II.3)
Pz
1
s x nx ax Px
s ny ay Py
i
T j i s j , i n j , i a j , i Pj y (II.4)
s z nz az Pz
0 0 0 1
i
- s j , i n j et i a j sont les vecteurs unitaires des axes Xj, Yj et Zj du repère Rj exprimé
dans Ri
On écrit aussi :
i A j i Pj i s j i n j i a j i
Pj
Tj
i
(II.5)
0 0 0 1 0 0 0 1
20
Chapitre II Modélisation des robots manipulateurs
1 0 0 a
0 1 0 b
i
Tj Tr (a,b,c) = (II.6)
0 0 1 c
0 0 0 1
On utilise par la suite la notation Tr (u,d) pour désigner une translation d’une valeur d le
long de l’axe u.
b. Matrice de rotations
On définit Rot (x, ) la transformation homogène qui s’exprime par :
21
Chapitre II Modélisation des robots manipulateurs
1 0 0 0 0
0 c s
0 rot (x, ) 0
i
Tj = Rot (x, ) (II.7)
0 s c 0 0
0 0 0 1 0 0 0 1
Rot ( x,θ) désigne la rotation ou l’orientation de repère Ri d’un angle θ autour de l’axe
x du repère Rj.
De la même façon on définit la rotation autour de y par :
c 0 s 0 0
0 1 0 0 rot (y, ) 0
i
Tj = Rot (y, ) (II.8)
s 0 c 0 0
0 0 0 1 0 0 0 1
c s 0 0 0
s c
0 0 rot (z, ) 0
i
Tj = Rot (z, ) (II.9)
0 0 1 0 0
0 0 0 1 0 0 0 1
b. Transformation inverse
Soit R ,une matrice de rotation :
arcsin(r31 )
r21 r11
arctan 2 ; pour (II.11)
cos cos 2
r r
arctan 2 32 ; 33
cos cos
22
Chapitre II Modélisation des robots manipulateurs
; 0 arc tan 2 r12 , r22
2
; 0 arc tan 2 r12 , r22
2
II.5.1.3 La convention de denavit-hartenberg pour le calcul de MGD
Méthodologie à suivre pour décrire les robots à structure ouverte simples (Figure II.3).
Une structure ouverte simple est composée de n+1 corps notés C0….Cn et de n
articulations.
Le corps C0 désigne la base du robot et le corps Cn le corps qui porte l’organe terminal.
L’articulation j connecte le corps Cj au corps Cj-1 .
a. Principe
-Fixer des repères à chaque corps du robot.
-Calculer les matrices homogènes entre chaque corps.
- Calculer la matrice homogène entre base et organe terminal.
b. Hypothèses
On suppose que le robot est constitué d'un chaînage de n+1 corps liés entre eux par n
articulations rotoïdes ou prismatiques, à chaque corps on associe un repère Ri,
les repères sont numérotés de 0 à n.
La i ème articulation, dont la position est notée qi est le point qui relie les corps i-1 et
i.
Le repère Rj fixé au corps Cj est défini de sorte que :
- L’axe zj est porté par l’axe de l’articulation j.
23
Chapitre II Modélisation des robots manipulateurs
- L’axe xj est porté par la perpendiculaire commune aux axes zj et zj+1. Si les axes zj et
zj+1
c. Les paramètres de Denavit-Hartenberg
Le passage du repère Rj-1 au repère Rj s’exprime en fonction des quatre paramètres
géométriques suivants : (Figure II.4)
1- j : angle entre les axes zj-1 et zj correspondant à une rotation autour de xj-1
24
Chapitre II Modélisation des robots manipulateurs
C j S j 0 dj
j 1
Aj
j 1
Pj C j S j
j 1
C jC j S j r j S j
Tj (II.13)
01,3 1 S j S j S jC j C j rj C j
0 0 0 1
Et
d j C j
Aj
j 1 T
j 1
Aj Pj A j d j S j
T j 1 j 1 T
j
T j 1 (II.14)
01,3 1 01,3 r j
1
Le modèle géométrique direct (MGD) est l’ensemble des relations qui permettent
d’exprimer la situation de l’organe terminal, c.à.d. les coordonnées opérationnelles du
robot, en fonction des coordonnées articulaires.
Dans le cas d’une chaine ouverte simple, il peut être représenté par la matrice de passage
0
Tn :
q q1q 2 ......q n
T
(II.17)
X x 1x 2 .....x m Px Py Pz n x n y n z ax ay az
T
(II.18)
25
Chapitre II Modélisation des robots manipulateurs
Position du problème :
Soit fTEd la matrice de transformation homogène définissant la situation du robot (repère
R0) dans le repère atelier. Dans le cas général, on peut exprimer fTEd sous la forme :
0
TEd = Z0 Tn(q) E
Avec :
- Z est la matrice de transformation homogène définissant la situation du repère (repère
R0) dans le repère atelier.
- 0Tn est la matrice de transformation homogène du repère terminal Rn dans le repère
R0, fonction du vecteur des variables articulaires q :
- E est la matrice de transformation homogène définissant le repère outil RE dans le
repère Rn.
Lorsque n ≥ 6, on peut écrire la relation suivante en regroupant dans le membre de
droite tous les termes connus :
Principe :
0
T n q Z 1f T E d E 1 (II.19)
1 0 0 Px s x nx ax 0 s x nx ax Px
0 1 1 Py s y ny ay 0 s y ny ay Py
U0 (II.21)
0 0 0 Pz s z nz az 0 s z nz az Pz
0 0 0 1 0 0 0 1 0 0 0 1
26
Chapitre II Modélisation des robots manipulateurs
Méthode de solution :
Pour trouver les solutions de l’équation Paul a proposé une méthode qui consiste à pré
multiplier successivement les deux membres de l’équation par la matrice jTj-1
Étape 1
X C T nG k (II.23)
En développant :
C 1X T nG k (II.25)
C 1X G k 1 T nG k G k (II.26)
C 1X G k 1 Tn (II.27)
Étape 2
Simplifier les équations séparer certains d.d.l. (si possible)
Étape 3
résoudre les équations simplifiées.
Généralement ⇒ relations trigonométriques ;
⇒ relations non-linéaires ;
⇒ pas toujours facile à résoudre.
4 types d’équation souvent rencontrés :
L’inconnu de ces types d’équation est et il est calculé avec Atan2 (y,x) qui donne
l’angle dans son cadran .
Le calcul du modèle géométrique inverse (MGI) consiste à déterminer quelles sont les
valeurs des variables articulaires lorsque sont données la position et l'orientation d'un
27
Chapitre II Modélisation des robots manipulateurs
repère lié à l'organe terminal. Dans le cas d'un robot parallèle à six degrés de liberté
cette résolution est analogue, pour chaque chaîne, à celle du modèle géométrique
inverse d'un robot sériel. Si, d'une manière générale, pour un robot parallèle ce modèle
est beaucoup plus simple à résoudre que sa réciproque, il convient de noter qu'il peut
être malgré tout difficile. A l'origine de ce phénomène est la structure de la chaîne
élémentaire reliant l'effecteur à la base. Si cette chaîne est composée de plusieurs
branches, il peut y avoir plusieurs millions de solutions.
Le problème de la modèle géométrique inverse s’agit de résoudre un système de m
équations a n inconnues, ce système étant non linéaire.
Le nombre de solutions dépend de l’architecture du robot manipulateur et de
l’amplitude des articulations.
Trois cas se présentent pour calculer le MGI :
1. Solutions en nombre fini.
2. Absence de solution, lorsque la position de l’organe terminal désirée est en dehors
de la zone accessible du robot.
3. Infinité de solutions lorsque :
- le robot est redondant vis-à-vis la tâche.
- le robot se trouve dans certaines configurations singulières.
Lorsqu’il est possible de calculer toutes les configurations permettant d’atteindre une
situation données d’un robot manipulateur ce dernier est dit résoluble.
28
Chapitre II Modélisation des robots manipulateurs
Figure II.5 MGD et MGI dans une boucle de commande d'un robot
II.8 Conclusion
29
CHAPITRE III
Approximation du modèle
géométrique inverse par les
réseaux de neurones artificiels
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Par leur capacité d’approximation universelle, les réseaux de neurones sont bien
adaptés pour l’identification des systèmes non linéaires. En effet dans le cas ou le
model de système est une fonction non linéaire, l’objectif est alors d’approximer cette
fonction par les RNA (réseaux de neurones artificiels). Cette approximation est
réalisée par apprentissage des poids du réseau, l’apprentissage peut se faire hors ligne
ou en ligne :
• Dans le cas de hors ligne, l’apprentissage est basé sur un ensemble de données
définissant la fonction commande,
• Dans le cas d’en ligne, la mise à jour des poids est essentiellement adaptative.
Le principe de l’identification par réseau neuronaux consiste à substituer aux modèles
paramétriques classiques des modèles neuronaux, c'est-à-dire proposer un modèle
établissant une relation entre son entrée et sa sortie et à déterminer, à partir du couple
30
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Figure III.1 Schéma d’identification directe d’un processus par réseau de neurones.
Considérons un système non linéaire avec une entrée u(k) et une sortie y(k)
y(k) peut dépendre de u(k) seulement, ou de u(k) et les états précédents de y et/ou u
c’est à dire :
y(k)=F(u(k))
31
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Ou
y(k)=F(u(k-1),…,u(k-m),y(k-1),y(k-2),…,y(k-n))
y yˆ
1
J i i
2 i 1
32
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
33
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
34
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
c. Tableau de Denavit-Hartenberg :
1 2 3 4 5
α 900 0 0 900 0
ai 0 a2 a3 0 0
1 2 3+900 +900 5
di a1 0 0 0 0
i : angle entre les axes zj-1 et zj correspondant à une rotation autour de xj-1
d i : distance entre zj-1 et zj le long de xj-1
i : angle entre les axes xj-1 et xj correspondant à une rotation autour de zj
ai : distance entre xj-1 et xj le long de zj
d. Matrices de transformations homogènes
A partir du tableau et compte tenu de la matrice de passage élémentaire de Denavit-
Hartenberg, on écrit les matrices des transformations homogènes :
c1 0 0 0
s 0 c1 0
T 10 1 (III.1)
0 1 0 r1
0 0 0 1
c 2 s 2 s2 r2c 2
s c 0 r2s 2
T2 2 2
1
(III.2)
0 0 1 0
0 0 0 1
c 3 s 3 s 3 r3c 3
s c 0 r3s 3
T3 3
2 3
(III.3)
0 0 1 0
0 0 0 1
35
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
c 5 s 5 s5 0
s c5 0 0
T 54 5 (III.5)
0 0 1 0
0 0 0 1
Avec : ci : Cosinus de i et si : Sinus de i
36
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Avec :
ci : cos(i ) ;
cijk : cos(i j k ) ;
si : sin(i ) ;
sijk : sin(i j k ) ;
Algorithme :
-Définir les longueurs des bras du robot mentor
-Initialiser les entrées du model géométrique direct du robot mentor à zéro
37
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
-faire varier chaque fois les entrées de 0 : pi/12 : pi/2 et les mettre dans une boucle
for
-trouver les sorties (x y z tx ty tz) à chaque variation des entrées
1 2345
38
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
39
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
40
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Dans cette architecture on a une erreur quadratique de 0.03, 92% des donnés sont
validés, 92% sont testés, l’apprentissage est fait avec 92% des données, la régression
général est de 92%, le temps d’apprentissage été de 15 minutes, et les courbes des
orientations réelles et approximées ne sont pas compatibles, donc l’architecture a
sera un mauvais choix.
41
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Dans cette architecture on a une erreur quadratique de 0.01, 97% des donnés sont
validés, 97% sont testés, l’apprentissage est fait avec 97% des données, la régression
général est de 97%, le temps d’apprentissage été de 40 minutes, et les courbes des
orientations réelles et approximées ne sont pas compatibles, donc l’architecture b
sera un mauvais choix.
III.3.3 Architecture c :
44
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
45
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
Dans cette architecture on a une erreur quadratique de 0.009, 98% des donnés sont
validés, 98% sont testés, l’apprentissage est fait avec 98% des données et la
régression général est de 98% et le temps d’apprentissage été de 1h25minutes
Dans cette architecture on a une erreur quadratique de 0.009, 98% des donnés sont
validés, 98% sont testés, l’apprentissage est fait avec 98% des données, la régression
général est de 98%, le temps d’apprentissage été de 1h25 minutes, et les courbes des
orientations réelles et approximées sont compatibles, donc l’architecture c sera un
meilleur choix.
47
Chapitre III Approximation du modèle géométrique inverse par les réseaux de neurones
artificiels
On constate que plus le nombre de neurones est grand plus que le réseau de neurone
est ,bon, la même chose pour le nombre de couche cachée et en fin le temps
d’apprentissage plus qu’il est long plus que le réseau de neurone est bon.
III.4 Conclusion
Dans ce chapitre on a vu la modélisation d’un robot manipulateur réel qui est le robot
mentor, on a calculé son model géométrique direct afin de calculer une base de
donnés pour l’apprentissage du réseau de neurone et pour faire l’identification
inverse.
On a vu 3 tests sur des architectures de réseau de neurones pour le choix d’une
meilleure, afin de faire une bonne approximation du model géométrique inverse.
En fin on a constaté que plus le nombre de neurones est grand, plus qu’on augmente
le nombre de couches cachées, plus que le temps d’apprentissage plus long
l’approximation du réseau de neurones est très bonne.
48
CONCLUSION GENERAL
Conclusion générale
50
BIBLIOGRAPHIE
BIBLIOGRAPHIE
[3] Eric DAVALO, Patrick NAIM, Des réseaux de neurones. Deuxième édition,
deuxième tirage 1993..
[4] Y. Hen Hu, J.-Neng Hwang, "Handbook of neural network signal processing",CRC
Press LLC, United States of America, 2002.
[5] http://www.statsoft.fr/concepts-statistiques/reseaux-de-neurones-automatises
/reseaux-de-neurones-automatises.htm#prevision.2001.
[10] KS. Narendra, « Neural networks for identification and control », Center for Systems
Science, Yale University, Dec. 1998.
[11] S. Chen and S. A. Billings, « Neural Networks for nonlinear dynamic system
modeling and Identification », 1992.
[13] K. Kara, « Application des réseaux de neurones à l'identification des systèmes non
linéaires » , Thèse de Magister, Université de Constantine 1995.
[18] A.AIB, Modélisation des robots manipulateurs, cours, université Mohamed boudiaf-
m’sila.2017.