Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Exo Perceptron

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 1

M1 Informatique des Organisations – 2016–2017 Introduction à l’Intelligence Artificielle – TD 7

Réseaux de neurones

Exercice 1 : Perceptron simple


On considère
 un perceptron simple avec deux entrées et une sortie, et une fonction d’activation suivante :
1 if x − w0 > 0
a(x) =
0 sinon
1. trouvez les poids pour que le perceptron calcule la fonction ET logique
2. même question avec la fonction OU logique
3. essayer de trouver des poids pour la fonction XOR.
Construisez un réseau de neurones qui calcule la fonction XOR.

Exercice 2 : mise à jour des poids pour réseaux multicouches


On a vu en cours comment mettre à jour les poids dans le cas d’un seul neurone en utilisant la descente de
gradient. Le but de l’exercice est de traiter le cas des réseaux avec deux couches : une couche de neurones
qui est reliée aux entrées et une couche de neurones pour la sortie.

Notations :
— xji désigne l’entrée j de l’unité i
— wji désigne
P le poids associé à l’entrée j de l’unité i
— netj = i wji xji est la somme pondérée des entrées
— oj est la valeur de sortie de l’unité j
— tj est la valeur attendue de l’unité j
— σ est la fonction sigmoid
— out est l’ensemble des neurones de la couche de sortie
— downstream(j) est l’ensemble des neurones qui utilisent l’unité j en entrée
On mesure l’erreur d’une instance d avec la fonction suivant
1 X
Ed (→
−w) = (tk − ok )2
2
k∈out

1
1. Quelle est la dérivée de la fonction sigmoid σ(x) = ?
1 + e−x
2. En utilisant la descente de gradient, écrire la formule de mise à jour
(a) pour les unités en sortie
(b) pour les autres unités

MIDO
Mathématiques et Informatique
de la décision et des organisations

Vous aimerez peut-être aussi