Intelligence Artificielle
Intelligence Artificielle
Intelligence Artificielle
Semestre 3
Coefficient
hebdomadaire Horaire Complémentair
Crédits
Unité
Semestriel e
d'enseignement (15 en Consultation Contrôle
Intitulé Cours TD TP Examen
semaines) (15 semaines) Continu
UE Réseauxsans fils et réseaux
6 3 3h00 1h30 67h30 82h30 40% 60%
Fondamentale mobiles
Code : UEF 2.1.1
Crédits : 10 Cryptographie et Sécurité
4 2 1h30 1h30 45h00 55h00 40% 60%
Coefficients : 5 Réseaux
UE Vidéo et Audio sur IP 4 2 1h30 1h30 45h00 55h00 40% 60%
Fondamentale
Code : UEF 2.1.2
Crédits : 8 Technologies du Web 4 2 1h30 1h30 45h00 55h00 40% 60%
Coefficients : 4
TP Réseauxsans fils et
2 1 1h30 22h30 27h30 100%
UE réseaux mobiles
Méthodologiqu TP Cryptographie et Sécurité
e 2 1 1h30 22h30 27h30 100%
Réseaux
Code : UEM 2.1 TP Technologies du Web et
Crédits : 9 2 1 1h30 22h30 27h30 100%
VoIP
Coefficients : 5
Intelligence artificielle 3 2 1h30 1h00 37h30 37h30 40% 60%
UE Découverte Panier au choix :
Code : UED2.1 Internet des objets (internet 1 1 1h30 22h30 02h30 100%
Crédits : 2 of things)
Coefficients : 2
Panier au choix :
1 1 1h30 22h30 02h30 100%
Réseaux de terrain
Page |2
Semestre : 3
Unité d’enseignement: UEM 2.1
Matière 4 :Intelligence Artificielle
VHS : 37h30 (Cours: 1h30, TP : 1h00)
Crédits : 3
Coefficient : 2
Objectifs de l’enseignement :
Maitriser l’utilisation des techniques de l’apprentissage automatique pour la classification et la
prédiction des données sur un réseau de télécommunications.
Contenu de la matière :
- Architectures des CNN : Convolution, Rectification, Normalisation par lot (Batch normalization),
Regroupement (Pooling), Aplatissement, réseaux de neurones multicouches (Fully connected
layers), Softmax.
- Critères d'optimisation : Perte d'entropie, critère des moindres carrées.
- Réglage des hyper paramètres
- Exemples d’architectures (VGG, ResNet, AlexNet, GoogleNet …)
TP Intelligence artificielle
TP1 : Compréhension et préparation des données : Familiarisation avec les librairies utilisées en
IA (Keras, tensorflow, sklearn, pytorch), préparation des données sous format utilisable pour
une application d’apprentissage.
TP2 : Apprentissage non supervisé : Algorithme K-Means pour la classification des données.
TP3 : Apprentissage supervisé par régression logistique : Conception d’un modèle de prédiction
de données, churn prediction, prédiction de la puissance du signal reçu, etc.
Mode d’évaluation :
Contrôle continu : 100%
Références bibliographiques :
1. D.Sarkar, R. Bali, T. Sharma., Practical machine learning with python : A Problem-Solver’s Guide to
Building Real-World Intelligent Systems. practical-machine-learning-python-problem-solvers.pdf
(kre.dp.ua)
2. Machine learning with python : tutorials point, Machine Learning with Python (tutorialspoint.com)
3. F. Chollet, 2018. Deep learning with python, Deep Learning with Python (wordpress.com)
4. R.S.Sutton., A .J. Barto, 2018. Reinforcement learning : an introduction, Reinforcement Learning: An
Introduction, 2nd Edition - PDF Drive
5. F. Richard Yu, Y. He, 2019. Deep Reinforcement learning for wirless networks, Edition Springer.
6. F.L. Luo, 2020. Machine learning for future wireless communications, Edition Wiley.