Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

7SG06TE0124_Partie5Retenir

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 11

SÉQUENCE 1 : Une histoire du vivant

Partie 5 : De la machine de Turing à l’intelligence


artificielle

RETENIR

1. Histoire de l’informatique
L’informatique est à la fois une discipline scientifique et technique qui s’est essentiellement développée au
XIX et XXe siècle. Elle s’est appuyée sur la recherche fondamentale en logique mathématique et sur l’étude
des algorithmes. Elle est aussi le fruit d’un processus de développement et de généralisation des
machines initié au XVIIe siècle en Europe, siècle de l’avènement de l’industrialisation.

1. Qui a inventé l’ordinateur ?


Entre 1834 et 1837, Charles Babbage un mathématicien anglais imagine la première machine à calculer
programmable. Il s’appuie sur les travaux de Blaise Pascal, inventeur en 1642 du premier calculateur
mécanique. Il sera le premier a utilisé le principe de programmation par cartes perforées que l’on
retrouve notamment sur la production automatisée de musique comme pour l’orgue de Barbarie. Les
technologies très limitées de l’époque ne lui permettront malheureusement pas de mettre au point sa
machine.
Plus d’un siècle plus tard, un autre mathématicien anglais du nom d’Alan Turing ouvrira une voie décisive
dans l’histoire de la science informatique. Il est l’inventeur du concept de machine universelle qui a ouvert
la voie à une part considérable de l’informatique théorique moderne
La Seconde Guerre mondiale a aussi contribué aussi au développement de l’informatique. La première
machine Enigma, dédiée au chiffrement de l’information, fut inventée au début du XXe siècle par l'Allemand
Arthur Scherbius et tirée d’un brevet d’Hugo Koch datant de 1919. Elle fut utilisée durant la Seconde
Guerre mondiale pour transmettre des messages codés à travers l’Europe. Enigma fut finalement
décryptée.
L’histoire de l’informatique retient l’ENIAC ou Electronic Numerical Integrator And Computer (intégrateur
numérique électronique et ordinateur) comme étant le premier ordinateur universel au monde. L’ENIAC a
été conçu et construit pour l’armée américaine afin de calculer les tables de tir d’artillerie. Lors de
l’annonce de sa création en 1946, les médias qualifiaient l’ENIAC de « gigantesque cerveau. »

2. Architecture d’un ordinateur


L’organisation, générale d’un ordinateur, connue sous le nom d’architecture de Von Neumann, est
composée d’un processeur et d’une mémoire. La première machine utilisant cette architecture fut
construite à l’université de Manchester en 1948.
La machine de von Neumann est conçue à partir de composants électroniques numérique et binaire.
Voici les cinq parties la constituant :
- Une unité de commande
- Une unité de traitement (arithmétique et logique)
- La mémoire centrale qui contient donc les données ET le programme
- Une unité d'entrée des données
- Une unité de sortie des résultats

CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE 1


On distingue l'unité de commande et l'unité de traitement qui sont toutes les deux rassemblées dans le
cœur de la machine, le processeur.
De même, les unités d'entrées et de sorties sont souvent combinées dans les ports bidirectionnels et sont
connectées aux périphériques échangeant ainsi des signaux dans les deux sens.
À partir de 1948, l'invention du transistor par la firme Bell Labs a permis de réduire considérablement la
taille des ordinateurs. Par la suite, l’invention du circuit intégré (en 1958) et du Microprocesseur (en 1971)
entraîna une augmentation considérable de la puissance des ordinateurs, ainsi qu'une réduction de leur
taille et de leur prix. Ordinateur de bureau, smartphone, tablettes… font aujourd’hui partie de notre
quotidien.

3. Différents langages
Bien souvent, l'informatique désigne l'ensemble des sciences et techniques en rapport avec le traitement
de l'information. En tout état de cause, les histoires de l’informatique centrée sur les concepts
d’algorithme et de machine se sont finalement rejointes. Les courants de pensée centrés sur le langage,
inventé par l’homme pour communiquer et se faire comprendre par la machine, et traduire plus ou moins
aisément les différentes étapes d’un algorithme se sont aussi développés, pour compléter ce tableau des
histoires de l’informatique.
Et ce langage, tout comme les logiciels utilisés par la différente génération d’ordinateurs, a évolué au fil
du temps.
Ainsi à la première génération d’ordinateurs correspondait le codage machine direct en binaire ; à
la deuxième, le langage assembleur ; à la troisième, les langages évolués sont apparus (Fortran, Simula,
APL,…), à la quatrième, les langages évolués de deuxième génération dits « structurés », (Pascal, C++…),
des langages « Objets », des langages d’interrogation de très haut niveau comme SQL…

2. Des données informatiques


1. Qu’entend-on par information ?
L'information est un ensemble de données (écrits, images, sons, vidéos…) que l'on peut stocker, consulter,
transformer ou transmettre à tout moment.
Avant l'informatique, la manière de conserver ces données dépendait du type des données.
- Les écrits dans des livres.
- Les images sur du papier-photo.
- Les sons sur des bandes magnétiques ou des disques vinyles.
- Les vidéos sur des films.
On sait qu’aujourd'hui toutes ces informations sont stockées dans un ordinateur sous forme de fichiers.

2 CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE


On peut reconnaître quel type d'information contient tel ou tel fichier :
- info.txt ou info.doc ou encore info.odt contiennent du texte.
- info.jpg ou info.bmp ou encore info.png contiennent des images.
- info.mp3 ou info. wav contiennent des sons.
- info.avi ou info.divx contiennent des vidéos.

Les codages relatifs aux différentes natures de fichiers sont appelés formats. Une extension est une petite
chaîne de caractères (préfixée par un point) ajoutée en fin de nom du fichier afin que l’ordinateur puisse
interpréter correctement ce fichier et que l’utilisateur puisse en reconnaître le format.

2. Le codage de l’information en binaire


Le bit (anglais binary digit, « chiffre binaire ») est la plus petite unité de mémoire utilisable sur un
ordinateur. Cette mémoire ne peut prendre que deux valeurs : 0 ou 1.
Les regroupements de bits par agrégats de huit, seize, trente-deux, soixante-quatre bits, et parfois
davantage, sont appelés des cases mémoires.
Ces cases permettent de mémoriser les données et les programmes sous la forme de mots. Le nombre
de ces cases définit la taille mémoire de l’ordinateur.
Une autre unité utilisée est l’octet. Un octet est un mot de 8 bits. Chaque bit pouvant prendre deux valeurs
(0 et 1), un octet permet de coder 28 = 256 valeurs différentes.
Voici un tableau qui indique la taille des principaux types de supports mémoire :
Année d’invention Support Capacité de stockage
1928 Bande magnétique 50 octets
1971 Disquette 360 Ko
1980 Disquette 1,2 Mo
1990 CD-Rom 700 Mo
2000 Mémoire Flash 16 Go
2007 – 2013 – 2015 - 2019 Disque dur ou SSD 1 To – 6 To – 10 To – 16 To

Et voici un tableau qui indique la taille des principaux types de fichiers :


Type de fichier Ordre de grandeur Taille habituelle
fichier texte Ko (Kilo octets) < 20 Ko
image Mo (Mega octets) 2Mo à 5 Mo
vidéo Go (Giga octets) de 200 Mo à 5 Go

→ Exemple
Un fichier texte, données.txt est codé sur 20 000 bits. Dans ce format, chaque caractère occupe 1 octet
de mémoire. Afin de déterminer le nombre de caractères que contient le fichier données.txt il suffit de
faire le calcul suivant : 20000/8=2500 donc le fichier contient 2500 caractères. (Remarque : le retour à la
ligne est aussi un caractère).
Si on fait un copier-coller du texte dans un fichier Word, la taille du fichier augmentera. En effet, dans
le format Word sont stockées des informations sur la mise en forme du document qui peuvent suffire à
doubler la taille du fichier ; comme la police du document, la taille des titres…

Un fichier exécutable est un fichier qui contient un programme sous une forme compréhensible par
l'ordinateur (langage machine) ou interprétable directement par l'ordinateur, c'est-à-dire traduit en
langage machine à la volée au fur et à mesure de l'exécution (programme Python avec le bon interpréteur

CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE 3


ou bytecode java par exemple). Pour rappel, le langage machine est constitué d'instructions très simples
spécifiques au processeur et compréhensibles directement par l'unité de commande du processeur.

3. Notion de programme
1. Définition
Un programme est une suite d'instructions écrite dans un langage appelé langage du programmeur.
Ces instructions seront interprétées par une machine puis exécutées.

→ Exemple de programme sous Python.


(Sous python une simple ligne de code constitue à elle seule un programme…).
Dans l’éditeur de Python si on écrit :

Puis on valide et exécute le programme (l’ordinateur interprète le programme et l’exécute), dans la


console la réponse est :

Un langage de programmation est nécessaire pour écrire des programmes : ce langage doit être simple à
utiliser.

2. La petite histoire, du processeur au microprocesseur


Le processeur est la partie d’un ordinateur qui exécute les instructions et traite les données des
programmes. Jusqu’en 1970, les différents composants électroniques, permettant au processeur de
fonctionner, étaient connectés entre eux.
En 1971, la société américaine Intel est parvenue à placer tous les composants sur un seul circuit intégré,
donnant ainsi naissance au micro-processeur. Cette invention a permis le développement des micro-
ordinateurs à partir de 1977 (Apple, Commodore, Tandy).
Le micro-processeur Intel 4004 dans son boîtier à 16 broches, a été le premier micro-processeur
commercialisé.
Avec une puissance de 92 600 opérations par seconde à une fréquence maximale de 740 kHz, le micro-
processeur Intel 4004 était comparable à l'ENIAC, le premier ordinateur moderne. Mais alors que le
micro-processeur Intel 4004 mesurait 3,81 mm de long sur 2,79 mm de large, l’ENIAC lui, occupait 167 m²
et pesait 30 tonnes !

3. Bugs informatiques
L’ENIAC tombait fréquemment en panne : en effet il arrivait qu’un insecte brûle sur un tube chaud,
provoquant la rupture de l'ampoule de verre. Or en anglais insecte se dit « bug », si bien qu’en
généralisant, le mot bug a fini par désigner tout dysfonctionnement informatique.
Aujourd’hui, même si les pratiques ont évolué pour produire du code de qualité, il est impossible de
garantir un projet informatique ne comportant aucun bug.
Ces erreurs peuvent conduire un programme à avoir un comportement inattendu et entraîner des
conséquences graves.
L’explosion de la fusée Ariane 5 constitue un bug retentissant de ces dernières années. L'incident, dû à un
dépassement d'entier dans les registres mémoire des calculateurs électroniques utilisés par le pilote
automatique, a provoqué la panne du système de navigation de la fusée, causant de fait sa destruction

4 CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE


ainsi que celle de la charge utile. Cette charge utile était constituée des quatre satellites de la mission
Cluster, d'une valeur totale de 370 millions de dollars.

4. L’Intelligence Artificielle
1. Qu’est-ce que l’intelligence artificielle (IA) ?
« Qu’est-ce que l’intelligence ? Est-ce la capacité à percevoir le monde, à prédire le futur immédiat ou
lointain, ou à planifier une série d’actions pour atteindre un but ? Est-ce la capacité d’apprendre, ou celle
d’appliquer son savoir à bon escient ? La définition est difficile à cerner.
On pourrait dire que l’intelligence artificielle (IA) est un ensemble de techniques permettant à des
machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à
certains animaux. » Yann Lecun (Collège de France).
L’intelligence artificielle (IA) est née en 1956. À cette époque, elle visait à simuler sur ordinateur les
facultés cognitives humaines et recouvrait des approches relevant de l’informatique, des mathématiques
et des sciences cognitives. L’approche symbolique (systèmes experts) initiée à la fin des années 50 n’a pas
tenu ses promesses. Aujourd’hui, on a tendance à attribuer le terme d’IA à l’un de ses sous-domaines,
celui de l’apprentissage automatique (apprentissage machine). Il s’agit d’un processus par lequel un
algorithme évalue et améliore ses propres performances, non pas sous l’intervention d’un humain chargé
de programmer la machine, mais en répétant son exécution sur des jeux de données de natures variées
(mesures de capteurs pour des prévisions, textes pour la traduction, sons pour la reconnaissance vocale,
images pour la reconnaissance visuelle, etc.).
L’apprentissage machine exploite des méthodes mathématiques qui, à partir du repérage de tendances
(par exemple, des corrélations ou des similarités) sur de très grandes quantités de données (données
massives), permettent de faire des prédictions ou de prendre des décisions sur d’autres données.

2. Les dates importantes de l’intelligence artificielle


- 1950 : Les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé
“Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir
si une machine est consciente ou non.
- 1956 : Date de la première conférence aux États-Unis, officialisant l’intelligence artificielle comme
véritable domaine scientifique.
- Années 60 : Des laboratoires de recherche en IA s’ouvrent un peu partout dans le monde. Certains
experts prédisaient à l’époque que « des machines seront capables, d’ici 20 ans, de faire le travail
que toute personne peut faire ».
- 1974 : Beaucoup de projets en IA n’aboutissent pas, ce qui conduit les gouvernements britannique et
américain à réduire drastiquement les financements. Cette période est appelée le « AI Winter ».
- Années 80 : Le succès des systèmes experts, c’est-à-dire un ordinateur capable de se comporter
comme un expert (humain) relance les projets de recherche sur l’intelligence artificielle.
- Années 90 : Le développement exponentiel des performances informatiques permet notamment de
faire du « Data Mining », c’est-à-dire d’analyser une quantité importante de données statistiques et
de faire des « prédictions ».
- 1997 : Date historique pour l’IA. Gary Kasparov, le maître incontesté des échecs, est battu par Deep
Blue, le super-ordinateur d’IBM.
À partir de 2010 :
- 2011 : Microsoft commence à utiliser les réseaux de neurones artificiels pour améliorer ses outils de
reconnaissance vocale.
- 2012 : Google parvient à entraîner un ordinateur à reconnaître par lui-même un chat.
- 2016 : L’ordinateur égale l’humain dans le domaine de la reconnaissance vocale, indique Microsoft.
Les décennies à venir nous réservent encore bien des surprises.

CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE 5


3. L’intelligence artificielle dans notre quotidien
L'intelligence artificielle s'invite dans notre quotidien depuis quelques années, on l'utilise parfois sans
même le savoir. Voici une liste non exhaustive.
Les emails
Les messageries électroniques s'appuient sur l'IA afin d'optimiser leur fonctionnement et améliorer
l'expérience des utilisateurs. On estime à 99,9 % des spams bloqués par l’IA de la messagerie Gmail
de Google.
Les réseaux sociaux
Par exemple, Facebook trie les publications des contacts et des pages suivies, puis les filtre pour
mettre en avant celles jugées les plus importantes, tout en masquant complétement les autres.
Les moteurs de recherche
L'IA est déployée sous forme de robots qui parcourent les sites pour les indexer.
Les sites marchands
L'IA suggère de nouveaux articles à consulter en se basant sur l'historique de l'internaute.
Les applications de navigation
Les applications de navigation comme Waze ou Google Maps ont totalement modifié nos habitudes de
circulation.
Communication
La fonction vocale fait partie de notre quotidien, des enceintes intelligentes aux commandes en
voiture.
Domotique
Par exemple, les thermostats connectés identifient les besoins de leurs propriétaires grâce à des
technologies comme le machine Learning.
Santé
L’IA peut intervenir dans l’imagerie médicale et le diagnostic médical.

4. L’intelligence artificielle peut-elle être un danger ?


Les intelligences artificielles sont un progrès, qui ne va pas sans risques : le MIT en a listé six.
Voici quelques exemples
Les voitures autonomes
En mars 2018, l’accident mortel entre un cycliste et une voiture autonome Uber a révélé les failles
d’une technologie encore loin d’être au point.
La manipulation politique
Nos données numériques peuvent servir à orienter la communication des politiques afin de nous
influencer.
Les algorithmes tueurs
Le projet Maven de Google (abandonné) devait fournir au Pentagone une intelligence artificielle de
pointe pour ses drones-tueurs. Quel type de décision peut prendre l’IA ?
La reconnaissance faciale
Certains pays ont profité de la capacité de l’IA à reconnaître les visages pour déployer une surveillance
de masse.
La propriété intellectuelle, la protection des données personnelles et la responsabilité juridique
L’IA peut créer des contenus par des modèles génératifs exploitant des données massives (ex :
ChatGPT) posant le problème de la propriété intellectuelle. De même des points de vigilance sont
soulevés dans la protection des données personnelles et la responsabilité juridique.

6 CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE


5. L’apprentissage automatique appartient au domaine plus
général de l’intelligence artificielle (IA)
1. Reconnaitre une machine intelligente
"Le test de Turing"
Dans les années 50, le mathématicien Alan Turing, connu pour avoir décrypté les codes nazis pendant la
seconde guerre mondiale (voir le film « Imitation Game ») est l'un des premiers scientifiques à s'être
intéressé à cette "intelligence artificielle".
Dans son ouvrage Computing Machinery and Intelligence (publié en 1950), il a défini un test simple pour
savoir si une machine est intelligente ou non.
Le principe du test est simple :
Une personne est chargée de juger une conversation textuelle entre un humain et une machine. La
personne sait que l’un des deux participants est une machine, mais ne sait pas lequel. Si la personne
n’a pas fait la différence entre l’homme de la machine après 5 minutes de conversation, la machine a
passé le test avec succès.
Plus récemment, le scientifique américain Marvin Minsky (1927-2016), l'un des fondateurs du domaine de
l’IA, a mis au point une formule qui consiste à savoir si la machine est capable d'accomplir une tâche qui,
pour l'instant, est réalisée de façon plus satisfaisante par des êtres humains.

2. Le principe de l’apprentissage automatique


Il s’agit d’entraîner les programmes informatiques sur des grandes quantités de données (informations
numérisées) puis d’utiliser des outils statistiques pour mettre en évidence une tendance ou effectuer des
prédictions.
On peut distinguer trois phases dans ces processus :
• La phase d’apprentissage (ou d’entraînement) : la
machine s’entraîne sur toutes ces données pour
déterminer un modèle, qui doit permettre de
prédire des résultats les plus proche possible de la
réalité, ainsi que les paramètres de ce modèle. On
met ainsi au point un algorithme d’apprentissage.
• La phase de test permet d’évaluer l’erreur
commise dans les prédictions de cet algorithme. On
calcule ainsi une erreur de prédiction avant
d’appliquer l’algorithme sur de nouvelles données
pour s’assurer de la cohérence des résultats. Étapes du processus d’apprentissage automatique

• Durant la phase de prédiction (ou inférence), le modèle choisi est utilisé pour prédire de nouveaux
résultats sur des données ne faisant pas partie des données utilisées lors de la phase d’apprentissage.

→ Remarque
Dans la littérature scientifique on distingue précisément la prédiction, de l’inférence, toutes les deux
ayant vocation à tirer des conclusions de faits observés…
La prédiction est le fait de prédire, d’annoncer à l'avance ce qui doit arriver, de même pour l’inférence
qui elle implique en plus un raisonnement déductif, on tire des conclusions en raisonnant à partir
d’observations, de faits vérifiés. Il n’y a pas cette notion de raisonnement dans la prédiction…

3. Des méthodes d’apprentissage automatique


Dans l’apprentissage automatique, on distinguera différents types d'apprentissages.
Parmi les plus répandus on citera :

CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE 7


• Supervisé ;
• Non supervisé ;
• Par renforcement.

a) Apprentissage supervisé
On donne à l’ordinateur des exemples d’entrées qui sont étiquetés avec les sorties souhaitées. Le but de
cette méthode est que l’algorithme puisse « apprendre » en comparant sa sortie réelle avec les sorties
« apprises » pour rechercher les erreurs et adapter le modèle.
L’apprentissage supervisé utilise donc des modèles pour prédire les valeurs d’étiquettes pour des
données supplémentaires non étiquetées.
→ Exemple
On donne à un algorithme des images de dauphins étiquetées « mammifère » et des images d'océans
étiquetées « eau ». En apprenant ces données, l’algorithme d’apprentissage supervisé doit pouvoir
identifier des images de dauphins et des images d’océans non étiquetées et les étiqueter
respectivement « mammifère » et « eau ».

Parmi les méthodes d’apprentissage supervisé, l’apprentissage profond est très utilisé depuis les années
2010. Il tente d’imiter la manière dont le cerveau humain peut transformer les stimuli lumineux et sonores
en vision et en audition. Une architecture d’apprentissage en profondeur est inspirée des réseaux de
neurones biologiques et est formée d’un réseau de plusieurs couches de neurones artificiels composés de
matériel et de micro-processeurs.
L'apprentissage supervisé permet de répondre à des problématiques de classification et de régression.
L'idée consiste à associer une étiquette à des données sur lesquelles on possède des mesures.
• Si les étiquettes sont discrètes (des libellés ou valeurs finies) on parlera de classification.
• Si elles sont continues (comme l'ensemble des nombres réels), on parlera de régression.

Classification
La classification consiste à donner des étiquettes à ces données :
• On dispose d'un ensemble de données connues qui ont été déjà classées (photos, plantes, individus…),
comme dans l’exemple des dauphins et des océans
• On souhaite, à partir de cette première classification, classer de nouveaux éléments.

Document
ressource Eduscol

Régression
Par exemple un programme d’apprentissage automatique pour faire des prévisions météorologiques à
partir de données de capteurs pourra faire des prédictions de température, de pression, etc.

8 CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE


b) Apprentissage non supervisé
L'apprentissage non supervisé répond au même besoin de classification de données. Mais contrairement
à l'apprentissage supervisé, vous ne possédez pas de données déjà classées/connues servant de base à la
prédiction.
Les méthodes d’apprentissage non supervisées peuvent examiner des données complexes plus
volumineuses et apparemment non liées pour les organiser et les trier efficacement.
→ Exemple : L’apprentissage non supervisé est souvent utilisé pour les systèmes de recommandations
publicitaires qui recommandent certains produits en fonction du profil de la cible : ces systèmes de
recommandation ont pour objectif de comprendre le comportement de l’utilisateur pour ensuite filtrer
à l’avance parmi une grande masse d’objets ceux susceptibles de l’intéresser (qu’il s’agisse de
produits, livres, films etc.).

On utilise ce type d'algorithme pour répondre à 2 types de tâches :


• La classification de données, mais comme on n’a pas encore les étiquettes, on parle alors de clustering
c’est-à-dire de regroupement.
• L'autre tâche consiste à réduire le nombre de dimensions des données tout en conservant une
variation/un regroupement semblable aux données d'origine, on parle alors de dimensionality reduction.

Clustering
Il n’y a ici pas de prédiction.
L'algorithme tentera à partir de toutes les données de créer N groupes les plus similaires possibles.
Exemple d'application : On possède des statistiques sur une population (salaire, localité, âge, profession,
nombre d'enfants), on souhaite les regrouper en différentes catégories sociales.

Réduction de dimension
Les données possèdent trop de paramètres pour être visualisées, pour être traitées dans des temps
raisonnables et sur des machines limitées en ressources.
Il faut donc diminuer le nombre de paramètres tout en conservant une cohérence globale. C’est-à-dire
qu’un regroupement avec tous les paramètres serait sensiblement identique au regroupement avec les
paramètres réduits.

c) Apprentissage par renforcement


Dans l’apprentissage par renforcement, la machine étudie le comportement d’un « agent » (un robot)
évoluant dans un « environnement » (dans une pièce) où il exécute des actions (il manipule des objets) et il
va apprendre grâce à un système de « récompenses ».
→ Exemple
C’est un apprentissage par renforcement qui a permis au programme Alpha Zéro de Google de battre
le champion de jeu de go Lee Sedom en 2016.
Le programme en jouant des parties contre lui-même a reçu les récompenses dues à ses victoires (ou
les « punitions » dues à ses défaites), ce qui lui a permis d’apprendre de plus en plus…

Ce type d'apprentissage s'applique plus à des problèmes d'optimisations. L'idée étant de faire prendre des
décisions à un système pour obtenir un résultat qui soit le meilleur possible.
Des exemples d'utilisation sont :
• Optimiser le déplacement des ascenseurs
• Router des paquets réseau
• Jeux de stratégie
L’apprentissage par renforcement consiste pour une machine à apprendre à apprendre. À partir
d’observations, la machine va déduire la qualité de ses actions pour les améliorer.

CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE 9


En 2018, la start-up britannique Wayve publie une vidéo montrant “la première voiture conduite par
apprentissage par renforcement”. On y voit une petite voiture apprendre à suivre une ligne droite sur une
route qu’elle n’a jamais empruntée, sans règles prédéfinies ni plan, uniquement avec une caméra.

Optimisation
Dans le cadre de son apprentissage, la machine va s’appuyer sur des fonctions mathématiques qui
permettront de quantifier l’amélioration de ses performances et ainsi d’optimiser les prochaines
décisions.

4. Les outils d’approches


a) Les statistiques
En tant que domaine, l’apprentissage automatique est étroitement lié aux statistiques informatiques. Il est
donc utile de disposer de connaissances de base en statistiques pour comprendre et exploiter les
algorithmes d’apprentissage automatique.
Il y a :
• La corrélation qui permet de relier deux variables qui ne sont désignées au départ ni dépendantes ni
indépendantes.
• La régression qui est utilisée pour examiner la relation entre une variable dépendante et une variable
indépendante. Les statistiques de régression permettant d’anticiper la variable dépendante lorsque la
variable indépendante est connue, la régression permet d’effectuer des prédictions.

Ressources (disponibles dans la Boîte à outils de votre cours)


• Série statistique à deux variables nuage de points
• Ajustement linéaire et la méthode des moindres carrés
• Coefficient de corrélation

b) L’inférence bayésienne
L’inférence bayésienne est une méthode de calcul de probabilités qui permet de calculer la probabilité des
causes d’un événement à partir des probabilités des effets de cet événement, à l’intérieur de systèmes
complexes.
Elle est notamment utilisée dans les domaines médicaux, industriels ou même dans le domaine de
l’analyse de spams.

Ressources (disponibles dans la Boîte à outils de votre cours)


• Calculer des probabilités avec un arbre
• Inférence Bayésienne

5. Les langages de programmation


• Python est très célèbre car des Framework d’apprentissage en profondeur en python sont largement
disponibles et on en développe toujours dans ce langage (TensorFlow, PyTorch, et Keras).
• En tant que langage doté d’une syntaxe lisible et pouvant être utilisé comme langage de script, Python
s’avère puissant et simple à la fois pour le traitement préalable des données et le traitement direct des
données.
• Java est largement utilisé dans la programmation d’entreprise et est généralement utilisé par les
développeurs d’applications bureautiques.
• C est le langage de choix pour l'apprentissage automatique et l'intelligence artificielle dans les
applications de jeu ou de robot (y compris la locomotion de robot). Les développeurs de matériel
informatique embarqué et les ingénieurs électroniques sont plus susceptibles de préférer le C dans les
applications d’apprentissage automatique car ils maîtrisent généralement très bien ce langage.

10 CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE


6. Les biais Humains
Bien que les données et l’analyse informatique puissent nous faire penser que nous recevons des
informations objectives, ce n’est pas le cas ; être basé sur des données ne signifie pas que les résultats de
l’apprentissage automatique sont neutres.
Le biais humain joue un rôle dans la manière dont les données sont collectées, organisées et, en dernière
analyse, dans les algorithmes qui déterminent la manière dont l’apprentissage automatique interagira
avec ces données.
Si, par exemple, des personnes fournissent des images de « poisson » en tant que données pour former
un algorithme et choisissent en très grande majorité des images de poisson rouge, un ordinateur peut ne
pas classer un requin en tant que poisson, créant un biais contre les requins en tant que poissons, et les
requins ne seraient pas comptés en tant que poissons.
La qualité et la représentativité des données fournies sont essentielles pour la qualité des résultats. En
effet, l’un des risques de l’apprentissage automatique réside dans l’amplification des biais des données.
Par ailleurs, une interprétation trop rapide des données et un amalgame entre corrélation et causalité
peuvent aboutir à des résultats erronés.
L’apprentissage automatique est de plus en plus utilisé par les entreprises, des préjugés non
appréhendés peuvent donc entraîner des problèmes systémiques sur certains types de personnes
entraînant certaines conséquences. Par exemple cela peut empêcher certaines personnes d’avoir un prêt,
de se voir présenter des offres d’emploi bien rémunérées…
Comme les préjugés humains peuvent influencer négativement des décisions sur les autres, il est
important d’en avoir connaissance pour les éliminer le plus possible. Il faut donc veiller à ce que le panel
des personnes travaillant sur un projet soit suffisamment diversifié, de même celui des diverses
personnes le testant.

CNED TERMINALE ENSEIGNEMENT SCIENTIFIQUE 11

Vous aimerez peut-être aussi