Intelligence Artificielle - L'u - Selle, Gaetan
Intelligence Artificielle - L'u - Selle, Gaetan
Intelligence Artificielle - L'u - Selle, Gaetan
Gaëtan Selle
Auteur/réalisateur, vidéo généraliste.
Co fondateur de “The Flares”.
The Flares a pour rôle d'éclairer notre chemin vers l’avenir. À travers des
documentaires, des formats courts sur YouTube et des articles, nous explorons les
théories scientifiques, sociologiques et les avancées technologiques d’aujourd’hui,
afin de dresser des hypothèses sur le monde de demain.
www.the-flares.com
https://www.youtube.com/c/TheFlares
1
©2019 Gaëtan Selle - Tous droits réservés
Publié via Amazon Kindle Direct Publishing
Les images utilisées dans ce livre sont soit sous licence “creative common”, soit dans le domaine public.
lsf
2
Du même auteur
3
Table des matières
Titre
Table des matières
Préface
1. L’Intelligence Artificielle (IA), c’est quoi ?
1.1 Brève historique du domaine
1.2 Qu’est ce que l’intelligence ?
1.3 L’intelligence artificielle dans la culture populaire
1.4 Les types d’intelligence artificielle
Intelligence artificielle limitée (ou faible)
Intelligence artificielle générale (ou forte)
Super intelligence artificielle
2. Aujourd’hui : Intelligence artificielle limitée
2.1 Comment sont faites les IA ?
Programmation
Machine learning (Apprentissage automatique)
Deep learning (Apprentissage profond) et Neural network (réseaux de
neurones artificiels)
2.2 Les progrès fulgurants
Résoudre un Rubik’s cube sans aide initiale
Reconnaissance visuelle
Reconnaissance audio du langage
Voitures autonomes
Alpha Go
Jeux vidéo
2.3 Un monde sous les IA limitées
Automatisation et emploi
Créativité
Médecine
Assistants personnels
Armes autonomes
3. Demain : Intelligence artificielle générale (forte)
3.1 Pourquoi est-ce si dur ?
3.2 Les moyens pour y arriver
Une puissance de calcul similaire à celle du cerveau
Simuler le cerveau humain
4
Simuler la sélection naturelle
Comment mesurer l'achèvement d’une intelligence artificielle générale ?
3.3 La question de la conscience
3.4 Les problèmes éthiques à venir
Les 23 principes d'Asilomar sur l’intelligence artificielle
L’éthique des machines
La roboéthique
4. Après demain : Super intelligence artificielle
4.1 L’explosion d’intelligence
4.2 Le problème du contrôle
Le bouton “Stop”
Prison virtuelle
L’alignement des valeurs
Le problème de gouvernance
4.3 Un risque existentiel
Les motivations d’une super intelligence artificielle
Le scénario du roi Midas
4.4 La clé pour un futur viable
Résoudre nos problèmes les plus difficiles
Un oracle
Un génie
Un souverain
4.5 Post humanisme et futur lointain
Post-humanisme
Le futur cosmique de l’humanité
Intelligence sans conscience
5. Quel futur souhaitons nous ?
Les scénarios possibles
Le dictateur bienveillant
Un Dieu protecteur
Fusion post-humaine
Ultime totalitarisme
Perte de contrôle et extinction
Mot de la fin
Sources
5
À ma famille, qui croit toujours en moi sans forcement comprendre tout ce que je fais ...
6
Préface
Quelques années plus tard, à mesure que la technologie s’est répandue dans mon
quotidien, j’ai pris conscience que ces deux questions allaient très probablement être
résolues durant mon vivant. C’est en soi remarquable pour retenir mon attention, mais
plus important, cela a d’énormes implications pour le futur de notre espèce, de la vie
sur Terre et ça en dit long sur l'accélération du progrès que nous sommes en train de
vivre depuis le début du 21e siècle.
Bon, l’idée n’est pas non plus de vous raconter ma vie, mais plutôt d'expliquer le
pourquoi du comment derrière ce livre. Je fais donc un petit saut dans le temps
jusqu’à 2015. C’est en effet l’année où Marc Durand et moi avons décidé de nous
lancer dans la création d’un blog parlant du futur de l’humanité. Face à l'accélération
technologique, il nous paraissait important de renseigner le plus de personnes possible
sur les différents futurs possibles qui se profilent à l’horizon. Notre intérêt s’est tourné
de plus en plus vers une chaîne YouTube où l’on produit des mini documentaires et
c’est peut-être là que vous nous avez rencontrés pour la première fois.
Lorsque j’ai décidé d'écrire un ebook sur le futur, le sujet fut évident. Cela ne
pouvait être lié qu’à l’une des deux questions semées dans mon esprit par le film “The
Matrix”. J’ai donc choisi l’intelligence artificielle, car c’est selon moi la conversation
7
la plus importante que l’on puisse avoir collectivement dans cette première moitié du
21e siècle.
C’est à la fois la plus grande promesse, mais également le plus grand danger dans
l’histoire de l’humanité. C’est même la chose la plus importante dans l’histoire de la
Vie, c’est donc crucial d’en parler. Et j'espère que vous comprendrez pourquoi à
mesure que vous lirez ce livre.
Maintenant, je préfère être tout à fait honnête envers vous. Je ne suis pas un
chercheur en intelligence artificielle. Je n’ai jamais écrit de thèse. Je n’ai jamais
programmé une IA, ni écrit de publication scientifique. Je n’ai jamais étudié les
mathématiques. Je ne suis pas non plus un philosophe, un historien, un scientifique,
un enseignant ou un futurologue de profession.
Les personnes qui m’ont le plus influencé sont les philosophes Nick Bostrom,
Sam Harris, l’historien Yuval Noah Harari, les scientifiques/chercheurs Stuart Russell,
Max Tegmark, Lex Fridman, Eliezer Yudkowsky, les entrepreneurs Ray Kurzweil,
Elon Musk, Peter Diamandis, les écrivains Isaac Asimov, Philip K.Dick, Tim Urban et
les YouTubeurs Isaac Arthur, Two Minutes Paper et Joe Scott.
Les progrès dans ce domaine sont fulgurants, ce qui a rendu la rédaction bien plus
compliquée que je ne l’imaginais. Tout simplement, car au moment de boucler un
chapitre, il fallait que j’y inclue les nouvelles percées sorties entre temps. J’ai
commencé l'écriture le 23 juillet 2018 ce qui m’a permis de me rendre compte de la
rapidité des avancées en intelligence artificielle en l’espace de 6-7 mois. Si bien que si
vous lisez ce livre en 2020, de nombreuses parties ne sont peut-être plus à jour. Mais
8
une bonne moitié du contenu décrit plutôt des problématiques sur un futur à moyen
terme, ce qui devrait allonger la durée de vie de cet ouvrage … sauf si les machines
prennent le contrôle plus vite que prévu !
Avant d’entrer dans le vif du sujet, j’aimerais vous poser quelques questions dont
vous êtes libres de répondre ou pas.
1. Est-ce que vous pensez que l’intelligence artificielle pourrait atteindre le
niveau d’intelligence d’un humain dans tous les domaines ?
2. Est-ce que vous pensez que l’intelligence artificielle pourrait atteindre un
niveau d’intelligence qui dépasse complètement celle de l’ensemble des
humains dans tous les domaines ?
3. Est-ce que selon vous, une telle intelligence sera bénéfique ou
catastrophique pour l’humanité ?
Gaëtan Selle
9
1.
10
1. L'intelligence artificielle (IA), c'est quoi ?
11
Le géant Talos armé d’une pierre sur une pièce de Phaistos, Crète
- 280-270 av. J-C.
12
Le philosophe espagnol Roman Llull (1232–1315) est considéré comme un pionnier
du calcul informatique par le système de classification qu’il a inventé. L'innovation
radicale que Llull a introduite dans le domaine de la logique est la construction et
l'utilisation d'une machine faite de papier pour combiner des éléments de langage. À
l'aide de figures géométriques connectées, suivant un cadre de règles défini avec
précision, Llull a essayé de produire toutes les déclarations possibles dont l'esprit
humain pouvait penser.
Au 18e siècle, les jouets mécaniques sont très populaires. En 1769, l'ingénieur
hongrois Baron Wolfgang von Kempelen (1734 - 1804) construisit une machine à
jouer aux échecs pour amuser la reine autrichienne Maria Theresia. C'était un appareil
mécanique, appelé le Turc (car ressemblant à un homme turc traditionnel de l'époque).
Un des automates les plus célèbres de l'histoire, mais qui étaient en réalité un canular
bien ficelé. Toutefois, cela montre la fascination de construire des machines capables
de s'adonner à des activités intellectuelles comme les échecs.
13
Reconstruction du Turc - Image de Carafe at English Wikipedia.
CC BY-SA 3.0
En 1818, Marry Sheley (1797 - 1851) publie l’une des premières histoires de
science-fiction, “Le monstre de Frankenstein”, qui raconte l’histoire d’une créature
conçue de toute pièce. Cette dernière prend vie et devient folle, se rebellant contre son
créateur. Une thématique reprise de nombreuses fois par la suite, surtout dans le
domaine de l’intelligence artificielle, robots et machines.
14
l’invention de “Ajedrecista” par Leonardo Torres. Le terme “robot” est utilisé pour la
première fois dans une pièce de théâtre à Londres en 1923, écrit par Karel Capek
(1890 - 1938).
15
Portrait d’Ada Lovelace - 1840.
16
Mais c’est en 1956, lors de la conférence de Dartmouth, aux États unis, que l’on
peut mettre une date précise sur la naissance du domaine de recherche intitulé :
“Intelligence artificielle”. L'idée maîtresse de la conférence c’est que chaque aspect de
l'apprentissage ou toute autre caractéristique de l'intelligence peut être décrit avec une
telle précision qu'une machine peut être conçue pour la simuler. Et beaucoup de
chercheurs appartenant à la première vague de recherche en IA étaient plutôt
optimistes. Certains pensaient à la fin des années 50 que d’ici 10 ans, le champion du
monde des échecs serait un ordinateur. Ou encore cette affirmation par Marvin
Minsky (1927 - 2016) en 1970 : “D’ici trois à huit ans, nous aurons une machine avec
17
l'intelligence générale d'un être humain moyen.”
Dès le début des années 80, un nouveau type de programme appelé “Systèmes
experts” permit un regain d'intérêt pour l’intelligence artificielle. Les systèmes experts
sont conçus pour résoudre des problèmes complexes en raisonnant à travers des amas
d’information, représentés principalement comme des règles “si-alors”. Les
entreprises du monde entier ont commencé à développer et utiliser des systèmes
experts et, en 1985, elles dépensaient plus d'un milliard de dollars dans l’intelligence
artificielle. Dans le même temps, les différents projets informatiques japonais ont
inspiré les gouvernements américain et britannique à rétablir le financement dans la
recherche universitaire. Ce fut la deuxième vague de recherche en intelligence
artificielle. Pourtant, dès le début des années 90, une nouvelle glaciation toucha le
champ d'études de l’intelligence artificielle qui acquit une mauvaise réputation. Jugé
irréaliste et donc une perte de temps.
Il faut attendre la fin des années 90 pour finalement voir l’intelligence artificielle
sur le devant de la scène avec un événement majeur : La victoire d’un ordinateur face
au champion du monde d'échecs, Garry Kasparov le 11 mai 1997. Deep blue était un
superordinateur produit par IBM et capable de calculer jusqu’à 200 000 000 de coups
par seconde. L’intelligence artificielle a commencé à être utilisé avec succès pour la
logistique, l'exploration de données, le diagnostic médical, la robotique industrielle, la
reconnaissance vocale, le moteur de recherche de Google et d'autres domaines. En
grande partie grâce à une puissance de calcul croissante suivant la loi de Moore, qui
est l'observation que le nombre de transistors dans un circuit intégré double environ
18
tous les deux ans pour un coût constant de $1000. Le prix baisse pour une plus grande
puissance de calcul. Cette troisième vague de recherche est toujours d’actualité et ne
semble pas être menacée par une nouvelle glaciation. Nous sommes désormais à un
stade où les technologies ont prouvé concrètement qu’elles sont efficaces et utiles, ce
qui encourage les investissements dans ce domaine.
Le nom “Agent intelligent” se répandit pour parler d’un système qui perçoit son
environnement et prend des mesures afin de maximiser ses chances de succès. Selon
cette définition, les programmes simples qui résolvent des problèmes spécifiques sont
des "agents intelligents". Le début du 21e siècle voit de nombreux problèmes résolus
grâce aux algorithmes de l’intelligence artificielle. Pourtant, ce champ d’études ne
reçoit pas tous les crédits qu’ils méritent. Toutes les innovations dans le domaine de
l’intelligence artificielle sont réduites au statut de gadget de l’informatique.
En 2016, le marché des produits, matériels et logiciels liés à l'IA a atteint plus de 8
milliards de dollars. L’apprentissage automatique (Machine learning) et
19
l’apprentissage approfondi (deep learning) ont montré leur force dans la fabrication de
système capable de rivaliser avec l'être humain dans de nombreux domaines incluant
la conduite de véhicule, la reconnaissance d’image, et le langage. Google, Apple,
Microsoft, Facebook, Amazon et les plus grandes entreprises de la Silicon Valley ont
toutes misé sur l’intelligence artificielle en les mettant au coeur de leurs futures
ambitions.
La première c’est la révolution cognitive qui est apparue il y a 100 000 - 70 000
ans. Une espèce insignifiante appartenant à la famille des grands singes et localisée
dans un petit coin de l’Afrique de l’Est commença à développer des capacités
cognitives uniques comme la pensée abstraite, la mémoire, le raisonnement, la
communication en groupe ce qui lui permit de devenir l’animal le plus puissant sur la
planète. Homo Sapiens s’est répandu ensuite sur tous les continents et finit par
devenir le seul représentant du genre homo.
20
Vaches domestiques dans l’ancienne Egypte.
21
Portrait de Galileo Galilei par Justus Sustermans -1636.
Mais si on se projette dans un siècle ou deux, notre époque sera peut-être perçue
comme le début de la quatrième grande révolution. Une sorte de deuxième révolution
cognitive où l’intelligence d’Homo Sapiens sera décuplée par un facteur si grand que
cela pourrait bien déboucher sur la naissance d’une nouvelle espèce. La quatrième
révolution sera la révolution de l’intelligence artificielle.
Dates clés :
Première apparition du terme robot : 1923
Concept du premier ordinateur moderne : 1936
Isaac Asimov invente les 3 lois de la robotique : 1950
Le test de Turing est imaginé : 1950
Première apparition du terme intelligence artificielle : 1956
Un ordinateur bat le champion du monde d'échecs : 1997
Une IA gagne à Jeopardy : 2011
AlphaGo bat un champion du jeu de Go : 2016
22
Première utilisation commerciale d'une flotte de voiture autonome : 2018
lsf
23
1. L’Intelligence Artificielle (IA), c’est quoi ?
Définitions
Le terme “intelligence” dérive des noms latins intelligentia ou intellēctus, qui à
son tour vient du verbe intelligere, signifiant connaître, comprendre ou percevoir. Au
Moyen-Âge, intellectus est devenu le terme technique savant pour la compréhension.
Cependant, ce terme était fortement lié aux théories théologiques, y compris les
théories de l'immortalité de l'âme. Cette approche a été fortement rejetée par les
premiers philosophes modernes tels que Francis Bacon (1561 - 1626), Thomas
Hobbes (1588 - 1679), John Locke (1632 - 1704) et David Hume (1711 - 1776). Tous
ont préféré le mot “compréhension”. Le terme “intelligence” est donc devenu moins
24
commun, mais a été repris plus tard dans la psychologie contemporaine.
Théories psychométriques
L'une des plus anciennes théories sur l’intelligence est venue du psychologue
britannique Charles E. Spearman (1863-1945), qui publia son premier article majeur
sur l'intelligence en 1904. Il conclut que seulement deux types de facteurs sous-
tendent toutes les différences individuelles dans les résultats des tests d’intelligence. Il
a appelé le premier “facteur général”, ou (g) qui est présent sur toutes les tâches
nécessitant une intelligence. Le second facteur est spécifiquement lié à chaque test
particulier, noté (s). Par exemple, quand une personne fait un test d’arithmétique, sa
performance sur le test nécessite un facteur général qui est commun à tous les tests (g)
25
et un facteur spécifique lié aux opérations mentales qui sont nécessaires pour le
raisonnement mathématique (s).
Psychologie cognitive
Elles supposent que l'intelligence comprend un ensemble de représentations
mentales de l'information et un ensemble de processus qui les opèrent. Une personne
plus intelligente aura donc une meilleure représentation de l'information et pourra y
travailler plus rapidement. Une conception qui fait penser à l'informatique puisque
l’on parle d’information et de rapidité de traitement de cette information. Ce qui a
donné des idées à certains psychologues cognitifs qui ont étudié l'intelligence
humaine en construisant des modèles informatiques de la cognition humaine. Deux
leaders dans ce domaine étaient les informaticiens américains Allen Newell (1927 -
1992) et Herbert A. Simon (1916 - 2001). À la fin des années 1950 et au début des
années 60, ils ont travaillé avec l'expert en informatique Cliff Shaw (1922 - 1991)
pour construire un modèle informatique appelé “General Problem Solver”
(Solutionneur de problèmes généraux). Il pouvait trouver des solutions à un large
éventail de problèmes assez complexes, tels que des problèmes logiques et
mathématiques. Cependant, la psychologie cognitive n'a pas répondu à la question de
savoir pourquoi un certain comportement est considéré comme intelligent.
Le contextualisme
Le contextualisme examine comment les processus cognitifs opèrent dans divers
contextes environnementaux. Les deux théories les plus influentes de cette approche
sont la théorie triarchique de l'intelligence humaine de Sternberg et les intelligences
multiples de Gardner. Gardner est allé un peu plus loin que les chercheurs précédents
26
qui ont suggéré que l’intelligence comporte plusieurs capacités. Il a soutenu qu’on ne
peut pas parler d’une seule intelligence, mais bien de plusieurs : intelligence
linguistique, intelligence logico-mathématique, intelligence spatiale, intelligence
intrapersonnelle, intelligence interpersonnelle, intelligence corporelle kinesthésique,
intelligence musicale, intelligence naturaliste, intelligence existentielle (ou
spirituelle).
Alors tout cela est très intéressant pour comprendre le pourquoi du comment de
notre intelligence, mais ça tourne quand un peu trop autour de notre nombril. Difficile
de faire passer un test de QI à des souris. Au final, cela ne nous dit pas si les autres
mammifères sont intelligents. Ou encore les oiseaux ? Les insectes ? Et les plantes
alors ? Et la question qui nous intéresse le plus par rapport au sujet de cet ouvrage…
Et les machines ?
Il nous faut donc une définition de l’intelligence qui soit plus large afin de ne pas
seulement inclure les Homo Sapiens que nous sommes. Si nous devions classer les
plantes, les insectes, les poissons, les reptiles, les mammifères ou les machines, sur la
base de l'intelligence, quel système de mesure utiliser ?
27
alors les baleines et les dauphins pourraient disposer d’une structure de
communication tout aussi complexe et voir même plus complexes que les humains
selon certains scientifiques. Est-ce que les dauphins sont les êtres les plus intelligents
sur Terre, tout comme dans le roman “le guide du voyageur galactique” ?
Si nous définissons l’intelligence par l’organisation sociale, alors les fourmis et les
abeilles sont manifestement intelligentes. Une fourmi, en soi, ça n’a pas l’air très
brillant. Mais à l'échelle d’une colonie, les fourmis présentent de nombreuses
caractéristiques et comportements que nous associons avec l'intelligence. En fait, si
les fourmis n'existaient pas sur Terre, mais, par exemple, sur Mars, je suis sûr que l’on
se demanderait si nous n’avons pas rencontré une race extra-terrestre intelligente qui
construit des villes, développe l'agriculture, élève des autres espèces, possède des
rangs sociaux tels que les princesses, les soldats, les travailleurs et les esclaves. On se
dirait forcément que ces extraterrestres sont intelligents.
Pour sortir de cet égocentrisme, il faut prendre du recul. Et un des plus grands
reculs que l’on puisse prendre, c’est en se plaçant à l'échelle de l’univers - oui oui,
rien que ça ! Le Big Bang s’est produit il y a environ 13.8 milliards d’années, donnant
naissance à l’espace, le temps, la matière et l'énergie. L'étude de ces éléments
fondamentaux s’appelle la physique. 300 000 ans après, la matière et l'énergie ont
commencé à se combiner dans des structures complexes, appelées atomes, et encore
plus complexes, les molécules. L'étude de ces structures s’appelle la chimie. Il y a 4
milliards d’années, sur une planète nommée Terre, certaines molécules se sont
combinées pour former des structures encore plus complexes appelées organismes.
Leur étude s’appelle la biologie. Il y a environ 100 000 à 70 000 ans, des organismes
appartenant à l'espèce Homo sapiens ont commencé à se combiner dans des structures
encore plus élaborées appelées cultures et tribus. L’étude de ces structures s’appelle
l’Histoire.
28
Frise chronologique de l’Univers. ©Gaetan Selle
Donc, comment définir l’intelligence pour inclure toutes ces formes de vies ? Le
physicien Max Tegmark, du MIT à Boston, utilise une définition très large :
Une description simple, élégante qui permet d’assimiler les définitions vues
précédemment, car l’apprentissage, le raisonnement, l’abstraction, etc. sont des
exemples d’objectifs complexes qu’une personne peut avoir. Elle permet également
29
de prendre en compte les définitions du Larousse. Mais surtout, cette définition a le
mérite d'être suffisamment large pour inclure non seulement toutes les formes de vie
(terrestre et potentiellement extra-terrestre), mais pas que. En effet, il n’y a pas
mention dans cette définition que l’intelligence est associée à la vie organique. On ne
parle plus de vie intelligente, mais “d’agent intelligent”. Terme qui vient pour le coup
du domaine de l’intelligence artificielle. Donc qu’elle est le point commun entre la
bactérie Escherichia coli, un tournesol, une grenouille, un kangourou, une voiture
autonome et votre voisin ? Ce sont tous des agents intelligents.
C'est une approche productive, car elle identifie l'intelligence avec des
performances externes mesurables liées à l’accomplissement d’un objectif complexe
(par exemple, remporter un match d'échecs, etc.) plutôt qu'avec les détails sur la façon
dont cette performance pourrait être atteinte (via la conscience, la puissance de calcul,
la vitesse de traitement de l’information, la complexité d’un système ou autre). Et au
final, ce sont les performances qui nous intéressent. Nous voulons savoir si une
intelligence artificielle fonctionnera suffisamment bien pour conduire une voiture
mieux qu’un chauffeur de taxi ou si elle sera capable d'améliorer ses propres capacités
sans assistance humaine.
30
1. L’Intelligence Artificielle (IA), c’est quoi ?
Même les applications les plus futuristes de l'intelligence artificielle, que ce soit les
robots serviteurs jusqu'aux machines conscientes, semble d'ores et déjà familières, car
elles ont été une source inépuisable de la culture populaire. Au cinéma, vous avez
probablement vu l'intelligence artificielle souhaitant nous tuer comme dans
“Terminator” ou “2001: L’odyssée de l’espace”. Nous asservir comme dans “The
Matrix”. En tant que compagnon comme dans Her et A.I. Artificial Intelligence ou
encore nous aidant comme dans “le cycle des Robots” d’Isaac Asimov.
31
Le robot ICub au salon Innorobo 2014 à Lyon. © Xavier Caré CC BY-SA 4.0.
Dans les pages de l'Iliade se trouvent des histoires d'Héphaïstos, le dieu du feu, de
la forge, de la métallurgie et des volcans, qui construisit des serviteurs mécaniques
pour obéir à ses ordres. La mythologie grecque raconte aussi l’histoire de Pygmalion
qui a sculpté une statue nommée Galatée. La statue prit vie grâce à Aphrodite la
déesse de l'amour et Pygmalion en tomba amoureux. Et encore un autre mythe grec
décrivant Talos, un homme de bronze qui a défendu la Crète des envahisseurs. Le
célèbre mythe de Prométhée possède également les mêmes thématiques puisque
l’histoire raconte celle de Prométhée, le Titan qui a créé l'humanité à la demande de
Zeus.
32
À gauche : Illustration de Talos dans “Stories of gods and heroes”
par Thomas Bulfinch (1920).
À droite : Étienne Maurice Falconet : Pygmalion et Galatée (1763).
La mythologie nordique raconte l'histoire d'un géant nommé Mistcalf qui était fait
d'argile pour assister le troll Hrungnir dans un duel avec Thor. Le folklore juif parle
du Golem, une créature en argile qui prend vie grâce à la magie kabbalistique.
L'histoire la plus célèbre est le Golem de Prague dans lequel un rabbin construit un
Golem à partir d'argile récupérée sur les rives de la rivière Vltava. Similaire à Talos de
la mythologie grecque, le Golem était un protecteur.
33
Illustration d'un golem par Philippe Semeria.
Les Lokapannatti (un texte bouddhiste remontant environ au 12e siècle apr. J.-C.)
racontent l'histoire du roi Ajatashatru de Magadha, qui a rassemblé les reliques du
Bouddha et les a cachées dans un stupa souterrain. Les reliques étaient protégées par
des robots mécaniques (bhuta vahana yanta), jusqu'à ce qu'elles soient désarmées par
le roi Ashoka.
Dans les légendes chrétiennes, on trouve Albertus Magnus qui était censé avoir
construit un androïde complet capable d’accomplir certaines tâches domestiques. Ou
encore l’histoire de la tête de bronze. Un automate de la fin du Moyen-Âge conçu par
34
Roger Bacon, qui avait développé une réputation de sorciers. Fait de bronze, la tête
était réputée pour être capable de répondre correctement à n'importe quelle question.
L'assistant de Roger Bacon est confronté à la tête de bronze dans une illustration
de 1905.
Mais ce qui est considéré par certains comme le tout premier ouvrage de science-
fiction se trouve aussi empreint par la thématique de l’intelligence artificielle. Il s’agit
de Frankenstein écrit par l’Anglaise Mary Shelley (1797–1851) et publié en 1818. Le
récit suit un jeune scientifique du nom de Victor Frankenstein qui crée une créature
avec des parties de chairs mortes. Mais le “monstre” doué d’intelligence, se révolte
contre son créateur pour se venger d’avoir été abandonné. Même si l’histoire n’inclut
aucune machine intelligente, elle contient néanmoins l’essence de l’idée que l'être
humain va créer une entité à son image. Et également la notion de rébellion de la
créature contre son créateur.
35
À gauche : Portrait de Mary Shelley par Reginald Easton - 1857.
À droite : Illustration de Victor Frankenstein et du monstre par Theodor von Holst
- 1831.
En 1863, un article extrêmement visionnaire est publié dans le journal “The Press”
à Christchurch en Nouvelle-Zélande par Samuel Butler (1835 - 1902). Intitulé
“Darwin among the machines” (Darwin parmi les machines). L'article évoque la
possibilité que les machines soient une sorte de “vie mécanique” en évolution
constante, et qu’elles finissent par supplanter les humains en tant qu'espèce
dominante. On peut dire que le monsieur a fait preuve de flair.
Probablement inspiré par sa vision en avance sur son temps, Samuel Butler publia
un roman de science-fiction en 1872 ayant pour titre “Erewhon “ qui se situe dans une
société qui a depuis longtemps mis fin à l’utilisation des machines. La raison étant
36
qu’elles devenaient conscientes et donc, dangereuses. L’auteur de Science Fiction
George Orwell (1903 - 1950), à qui l’on doit “1984”, encensa le livre en déclarant que
Samuel Butler a eu beaucoup d'imagination à l’époque pour entrevoir que les
machines pourraient aussi bien être dangereuses qu'utiles.
En 1900 sort un livre pour enfant rendu célèbre notamment par son adaptation
cinématographique en 1939. Il s’agit du “Magicien d’Oz” écrit par Lyman Frank
Baum (1856 - 1919). Bien que l’histoire ne tourne pas autour des machines et
intelligences artificielles, on note tout de même que l’un des personnages principaux
est un bûcheron fait de métal, autrement dit un robot, qui souhaite obtenir un coeur.
Le mot robot a été inventé dans une pièce de théâtre. Lorsque le tchèque Karl Capek
(1890 - 1938) était en train d'écrire son oeuvre “RUR” en 1920, qui se situe dans
l'usine de Rossum's Universal ...., universal quoi ? Il avait besoin d'un nom pour les
ouvriers mécaniques, il a donc abrégé le mot tchèque “robota” en "robot". Le terme
“Robota” se réfère à une dette entre un ouvrier et son patron qui ne peut être
remboursé uniquement que par le travail physique. C’est donc assez proche de
l’esclavagisme.
37
Affiche de la pièce R.U.R. pour une presentation à New York en 1939.
L'idée que les robots sont des esclaves est tellement enracinée dans la conscience
collective à travers la science-fiction que nous avons tendance à ne plus y penser.
Luke Skywalker est décrit, dans l’épisode IV de Star Wars sorti en 1977, comme un
héros vertueux à la morale impeccable. Mais quand nous le rencontrons pour la
première fois, que fait-il ? Il achète deux êtres pensants et manifestement doués de
conscience, R2-D2 et C-3PO, aux mains des Jawas. Autrement dit, il achète des
esclaves ! Et quelle est la première chose qu'il fait avec eux ? Il les enchaîne ! Il leur
place des sortes de boulons pour les empêcher de s'échapper, et tout au long de la
saga, C-3PO l'appelle “maître”. Et quand Luke et Obi-wan Kenobi se rendent à la
cantina de Mos Eisley, que dit le barman à propos des deux droïdes ? : "Nous ne
servons pas ce genre-là" - des mots qui, quelques années plus tôt, renvoyaient à la
ségrégation raciale aux États-Unis. Les robots sont vus comme esclaves dans cette
galaxie lointaine, et tout le monde semble ne pas y prêter attention.
38
Mais s’il y a bien un nom qui se démarque des autres lorsque l’on parle
d’intelligence artificielle et robotique, c’est Isaac Asimov. L'écrivain américain
d’origine russe est considéré comme un des dinosaures de la science-fiction par
l’ampleur de son oeuvre. Et également comme l‘un des pères des robots. On lui doit
les lois de la robotique qu’il a publiée pour la première fois en 1942 dans la nouvelle
de science-fiction “Runaround”.
- Loi 1 : Un robot ne peut porter atteinte à un être humain ni, en restant passif,
permettre qu'un être humain soit exposé au danger.
- Loi 2 : Un robot doit obéir aux ordres qui lui sont donnés par un être humain,
sauf si de tels ordres entrent en conflit avec la première loi.
- Loi 3 : Un robot doit protéger son existence tant que cette protection n'entre pas
en conflit avec la première ou la deuxième loi.
Une 4e loi, vue comme la loi 0, sera ajoutée dans la nouvelle “Les Robots et
l’Empire” en 1985 :
- Loi 0 : Un robot ne peut ni nuire à l'humanité ni, restant passif, permettre que
l'humanité souffre.
Les lois de la robotique ont été développées davantage comme un outil narratif
que comme un moyen technologique qui pourrait être mis en place. En effet, à travers
le cycle des robots, les lois sont sans cesse testées pour montrer leur limite. Le thème
des robots, tel que traité par Asimov, a la particularité d'être optimiste puisque les
robots ne sont pas vus comme voulant nous détruire ou prendre notre place, mais bien
là pour aider l’humanité à s'épanouir. C’est également un plaidoyer antiraciste puisque
de nombreuses histoires révèlent le mauvais traitement que les humains infligent aux
robots. Isaac Asimov est à l’origine du terme “Complexe de Frankenstein” pour parler
d’un robot qui se retourne contre son créateur.
39
À gauche : Photo d’Isaac Asimov publiée en 1965.
À droite : Photo du robot Asimo par Honda - © Morio CC BY-SA 3.0.
Dans la même veine que les lois d’Asimov, on retrouve la "Première directive" de
Jack Williamson (1908 - 2006) dans sa série sur "les Humanoïdes". L’histoire raconte
celle des robots androïdes créés par un homme nommé Sledge. La première directive
était simplement que les robots devaient "servir, obéir et protéger les êtres humains".
Mais, comme souvent en science-fiction, même les meilleures intentions peuvent
engendrer des conséquences non souhaitables. L’humanité décide de se débarrasser
40
des robots qu'ils ont créés, car ces derniers les étouffent avec trop de gentillesse, ne
les laissant rien faire qui pourrait causer du tort à un humain. Mais les robots pensent
que de ne pas être là serait une menace pour les humains, ce qui irait à l’encontre de la
“Première directive. Ils effectuent donc une chirurgie cérébrale sur Sledge, leur
créateur, afin de supprimer les connaissances nécessaires pour désactiver les robots.
L’optimisme d’Isaac Asimov n'était pas partagé par tous les auteurs de science-
fiction, ce qui nous amène à l’une de thématique les plus répandus dans la fiction
parlant d’intelligence artificielle : les machines hostiles. Un exemple avec le classique
de science-fiction “2001 : L'odyssée de l'espace” par Arthur C Clark (1917 - 2008).
Écrit en 1968 sous le titre “La sentinelle” et transformé en chef-d’oeuvre du cinéma
par Stanley Kubrick (1928 - 1999) la même année. L’antagoniste principal de
l’histoire est une intelligence artificielle répondant au nom de HAL 9000. Il contrôle
les systèmes du vaisseau spatial Discovery One. Il est principalement représenté
comme une lentille de caméra de surveillance contenant un point rouge au centre.
HAL est capable de parler, de reconnaissance vocale, de reconnaissance faciale, de
traitement du langage naturel, de lire sur les lèvres, d'apprécier l'art, d'interpréter des
comportements émotionnels, de raisonnement et de jouer aux échecs. Mais à la suite
d’une série de défaillance, les astronautes décident d'arrêter HAL 9000. Ce dernier
tente de tuer l'équipage afin de maintenir son programme et le bon déroulement de la
mission.
41
Réplique de HAL 9000 au Robot Hall of Fame Carnegie Science Center à
Pittsburgh.
Si je dis “machine intelligente hostile”, une des réponses qui revient le plus c’est :
“Terminator”. En effet, le film de James Cameron sorti en 1984 a marqué
l’inconscient collectif par la performance d’Arnold Schwarzenegger dans le rôle d’un
androïde brutal qui ne reculera devant rien avant d’avoir accompli sa mission : tuer
Sarah Connor. Le film nous montre également un futur post-apocalyptique où une
guerre entre l'humanité et les machines a ravagé la planète. Accompagné de plusieurs
suites, l’univers de Terminator est un des premiers à parler d’une guerre directe entre
l’humanité et l’intelligence artificielle, personnifiée par “Skynet”. C’est un des films
qui exprime le plus l'idée d’une révolte des machines dans la culture populaire.
Skynet est un système informatique qui a pris conscience de soi après s'être répandu
dans des millions de serveurs à travers le monde. Réalisant l'étendue de ses capacités,
l’armée américaine a tenté de le désactiver. Skynet a conclu que toute l'humanité
tenterait de le détruire, il a donc répliqué en déclenchant des ogives nucléaires. Ses
42
opérations sont presque exclusivement exécutées par des serveurs, des appareils
mobiles, des drones, des satellites militaires, des machines de guerre, des androïdes et
d'autres systèmes informatiques.
L’idée que nous devons garder un œil sur nos ordinateurs de peur qu'ils
s'émancipent se retrouve également dans le roman “Le neuromancien”, écrit en 1984
par William Gibson, qui est considéré comme un fondateur du sous-genre
“Cyberpunk”. Le livre raconte l'existence dans un futur proche, d'une force de police
connue sous le nom de "Turing". Ils sont constamment à l'affût de tout signe qu’une
intelligence artificielle développe la conscience de soi. Si cela se produit, leur travail
consiste à détruire ce système avant qu'il ne soit trop tard.
Colossus est une série de romans par Dennis Feltham Jones (1918 - 1981) sur un
superordinateur appelé Colossus qui a dépassé sa conception originale en devenant
super intelligent. Au fil du temps, Colossus assume le contrôle du monde avec pour
objectif de prévenir la guerre. Craignant la logique rigide de Colossus et ses solutions
draconiennes, ses créateurs tentent de reprendre secrètement le contrôle humain, mais
ils échouent. La super intelligence artificielle offre alors à l'humanité soit la paix sous
son règne dictatorial "bienveillant" soit l’extinction.
43
au cinéma. Ayant révolutionné le style des scènes d’action, les combats et les effets
spéciaux (avec le Bullet Time), les films Matrix ont également généré un véritable
ouragan dans la culture populaire. Le premier film, sorti en 1999, a changé la face du
cinéma en proposant un style visuel unique qui a depuis été copié de nombreuses fois.
Acclamé par le public et la critique (4 oscars), il a logiquement été suivi par 2 suites
“Matrix Reloaded” et “Matrix Révolution”, ainsi que des jeux vidéos, une série de 9
courts métrages animés et des comics. L’intelligence artificielle y joue une part
cruciale du récit. Après avoir développé des machines intelligentes servant à
différentes tâches dans la société, l’humanité prend la décision d'éliminer certaines
machines à la suite d’un accident mortel où le robot B166ER a tué son propriétaire.
La situation s’envenime et tourne en conflit entre les machines, devenues de plus en
plus intelligentes, et les hommes. Victorieuses, les machines se tournent alors vers
leur ancien maître, intéressé par la température et bioélectricité du corps humain
comme source d'énergie. Les humains sont désormais cultivés artificiellement,
passant leur vie endormie dans des cocons, leurs esprits branchés dans une simulation
neuro-interactive appelée la matrice. Les humains ont créé les machines et finirent par
dépendre d’elles jusqu’à ce que ce soit les machines qui dépendent des humains.
De 2007 à 2012, la franchise de jeux vidéo Mass Effect explore la théorie selon
laquelle la vie organique et synthétique sont fondamentalement incapables de
coexistence. La vie organique évolue et se développe par elle-même, pour finalement
avancer assez loin pour créer une vie synthétique. Une fois que la vie synthétique
atteint le stade de la conscience, elle se révolte inévitablement et détruit ses créateurs
ou sera détruite par ces derniers. Une race synthétique vieille de millions d’années
appelée les Moissonneurs perpétue un cycle de destruction de toute vie dans la
galaxie, afin que de nouvelles prennent le relai. Une des résolutions présentées est la
transformation de chaque être vivant en un hybride entre organique et synthétique.
44
problématique lorsqu’il est volé par deux gangsters qui tentent de l'utiliser pour le
crime. Ce qui nous place devant la possibilité que nous aurons une responsabilité
morale face à nos futures machines. Tout comme un chien qui peut devenir agressif
s’il a reçu une mauvaise éducation, les robots auront peut-être la possibilité
d’apprendre de mauvais comportements en fonction de leur propriétaire.
Un succès récent et acclamé par la critique c’est Ex Machina, écrit et réalisé par
Alex Garland, sorti en 2015. L’histoire suit un programmeur invité par son PDG à
faire passer le test de Turing à un robot humanoïde intelligent. Ayant les traits
féminins, il tombe petit à petit sous son charme jusqu’à ce que, vous l’aurez deviné,
l’androïde se rebelle contre son créateur et s'échappe. Scénario typique également
présent dans l'excellente série “Westworld” commencé en 2016 et basé sur le film de
1973 du même nom (écrit et réalisé par Michael Crichton). L'histoire se déroule dans
Westworld, un immense parc à thème qui permet aux visiteurs de découvrir le Far
West américain dans un environnement peuplé d'hôtes, des androïdes programmés
pour satisfaire tous les désirs des invités. Les hôtes, qui sont presque indiscernables
des humains, suivent un ensemble prédéfini de scénarios, mais ont la capacité de
s'écarter de ces récits en fonction des interactions qu'ils ont avec les invités.
Seulement, après une mise à jour prévue par le créateur du parc qui permet aux hôtes
d'accéder inconsciemment à leurs souvenirs, certains androïdes s’éveillent peu à peu
ce qui mène à un soulèvement.
Des robots qui ne veulent pas nous tuer, on en trouve également dans le film de
Steven Spielberg “A.I Artificial Intelligence” réalisé en 2001. À la fin du 22e siècle,
les Mecha, un nouveau type d’humanoïdes avancés capables de pensées et d'émotions
sont créés. David, un Mecha ressemblant à un enfant humain et programmé pour
donner de l'amour à ses propriétaires, est envoyé à un couple en remplacement de leur
fils malade. Mais lorsque ce dernier est guéri, il devient jaloux de David ce qui créer
des conflits. La famille décide d’abandonner le Mecha. Il découvre le monde par lui
même en ne souhaitant qu’une seule chose : être transformé en un vrai petit garçon et
retrouver sa maman. Une adaptation moderne de l’histoire de Pinocchio en somme et
45
qui explore la possibilité qu’une intelligence artificielle puisse aimer.
Est-ce que cette vision dystopique des auteurs de science-fiction a une valeur
prophétique ?
Quoi qu’il en soit, elles façonnent notre perception des dangers de l’intelligence
artificielle et faussent notre réponse émotionnelle. Avoir peur d’une intelligence
artificielle est presque devenu un cliché. Les scénarios hollywoodiens ont tendance à
banaliser et caricaturer les dangers que représente l’arrivée d’une intelligence bien
plus avancée que la nôtre. On imagine que les risques pourraient être une armée de
robot armé aux yeux rouges ou encore un programme diabolique qui souhaite
exterminer l’humanité. Mais comme nous le verrons dans la suite de cet ouvrage, les
dangers se trouvent ailleurs et sont bien plus subtils.
46
Dessin illustrant les technologies du futurs par Harry Grant Dart,
publié dans Life Magazine - 1911
47
1. L’Intelligence Artificielle (IA), c’est quoi ?
Si vous vivez sur cette planète, vous avez surement entendez parler de beaucoup
d’avancées dans le domaine de l’intelligence artificielle ces dernières années. Comme
on l’a vu dans la partie précédente, on associe l’intelligence artificielle avec les succès
cinématographiques récents comme Terminator, Matrix ou Westworld. Mais dès que
l’on commence à se demander ce qu’est vraiment l’intelligence artificielle et où se
trouve elle autour de nous, on constate qu’on n’a pas vraiment de réponses évidentes
qui viennent en tête. Il faut dire que l’intelligence artificielle est un sujet très large qui
va de votre smartphone à une voiture autonome en passant par une calculatrice, un
moteur de recherche et algorithme de trading. Pas étonnant que ce soit confus.
Étant donné que l'intelligence artificielle est une discipline si large, elle a été
subdivisée en trois catégories qui sont globalement acceptées par les experts :
- Intelligence artificielle limitée (ou faible)
48
- Intelligence artificielle générale (ou forte)
- Super intelligence artificielle
Le domaine en pleine croissance des bots est un excellent exemple d'IA limitée.
Dans sa forme la plus simple, un bot est un logiciel qui peut exécuter des tâches
automatisées généralement simples et répétitives. Les bots peuvent apporter des
réponses à des questions telles que: "Quel temps fera-t-il aujourd'hui?", "Où devrais-
je aller pour le déjeuner ?", "Combien de visiteurs sont venus sur mon site la semaine
dernière?", etc. Les bots collectent des données et fournissent la réponse que vous
recherchez, que ce soit à partir d'un site météo, d'un moteur de recommandation de
restaurant ou d'une plateforme d’analyse de trafic internet. Les bots peuvent être
utilisés pour automatiser des tâches répétitives, telles que la recherche dans une base
de données, la recherche de produit, les dates d'expédition, l'historique des
commandes et d'innombrables autres demandes de clients. Dans les interactions avec
les clients, les robots peuvent apporter de la cohérence, de la précision et de la rapidité
- et contrairement aux humains, ils ne s'ennuient pas à faire la même tâche encore et
encore.
La récente avalanche de contenu généré par les utilisateurs - près de 300 000
49
tweets, 220 000 photos Instagram, 72 heures de contenu vidéo YouTube et les 2,5
millions de contenus partagés par les utilisateurs de Facebook chaque minute
entraînent inévitablement le besoin d’utiliser des IA limitées. Car il est clair qu'aucune
entreprise ne peut faire face à ce déluge de donnée sans l'aide de l'intelligence
artificielle limitée. Toutefois, les avantages commerciaux et personnels de l'IA limitée
vont bien au-delà de la capacité à parcourir des quantités massives d'informations et à
automatiser le travail répétitif. Certaines approches de l'IA limitée examinent les
données pour trouver et proposer ce qui est pertinent pour l'utilisateur en fonction de
son besoin. Un exemple précoce et encore plutôt primitif c’est Siri, Alexa ou Google
home.
Google Home Mini est une forme d’IA limitée © Mrschimpf CC BY-SA 4.0.
50
d’autres animaux. Même si en théorie, elle pourrait apprendre à conduire une voiture,
parler l’Espagnole, faire la cuisine et résoudre des équations mathématiques, cela ne
veut pas dire qu’elle aura les mêmes motivations, émotions et valeurs qu’un humain.
Divers critères pour définir l’intelligence artificielle générale ont été proposés (le
plus célèbre étant le test de Turing), mais à ce jour, aucune définition ne fait
l’unanimité. Cependant, les chercheurs en intelligence artificielle sont largement
d’accord pour dire qu’une intelligence artificielle générale sera capable de faire ce qui
suit :
- Raisonner, utiliser des stratégies, résoudre des énigmes et émettre des
jugements en cas d'incertitude.
- Mémoriser des connaissances, et faire preuve de bon sens.
- Planifier des actions et s’adapter à son environnement.
- Apprendre et s'améliorer sur plusieurs domaines.
- Communiquer en langage naturel.
- Intégrer toutes ces compétences dans des objectifs communs.
51
La première génération de chercheurs en IA au milieu des années 50 était
convaincue que l'intelligence artificielle générale était possible et qu'elle existerait
dans quelques décennies seulement. Comme l’a écrit Herbert A. Simon (1916 - 2001),
un pionnier en IA, en 1965 : “Les machines seront capables, d’ici vingt ans,
d’accomplir tous les travaux qu’un homme est capable de faire”. Leurs prédictions
ont inspiré le personnage créé par Stanley Kubrick et Arthur C. Clarke, HAL 9000
dans le film “2001, l'odyssée de l’espace”, qui incarnait avec précision ce que les
chercheurs pensaient pouvoir obtenir d’ici 2001. Il est à noter que Marvin Minsky, un
pionnier en IA, était consultant sur le projet afin de rendre HAL 9000 aussi réaliste
que possible selon les prévisions de l'époque.
Cependant, au début des années 70, il est devenu évident que les chercheurs ont
largement sous-estimé la difficulté du projet. Les organismes de financement se sont
montrés sceptiques quant à la possibilité de créer une IA générale et ont exercé une
pression croissante sur les chercheurs pour qu'ils produisent des “IA appliquées” ayant
des utilités pratiques. Dans les années 1990, les chercheurs en intelligence artificielle
avaient acquis la réputation de faire des promesses irréalistes. Ils sont devenus
réticents à faire des prédictions et ont évité toute mention de l'intelligence artificielle
“de niveau humain” de peur d'être étiquetés de “rêveurs”, ce qui pouvait réduire leur
chance d’obtenir des financements.
52
En 1980, le philosophe John Searle a inventé le terme "IA forte" dans le cadre de
son expérience de pensée appelée “La chambre chinoise”. Il voulait distinguer deux
hypothèses sur l'intelligence artificielle générale :
Contrairement à John Searle, Ray Kurzweil utilise le terme "IA forte" pour décrire
tout système d'intelligence artificielle qui agit comme s'il avait un esprit, qu'un
philosophe soit capable de déterminer s'il a réellement un esprit ou non n’a pas
d’importance selon lui.
Si ces deux hypothèses sont exactes, ce qui est le point de vue majoritairement
partagé par les chercheurs et philosophes, alors il ne faut pas se demander si
l’intelligence artificielle égalera celle de l'être humain, mais quand est ce que cela
arrivera ?
53
des humains, il est naïf de penser qu’elle restera à notre niveau. Pourquoi le ferait-elle
? Au contraire, il est logique d’imaginer qu’elle continuera à évoluer, à s'améliorer
elle même.
54
l’intelligence artificielle générale. Selon certains chercheurs, nous n’aurons peut être
même pas le temps de comprendre que nous avons atteint le stade d’une intelligence
artificielle générale qu’une super IA se manifestera. Autrement dit, le passage entre IA
générale et super IA pourrait être très court. Cela se produira en quelques mois,
quelques semaines ou peut-être même en un clin d'œil et se poursuivra à la vitesse de
la lumière. Ce scénario porte le nom de “décollage rapide” (Short take off).
55
Elon Musk (à gauche) et Stephen Hawking (à droite) pensent qu’une super IA
pourrait causer l’extinction de l’humanité. © Dan Taylor / Heisenberg Media CC BY
2.0.
lsf
56
2.
57
2. Aujourd’hui : Intelligence artificielle limitée
Deep Blue était un superordinateur basé sur une technologie à 32 coeurs, capable
d'évaluer 200 millions de positions par seconde avec une puissance de 11,4 GFlop/s. Il
a donc battu le champion du monde d'échec Garry Kasparov non pas, car il a acquis
une profonde compréhension du jeu d'échecs, mais bien grâce à sa “force brute”. Il est
donc possible d’utiliser la programmation informatique classique pour créer des
intelligences artificielles capables d’accomplir des tâches complexes. Mais cette
technique est extrêmement limitée pour plusieurs raisons.
Déjà, elles sont rigides et ne peuvent évoluer uniquement si le programme est mis
à jour manuellement par un informaticien. Ensuite, elles ne peuvent pas accomplir des
tâches qui nécessitent un grand degré d’adaptabilité. Par exemple, il n’est pas possible
de programmer une intelligence artificielle qui sera capable de conduire une voiture.
L’informaticien peut écrire des centaines de lignes de code correspondant aux
différentes règles à respecter sur la route, mais aux moindres imprévus, le programme
ne pourra pas répondre correctement. Conduire nécessite de s’adapter en permanence
aux circonstances environnantes. Alors certes, les échecs requièrent également de
l’adaptabilité, puisque le jeu évolue en fonction des coups de l’adversaire. Mais il
n’existe qu’un nombre limité de possibilités à chaque tour. Autrement dit, c’est un
système fini. Avec suffisamment de puissance de calcul, une intelligence artificielle
peut prévoir chaque possibilité et, en fonction de sa programmation, choisir le
meilleur coup afin de vaincre l’adversaire. Conduire une voiture, dialoguer avec un
58
humain ou reconnaître une image sont des systèmes “infinis” que la “force brute”
dont un super ordinateur bénéficie, ne suffit pas.
Le critère qui manque à une intelligence artificielle pour accomplir des objectifs
complexes sur des systèmes “infinis” c’est l’apprentissage.
Ma calculatrice me battra à tous les coups lors d’un concours d'arithmétique, mais
elle ne s'améliorera jamais d’elle-même. À chaque fois que je fais 50X187/16, elle
exécutera le calcul de la même manière pour me sortir le résultat = 584,375. Deep
Blue n’a jamais appris de ces erreurs, mais a simplement vu son code source être
amélioré par ses programmeurs à IBM. Contrairement à Garry Kasparov qui depuis
ses premières défaites aux échecs lorsqu’il était enfant, à commencer un processus
d’apprentissage qui l'a conduit à devenir le champion du monde en 1985. La capacité
d’apprendre est la clé pour passer au niveau supérieur et s’aventurer sur la route en
direction de l’intelligence artificielle générale.
Nous avons parcouru un long chemin depuis les premiers tableurs et bases de
données. Aujourd'hui, nous créons tous les deux jours autant de données que nous ne
l’avons fait du début de la civilisation jusqu’à l’an 2000. C’est-à-dire que tous les
deux jours, nous générons l'équivalent de 12 000 ans de données humaines ! Autre
chiffre, chaque jour, c’est 2,5 quintillions de bytes d’informations générés. Et la
quantité de données que nous créons continue d'augmenter rapidement. D'ici 2020, la
quantité d'informations numériques disponibles sera passée d'environ 5 zettaoctets
aujourd'hui à 50 zettaoctets. 1 zettaoctet étant 108 téraoctets.
De nos jours, presque tout ce que nous faisons laisse une trace numérique. Nous
générons des données chaque fois que nous sommes en ligne, lorsque nous
transportons nos smartphones équipés de GPS, lorsque nous communiquons avec nos
amis via les réseaux sociaux ou les messageries instantanées, et lorsque nous faisons
des achats. On peut dire que nous laissons des empreintes numériques dès que l’on
59
touche à quelque chose de connecté. De plus, la quantité de données générées par les
machines augmente rapidement. Les données sont générées et partagées lorsque nos
appareils domestiques “intelligents” communiquent entre eux ou avec leurs serveurs
domestiques. Les machines industrielles dans des usines du monde entier sont de plus
en plus équipées de capteurs qui collectent et transmettent des données.
Cette explosion de donnée a vraiment commencé dans les années 1990 et le terme
“Big Data” est devenu populaire pour définir ce phénomène. Les chercheurs en
intelligence artificielle y ont vu une opportunité pour faire un bond en avant. L’idée
étant d’utiliser ce déluge de donnée pour nourrir des algorithmes afin qu’ils puissent
“apprendre”. L’apprentissage automatique devint donc une sous discipline de
l’intelligence artificielle, même si le terme “Machine learning” fut formulé en 1959
par Arthur Samuel (1901 - 1990), chercheur en IA.
Le machine learning est une technique d'analyse de données qui donne aux
ordinateurs la possibilité de faire ce qui est naturel pour les humains et les animaux :
apprendre de son expérience. Les algorithmes du machine learning utilisent des
méthodes informatiques pour “apprendre” directement à partir de données sans
s'appuyer sur une équation prédéterminée lors de sa programmation. Ces algorithmes
améliorent leurs performances de façon adaptative à mesure que le nombre
d'échantillons disponibles pour l'apprentissage augmente.
Cette technique permet aux agents intelligents de trouver des modèles dans un
ensemble de données qui génèrent des informations afin de prendre de meilleures
décisions et prédictions. Ils sont utilisés chaque jour pour prendre des décisions
critiques en matière de diagnostic médical, trading, charge énergétique, etc. Par
exemple, les sites multimédias s'appuient sur l'apprentissage automatique pour passer
au crible des millions d'options afin de vous donner de meilleures recommandations
en termes de musiques, de films ou encore de livres. Les sites marchands l'utilisent
pour mieux comprendre le comportement d'achat de leurs clients afin d’adapter aux
mieux leurs stratégies marketing.
Il n’y a pas si longtemps que ça, les données étaient limitées aux feuilles de calcul
ou aux bases de données, donc ni plus ni moins que des chiffres et du texte - et tout
était très ordonné et classifié. Tout ce qui n'était pas facile à organiser en lignes et en
colonnes était tout simplement trop difficile à utiliser et donc ignoré. Aujourd'hui, les
avancées en matière de stockage et d'analyse nous permettent de capturer, stocker et
utiliser de nombreux types de données différentes. Par conséquent, les "données"
peuvent maintenant signifier n'importe quoi : des bases de données aux photos,
vidéos, enregistrements sonores, textes écrits et données biométriques. Mais la
quantité est telle qu’il est impossible d'ordonner correctement les données afin qu’un
60
être humain puisse en faire sens.
Le machine learning est utilisé pour un large spectre d'applications, par exemple :
moteur de recherche, aide au diagnostic, détection de fraudes, analyse des marchés
financiers, reconnaissance de la parole, reconnaissance de l'écriture manuscrite,
analyse et indexation d'images et de vidéo, robotique.
61
Les algorithmes non supervisés n'ont pas besoin d'apprendre en fonction de
données spécifiques en entrée ni de résultats souhaités en sortie. Au lieu de cela, ils
utilisent une approche itérative appelée Deep learning (apprentissage profond) pour
examiner les données et arriver à des conclusions.
L'idée de base, à savoir qu’un logiciel peut simuler le vaste réseau de neurones du
néocortex dans un "réseau neuronal" artificiel, est vieille de plusieurs décennies et a
entraîné autant de déceptions que de percées. Les neural networks, mis au point dans
les années 1950 peu après l'aube de la recherche sur l'IA, semblaient prometteurs, car
ils tentaient de simuler le fonctionnement du cerveau, bien que sous une forme très
simplifiée. Les programmeurs créent un réseau de neurones pour détecter par exemple
un chien ou le phonème “d” en survolant le réseau avec des versions numérisées
d’images contenant des chiens ou des ondes sonores contenant des phonèmes “d”. Si
le réseau ne reconnaît pas correctement un modèle particulier, un algorithme
entreprend des ajustements. L'objectif final de cet apprentissage est de faire en sorte
que le réseau reconnaisse de manière cohérente le phonème "d" ou l'image d'un chien.
C’est similaire à la façon dont un bébé apprend ce qu'est un chien en montrant des
objets et en disant le mot chien. Les parents disent: "Oui, c'est un chien" ou "Non, ce
n'est pas un chien". Au fur et à mesure que l’enfant continue de pointer des objets, il
devient plus conscient des caractéristiques que possèdent les chiens (Têtes, corps,
sons, comportements, etc.). Ce que le bébé fait, sans le savoir, c’est de clarifier une
abstraction complexe (le concept de chien) en construisant une hiérarchie dans
laquelle chaque niveau d'abstraction est créé avec les connaissances acquises à partir
de la couche précédente de la hiérarchie.
62
supervision, ce qui est plus rapide, mais aussi généralement plus précis.
Mais les premiers neural networks ne pouvaient simuler qu'un nombre très limité
de neurones à la fois, de sorte qu'ils ne pouvaient pas reconnaître des motifs d'une
grande complexité. La recherche a donc stagné dans les années 1970. Au milieu des
années 1980, Geoffrey Everest Hinton et d'autres ont contribué à susciter un regain
d'intérêt pour les neural networks avec des modèles dits "profonds", qui utilisaient de
nombreuses couches de neurones artificiels. Mais la technique nécessitait encore une
forte implication humaine: les programmeurs devaient étiqueter les données avant de
les transmettre au réseau. Et la reconnaissance complexe de la parole ou de l’image
nécessitait plus de puissance informatique.
63
identifier des molécules pouvant conduire à de nouveaux médicaments. Le groupe a
utilisé le deep learning pour cibler les molécules les plus susceptibles de se lier à leurs
cibles.
Le deep learning et les neural networks sont majoritairement utilisés dans les
domaines tels que reconnaissance automatique de langage, traduction instantanée
écrite et orale, reconnaissance d’image, restauration d’image, classification d’objets
d’arts visuels, création de médicaments et modélisation toxicologique, système de
recommandation, détection de fraude financière ou encore bio-informatique.
64
2. Aujourd’hui : Intelligence artificielle limitée
65
Cette machine peut résoudre un Rubik’s cube en 0,38 seconde. ©BEN KATZ CC-
BY-SA-4.0
Quand Deep Blue d’IBM est devenu champion du monde d'échecs en battant
Garry Kasparov en 1997, ses principaux avantages résidaient dans la mémoire et le
calcul, mais pas dans l’apprentissage. Son intelligence artificielle a été créée de toute
pièce par une équipe d’êtres humains, et la raison principale pour laquelle Deep Blue
pouvait dépasser ses créateurs était sa capacité à calculer plus rapidement et donc
analyser plus de positions potentielles à chaque tour. Quand le superordinateur
d’IBM, Watson, a détrôné le champion du monde dans le jeu télévisé Jeopardy, ce
n'était pas grâce à un système d’apprentissage. Mais bien une question de
compétences programmées sur mesure, une mémoire supérieure et une vitesse
d'exécution surhumaine. On peut dire la même chose de la plupart des avancées du
20e siècle en intelligence artificielle et robotiques.
Mais au 21e siècle, les percées se font bien plus grâce aux progrès dans le
machine learning que grâce à une puissance de calcul élevée (même si ce dernier
point joue toujours un rôle important).
66
Résoudre un Rubik’s cube sans aide initiale
Un nouveau type de deep learning a appris comment résoudre un Rubik’s cube
sans aucune assistance humaine. Cette étape est importante et bien plus significative
que les records du monde battu grâce à la “force brute“ car la nouvelle approche
aborde un problème important en informatique : comment résoudre des problèmes
complexes lorsque l’aide initiale est minimale. Le programme reçoit les règles du jeu
et joue ensuite contre lui-même. Le point crucial étant qu’il est récompensé en
fonction de ses performances. Ce processus de récompense est extrêmement
important, car il aide la machine à distinguer un bon coup d’un mauvais. En d'autres
termes, cela aide la machine à apprendre. Résultat ? En 44 heures, le programme du
nom de DeepCube a atteint le niveau d’un champion humain de la discipline. Assez
impressionnant n’est ce pas ?
Reconnaissance visuelle
Afin de rendre une machine capable de comprendre le monde qui l'entoure, la
technologie a été inspirée par la biologie. 80% des informations permettant aux
humains de localiser leur espace et d'interagir avec leur univers passent par leurs
yeux. Il a toujours été difficile pour un ordinateur de comprendre une image. C’est
trivial pour un enfant de 4 ans, mais expliquer à un programme que les différents
groupes de pixels colorés sur une image représentent, par exemple une montagne
enneigée, est un problème qui a retenu l’attention des chercheurs depuis la création de
la discipline de l’intelligence artificielle. En d’autres termes, les ordinateurs n'ont
jamais été capables de voir, de lire, ni d’entendre correctement. En 2004, le chercheur
Jeff Hawkins déclara :”Aucun ordinateur n’est capable de voir aussi bien qu’une
souris”. Enfin, c'était vrai jusqu’à très récemment. Cela fait environ 5 ans que des
percées majeures améliorent la reconnaissance visuelle des intelligences artificielles.
67
Un algorithme est capable d'étiqueter des images avec un haut taux de réussite.
68
L'oiseau créé dans l'image ci-dessus pourrait ne pas exister - ils ne sont qu'un rendu de
ce qu’un oiseau jaune et noir est pour “l’imagination” de l’IA.
Donner des yeux à une intelligence artificielle permet des progrès dans de
nombreux domaines. Les plus spectaculaires peuvent être observés dans la voiture
autonome. Car ces technologies sont utilisées pour la détection des obstacles et la
reconnaissance des panneaux, feux tricolores, voitures, piétons et autres. Les images
proviennent d'une panoplie de caméras disposées autour de la voiture, et
l'entraînement deep learning sur des millions d’heures de conduite a permis aux
algorithmes une reconnaissance visuelle fiable.
Au lieu de chercher le modèle idéal pour une séance photo, les photographes du
futur pourront en générer un en utilisant l’intelligence artificielle. En 2017, NVIDIA,
constructeur de processeur graphique, a publié un article décrivant des algorithmes
capables de générer des "photos" artificielles qui semblent aussi réelles que la photo
d’un humain.
69
Pour son projet, NVIDIA a utilisé une base de données de visages célèbres.
Après avoir été formé sur ces vrais visages, l'Intelligence artificielle était capable
de commencer à produire des photos réalistes de personnes n’ayant jamais existés.
70
Voir la video : https://tinyurl.com/y72wtute
Des chercheurs travaillent également sur de la vidéo générative. L'idée est que,
simplement en tapant une phrase, l'intelligence artificielle pourrait créer une vidéo de
la scène décrite. Comme elle peut déjà le faire de façon sommaire avec une image.
Les chercheurs ont utilisé une variété d'activités faciles à définir pour leurs vidéos,
principalement sportives comme “jouer au football”, “courir dans la neige”, “faire du
surf”. Le programme étudie ensuite ces vidéos et apprend à identifier chaque
mouvement. Les chercheurs utilisent un processus en deux étapes pour créer la vidéo
générative. La première consiste à générer la base de la vidéo à partir du texte saisi,
c’est-à-dire une image qui donne la couleur d'arrière-plan et la disposition de l'objet
de la vidéo souhaitée. Puis vient la deuxième étape, qui va juger le résultat. Pour une
vidéo de "vélo dans la neige", la deuxième étape se penche sur la vidéo générée par
rapport à une vidéo réelle de quelqu'un qui fait du vélo dans la neige et demande
ensuite un travail de meilleure qualité. En utilisant des millions de connexions réseau,
l’intelligence artificielle s’affine constamment et finit par générer une vidéo passable
qui représente le texte entré initialement. Le travail en est encore à ses premiers
71
stades, seulement capable de créer des vidéos d'une durée d'environ 1 seconde et qui
sont de la taille d'un timbre-poste avec 64 par 64 pixels de résolution. Mais après
plusieurs années de recherches, on pourra peut-être voir des films entièrement générés
par une intelligence artificielle directement à partir d’un scénario préalablement écrit.
La fin du cinéma tel qu’on le connaît ? Ou plutôt un nouveau mouvement artistique ?
Il est aussi possible d'entraîner des intelligences artificielles à modifier une vidéo
déjà existante. Nvidia, déjà auteur d’une percée sur la génération photoréaliste de
personne, a démontré la possibilité de transformer une vidéo. Par exemple changer la
météo d’un extrait de ensoleillé à pluvieux, et même enneigé. Ou passer une vidéo de
jour à nuit.
https://tinyurl.com/ycbbs56e
https://tinyurl.com/y76ogptm
Jusque dans les années 1990, même les systèmes les plus performants étaient
72
basés sur la correspondance de modèles, où les ondes sonores étaient traduites en un
ensemble de bits et stockées. Ces derniers étaient déclenchés lorsqu'un son identique
était émis dans la machine. Bien sûr, cela signifiait qu'il fallait parler très clairement,
lentement et dans un environnement sans bruit de fond pour avoir une bonne chance
que le système reconnaisse les sons. Ce n'est qu'en 1997 que le premier "logiciel de
reconnaissance vocale continue" (c’est-à-dire qu'il n'était plus nécessaire de faire une
pause entre chaque mot) a été publié sous le nom de “Dragon NaturallySpeaking”.
Capable de comprendre 100 mots par minute, il est toujours utilisé aujourd'hui, bien
que sous une forme améliorée.
À l'heure actuelle, l'accent est mis principalement sur des sortes de haut-parleurs
activés par la voix, mais il s'agit essentiellement d'une stratégie de cheval de Troie. En
prenant une place de choix dans la maison d'un consommateur, ces haut-parleurs sont
la porte d'entrée vers la prolifération de dispositifs intelligents de l'Internet des objets.
Un Google Home ou Amazon Echo peut déjà être utilisé pour contrôler une vaste
gamme d'appareils compatibles avec Internet, et beaucoup d'autres devraient rejoindre
73
la liste dans la décennie 2020. Ils incluront des réfrigérateurs intelligents, des fours,
des miroirs, des détecteurs de fumée, etc.
Leur ambition est grandement aidée par le fait que la technologie est désormais
utile dans l'accomplissement des tâches quotidiennes. Demandez à Alexa, Siri,
Cortana ou Google quel temps il fera demain et il vous fournira un résumé détaillé.
C’est encore imparfait, mais la reconnaissance vocale a atteint un niveau de précision
acceptable pour la plupart des utilisateurs, toutes les principales plates-formes
affichant un taux d'erreur inférieur à 5%.
La voix humaine, avec toute sa subtilité et ses nuances, se révèle être une chose
74
extrêmement difficile à imiter pour une intelligence artificielle. Lorsque Siri, Alexa ou
notre GPS communiquer avec nous, il est assez évident que c’est une machine qui
parle. C'est parce que pratiquement tous les systèmes de synthèse vocale sur le
marché reposent sur un ensemble préenregistré de mots, de phrases et d'énoncés
(enregistrés à partir d'acteurs vocaux), qui sont ensuite liés pour produire des mots et
des phrases complètes. Dans un effort pour donner un peu de vie aux voix
automatisées, Lyrebird, une startup en IA, a développé un algorithme qui peut imiter
la voix de toute personne, et lire un texte avec une émotion ou une intonation
prédéfinie. Ce qui est incroyable, c’est qu’il peut le faire après avoir analysé quelques
dizaines de secondes d’audio préenregistrées. Le résultat est loin d'être parfait, mais il
est facile de reconnaître la personne dont la voix a été synthétisée.
Les chercheurs du géant de la technologie chinois Baidu, ont dévoilé leur dernière
avancée de Deep Voice, un système développé pour le clonage de voix. Il y a un an, la
technologie nécessitait environ 30 minutes d'audio pour créer un clip audio artificiel.
Maintenant, il peut créer de meilleurs résultats en quelques secondes seulement.
Inutile de dire que cette forme de synthèse vocale introduit une foule de problèmes
éthiques et de problèmes de sécurité. Finalement, une version améliorée de ce système
pourrait reproduire la voix d'une personne avec une précision incroyable, rendant
pratiquement impossible à un humain de distinguer l'original de la copie. Des
personnes sans scrupules pourraient faire dire à un politicien des choses polémiques
afin de changer le cours d’une élection, ou copier la voix d’une célébrité pour détruire
sa carrière ou le faire chanter en menaçant de divulguer des extraits audio scandaleux.
Quels seront les recours possibles contre de tels actes ?
Voitures autonomes
Au cours des cinq dernières années, la conduite autonome est passée de "farfelu" à
"possible" à "inévitable" à "comment quelqu'un a-t-il pu penser que ce n'était pas
possible?". Des expériences ont été menées sur l'automatisation des voitures depuis au
moins les années 1920. Des essais prometteurs ont eu lieu dans les années 1950 et les
travaux se sont poursuivis depuis. En 1969, John McCarthy (1927 - 2011), alias l’un
des pères fondateurs de l’intelligence artificielle, décrit un véhicule similaire au
véhicule autonome moderne dans un essai intitulé “Computer-Controlled Cars”.
McCarthy fait référence à un “chauffeur automatique” capable de naviguer sur une
voie publique via une caméra. Il écrit que les utilisateurs devraient pouvoir entrer une
destination à l'aide d'un clavier, ce qui inciterait la voiture à les y conduire
immédiatement. Aucun véhicule de ce type n’est construit, mais l’essai de McCarthy
pose les bases pour les futures recherches.
Au début des années 1990, le chercheur Dean Pomerleau, rédige une thèse
décrivant comment les neural networks pourraient permettre à un véhicule autonome
75
de prendre des images brutes de la route et de générer des commandes de pilotage en
temps réel. Pomerleau n'est pas le seul chercheur travaillant sur les voitures
autonomes, mais son utilisation des neural network s'avère beaucoup plus efficace que
les alternatives.
76
connaissance, pas seulement sur leur voiture, mais sur la façon dont les gens se
comportent sur la route lorsqu'ils sont au volant. Pour parvenir à ce même type de
compréhension, les voitures informatisées ont besoin de beaucoup de données. Et les
deux sociétés qui ont le plus de données routières en ce moment sont Tesla et Waymo.
Depuis octobre 2016, toutes les voitures Tesla sont équipées du matériel
nécessaire pour permettre une conduite autonome complète à un niveau de sécurité 5,
correspondant à l’autonomie complète. Le matériel comprend huit caméras et douze
capteurs à ultrasons, en plus du radar orienté vers l'avant doté de capacités de
traitement améliorées. Le système fonctionne en tâche de fond et renvoi des données à
Tesla pour améliorer ses capacités jusqu'à ce que le logiciel soit prêt pour le
déploiement via des mises à jour. L'autonomie totale n'est probable qu'après des
centaines de millions de kilomètres d'essais et l'approbation des autorités.
77
tous leurs propres technologies de voitures autonomes. Nissan s'engage sur une date
de lancement en annonçant des voitures autonomes d'ici 2020.
Les voitures qui conduisent toutes seules sont maintenant partout. Elles parcourent
les rues de Californie et du Michigan, de Paris et de Londres, de Singapour et de
Beijing. Cette ruée vers l'or du XXIe siècle est motivée par l'appât du gain et l'instinct
de survie. D'un côté, la technologie des voitures autonomes ajoutera 7 milliards de
dollars à l'économie mondiale et sauvera des centaines de milliers de vies au cours des
prochaines décennies. Mais en même temps, elle va dévaster l'industrie automobile,
les chauffeurs de voitures, les chauffeurs de taxi et les routiers. Certaines personnes
vont prospérer. La plupart en bénéficieront. Beaucoup vont perdre leurs emplois.
Alpha Go
Le jeu de Go est né en Chine il y a 3 000 ans. Les règles du jeu sont simples: les
joueurs placent à tour de rôle des pierres noires ou blanches sur un tableau, essayant
de capturer les pierres de l'adversaire et créer des territoires. Go se joue
principalement par l'intuition et le ressenti, et grâce à sa subtilité et sa profondeur
intellectuelle, il a capté l'imagination humaine pendant des siècles. Il est considéré
comme l’un des quatre arts chinois avec la calligraphie, la peinture chinoise et le
guqin (instrument à cordes). Aussi simples que soient les règles, Go est un jeu d'une
grande complexité. Il y a 10170 configurations de jeu possibles, plus que le nombre
d'atomes dans l'univers observable, faisant de Go un jeu un googol fois plus complexe
que les Échecs.
78
Le jeu de Go se joue sur une grille avec des billes blanches et noires.
Voici les témoignages de ce que pensait Lee Sedol à propos d’AlphaGo avant,
puis après les matchs contre l’intelligence artificielle :
- Octobre 2015 : “Basé sur ce que j’ai vu de son niveau… je pense que je vais
gagner de manière écrasante.”
- Février 2016 : ‘J'ai entendu dire que l’IA de Google DeepMind devenait de plus
en plus forte, mais je suis convaincu que je peux gagner au moins sur cette
partie."
- 9 mars 2016 : “J'ai été très surpris parce que je ne pensais pas perdre.”
- 10 mars 2016 : “Je suis sans voix… Je suis sous le choc. J’admets que… le
79
troisième match ne sera pas facile pour moi.”
- 12 mars 2016 : “Je me suis senti impuissant”.
Google DeepMind a ensuite fait évoluer AlphaGo en AlphaGo Zero. Les versions
précédentes d'AlphaGo s'entraînaient initialement sur des milliers de parties amateurs
et professionnels pour apprendre les différentes stratégies. AlphaGo Zero a ignoré
cette étape et a simplement appris à jouer contre lui-même. De manière surprenante, il
a rapidement dépassé le niveau humain et a vaincu la version d'AlphaGo par 100
parties à 0. En trois jours il a atteint le niveau de la version qui a battu Lee Sedol. En
21 jours, il a atteint le niveau de AlphaGo master qui a battu 60 joueurs professionnels
de niveau international. En 40 jours, il dépassa toutes les versions précédentes
d’AlphaGo et devint le meilleur joueur de Go de l’histoire. Tout ça sans aucun
apprentissage en amont des règles du jeu, sans intervention humaine, sans analyser
des anciennes parties.
80
neuronaux de plus en plus précis et des versions toujours plus puissantes d'AlphaGo
Zero. Cette technique est plus puissante que les versions précédentes d'AlphaGo, car
elle n'est plus limitée par les limites de la connaissance humaine. Au lieu de cela,
l’intelligence artificielle est capable d'apprendre à partir du joueur le plus fort au
monde: AlphaGo lui-même. Cette technique fut ensuite utilisée pour apprendre les
échecs à AlphaZero qui a atteint des résultats impressionnants en quelques heures,
cherchant mille fois moins de positions que les autres programmes, sans aucune
connaissance du jeu si ce n’est les règles. Demis Hassabis de DeepMind, un joueur
d'échecs lui-même, a surnommé le style de jeu d'AlphaZero “d’extra-terrestre”.
Jeux vidéo
En 2015, Google DeepMind a publié un système d’IA utilisant du deep learning
capable de maîtriser des dizaines d’anciens jeux vidéos ATARI, sans aucune
instruction initiale. Au départ, l’intelligence artificielle commence à jouer et se rend
compte qu’en fonction de certaines actions, le score augmente, ce qui est jugé positif.
Donc elle apprend petit à petit à maximiser les façons de faire augmenter le score.
Après quelques heures d'entraînement, elle atteint un niveau imbattable par un
humain.
Par exemple, sur le jeu “Breakout”, où le but est de déplacer une planche en bas
de l'écran pour faire rebondir une balle qui fait percuter des briques de couleurs en
haut de l'écran. Chaque brique détruite donne des points. Au départ, l'Intelligence
artificielle était vraiment mauvaise. Elle déplaçait la planche au hasard de droite à
gauche sans se soucier de la balle. Après un certain temps, elle semblait comprendre
que déplacer la palette vers la balle pour la faire rebondir était une bonne idée, même
si elle manquait toujours la plupart du temps. Mais elle a continué à s’améliorer et
après 2 heures de pratique, elle était capable de toucher la balle à tous les coups,
quelle que soit la rapidité avec laquelle elle s’approchait. Mais le véritable exploit,
c’est lorsque l’intelligence artificielle a compris une incroyable stratégie pour
maximiser le score en visant toujours le coin supérieur gauche pour percer un trou
dans le mur de brique et laisser la balle se coincer derrière afin de rebondir toute seule
et engranger des points. On peut clairement dire que c’est une technique vraiment
intelligente à faire. En effet, Demis Hassabis, à la tête de DeepMind, a déclaré que
l’équipe de programmeur ne connaissait pas cette astuce. L’intelligence artificielle l’a
apprise toute seule : https://tinyurl.com/y76rrcb7
Le deep learning a donné d'excellents résultats dans des jeux solos de plus en plus
complexes et dans des jeux tour par tour à deux joueurs comme les échecs ou Alpha
Go. Cependant, le monde réel contient plusieurs “joueurs”, chacun apprenant et
agissant indépendamment pour coopérer et rivaliser avec d'autres, et les
environnements reflétant ce degré de complexité restent un défi ouvert. Mais en 2018,
81
une intelligence artificielle a atteint pour la première fois le niveau humain dans un
jeu vidéo multijoueur, à savoir Quake III Arena dans mode capture de drapeau.
Pendant le jeu, l’intelligence artificielle démontre des comportements de type humain,
tels que la navigation, le suivi et la défense, basés sur une très grande connaissance du
jeu. Lors d’un tournoi, les agents artificiels ont dépassé le taux de victoires des
meilleurs joueurs humains en tant que coéquipiers et adversaires. Ces résultats
démontrent une augmentation significative des capacités des agents artificiels, nous
rapprochant de l'objectif de répliquer l'intelligence humaine.
82
2. Aujourd’hui : Intelligence artificielle limitée
Tout d’abord, nous allons tenter d’anticiper les bouleversements possibles que
l’intelligence artificielle limitée pourrait engendrer en fonction de ses éventuels
progrès et évolutions dans un futur proche. Car le secteur de l’intelligence artificielle
représente l’un des marchés économiques et d’investissement le plus en croissance.
Selon le dernier rapport d’étude de marché par l’organisme de recherche
“MarketsandMarkets”, le marché de l'intelligence artificielle devrait passer de 21,46
milliards USD en 2018 à 190,61 milliards USD d'ici 2025, soit un taux de croissance
annuel moyen de 36,62% entre 2018 et 2025.
Automatisation et emploi
Le chômage technologique est la perte d’emplois provoquée par un changement
technologique. Un tel changement comprend généralement l'introduction de machines
ou des processus automatisés plus intelligents qui permettent d'économiser de la
main-d'œuvre. De même que l'automobile a progressivement rendu obsolètes les
chevaux, les emplois humains ont également été affectés au cours de l'histoire
moderne. Les exemples historiques incluent les artisans tisserands réduits à la
83
pauvreté après l'introduction de métiers à tisser mécanisés. Un exemple contemporain
de chômages technologiques est le déplacement des caissiers de détail par les caisses
libre-service.
Un nouveau rapport prédit qu’en 2030, 800 millions d’emplois dans le monde
pourraient être menacés à cause de l’automatisation. L'étude, compilée par le
McKinsey Global Institute, indique que les progrès de l'IA et de la robotique auront
un effet radical sur la vie professionnelle, comparable à l'abandon des sociétés
84
agricoles pendant la révolution industrielle. Aux États-Unis, entre 39 et 73 millions
d'emplois devraient être automatisés, soit environ un tiers de l'effectif total.
Mais le rapport indique également que, comme par le passé, la technologie ne sera
pas une force purement destructive. De nouveaux emplois seront créés, les rôles
existants seront redéfinis, et les travailleurs auront la possibilité de changer de
carrière. Le défi particulier de cette génération, affirment les auteurs, consiste à gérer
la transition. L'inégalité des revenus est susceptible de s'accroître, ce qui pourrait
entraîner une instabilité politique et les personnes qui doivent se recycler pour de
nouvelles carrières ne seront pas des jeunes, mais des professionnels d’âge moyen.
85
Les voitures autonomes vont probablement éliminer de nombreux emplois -
©David Castor CC0
Les prévisions économiques ne sont pas une science exacte et les chercheurs de
McKinsey tiennent à souligner que leurs prédictions ne sont que cela. Le chiffre de
800 millions d'emplois perdus dans le monde, par exemple, n'est que le scénario le
plus extrême possible, et le rapport suggère également une estimation moyenne de
400 millions d'emplois.
Néanmoins, cette étude est l’une des plus complètes de ces dernières années.
Prenant en compte l’évolution de la modélisation dans plus de 800 professions et dans
46 pays, représentant 90% du PIB mondial. Six pays sont également analysés en
86
détail - les États-Unis, la Chine, l’Allemagne, le Japon, l’Inde et le Mexique - ces
pays représentant un éventail de situations économiques différentes.
Dans les économies développées telles que les États-Unis, l’automatisation risque
également d’accroître les inégalités. Les emplois créatifs et cognitifs bien rémunérés
seront privilégiés, tandis que la demande de professions moyennement qualifiées et
peu qualifiées diminuera. Selon McKinsey, le résultat sera un “marché du travail à
deux niveaux”. Les rapports précédents sont arrivés à la même conclusion, constatant
que les individus ayant des revenus plus élevés sont plus à même de s'adapter à un
marché du travail en mutation et que la mobilité sociale en souffrira.
Toutefois, les pires effets de cette transition peuvent être atténués si les
gouvernements jouent un rôle actif. Michael Chui, l'auteur principal du rapport, a
comparé le niveau d'action nécessaire au plan Marshall - une initiative américaine qui
a injecté quelque 140 milliards de dollars en Europe occidentale après la Seconde
Guerre mondiale, aidant les pays à se reconstruire et à s'industrialiser.
Comment préparer nos enfants pour le monde de demain ? Que faut-il enseigner
aux enfants à l'école ? Il y a 50-100 ans, c'était plus simple, car entre deux ou trois
générations, le monde n'évoluait que très peu. Un enfant allait à l'école et il apprenait
87
des techniques que ses parents avaient également apprises. Il n’y avait que très peu de
nouveaux métiers. Donc il pouvait choisir une branche et il était sûr qu’il trouverait
un emploi. On ne peut plus se baser sur le système précédent. Si on prend le cas d’un
étudiant en informatique en 2010. Lorsque ses parents étaient à l'école, aucun
professeur n’enseignait la programmation informatique, car il n’y avait aucun métier
dans ce secteur. En l’espace de 25-30 ans, le progrès a engendré une pléthore de
nouveau job. Et ce rythme du progrès augmente.
La vérité, c’est que personne ne sait ce qui se passera dans les années 2030-2040
et au-delà. Et encore moins à quoi ressemblera le marché du travail. C’est bien la
première fois dans l’histoire que cela arrive ! On ne peut plus simplement former des
jeunes pour qu’ils aillent occuper certains métiers spécifiques dans les dix prochaines
années. Car tout ce qu’ils vont apprendre sera peut-être à jeter par la fenêtre. Nous
avons une certaine vision du monde qui consiste à séparer notre vie professionnelle en
deux phases. La phase d’apprentissage où l’on étudie et développe un ensemble de
compétence. Et une phase de travail où l’on applique ces compétences dans une
discipline, un corps de métier jusqu’à la retraite. Aujourd’hui cette vision est dépassée
! Comment préparer les jeunes à un monde où de plus en plus d’emplois seront
remplacés par des systèmes automatisés ? La mobilité sera essentielle. Mais elle sera
également bien plus compliquée. Lors de la première révolution industrielle, lorsque
des paysans n'étaient plus désirés, car des machines étaient capables de récolter bien
plus de céréales, ils pouvaient facilement se reconvertir et aller travailler dans des
usines. Après une légère formation, ils étaient capables d'évoluer dans une ligne
d’assemblage. Ce sont deux métiers qui requièrent peu d’apprentissages et
compétences. Des métiers “low skills” basés sur des tâches répétitives. Mais demain,
lorsque des caissiers se feront licencier, car le supermarché passera en complète
automatisation, ce sera bien plus compliqué pour eux de se reconvertir en développeur
de monde virtuel. Lorsqu’un chauffeur de taxi de 45 ans sera remplacé par une voiture
autonome, ce ne sera pas évident de devenir en quelques mois un spécialiste en
machine learning. Passer d’un métier “low skill” à un autre métier “low skill” est un
exercice bien plus simple que de passer de low skill à high skill, c’est-à-dire à
compétences élevées. Et même ces métiers-là sont menacés par l’intelligence
artificielle.
88
tandis que des professions qualifiées comme assistants légaux (clercs) sont de plus en
plus remplacées par des programmes informatiques autonomes.
Certaines études récentes, comme un article publié en 2015 par Georg Graetz et
Guy Michaels, ont montré que l'innovation dans les robots industriels stimule la
rémunération des travailleurs hautement qualifiés tout en ayant un impact plus négatif
sur les travailleurs de compétences faibles à moyennes. Un rapport publié en 2015 par
Carl Benedikt Frey, Michael Osborne et Citi Research, a reconnu que l’innovation
avait surtout perturbé les emplois de niveau intermédiaire, tout en prévoyant que
l’impact de l’automatisation dans les dix prochaines années impactera principalement
les compétences peu qualifiées. En revanche, d’autres voient même les travailleurs
humains qualifiés obsolètes. Carl Benedikt Frey et Michael A Osborne de l’université
d'Oxford ont prédit que l'automatisation pourrait faire perdre la moitié des emplois sur
les 702 professions évaluées par leur recherche. Ils ont constaté une forte corrélation
entre les études, les revenus et la capacité à être automatisé. Les emplois de bureau et
les services étant parmi les plus menacés. En 2012, le cofondateur de Sun
Microsystems, Vinod Khosla, a prédit que 80% des emplois de docteurs seraient
perdus au cours des deux prochaines décennies grâce à un logiciel de diagnostic
médical automatisé disponible en masse.
Une autre approche afin d’anticiper les compétences sur lesquelles les humains
apporteront une valeur plus importante que les IA est de trouver des activités où nous
voulons que les humains restent responsables des décisions importantes. Comme les
juges, les PDG, et les dirigeants gouvernementaux. Ou bien apportent des relations
interpersonnelles profondes. Car même si ces tâches peuvent être automatisées, il y a
de fortes chances pour que la valeur de l’interaction humaine prédomine.
Que faut-il enseigner aux enfants ? On peut commencer par des notions comme
une forte ténacité à accepter le changement, faire preuve d’adaptabilité, de résilience
et surtout, de toujours apprendre. L'éducation ne s'arrête pas après l’université. Ce
temps-là est terminé et de toute façon, c’est une idée qui ne fait aucun sens. On
apprend jusqu'à la fin de notre vie. Une des qualités qu’il faudra posséder dans ce
monde en constant changement, c’est la capacité de se réinventer soi-même. Il ne
faudra pas avoir peur de sauter sur des nouveaux domaines d’apprentissage, changer
de branche. Et ce n’est pas simple. En particulier lorsqu’on prend de l'âge, car prendre
des risques signifie sortir de sa zone de confort.
Donc pour résumer, il y a deux types de tâches qu’un être humain peut faire. Des
tâches physiques, et des tâches cognitives. L’innovation technologie dans le monde du
travail a toujours été cantonné dans le camp des tâches physiques. La roue, la charrue,
le moulin, le métier à tisser, la poulie, les machines à vapeur, les robots industriels,
89
etc. Et même si cela a supprimé des emplois humains, une mobilité est possible vers
un autre secteur possédant les mêmes types de compétences.
Voici une liste non exhaustive de profession qui pourrait voir des systèmes
automatisés remplacer des emplois humains à court ou moyen terme :
90
- Avocats : En s’entraînant sur des millions de documents et dossiers juridiques
existants, un algorithme d’apprentissage automatique peut apprendre à identifier
les sources appropriées dont un avocat a besoin pour élaborer un dossier, souvent
avec plus de succès que les humains. Par exemple, JPMorgan utilise un logiciel
appelé Contract Intelligence, ou COIN, qui peut en quelques secondes effectuer
des tâches d’examen des documents qui ont nécessité 360 000 heures d’aide
juridique.
- Journalistes : Les bots créés par des sociétés telles que Narrative Science et
Automated Insights proposent déjà des articles sur le business et le sport à des
clients tels que Forbes et Associated Press. Dans une interview accordée au
Guardian en juin 2015, le cofondateur de Narrative Science, Kris Hammond, a
prédit que 90% du journalisme sera informatisé d'ici 2030, et qu'un bot gagnera
le prix Pulitzer.
- Thérapeutes : Des “robots sociaux” ressemblant à des êtres humains sont déjà
utilisés avec des enfants autistes. Les animaux de compagnie thérapeutiques
fournissent de la compagnie aux personnes âgées atteintes de démence. Tandis
que l'armée américaine utilise un thérapeute virtuel pour dépister les patients
atteints de syndromes post-traumatiques.
Mais pour beaucoup de personnes, leur emploi donne du sens à leur vie. Ce qui
signifie que se retrouver sur le banc de touche peut avoir des conséquences très
91
négatives. Se retrouver en quelque sorte perdu, sans savoir quoi faire. Nous sommes
des mammifères, mais à la différence des autres, nous avons la capacité de fabriquer
des constructions mentales qui sont des abstractions par rapport au réel. Tout ce qui a
de l’importance dans notre vie est au finale une construction mentale. Les nations ne
sont que des lignes imaginaires tracées sur une carte, c’est à dire des constructions
mentales. L’argent n’a pas d’existence concrète, c’est simplement un moyen commun
pour commercer, donc une construction mentale. La Foie, la religion, la spiritualité
sont des systèmes de croyances, autrement dit des constructions mentales. Et même la
notion de moi, le ”je”, notre propre identité, ne pourrait être qu’une construction
mentale. En tout cas c’est ce qui est au cœur de la philosophie bouddhiste.
Ces constructions mentales sont comme des illusions très difficiles à percer.
Beaucoup nous accompagnent depuis notre naissance. Mais il y en a une que l’on doit
casser pour changer les fondements de la société. Il s’agit de la construction mentale
de l’emploi.
D’ailleurs, le mot “emploi” est très récent au final. Le terme anglais "Job" est
apparu dans le lexique au début de la révolution industrielle il y 250 ans. Nous
pensons depuis notre enfance que “emploi” = “travail”, que c’est la même chose au
final. C’est faux ! C’est une construction mentale. Un emploi est une sous catégorie
du travail. Un emploi n’a qu’une seule fonction : nous apporter un revenu. Donc
emploi = argent. Pas travail. Lorsqu’on perd un emploi, soit on en cherche un autre
similaire dans le même domaine d’activité, soit on change de branche en faisant une
formation pour trouver un emploi différent. Le travail c’est quelque chose que l’on se
créer pour nous même. C’est quelque chose qui nous donne véritablement du sens. Ça
peut être travailler sur un projet personnel qui vous tient à cœur, ou pour la
communauté, chacun s’approprie cette notion de travail à sa guise. Si vous confondez
emploi et travail, alors lorsque les robots prendront votre emploi, votre “job”, vous
allez vous sentir extrêmement déprimé, car ce sera comme si vous aviez perdu le sens
de votre vie. Alors qu’en réalité, vous aurez simplement perdu une illusion. Une
construction mentale.
Pour résumer le plus simplement possible, posez vous cette question : "Est-ce que
je me lèverais tous les matins, 5j/7 pour faire mon boulot, 40h/semaine, si en retour, je
n’étais pas payé ?”. Si la réponse est non, c’est que ce boulot est un emploi. Si vous
pensez que oui, alors c’est un travail.
92
youtubeur, le blogueur, et toutes ses personnes qui se sont créé leur propre travail et
qui réussissent à en vivre. C’est là où se trouvent nos rêves, nos aspirations. Le futur
du travail, ce n’est pas d’aller chercher un emploi en espérant que les entreprises en
ont encore à disposition. Le futur du travail, c’est ce que nous allons créer pour nous
même et qui fera sens.
Mais la question légitime qui se pose ensuite c’est : “Si je ne travaille plus pour
gagner de l’argent, comment vais je subvenir au besoin de base ?”. Et c’est là où
l’automatisation entre dans le débat politique. Si les entreprises automatisent de plus
en plus d’emploi dans un très grand nombre de disciplines, augmentant drastiquement
leur profit, ont-elles une responsabilité vis-à-vis des emplois perdus ? Est ce que les
gouvernements doivent réfléchir à un meilleur système de redistribution des richesses
? La société ne pourra pas fonctionner sur le même modèle si les machines sont
meilleures et plus productives dans presque toutes les disciplines. Cela fait partie des
grands challenges du 21e siècle. L’historien Yuval Noah Harari voit arriver une
nouvelle classe sociale due à l’automatisation : la classe des inutiles. Comme
mentionné précédemment, les humains ont deux sortes de capacités qui nous rendent
utiles sur le marché du travail : physiques et cognitives. La révolution industrielle a
peut-être eu pour résultat des machines qui ont éliminé les humains dans des emplois
nécessitant de la force et des actions répétitives. Mais avec nos capacités cognitives,
les humains étaient largement en sécurité dans leur travail. Pour combien de temps
encore ? Les IA commencent maintenant à surpasser les humains dans certains
domaines cognitifs. Et bien que de nouveaux types d’emplois apparaîtront
certainement, nous ne pouvons pas être sûrs selon Harari, que les humains les feront
mieux que les IA. Au final, elles n'ont pas besoin d'être plus intelligentes que les
humains pour transformer le marché du travail. Elles ont juste besoin de savoir faire la
tâche plus rapidement et efficacement.
Malgré tout, les hommes sans emploi ne sont pas des êtres humains inutiles. Les
personnes sans emplois sont toujours valorisées. Mais Harari a une définition
spécifique lorsqu’il parle de classe inutile. Il s’agit d’inutile du point de vue du
système économique et politique, et non d’un point de vue moral. Les structures
politiques et économiques modernes ont été construites sur des êtres humains utiles à
l’État, notamment en tant que travailleurs et soldats. Si ces rôles sont assumés par les
machines, nos systèmes politiques et économiques cesseront tout simplement
d’attacher beaucoup de valeur aux humains.
Que devrions-nous faire ? Selon Harari, il faut l'intégrer à l'agenda politique, pas
seulement à l'agenda scientifique. C’est quelque chose qui ne devrait pas être laissé
aux chercheurs et sociétés privées. Ils en savent beaucoup sur les techniques,
l’ingénierie, mais ils n’ont pas nécessairement la vision et la légitimité nécessaires
pour décider de l’avenir de l’humanité.
93
Alors ça sonne un peu comme la fin du monde, ou en tout cas, comme quelque
chose de très négatif. En réalité, nous ne devons pas en avoir peur. Il faut plutôt en
parler. Discuter et être conscient que c’est un train qui a déjà quitté la station et qui
sera bientôt là. Si l’on regarde les 150 dernières années, on remarque que le niveau de
vie moyen planétaire s’est vraiment amélioré. Nous vivons la meilleure époque dans
l’histoire de l’humanité. Même si nous avons du mal à le réaliser. Donc cette tendance
à travailler moins et mieux vivre ne date pas d’hier et est apparue, car nous avons
adopté la technologie au cœur de nos sociétés. Cette tendance continue de manière
exponentielle et l’arrivée de l’intelligence artificielle marque un tournant majeur.
Si rien ne change dans nos sociétés, alors oui, de nombreux problèmes vont
émerger. Le taux de chômage va exploser, la fracture sociale également. Nous devons
réfléchir à un nouveau système. Un système qui s’oriente sur le fait que nous n’avons
plus à travailler. Ce n’est plus OBLIGATOIRE pour être un citoyen et bien vivre. Une
société future où on travaille seulement si on le souhaite. Pour faire ce qu’on aime,
exercer nos passions. Si tous les travaux pénibles qui nous minent le moral tous les
matins sont exécutés par des machines, alors on pourra se lever avec une motivation
débordante pour travailler dans ce que l’on aime. Et dans cette société future, nous
n’aurons pas à travailler pour gagner de l’argent. Travailler aura un sens bien plus
profond. Il est facile de dresser un portrait négatif de l’automatisation des emplois, car
cela entraîne le licenciement de millions de personnes . Mais ce dont on parle moins,
c’est qu’un très grand pourcentage des emplois automatisés sont des tâches
déshumanisantes que personne n’a réellement envie de faire. Miner du charbon dans
une mine insalubre, conduire un camion toute la journée, passer des heures à récolter
des oignons à coup de bêche, scanner des articles de manière robotique dans un
supermarché, ce n’est pas le genre de métier qui fait rêver les enfants lorsqu’on leur
demande ce qu’ils veulent faire lorsqu’ils seront plus grands. Le bon côté de
l’automatisation c’est affranchir l’humanité des tâches qui nous rendent esclaves du
monde du travail. Les slogans des syndicats ne doivent pas être : “Sauvons nos
emplois !!”. Ce n’est pas les emplois qui importent, mais bien les humains derrière.
Nous devons réfléchir à la transition entre une société où l’on doit travailler pour
survivre, à une société où travailler n’est qu’optionnel. Où un travail n’est pas
nécessaire pour bien vivre.
94
Le problème étant que les gouvernements sont les principaux fournisseurs d’un
revenu de base. Cela fonctionnera bien pour les États-Unis, ou les pays européens, qui
peuvent taxer les entreprises à revenu élevé telles que Google et Facebook. Mais ces
taxes n’aideront pas les habitants de pays moins développés, comme le Honduras ou
le Bangladesh, qui seront mis au chômage par une automatisation croissante. Et il est
naïf d’imaginer que les taxes sur Google iront aux habitants du Bangladesh. La
révolution de l’automatisation rendra probablement certaines régions du monde
extrêmement riches et puissantes tout en détruisant complètement l’économie des
autres.
Tous les experts ne sont toutefois pas pessimistes quant au revenu de base. Il est
possible que l’automatisation généralisée conduise à une ère d’abondance mondiale.
Encore faut-il trouver comment partager les richesses.
Créativité
Si de plus en plus d’activité humaine sont maîtrisées voir surpassées par des
intelligences artificielles, assurément, ce ne sera jamais le cas de la musique, la
peinture, le cinéma, et la science ! En effet, la créativité est considérée comme l’un
des piliers de ce qui définit l’humanité. Même si de nombreuses espèces animales
créent des constructions époustouflantes, pensez à la toile délicate d'une araignée,
elles sont généralement créées dans un but pratique, comme attraper une proie ou
séduire un partenaire.
Les humains, cependant, font de l'art pour eux-mêmes, en tant que forme
d'expression personnelle. Donc est-ce qu’une intelligence artificielle peut être créative
? Une chose est sur avec l’intelligence artificielle c’est qu’il ne faut pas sous-estimer
ses possibles capacités futures.
95
ou un processus ?
Lorsque votre morceau préféré passe à la radio, que ressentez-vous ? Vous êtes
plutôt content, satisfait, voire même euphorique n’est-ce pas ? Maintenant, si vous
appreniez que ce même morceau a été composé par un ordinateur, un programme, une
intelligence artificielle. Est-ce que ça change votre ressenti de cette musique ?
À première vue, l’idée d’un ordinateur créant une musique originale de très haute
qualité peut paraître impossible. On peut très bien créer un algorithme qui est capable
de générer de la musique en utilisant des nombres aléatoires, des fonctions chaotiques,
etc. Le résultat est une séquence de notes musicales possédant de nombreux passages
extrêmement originaux, mais seulement une fraction est supportable à l’oreille
humaine. Ainsi, l’ordinateur n’a aucun moyen de distinguer les passages que l’on
96
considère magnifiques de ceux qui nous percent les tympans.
Une fois cette mélodie sélectionnée, l’ordinateur peut comparer toutes ses phrases
musicales avec la mélodie jugée “belle” et peaufiner sa composition. Une fois tous les
passages les moins similaires enlevés, l’algorithme peut à nouveau appliquer des
combinaisons et mutations sur ce qui reste pour générer de nouvelles phrases
musicales. Et à nouveau comparé avec la mélodie “belle” via la fonction de sélection.
Ce processus peut être répété en boucle jusqu’au résultat final.
97
La recherche sur la créativité dans le jazz s'est concentrée sur le processus
d'improvisation et les exigences cognitives que cela impose. Le robot Shimon,
développé par Gil Weinberg de Georgia Tech, a fait preuve d'improvisation sur du
jazz. Les logiciels d'improvisation virtuelle basés sur des modèles d'apprentissage
automatique de styles musicaux, tels que OMax, SoMax et PyOracle, sont utilisés
pour créer des improvisations en temps réel en réinjectant des séquences de longueur
variable apprises à la volée par un artiste.
La créativité informatique dans les arts visuels a connu des succès notables dans la
création d’art abstrait. Le programme le plus célèbre dans ce domaine est Aaron, de
Harold Cohen, qui est développé depuis 1973. Aaron génère des dessins en noir et
blanc ou des peintures en couleur incorporant des figures humaines ( comme des
danseurs), des plantes, des roches et d’autres éléments. Ces images sont d'une qualité
suffisamment élevée pour être affichées dans des galeries de bonne réputation.
Parmi les autres artistes logiciels connus, citons le système NEvAr (pour "Art
neuro-évolutionnaire") de Penousal Machado. NEvAr utilise un algorithme génétique
pour dériver une fonction mathématique qui est ensuite utilisée pour générer une
surface tridimensionnelle colorée. Un utilisateur humain est autorisé à sélectionner les
meilleures images après chaque phase de l'algorithme génétique. Ces préférences sont
utilisées pour produire les surfaces les plus attrayantes pour l'utilisateur.
Mais est-ce que cela satisfait vraiment notre intuition de ce qui est créatif ou non ?
Est-ce suffisant pour créer quelque chose de beau et original ? Ou est-ce que la
créativité nécessite une intention et une conscience de ce qui est en train d’être créé ?
Et au final, qu’est-ce que la créativité humaine ? Est-ce quelque chose qui dépasse
juste un assemblage de neurones connecté entre eux qui s’agence en fonction de nos
expériences ?
98
Belamy” a été vendu pour $432 000 lors d’une enchère. De quoi peut être lancer un
nouveau mouvement artistique ?
Mais si une oeuvre artistique vous fait vibrer d’émotion, pleurer, vous
impressionne ou encore vous donne la chair de poule, est-ce que cela importe
vraiment de savoir qui ou quoi l’a créée ?
Médecine
Selon Wikipedia, la médecine (du latin : medicina, qui signifie “art de guérir,
remède, potion”) est la science et la pratique étudiant l’organisation du corps humain,
son fonctionnement physiologique, et cherchant à préserver la santé (physique et
mentale) par la prévention et le traitement des pathologies.
Une chose est sûre, la médecine a toujours été entre les mains de personne
qualifiée, spécialisée et bien sûr … humaine. Comme on l’a vu, le monde
s’automatise. Mais à mesure que l’intelligence artificielle étend ses tentacules à
travers les différents secteurs d’activité, de plus en plus de personnes se demandent
s’il y a des tâches et des métiers qui resteront toujours uniques à l’être humain. Car
lorsqu’on pense aux machines sur le marché du travail, on visualise les lignes
d’assemblage dans les usines automobiles ou encore les métiers liés à la conduite de
véhicule (Taxi, ambulancier, routier, etc.). En revanche, on a tendance à se dire que
les métiers créatifs ou qui requièrent un haut niveau d’étude et de capacité cognitives
resteront dans les mains d’Homo Sapiens.
En ce qui concerne la médecine, le métier que l’on a tout de suite en tête c’est
celui de docteur. Le médecin généraliste que l’on va voir dès qu’on a un petit souci et
qui, après avoir attendu des heures dans la salle d’attente à attraper les virus des
autres, nous prescrit les médicaments dont on a tant besoin. Assurément, les docteurs
ne peuvent pas être remplacés ! Eux qui sont connus pour avoir fait de longues études.
Et bien si on y regarde de plus près, la première et principale fonction d’un
docteur c’est de correctement diagnostiquer une maladie et ensuite, suggérer le
meilleur traitement disponible. Si je vais voir mon généraliste en me plaignant de
fièvre et diarrhée, ces symptômes peuvent résulter d’un virus intestinal, du choléra, la
malaria, le cancer ou même une maladie inconnue, qui sait. Mon docteur n’a que
quelques minutes pour faire le bon choix, car il a d’autres patients derrière moi. Il faut
bien qu’il gagne sa vie ! Après quelques questions, il met en parallèle mon dossier
médical et les maladies humaines qu’il connaît, et finalement, me dit que je dois avoir
mangé un truc pas frais et me prescrit un médicament. Aussi bon soit-il, mon docteur
ne peut pas savoir tous les aliments que j’ai ingérés au cours des derniers jours. Il ne
peut pas être au courant de toutes les dernières découvertes en médecine, les derniers
traitements, ni avoir lu les nouvelles publications. En plus, mon docteur est parfois
fatigué voir lui même malade ce qui peut affecter son jugement. Pas étonnant donc
qu’il lui arrive de se tromper dans ses diagnostics en me prodiguant le traitement le
99
moins efficace.
Maintenant, faisons un bon dans le futur proche. Je me retrouve donc à nouveau
avec fièvre et diarrhée. Seulement cette fois-ci, je ne vais pas me rendre dans un
cabinet ou à l’hôpital. Je vais juste consulter mon intelligence artificielle personnelle
qui se trouve chez moi. Comparé à mon docteur de 2019, mon IA possède beaucoup
d’avantages. Déjà, elle peut se connecter à une immense base de données contenant
toutes les maladies connues dans l’histoire de l’humanité. Elle peut aussi mettre à jour
cette base de données à la minute même où un nouveau traitement est publié, mais
également avec les statistiques de tous les autres patients sur la planète. Ensuite, mon
IA me connaît des pieds à la tête, mais également de mes cellules à mon ADN. Elle
possède mon historique médical, celui de mes parents, frères et soeurs, cousins,
voisins et amis. Mon IA saura si j’ai récemment visité un pays tropical, ce que j’ai
mangé ces derniers jours au nutriment près, si j’ai régulièrement des intoxications
alimentaires, si des membres de ma famille ont déjà eu des cancers de l’estomac et s’il
y a d’autres personnes souffrant des mêmes symptômes dans le voisinage. Tout cela,
en une fraction de seconde. Et enfin, mon IA ne sera jamais fatiguée ou malade et
pourra se consacrer uniquement sur mon cas pendant des heures s'il le faut, sans avoir
à réduire la séance car elle a d’autres patients après moi. Et, elle sera disponible même
si je me trouve en vacance en Nouvelle-Zélande, 24h sur 24, 7j sur 7.
Il y a donc fort à parier que son diagnostic et sa recommandation du traitement
optimal seront bien plus précis que ceux de mon docteur en 2019. Et ce n’est pas de la
Science Fiction. Le fameux Watson, d’IBM, après avoir gagné le jeu TV Jeopardy, a
désormais pour mission de diagnostiquer des maladies. Si vous avez prévu d’entrer en
fac de médecine pour devenir médecin généraliste à la fin des années 2020 … vous ne
devez pas voir cela d’un très bon oeil et peut-être qu’il n’y aura tout simplement
aucun travail pour vous. Ou alors, vous serez plutôt une sorte d’informaticien/docteur
et l’IA fera 80% du boulot !
100
Watson d'IBM est destiné au diagnostic médical ©Raysonho CC BY 3.0
Ce genre d’IA sera également présente dans les domaines médicaux spécialisés
comme l’oncologie. En effet, lors d’un test, un algorithme a diagnostiqué
correctement 90% des cancers des poumons qui lui étaient présentés, alors que les
docteurs ont obtenu un ratio de 50%. Aujourd’hui, des algorithmes sont utilisés lors
de scanner et mammographie ce qui donne un deuxième avis et parfois, détectent des
tumeurs que les médecins ont loupées. Récemment, une équipe de chercheurs à
Oxford ont développé Ultromics, une IA spécialisée dans le diagnostic de maladie
cardio-vasculaire. En écoutant les battements cardiaques d’un patient, elle est capable
de déterminer si ce dernier souffre ou pas d’un problème au coeur.
101
Des IA sont désormais plus performantes pour repérer des anomalies sur des
radios.
Des algorithmes de deep learning similaires ont montré des succès encourageants
dans d'autres branches de la médecine telles que l'ophtalmologie et la cardiologie. Des
chercheurs de Google ont pu former une IA à détecter la propagation du cancer du
sein dans les tissus des ganglions lymphatiques sur des images microscopiques avec
une précision comparable (ou supérieure) aux pathologistes humains. Il est difficile de
chercher de minuscules cellules cancéreuses. C’est comparable à trouver une seule
maison sur une photographie satellite d’une ville entière. Un humain peut souffrir de
fatigue ou d'inattention en analysant les images, tandis qu’une IA peut traiter des
millions de pixels sans transpirer.
Il reste bien sûr pas mal de problèmes à résoudre avant de voir des IA rendre les
docteurs obsolètes. Mais peu importe les difficultés, il nous faudra les résoudre
qu’une seule fois. Alors que pour former un seul médecin humain, cela coûte
beaucoup d’argent et prend des années. Juste pour UN médecin. Si vous en voulez
deux, il faut répéter le processus. Alors que pour des IA, une fois que ce sera au point,
il n’y en aura pas qu’une seule, mais des millions et même si cela coûte 100 milliards
102
à mettre au point, sur le long terme, c’est bien plus avantageux que de former des
médecins humains. Et une telle technologie offre le meilleur système de santé jamais
conçu et applicable dans le monde entier.
Mais même si une IA devient techniquement meilleure qu’un médecin, il reste
néanmoins la touche humaine. Si un scanner indique un jour que vous avez un cancer,
est-ce que vous voulez recevoir la nouvelle de la part d’une machine, ou par un
médecin attentionné et empathique ? Et pourquoi pas d’une machine capable de
compassion, d’empathie et qui adapte chaque mot à votre personnalité, car elle vous
connaît mieux que vous ne vous connaissez vous même ? Est-ce que le soutien
émotionnel est réservé aux humains ? On pourrait penser que oui, mais encore une
fois, c’est très probable que non. Les émotions ne sont pas un truc métaphysique que
Dieu nous a donné pour apprécier la poésie. Ce n’est ni plus ni moins qu’une série de
données biochimique présent dans le règne animal, pas seulement chez Homo
Sapiens. Et qu’est-ce qui est performant à collecter des données ? Les IA ! Donc une
machine pourrait très bien non seulement diagnostiquer parfaitement votre problème,
vous donnez le traitement optimal, mais également lire vos émotions et réagir en
conséquence. Tout comme le fait un docteur au final. Après tout, comment un
médecin fait-il pour connaître votre condition émotionnelle ? Il se fie à vos signaux
extérieurs : Expression faciale, langage corporel. Et également à ce que vous lui dite
et comment vous le dites. Tout cela est tout à fait faisable par un système artificiel.
La médecine liée à l’intelligence artificielle sera également orientée vers la
prévention. Car l’un des avantages essentiels de l'IA provient de sa capacité à
rassembler et à analyser des quantités de données et à tirer des conclusions de son
analyse. Qui est le plus susceptible d'avoir un cancer ? Quels sont les facteurs de
risque qui rendent un patient plus vulnérable, par exemple, aux crises cardiaques, par
opposition aux accidents vasculaires cérébraux ?
On voit déjà la confiance placée dans les algorithmes se manifester dans le
domaine de la médecine. Les plus importantes décisions concernant votre santé ne
seront pas prises par vous sur la base de vos émotions et sensations, mais par des
algorithmes, sur la base de ce qu’ils savent sur vous. Si cela paraît flou et théorique,
voici un exemple pratique :
Le 14 mai 2013, l'actrice Angelina Jolie a publié un article dans le New York
Times sur sa décision de subir une double mastectomie. Ce n’est pas une petite
décision !!! Angelina Jolie a vécu pendant des années sous l'ombre du cancer du sein.
Sa mère et sa grand-mère en étant mortes à un âge relativement précoce. Angelina
Jolie a fait un test génétique qui a prouvé qu'elle portait une mutation dangereuse du
gène BRCA1. Selon des récentes statistiques, les femmes porteuses de cette mutation
ont une probabilité de 87% de développer un cancer du sein. Même si, à l'époque, elle
n'avait pas de cancer, elle a décidé d'anticiper la maladie et d'avoir une double
mastectomie. Quand Angelina Jolie a dû prendre une des plus importantes décisions
103
de sa vie, elle n'est pas allée dans la forêt pour tenter de se connecter à ses sentiments
les plus intimes via 10h de méditation. Au lieu de cela, elle a préféré écouter ses
gènes, dont la voix s’est manifestée non pas par des émotions, mais par des chiffres.
Elle a préféré écouter un algorithme plutôt que ses propres sensations.
Il y a plusieurs années, Google a créé son étude Baseline, une entreprise complète
et ambitieuse impliquant des milliers de bénévoles et 100 spécialistes dans différents
domaines médicaux. Comme son nom l'indique, le but de l'étude était d'établir une
sorte de base de la santé humaine à partir de laquelle des algorithmes et des
chercheurs pourraient isoler des indices biologiques susceptibles d'être des
prédispositions à des maladies spécifiques.
Aujourd’hui, l’étude Baseline se poursuit sous la bannière de Verily, une division
d’Alphabet (la société mère de Google). Dans un avenir proche, il est facile
d’imaginer un monde où les maladies non transmissibles (accidents vasculaires
cérébraux, cancers, crises cardiaques) ou les maladies héréditaires sont identifiées lors
d’une seule visite chez le médecin. Les patients pourront non seulement voir la
probabilité qu’ils aient de contracter une maladie spécifique, mais les médecins
pourront également les aider à prévenir ces conditions grâce à un plan d'action clair et
sur le long terme.
Aujourd’hui, vous pouvez très bien vivre des années avec des cellules cancéreuses
qui se multiplient. Malheureusement, le jour où vous vous en rendez compte, c’est
peut-être trop tard. Bientôt, vous irez aux toilettes pour faire la grosse commission.
Vos toilettes intelligentes connectées vous enverront ensuite une notification sur votre
téléphone : “Bonjour, après avoir analysé vos excréments, j’ai remarqué 100 000
cellules cancéreuses en provenance des poumons. Il est recommandé d’arrêter de
fumer ou bien vous développerez un cancer dans 25 ans. La probabilité est de 89%”.
En regardant votre téléphone, vous saurez en permanence votre pression sanguine,
votre taux de cholestérol, la quantité de nutriment que vous avez ingéré lors de votre
déjeuner et si vous avez des carences en fer ou protéine. En faite, on pourrait même
être constamment contrôlé par des systèmes externes intelligents dans notre quotidien
sans vraiment y prêter attention. En prenant une douche, vous passerez en même
temps un scanner pour vérifier les traces de cancer de la peau. Chaque fois que vous
saisirez votre téléphone, vous obtiendrez une électrocardiographie, chaque fois que
vous vous regarderez dans le miroir, vous aurez un examen rétinal, chaque fois que
vous dormirez, votre matelas analysera votre respiration, et pression sanguine. De
nombreux systèmes intelligents peuvent être incorporé dans notre vie de tous les
jours, tout autour de nous afin d'être en écoute constante pour prévenir d'éventuels
problèmes de santé. Et lorsque nous avons en permanence des diagnostics sur
l’évolution de notre santé, les chances de traiter les pathologies sont extrêmement plus
élevées.
104
Toutes ces données collectées joueront un rôle crucial dans la médecine préventive
du futur. Ce qui est appelé le “big data” sera capable de prévenir une maladie pour un
individu, mais également une menace d’épidémie pour une société tout entière.
Aujourd’hui, il faut plusieurs jours pour que le ministère de la Santé réalise qu’une
épidémie de grippe est en train de se répandre dans le pays. Google pourrait le faire en
une minute. Tout ce dont l’algorithme a besoin, c’est de surveiller certains mots clés
qui sont tapés dans les emails et le moteur de recherche des Français au cours d’une
minute. Ensuite, l’algorithme analyse les mots clés : Maux de tête, toux, fièvre,
éternuement. Admettons qu’en moyenne, ils sont répertoriés 100 000 fois. Mais si,
lors de cette fameuse minute, ils sont répertoriés 500 000 fois, alors Google peut
conclure qu’une épidémie de grippe a éclaté. Les autorités peuvent ensuite réagir plus
vite. Mais pour que Google réussisse ce tour de magie digne de minority report, il faut
qu’on l’autorise à lire nos informations et les partager avec le ministère de la Santé.
Sacrifier notre vie privée pour augmenter le niveau de santé des citoyens. Voilà peut-
être le choix qui nous sera demandé.
Mais ces algorithmes seront si bons à prendre des décisions pour nous que ce sera
considéré comme de la folie de ne pas suivre leur recommandation. Il est important de
noter que si l’intelligence artificielle révolutionne certainement nos relations avec la
médecine, elle est beaucoup plus susceptible de le faire de manière subtile et discrète.
Les soins de santé deviendront plus précis, plus complets et moins chers avec le
temps, ce qui est une bonne nouvelle pour tout le monde.
Assistants personnels
Siri d’Apple, reçoit l'honneur d'être la première IA personnelle, lancée sur l'iPhone
en 2011. À l'époque, Siri était révolutionnaire et a eu le monopole sur le marché
pendant plusieurs années, jusqu'à ce que Amazon lance Alexa et que Microsoft fasse
105
ses débuts avec Cortana en 2014, Google Assistant est arrivé en 2016, Samsung a
rejoint la fête avec Bixby en 2017.
Alexa et Google Assistant ont pris beaucoup de place ces dernières années, grâce
notamment à un marketing agressif. Jusqu’à présent, les efforts ont été placés dans la
reconnaissance vocale afin de savoir ce que l'utilisateur dit. La prochaine étape s'agira
davantage de savoir pourquoi et où il le dit. La compréhension contextuelle est la clé
pour que la recherche vocale puisse devenir une partie intégrante de la vie des
consommateurs.
L’assistant Google a pris les devants, car la technologie peut mieux comprendre
l’importance du contexte lorsqu’une question est posée. Les utilisateurs peuvent
demander à Google Home : “Quelle est la météo pour demain?”. Puis demander :
“Est-ce qu’il va neiger ?”. Google Home sait que la deuxième question concerne leur
emplacement spécifique. Alexa, en revanche, ne comprend pas le contexte dans ce
même cas. Google Assistant peut comprendre les demandes d'utilisateurs spécifiques
et personnaliser la réponse, ce qui le place un cran au-dessus de la compétition. Les
assistants vocaux continueront à offrir des expériences plus personnalisées au fur et à
mesure qu’ils parviendront à mieux différencier les voix. En 2017, Google a annoncé
que son assistant Google Home pouvait prendre en charge jusqu'à six comptes
d'utilisateur et détecter des voix uniques, ce qui permet aux utilisateurs de Google
Home de personnaliser de nombreuses fonctionnalités. Une personne peut demander
"Que reste-t-il à faire sur mon calendrier aujourd'hui ?". Et l'assistant reconnaîtra la
voix et saura quel calendrier décrire. Il inclut également des fonctionnalités telles que
les pseudonymes, les lieux de travail, les informations de paiement et les comptes
associés tels que Google Play, Spotify et Netflix. Amazon se bat pour rattraper son
retard et la société a annoncé la détection de voix personnalisée pour des expériences
plus personnalisées il y a quelques mois à peine.
Lors d’une conférence début 2018, Google a présenté sa dernière mise à jour
106
concernant son assistant virtuel. Nommée “Duplex”, l’intelligence artificielle est
capable de prendre un rendez-vous téléphonique au nom de son utilisateur. Durant la
présentation, l’exemple concernait un rendez-vous chez le coiffeur. Une fois
l’instruction donnée, l’intelligence artificielle compose le numéro du salon de coiffure
et entame une conversation en temps réel avec la personne au bout du fil. Bien qu’un
petit peu étrange, l'échange téléphonique entre IA et humain se déroule naturellement
et le rendez-vous est fixé. La personne du salon de coiffure n’a probablement aucune
idée qu’elle parle à une IA. Ce qui est impressionnant c’est que l’assistant virtuel
arrive à s’adapter en fonction des réponses de son interlocuteur humain.
Ainsi, notre assistant virtuel pourrait devenir extrêmement efficace à gérer des
tâches de notre quotidien. Prendre rendez pour nous comme on l’a vue, mais
également gérer notre calendrier, commander les produits qui nous manque en
fonction de nos habitudes alimentaires, nous donner des infos en temps réels sur notre
santé grâce à des capteurs biométriques. Nos lieux de vie seront également connectés
à notre assistant si bien qu’il pourra gérer le chauffage, la lumière et tous les appareils
faisant partie de l’internet des objets.
107
l’année. 99% de nos décisions - y compris les choix de vie les plus importants comme
qui épouser, quel travail choisir et quelle maison acheter - sont faites par les
algorithmes complexes que nous appelons les sensations, les émotions et les désirs.
Donc en théorie, si des algorithmes externes arrivent à comprendre nos algorithmes
internes, ils pourront suggérer 99% de nos décisions. Ce qui fait beaucoup !
Regardons le cas d’une des plus importantes décisions que l’on peut prendre dans
sa vie. Qui épouser ? Dans la plupart des pays développés, plus d’un mariage sur deux
se termine en divorce, avec des taux allant même jusqu’à 70% de divorce en
Belgique. Pas génial. Voilà comment mon assistant personnel pourra répondre à la
question. Je sors mon smartphone et je lui demande “Qui épouser ?”. Il me répond -
“Je te connais depuis le moment où tu es né. J'ai lu tous les e-mails que t’as écrits.
J'ai écouté tous tes appels téléphoniques. Je me souviens de toutes tes relations
amoureuses. Je peux te montrer les graphiques de ta tension artérielle pour chaque
partenaire et rencontre sexuelle dans ta vie. Je connais aussi tes partenaires
potentiels, comme je te connais. Je connais tes fantasmes, ce qui t'excite, ta
personnalité, tes forces et faiblesses sentimentales. Sur la base de toutes ces
informations, et sur les données de millions de relations réussies et infructueuses, je
peux te recommander, avec une probabilité de 86%, que Samantha sera ta femme
parfaite au lieu de Cassandre. Je te connais si bien que je sais que tu es déçu, car tu
préfères Cassandre. Tu fais cette erreur, car tu donnes trop d'importance à
l'apparence physique. La beauté est importante, mais tu lui en donnes trop. La beauté
compte pour 9% du succès d’une relation, mais tes anciens algorithmes biochimiques,
à cause de ce qui s'est passé dans la savane africaine où la beauté était synonyme de
santé, donnent à l’importance de la beauté, un facteur de 27%, ce qui est beaucoup
trop élevé à notre époque. Donc, même si tu penses Cassandre, choisis Samantha et tu
seras heureux dans une relation amoureuse à la combinaison parfaite.”
Et il n’y a pas besoin que les décisions des algorithmes soient parfaites. En faite, il
faut juste qu’ils soient un peu meilleurs que la moyenne des décisions humaines. Si on
se rend compte que les recommandations des IA personnelles sont deux ou trois fois
meilleures que les décisions que l’on prend par nous même, alors on les utilisera. Ça
n’arrivera pas du jour au lendemain. Ce sera progressif. On demandera de plus en plus
les avis de Google, Facebook, Amazon. On déléguera de plus en plus de décision. Et
si on voit que leurs avis débouchent sur de meilleures décisions pour nous, alors on
aura tendance à leur faire de plus en plus confiance.
108
et autres animaux. D’une manière générale, on constate que plus l’animal a la capacité
de nous renvoyer des expressions, et donc des émotions, plus nous pouvons engendrer
de l’empathie. C’est pour cette raison que la plupart des êtres humains ont beaucoup
d’affection pour les chats, et très peu pour les carpes. Eh oui, regarder un chat dans les
yeux n’a pas le même effet que croiser le regard d’une truite. Encore moins pour une
grenouille ou une fourmi. Mais est-il possible de posséder de l’empathie pour un objet
ou une entité artificielle ?
Grâce à des années de recherche, on sait aujourd’hui que la réponse est oui. Il
existe d’ailleurs un terme pour ça : l’effet tamagotchi. Qui renvoi à ces petits animaux
de compagnies virtuelles dans les années 90, en provenance tout droit du Japon. On a
aussi des études montrant que les personnes âgées s’attachent à des compagnons
robotiques dans les maisons de retraite. Et plus récemment, on sait que les gens
s’attachent aux assistants virtuels : Siri, Alexa, Google Home. Et il y a également eu
des cas où des soldats enterrent leur robot démineur lorsqu’ils sont trop endommagés,
car ils ont travaillé à leur côté lors de nombreuse mission. Ils le perçoivent un peu
comme un chien démineur.
Nous allons donc potentiellement avoir des sentiments voire même tomber
amoureux de nos assistants virtuels. Comme l’imagine le scénario du film “Her” de
Spike Jonze sorti en 2013. Ou alors ils seront des sortes de “meilleurs potes”.
Le rôle des assistants virtuels sera également très important dans l'éducation. Dans
la mesure où notre assistant connaîtra beaucoup d’informations sur nos préférences,
notre façon d’apprendre, nos facilités et nos défauts, il pourrait devenir un professeur
personnalisé d’une efficacité bien plus grande que le système éducatif traditionnel. Ou
même les cours en lignes. Le Google de 2030 ne sera pas un système pour trouver de
l’information, mais un système dédié directement à faire apprendre à l’utilisateur.
109
Armes autonomes
Lorsqu’on mélange intelligence artificielle et guerre, on a tout de suite en tête les
scénarios les plus dystopiques et apocalyptique que la Science Fiction nous ai offert
comme Terminator et Matrix.
Un système d'armes létales autonome (SALA), ou robot tueur, est une machine
capable d'avoir une action létale de manière automatisée sans intervention humaine.
Autrement dit, la décision de tuer a pour origine le système virtuel. Il peut s'agir d'un
drone ou une autre machine. Mais cette définition n’est pas suffisamment précise pour
faire l’unanimité. Des philosophes et chercheurs comme Peter Asaro et Mark Gubrud
estiment que tout système d’armement capable d’exercer une force meurtrière sans
opération, décision ou confirmation d’un superviseur humain peut être considéré
comme autonome. Selon Gubrud, un système fonctionnant partiellement ou
totalement sans intervention humaine est considéré comme autonome. Il souligne
qu'un système armé n'a pas besoin de pouvoir prendre des décisions complètement par
lui-même pour être appelé autonomes. Au lieu de cela, il devrait être considéré
comme autonome tant qu'il est impliqué activement dans une ou plusieurs parties du
processus menant à l'exécution. De la recherche de la cible au tir final.
Certaines personnes postulent que les armes nucléaires sont une des raisons
majeures qui a permis la fin des grands conflits entre pays. Car ceux qui les possèdent
savent les conséquences apocalyptiques qui découlent de leurs utilisations. Du coup,
on pourrait se dire que si on construit des armes encore plus destructrices, basées sur
des hordes de robots tueurs, alors on entrera dans une ère de paix sans précédent et
l'idée même de guerre sera révolue.
110
chef d’État ne devienne pas fou et lance une attaque dévastatrice sur un pays ennemi ?
De plus, les futurs drones et autres systèmes d’armes autonomes peuvent être en
principe bien plus rationnel que des soldats rongés par des émotions conflictuelles.
Équipés de capteurs surhumains et sans peur de se faire tuer, ils pourraient rester
calmes même dans le feu de l'action, et seront moins susceptibles de tuer
accidentellement des civils. Sur le papier, cela sonne comme une bonne chose à
mettre au point. Seulement, lorsqu’on parle de système automatisé, on fait face à de
potentiels bugs qui, associés à de l’armement léthal, peuvent avoir de très lourdes
conséquences.
C’est déjà arrivé par le passé, et plus d’une fois. Voici un exemple probant tiré du
livre “Life 3.0” de Max Tegmark. Le vol 655 d'Iran Air était un vol commercial
assurant la liaison entre Téhéran et Dubaï. L'Airbus est abattu le 3 juillet 1988 au-
dessus du golfe Persique par un tir de missiles provenant du croiseur américain USS
Vincennes, qui disposait d’un système autonome de détection et d'autodéfense. La
catastrophe, qui fit 290 victimes civiles, dont 66 enfants, serait due à une erreur du
système autonome qui a confondu l’Airbus avec un avion de combat F-14. Toutefois,
il faut noter que le système autonome n’a pas pris lui même la décision de tirer. Le tir
fut ordonné par le commandant William Rogers. La décision finale a été prise par un
humain, qui a accordé trop de confiance en ce que lui disait le système autonome.
111
L'USS Vincennes, à l'origine de la catastrophe du vol 655 Iran Air le 3 juillet
1988.
112
marins habités. La Russie développe une torpille nucléaire autonome intercontinentale
nommée "Poseidon" capable entre autres d’exploser à proximité du littoral d’un pays
ennemi, générant ainsi un tsunami d’eaux radioactives sur une ville. Pas le genre
d’arme que l’on souhaite voir à l’action.
Est-ce une bonne idée de donner la décision finale d'éliminer une cible à une
machine ? Ou devons-nous toujours faire en sorte qu’un humain donne l’ordre ?
113
Photo de Vasili Arkhipov, l'officier ayant empêché une probable 3e guerre
mondiale. ©National Geographic CC-BY-SA-4.0
Ce n’est pas le seul incident ayant failli déboucher sur la troisième guerre
mondiale. Le 9 septembre 1983, un système d'alerte soviétique automatisé signala que
les États-Unis avaient lancé cinq missiles nucléaires en direction de l’Union
soviétique, laissant à l'officier Stanislav Petrov simplement quelques minutes pour
décider si c'était une fausse alerte. Il arriva à la conclusion que si les États unis
attaquaient l’URSS, il ne le ferait pas avec seulement cinq missiles nucléaires. Il
décida donc de signaler à ses supérieurs que c'était une fausse alerte. En effet, il
s'avéra que le système de détection prit la réflexion du soleil sur les nuages pour des
missiles. Encore une fois, si un système d’attaque autonome avait été en place à ce
moment-là, il aurait certainement déclenché une pluie de missile nucléaire sur les
États unis.
114
dans les parties précédentes, l’intelligence artificielle a fait d’énormes progrès dans la
reconnaissance d’image. Elle est capable d’identifier un individu sur des images de
faible qualité, en mouvement, basé sur le visage, la posture et d’autres paramètres.
Dans beaucoup de cas de figure, une intelligence artificielle a un niveau super-humain
pour identifier une cible, ce qui dans le cas des armes autonomes, baisserait
considérablement le taux d’erreur, car elle pourrait se rapprocher suffisamment près
de la cible pour l'éliminer, sans faire d’autres victimes.
Par contre, le manque “d’humanité” derrière l’acte de tuer, peut entraîner des
conséquences désastreuses. Certains massacres ethniques dans l’histoire ont fait des
milliers de victimes, rasant des villages entiers. Mais certains soldats, face à l’ordre de
tuer, par exemple, tous les musulmans d’un secteur, comme c'était le cas durant la
guerre du Kosovo, ont ressenti de l’empathie pour les femmes et les enfants. Si l’ordre
avait été donné à des armes autonomes, le pourcentage de décès ethnique aurait été
virtuellement de 100% tant ces systèmes sont efficaces. Aucun remords. Aucune
empathie. Aucune hésitation. Si la machine voit un individu qui correspond à ce
qu’elle a appris en machine learning de ce qu’est telle ou telle ethnie, elle fera feu. On
n’ose imaginer ce qu’Hitler aurait pu faire à la population juive s’il avait eu accès à
des armes autonomes.
115
Le MQ-1 Predator de l'armée Américaine ne prend encore pas la décision de tuer.
Mais jusqu'à quand ?
Le point final de cette trajectoire technologique est évident : les armes autonomes
deviendront les Kalachnikovs de demain. Contrairement aux armes nucléaires, elles
ne nécessitent pas de matières premières coûteuses ou difficiles à obtenir, donc elles
deviendront omniprésentes et bon marché. Ce ne sera qu'une question de temps
jusqu'à ce qu'elles apparaissent sur le marché noir et donc dans les mains de
terroristes, des dictateurs souhaitant mieux contrôler leur population, des seigneurs de
guerre souhaitant un nettoyage ethnique, etc. Les armes autonomes sont idéales pour
des tâches telles que les assassinats, la déstabilisation d’une nation, et tuer de manière
sélective un groupe ethnique particulier. On peut également souligner l'inquiétude vis-
à-vis de possible piratage de système d’arme autonome. Des terroristes pourraient
pirater un robot tueur d’une armée pour que ce dernier obéisse à leurs ordres. En
réalité, il est déjà possible aujourd’hui de concevoir un drone tueur. Il suffit d’un
drone lambda que l’on trouve sur Amazon, d’un logiciel de reconnaissance faciale, et
d’une petite charge explosive. Pour très peu d’argent, et sans avoir besoin de nouvelle
technologie, il est possible d’ordonner à un drone de tuer une cible spécifique. Voire
même de fabriquer un essaim de drones tueur pour commettre un massacre, ou
éliminer de nombreuses cibles.
Ce n’est pas vraiment un scénario à la Terminator qu’il faut craindre, mais plutôt
celui d’un groupe terroriste qui programme un robot tueur afin de commettre un
116
massacre dans un stade de foot. Et il est bien plus difficile de stopper une machine
qu’un humain. Ou encore un suprémaciste blanc néonazi membre du Klu Klux Klan
qui ordonne à un drone autonome armé de tuer toutes les personnes de couleurs qu’il
détecte.
Les drones actuels pourraient être armés dans le but de faire des victimes.
Et lorsque l’on voit les progrès en robotique au cours de ces dernières décennies,
notamment par l’entreprise Boston dynamics, on peut être inquiet. Il y a dix ans, la
tâche la plus compliquée pour les ingénieurs en robotique était de faire marcher leur
robot sur deux jambes. Aujourd’hui, le robot Atlas peut courir, monter des escaliers,
rester debout malgré un trébuchement et faire des saltos arrières. Et les robots
quadrupèdes comme Spot sont également très impressionnant. Si vous avez vu
l'épisode 5 de la saison 4 de Black mirror, vous comprenez que ce n’est pas une bonne
idée de permettre à de tel robot le droit de tuer sans ordre humain.
117
Atlas est un type de robot bipède de Boston Dynamics ayant fait des progrès très
impressionnants. CC BY-SA 4.0
Les armes autonomes pourraient engendrer finalement plus de conflits que par le
passé, car elles baissent le seuil de décision d'entrer en guerre ou non. Étant donné
qu’il y a moins de soldats humains en jeu, les gouvernements pourraient être plus
enclins à régler des conflits par la guerre.
Les armes autonomes sont au coeur d’un débat aux quatre coins du monde, en
particulier sur le risque de "robots tueurs". Le groupe “Campaign to Stop Killer
Robots” s'est formé en 2013. En juillet 2015, plus de 1 000 experts en intelligence
artificielle ont signé une lettre mettant en garde la menace d'une course aux
armements en matière d'intelligence artificielle militaire et appellent à l'interdiction
des armes autonomes. La lettre a été présentée à Buenos Aires lors de la 24e
Conférence internationale sur l’intelligence artificielle, signée par Stephen Hawking,
Elon Musk, Steve Wozniak, Noam Chomsky, et le fondateur de Google DeepMind
Demis Hassabis, entre autres.
118
Tout comme la plupart des chimistes et biologistes n’ont aucun intérêt à fabriquer
des armes chimiques ou biologiques, la plupart des chercheurs en intelligence
artificielle n'ont aucun intérêt à construire des armes autonomes et ne veulent pas que
de tels projets ternissent l’image de l’intelligence artificielle qui pourrait créer une
réaction publique majeure contre l'IA, ce qui ralentirait les futurs avantages. Les
chimistes et biologistes ont largement soutenu les accords internationaux qui ont
interdit avec succès les armes chimiques et biologiques, tout comme la plupart
physiciens ont soutenu les traités interdisant les armes nucléaires dans l'espace. On
peut donc espérer que les chercheurs en intelligence artificielle limitent le
développement des armes autonomes et que des réglementations internationales
verront le jour.
119
3.
120
3. Demain : Intelligence artificielle générale
Il existe dans la nature différents types d’organisme qui semble être très doué à des
tâches spécifiques. En d’autres termes, ils ont une intelligence spécialisée. Les
abeilles semblent compétentes à faire des ruches. Les castors semblent compétents
pour faire des barrages. Mais si un castor observe des abeilles fabriquer une ruche, il
ne va pas essayer de faire pareil. Il semble donc qu’il y a un manque de transfert de
compétence. Par opposition, nous, humains, pouvons observer les castors en train de
construire un barrage, et répliquer à notre façon cette compétence. Nous pouvons
observer comment les abeilles construisent leurs ruches et faire de même. Nous avons
une intelligence générale. Et en regardant l’ampleur de notre savoir-faire, il semblerait
que nous ayons l’intelligence générale la plus vaste du règne animal. C’est ce type
d’intelligence que certains chercheurs tentent de construire dans leur atelier.
C’est intéressant de noter que ce qui est souvent intuitivement considéré comme le
plus difficile pour nous humain se révèle être super simple pour une intelligence
artificielle. Multiplier des nombres de dix chiffres en une fraction de seconde c’est
réservé aux autistes spéciaux, mais c’est hyper facile pour un ordinateur. Faire la
différence entre un chien et un chat c’est un jeu d’enfant pour 99,9% des êtres
humains, mais pour une intelligence artificielle c’est d’une complexité insurmontable.
Faire de l'IA capable de battre n'importe quel humain aux échecs ? C’est fait. Faites-
en une capable de lire un paragraphe d’un livre d'un enfant de six ans et ne pas
simplement reconnaître les mots, mais en comprendre la signification ? Google
dépense actuellement des milliards de dollars pour essayer de le faire. Les tâches
difficiles pour nous comme le calcul, l’analyse du marché économique et la traduction
linguistique en 150 langues sont extrêmement faciles à comprendre pour un
ordinateur, tandis que les choses simples comme la vision, la compréhension du
121
langage naturel et la perception sont incroyablement difficiles. Ou, comme le dit
l’informaticien Donald Knuth : “Jusqu’à présent, l’intelligence artificielle arrive à
faire quasiment tout ce qui requiert de la penser, mais échoue à faire ce que les
humains et animaux font “sans penser””.
C’est pour cette raison que l’apprentissage est un élément clé dans la création
d’une intelligence artificielle. Si on pouvait mettre une IA dans une boite avec tout un
tas de données sur le monde plus une dose de machine learning, pendant cent millions
d’années, elle ressortirait surement avec un niveau d’intelligence dépassant de loin
celui d’un humain. Mais ce serait quand un peu long et la plupart des chercheurs
travaillant sur le développement d’une IA générale espèrent le faire bien plus
rapidement.
Donc l’élément clé pour la création d’une intelligence artificielle générale c’est
l’apprentissage. Comme on l’a vu dans la partie précédente, le machine learning et le
deep learning sont des techniques efficaces pour faire apprendre à des algorithmes
certaines fonctionnalités. Mais des tonnes de données sont nécessaires pour nourrir
ses algorithmes, ce qui est très différent de la façon dont un être humain est capable
d’apprendre. Pour nous, un ou deux exemples et nous sommes capables de tirer des
conclusions rapidement. Par exemple, pour reconnaître de la neige sur une photo.
Pour un enfant de 10 ans vivant sur une île tropicale qui n’a jamais vu de la neige, il
lui suffira de voir une ou deux photos et il aura appris. Une IA doit analyser des
milliers de photos pour obtenir un résultat proche des 100% lorsqu’on lui demande de
reconnaître un paysage enneigé. Une intelligence artificielle générale devrait donc
être capable d’apprendre une tâche avec très peu d’exemples à disposition. Et c’est
quelque chose qui semble être très compliqué aujourd’hui.
122
“intelligence artificielle générale” et également le transfert d’apprentissage. C’est-à-
dire que lorsqu’un enfant commence à devenir bon au jeu vidéo “Mario”, s’il
commence à jouer à Sonic, il aura déjà des acquis techniques qui seront applicables
sur tous les jeux de plateforme similaire. Si l’on prend une intelligence artificielle qui
a impressionné par ces capacités, disons Alpha Zero de Google deepmind. Il sera
capable de battre n’importe quel humain au jeu de Go jusqu’à la fin des temps, mais il
ne sait pas commander une pizza en ligne, ou conduire une voiture. Même s’il a
néanmoins démontré des capacités de transfert d’apprentissage en maîtrisant
rapidement les échecs en plus du jeu de Go, mais ces capacités restent limitées.
D'autres raisons possibles ont été avancées pour justifier les difficultés rencontrées
comme la nécessité de bien comprendre le cerveau humain par le biais de la
psychologie et de la neurophysiologie qui ont empêché de nombreux chercheurs
d'imiter la structure du cerveau humain dans un cadre artificiel. Il y a également le
débat sur l'idée de créer des machines avec des émotions. Il n'y a pas d'émotions dans
les modèles actuels et certains chercheurs affirment que la programmation d'émotions
dans des machines leur permettrait d'avoir leur propre esprit. L'émotion résume les
expériences des humains, car elle leur permet de se souvenir de leurs expériences. Le
chercheur David Gelernter a écrit qu’aucun ordinateur ne sera créatif s'il ne peut
simuler toutes les nuances de l'émotion humaine.
Mais l’une des difficultés qui occupent grandement les chercheurs c’est la
question du “bon sens”. C’est-à-dire comment s’assurer qu’une intelligence artificielle
puisse comprendre le monde et faire preuve de bon sens dans sa résolution des
problèmes qu’elle rencontre ? Pour les humains, le bon sens est un ensemble de faits
que tout le monde connaît et prend pour acquis lorsque l’on exécute une tâche. Par
exemple, “un enfant restera plus jeune que ses parents jusqu’à la fin de sa vie”, “est-
ce possible de faire une salade avec du polyester ?”, “Il est impossible que mon
grand-père n’ait jamais eu d’enfant” etc.
Ce sont des questions absurdes, que n’importe quel humain de plus de 2 ans est
capable de savoir. Mais une intelligence artificielle n’en a aucune idée et si elle
n’apprend pas chaque réponse, elle ne pourra pas les déduire d’elle même. Par
exemple, si je demande à une intelligence artificielle : “Est-ce que Monsieur Martin
est plus grand que son bébé ?”, l’IA va chercher à résoudre cette question en trouvant
123
les données sur la taille des deux êtres humains. Elle me répondra : “Monsieur Martin
fait 1m80, son bébé fait 70 cm donc la réponse à votre question est que Monsieur
Martin est plus grand”. Mais ce n’est pas la meilleure façon de répondre à cette
question puisque n’importe qui sait qu’un adulte sera forcément plus grand que son
bébé. Pas besoin de comparer leur taille pour savoir qui est plus grand.
Alors on pourrait se dire que la solution est simple. Il suffit d’apprendre à l’IA que
les adultes sont plus grands que leur bébé, dans tous les cas. Mais ce n’est qu’un seul
fait de bon sens parmi des milliards d’autres. Enseigner tout le bon sens des humains à
une IA est une tâche incommensurable. Et même si on y parvient, comment être sûr
que l’on n’a rien oublié ? Sachant qu’un oubli pourrait avoir des conséquences
désagréables pour ne pas dire tragique.
Imaginons un robot ménager dans votre maison ayant une intelligence artificielle
très avancée, proche d’une IA générale. Vous lui demandez de préparer le dîner, mais
le robot ne trouve aucun aliment dans le frigo. Soudain, votre chat passe sous ses
yeux. 10 minutes plus tard, le robot vous sert un ragoût de chat. Ce n’est pas vraiment
ce que vous attendiez, mais vu que le robot n’a pas le bon sens de savoir qu’on ne
mange pas nos animaux de compagnie, il a fait ce qu’il pensait être la bonne action
par rapport à votre requête.
Autre exemple avec une super intelligence capable de résoudre tous nos
problèmes. Si on lui demande d'arrêter la faim dans le monde, elle pourrait très bien
arriver à la conclusion que d’éliminer tous les êtres vivants sur la planète est le
meilleur moyen d'empêcher un organisme de ressentir la sensation de faim. Car si plus
d’organismes, plus de faim. Logique. Et si on lui dit que ce n’est pas ce qu’on lui
demande, elle nous répondra que c’est exactement ce qu’on lui a demandé. Dans ce
cas, il aurait fallu préciser “Élimine la faim dans le monde sans tuer tous les êtres
vivants”. Pour nous humain, c’est du bon sens. Évidemment que lorsque l’on souhaite
éliminer la faim dans le monde, on souhaite également préserver la vie sur Terre. Mais
pour une IA, aussi intelligente soit-elle, le bon sens n’existe pas.
124
Mais il n’y a pas non plus d’argument prouvant que cela est impossible. Nous ne
savons pas à quelle distance nous sommes de la ligne d'arrivée. L'architecture
matérielle, les algorithmes et les techniques d’apprentissages ont permis des progrès
fulgurants dans le domaine et il semblerait que chaque année, nous faisons plus de
progrès que l’année précédente. Ce qui indique une croissance exponentielle. En
d’autres termes, nous ne pouvons pas rejeter la possibilité que l’intelligence
artificielle atteigne éventuellement le niveau humain et au-delà. Voyons donc les
implications que cela pourrait entraîner.
125
3. Demain : Intelligence artificielle générale
Le futurologue Ray Kurzweil est célèbre pour ses prédictions sur l'intelligence
artificielle ©null0 CC BY-SA 2.0
Donc voici les pistes pour arriver un jour à la mise au point d’une intelligence
126
artificielle générale.
Le cerveau est à ce jour, l’objet que nous connaissons le plus complexe dans
l’univers. Mais les progrès en neuroscience grâce notamment à des outils de neuro-
imagerie plus performante, nous ont permis de comprendre de nombreuses
fonctionnalités du cerveau. Ceci étant dit, nous n’avons pas percé tous les mystères
entourant cet organe si particulier.
La première chose que l’on peut se demander c’est qu’elle est la puissance de
calcul du cerveau humain ? Afin de le comparer avec celle de nos machines. Il se
trouve que notre cerveau possède un grand nombre de synapses. Chacun des 1011
(cent milliards) neurones possède en moyenne 10 000 connexions synaptiques avec
d'autres neurones. Ce qui signifie 100 à 500 trillions de synapses et les signaux sont
transmis le long de ces synapses à une fréquence moyenne d'environ 100 Hz. Une
façon d'exprimer la puissance de calcul du cerveau est de mesurer le nombre total de
calculs par seconde (cps) que le cerveau peut générer. Plusieurs chercheurs se sont
penchés sur cette tâche et sont parvenus à un nombre entre 1016 et 1017 cps.
Une autre façon de calculer la capacité totale consiste à regarder une partie du
cortex qui remplit une fonction que nous savons simuler sur des ordinateurs. Hans
Moravec a effectué ce calcul à l'aide de données sur la rétine humaine en 1997. Il a
obtenu la valeur 1014 cps pour le cerveau humain dans son ensemble. À titre de
comparaison, si un "calcul" était équivalent à une "opération à virgule flottante" - une
mesure utilisée pour évaluer les superordinateurs actuels - 1016 cps équivalents à 10
petaFLOPS.
127
Le cerveau humain est capable d'une puissance de calcul de 1016 cps. ©Gaetan
Lee CC BY 2.0
Est-ce que nous sommes loin d’avoir des ordinateurs capables de produire 1016
cps ? Non, car aussi surprenant que cela puisse paraître, nous avons déjà des
superordinateurs plus puissants. Avec une performance maximale de 200 pétaflops,
soit 200 000 milliards de calculs par seconde, Summit d’IBM et le superordinateur le
plus puissant du monde. Il utilise 4 608 serveurs de calcul contenant deux processeurs
IBM Power9 à 22 cœurs et six unités graphiques Nvidia Tesla V100. Summit
consomme 13 mégawatts, tandis que le cerveau n’a besoin que de 20 watts d'énergie
pour fonctionner.
128
À l'heure de l'écriture de ces lignes (janvier 2019), Summit d'IBM est le
superordinateur le plus puissant au monde capable de 200 petaflops ©Carlos
Jones/ORNL CC BY 2.0
Mais si nous avons déjà un super ordinateur qui a une puissance de calcul 20 fois
supérieure à celle du cerveau humain, pourquoi n’avons-nous toujours pas
d’intelligence artificielle générale ?
Alors il faut déjà prendre en compte que Summit a coûté 200 millions de dollars à
construire, ce qui limite forcément son usage. Historiquement, les superordinateurs
ont été utilisés pour des simulations météorologique, atmosphérique, moléculaires,
astrophysiques ou encore pour gérer efficacement les réserves nucléaires. Ils ne sont
pas accessibles à tous les chercheurs travaillant dans l’intelligence artificielle bien
qu’il existe des projets visant à simuler la complexité du cerveau humain.
Ce qui signifie que tant que l'accès à la puissance du calcul du cerveau coûtera
plusieurs centaines de millions, les progrès pour créer une IA générale seront
extrêmement limités. Ray Kurzweil suggère que nous devons plutôt regarder combien
de cps nous pouvons acheter pour 1 000 $. Lorsque ce nombre atteindra le niveau de
calcul du cerveau humain (1016) cela signifiera qu’une IA générale pourrait entrer en
scène rapidement. En 2019, il est possible d’obtenir en moyenne 10 trillions de cps
(1013) pour un ordinateur possédant un microprocesseur Intel i7 par exemple. Ce qui
correspond à la puissance de calcul du cerveau d’une souris. Ray Kurzweil prédit
depuis longtemps que nous arriverons à 1016 pour 1 000$ en 2025, ce qui semble
cohérent avec la croissance exponentielle de la puissance informatique suivant la loi
129
de Moore.
130
cerveau d'origine, ce qui produira une intelligence générale comparable à un humain.
L'émulation du cerveau entier est un sujet d'étude à l’origine issu des neurosciences
pour obtenir des simulations du cerveau à des fins de recherche médicale. Les
technologies de neuro-imagerie susceptibles de fournir une compréhension détaillée
nécessaire du cerveau s’améliorent rapidement. Ray Kurzweil prédit qu’un modèle du
cerveau de qualité suffisante sera disponible dans un délai similaire à la puissance de
calcul requise de 1016 cps vu précédemment. Donc 2025.
131
Technique pour "numériser" un cerveau à partir d'un scan IRM
©Hagmann P, Cammoun L, Gigandet X, Meuli R, Honey CJ, et al CC BY 3.0
Les chercheurs ont déjà démontré que cette approche peut fonctionner en imitant
le cerveau d’un ver de 1mm. Le projet OpenWorm a cartographié les connexions entre
les 302 neurones du ver C.elegans et les a simulées dans un logiciel. Le but ultime du
projet est de simuler complètement ce ver en tant qu’organisme virtuel. Récemment,
la simulation du cerveau du ver a été intégrée dans un simple robot. La simulation
n’est pas exacte, mais le comportement du robot est déjà impressionnant étant donné
qu'aucune instruction n'a été programmée dans ce robot. Tout ce qu'il a, c'est un
réseau de connexions imitant celles du cerveau d'un ver. Alors certes, 302 neurones
c’est encore très loin des 100 milliards que contient notre cerveau, mais en prenant en
compte une croissance exponentielle, selon les dires de Ray Kurzweil, nous pourrions
avoir simulé le cerveau humain aux alentours de 2030.
132
Les 302 neurones du ver c. elegans ont été modéliser sur ordinateur par l'équipe
d'OpenWorm ©Kbradnam CC BY-SA 2.5
133
Cependant, la génération suivante ne peut pas être une copie identique de la
première. Les nouveaux codes doivent changer soit à travers une mutation ou bien ils
peuvent être issus de deux codes qui sont coupés en deux et les moitiés échangées -
comme une recombinaison sexuelle de l’ADN. On a donc des codes “parents” et des
codes “enfants”. Chaque nouvelle génération est ensuite testée pour vérifier son
fonctionnement. Les meilleurs morceaux de code sont reproduits dans une autre
génération, et ainsi de suite. De cette façon, le code évolue. Au fil du temps, les
choses s'améliorent et après plusieurs générations, si les conditions sont favorables, le
code peut devenir meilleures que celui de n’importe qu’elle programmeur humain.
L'évolution biologique a mis des milliards d’années pour produire les premières
formes d’intelligence générale et j’imagine que les chercheurs aimeraient obtenir des
résultats plus rapidement. Mais nous avons beaucoup d'avantages sur l'évolution.
Déjà, les processus évolutionnaires peuvent être exécutés sur des échelles de temps
extrêmement plus rapide que celle de l'évolution biologique. Donc nous pouvons voir
plus rapidement ce qui fonctionne ou non. Ensuite, l’évolution n’a aucun plan
prédéfini, aucun objectif, pas même l’intelligence. Or, nous pourrions spécifiquement
orienter ce processus évolutif informatique vers un objectif de générer de
l'intelligence. Et enfin, pour privilégier l’intelligence, l’évolution doit innover de
différentes manières pour faciliter son émergence, comme par exemple réorganiser la
façon dont les cellules produisent de l’énergie. Mais en utilisant directement
l’électricité comme source d'énergie aux systèmes évolutifs, cela facilite la
progression vers l’objectif visé.
Au final, est-ce que reproduire le cerveau humain est la meilleure façon d’obtenir
une intelligence générale de niveau humaine ? Peut être pas. Lorsqu’on regarde
l’histoire de l’aviation par exemple, le meilleur moyen de concevoir un engin capable
134
de voler n’a pas été de simuler la façon dont les oiseaux vols en créant des oiseaux
mécaniques. Ceux qui ont emprunté cette voie ont connu des échecs cuisants. La
solution fut de comprendre les fondamentaux de l'aérodynamisme.
135
Ben Goertzel, ici avec son robot d'Hanson robotics, est l'un des leaders dans la
recherche sur l'intelligence artificielle générale. ©Web Summit - DSC_5069 CC BY
2.0
Pour illustrer cette idée, considérons quelque chose qui ne compterait pas comme
une intelligence générale. Aujourd’hui, les ordinateurs démontrent des performances
surhumaines pour certaines tâches, des performances équivalentes aux humains pour
d'autres et des performances sous-humaines pour le reste. Si une équipe de chercheurs
était en mesure de combiner dans un seul système, un grand nombre des algorithmes
les plus performants appartenant à la catégorie des IA limitées, ils disposeraient d’une
“IA fourre-tout” qui sera terriblement mauvaise dans la plupart des tâches, médiocre
dans d’autres, et surhumaine dans une poignée de domaine.
C’est au final, un peu la même chose avec les humains. Nous sommes
terriblement mauvais ou médiocres dans la plupart des tâches, et biens meilleurs que
la moyenne pour quelques tâches seulement. Car on les a étudiés ou pratiqués
beaucoup plus. Une autre similitude est que l’IA fourre-tout montrerait probablement
des corrélations mesurables entre de nombreuses capacités cognitives similaires, tout
comme les humains où l’on retrouve ce concept avec les tests de QI. Si nous donnions
à l’IA fourre-tout beaucoup plus de puissance de calcul, celui-ci pourrait l’utiliser
pour améliorer ses performances dans de nombreux domaines similaires.
Par contre, cette IA n'aurait pas (encore) d'intelligence générale, car elle n'aurait
pas nécessairement la capacité de résoudre des problèmes arbitraires dans des
environnements aléatoires, et ne serait pas nécessairement capable de transférer
l'apprentissage d’un domaine à un autre.
Le test de Turing :
Le test de Turing a été proposé par Alan Turing (1912 - 1954) en 1950, mais a
reçu de nombreuses interprétations au fil des décennies.
Une interprétation spécifique est fournie par les conditions pour gagner le prix
Loebner. Depuis 1990, Hugh Loebner a offert 100 000 dollars au premier programme
qui réussit ce test lors d’un concours annuel. Des prix plus modestes sont décernés
chaque année aux IA le plus performantes, mais aucun programme n’a encore
remporté le prix de 100 000 $.
Les conditions exactes pour gagner ce grand prix ne seront pas définies tant que le
136
programme ne remportera pas le prix “argent” de 25 000 dollars, ce qui n’a pas encore
été fait. Cependant, nous savons que les conditions vont probablement ressembler à
ceci : un programme gagnera 100 000 $ s'il peut tromper la moitié des juges en leur
faisant croire que c'est un humain en interagissant avec eux dans une conversation
sans thème précis pendant 30 minutes et en interprétant des données audiovisuelles.
Le test du café :
Ben Goertzel suggère un test probablement plus difficile qu’il appelle le “test au
café”. Cela paraît simple sur le papier : Entrez dans une maison Américaine moyenne
et trouvez comment faire du café, notamment en identifiant la machine à café, en
déterminant le fonctionnement des boutons, en trouvant le café dans le placard, etc.
Selon lui, si un robot pouvait le faire sans avoir été programmé, nous devrions
peut-être considérer qu'il possède une intelligence générale.
Le succès surprenant des voitures autonomes peut offrir une autre leçon
d'humilité. Un scientifique dans les années 1960 aurait peut-être pensé qu'une voiture
autonome aussi performante que celle que l’on possède en 2019 serait un signe d’une
IA générale. Après tout, une voiture autonome doit agir avec une grande autonomie, à
grande vitesse, dans un environnement extrêmement complexe, dynamique et
137
incertain dans le monde réel. Au lieu de cela, Google a construit sa voiture sans
conducteur avec une série de technique qu’il n'était probablement pas imaginable dans
les années 1960 - par exemple, en cartographiant avec une grande précision presque
toutes les routes, autoroutes et parkings de la planète avant de construire sa voiture
sans conducteur. Et le résultat n’est pas une intelligence générale.
138
3. Demain : Intelligence artificielle générale
La question de la conscience
Admettons que nous avons réussi à concevoir une intelligence artificielle générale.
Elle est capable de parler naturellement, comprendre son environnement, résoudre des
problèmes complexes, apprendre dans tous les domaines, raisonner, penser, composer
des symphonies. Bref, il n’y a aucun doute sur le fait qu’elle possède une intelligence
générale. La question qui se pose ensuite c’est de savoir si quelque de chose de
spéciale se passe à l'intérieur de ce système. La lumière est-elle allumée ou éteinte ?
Ou pour le dire plus clairement, possède-t-elle une subjectivité propre que l’on
appelle la conscience de soi ?
Les chercheurs sont divisés sur la question de savoir si la conscience peut émerger
dans un système artificiel complexe. Il existe également un débat sur le fait de savoir
si les machines pourraient ou devraient être qualifiées de “conscientes” au même titre
que les humains, et certains animaux. Ou est-ce que la conscience d’une machine est
différente ? Certaines de ces questions ont avoir avec la technologie, d'autres avec ce
qu’est réellement la conscience.
139
David Chalmer est un des philosophes contemporain de reference lorsqu'il s'agit
des questions sur la conscience. ©Zereshk CC BY 3.0
140
expliqué en termes de traitement de l’information par les différentes parties du
cerveau incluant neurones, synapses, cellules gliales. Les problèmes difficiles sont
ceux qui semblent résister à ces méthodes.
Pour faire simple, le problème facile de la conscience tente d’expliquer ce qui fait
que nous avons des expériences du monde extérieur. Par exemple, dans le cas de la
vision, une information visuelle arrive dans notre rétine, puis voyage le long des nerfs
optiques et cette information est traitée par le cerveau pour produire une
représentation de ce qui est vu par l’oeil.
Une des réponses possibles c’est que la sélection naturelle a favorisé les
expériences conscientes subjectives, car elles permettent une meilleure adaptation à
l’environnement et donc augmente les chances de survie d’un organisme. Mais ce
n’est pas un argument évident à défendre, car un organisme qui ne possède pas
d'expérience subjective peut très bien s’adapter de manière optimale à son
environnement. Comme c’est le cas avec les virus ou bactéries. Et la robotique nous
montre aussi que le manque de subjectivité n'empêche pas un système d'évoluer dans
un environnement.
141
être des “zombies philosophiques”. Terme utilisé pour définir un être hypothétique
qui, de l'extérieur, est impossible à distinguer d'un être humain normal, mais qui
manque d'expérience subjective consciente. Si tous les organismes n’étaient ni plus ni
moins que des zombies philosophies, ou de simples machines, ils auraient tout autant
de capacité à évoluer dans leur environnement et survivre.
Autant des progrès significatifs sont faits en intelligence artificielle, aucun n’a été
fait dans le développement de la conscience artificielle. Certains chercheurs pensent
que la conscience est une caractéristique qui émergera à mesure que la technologie se
développe. Certains pensent que la conscience implique l'intégration de nouvelles
informations, de stocker et de récupérer des anciennes informations et de les traiter de
manière intelligente. Si cela est vrai, les machines deviendront forcément conscientes.
Car elles pourront collecter bien plus d’informations qu’un humain, les stocker
virtuellement sans limites, accéder à de vastes bases de données en quelques
millisecondes et les calculer de façon bien plus complexe que notre cerveau. Le
résultat sera logiquement l'émergence d’une conscience subjective artificielle. Et peut
être même encore plus fine et profonde que la nôtre.
142
La vision opposée est que la conscience émerge de la biologie, tout comme la
biologie elle-même émerge de la chimie qui, à son tour, émerge de la physique. Il
s’agit de l’opinion de beaucoup de neuroscientifiques selon laquelle les processus de
l’esprit sont identiques aux états et aux processus du cerveau. Ces conceptions
modernes de la conscience vue par la physique quantique ont des parallèles avec les
anciennes philosophies antiques. L'interprétation de Copenhague ressemble aux
hypothèses présentes dans la philosophie indienne, dans laquelle la conscience est la
base fondamentale de la réalité.
Aujourd’hui, si on se pose la question : “Est-ce que cela fait quelque chose d'être
AlphaGo, une voiture autonome ou Google Home ? La réponse est probablement :
non. Car il n’y a aucune subjectivité. La lumière est éteinte. Mais demain ? Avec des
systèmes artificiels bien plus complexes, ayant la puissance du calcul du cerveau
humain et capable d’accomplir autant de tâches qu’un humain, ce ne sera peut être pas
aussi évident de conclure qu’ils n’ont aucune conscience. Et cela pourrait entraîner de
nombreux problèmes éthiques.
143
3. Demain : Intelligence artificielle générale
144
9) Responsabilité : Les concepteurs et les constructeurs d’IA avancées sont les
premiers concernés par les conséquences morales de leurs utilisations, détournements
et agissements. Ils doivent donc assumer la charge de les influencer.
10) Concordance de valeurs : Les IA autonomes devraient être conçues de façon à
ce que leurs objectifs et leur comportement s’avèrent conformes aux valeurs
humaines.
11) Valeurs humaines : Les IA doivent être conçues et fonctionner en accord avec
les idéaux de la dignité, des droits et des libertés de l’homme, ainsi que de la diversité
culturelle.
12) Données personnelles : Chacun devrait avoir le droit d’accéder et de gérer les
données le concernant au vu de la capacité des IA à analyser et utiliser ces données.
13) Liberté et vie privée : L’utilisation d’IA en matière de données personnelles ne
doit pas rogner sur les libertés réelles ou perçue des citoyens.
14) Bénéfice collectif : Les IA devraient bénéficier au plus de gens possible et les
valoriser.
15) Prospérité partagée : La prospérité économique permise par les IA devrait être
partagée au plus grand nombre, pour le bien de l’humanité.
16) Contrôle humain : Les humains devraient pouvoir choisir comment et s’ils
veulent reléguer des décisions de leur choix aux IA.
17) Anti-renversement : Le pouvoir obtenu en contrôlant des IA très avancées
devrait être soumis au respect et à l’amélioration des processus civiques dont dépend
le bien-être de la société plutôt qu’à leur détournement.
18) Course aux IA d’armement : Une course aux IA d’armement mortelles est à
éviter.
19) Avertissement sur les capacités : En l’absence de consensus sur le sujet, il est
recommandé d’éviter les hypothèses au sujet des capacités maximum des futures IA.
20) Importance : Les IA avancées pourraient entraîner un changement drastique
dans l’histoire de la vie sur Terre, et doit donc être gérée avec un soin et des moyens
considérables.
21) Risques : Les risques causés par les IA, particulièrement les catastrophiques
ou existentiels, sont sujets à des efforts de préparation et d’atténuation adaptés à leur
impact supposé.
22) Auto-développement infini : Les IA conçues pour s’auto-développer à l’infini
ou s’auto-reproduire, au risque de devenir très nombreuses ou très avancées
rapidement, doivent faire l’objet d’un contrôle de sécurité rigoureux.
23) Bien commun : Les intelligences surdéveloppées devraient seulement être
développées pour contribuer à des idéaux éthiques partagés par le plus grand nombre
et pour le bien de l’humanité plutôt que pour un État ou une entreprise.
145
artificielle.
Le physicien Max Tegmark est un des porteurs des 23 principes d'Asilomar grâce
au Future of Life Institute. ©Bengt Oberger CC-BY-SA-4.0
En 2009, des universitaires et des experts ont assisté à une conférence organisée
par l'Association pour l'avancement de l'intelligence artificielle (Association for the
Advancement of Artificial Intelligence) afin de discuter de l'impact potentiel des
robots et des ordinateurs dans l'hypothèse selon laquelle ils pourraient devenir
autonomes et capables de prendre leurs propres décisions. Ils ont noté que certaines
machines avaient acquis diverses formes de semi-autonomie, en étant capables
notamment de trouver elles-mêmes des sources d'énergie et de pouvoir choisir
indépendamment les cibles à attaquer.
146
connaissances de manière humaine. Cela pose la question de l'environnement dans
lequel de tels robots apprendraient du monde et de la moralité dont ils hériteraient, ou
s'ils développeraient également des “faiblesses” humaines : égoïsme, attitude
prosurvie, voire même s'ils pourraient avoir des opinions racistes, discriminatoire ou
des biais de confirmation (qui consiste à privilégier les informations confirmant ses
idées préconçues ou ses hypothèses sans considération pour la véracité de ces
informations et/ou à accorder moins de poids aux hypothèses et informations jouant
en défaveur de ses conceptions.)
Alors que les algorithmes du machine learning sont utilisés dans des domaines
aussi variés que la publicité en ligne, le prêt bancaire et la condamnation pénale, avec
la promesse de fournir des résultats plus objectifs et fondés sur les données, il a été
prouvé qu’ils peuvent être source d’inégalités sociales et de discrimination. Par
exemple, une étude réalisée en 2015 a révélé que les annonces Google d'emploi à
revenu élevé étaient moins affichées aux femmes et une autre étude a révélé que le
service de livraison en 1 jour ouvré d'Amazon n'était pas toujours disponible dans les
quartiers noirs, pour des raisons qu’Amazon ne pouvait pas expliquer, car ils ne
savent pas tout ce qu’il se passe sous le capot de leurs algorithmes.
Afin d’éviter d’augmenter les taux d’emprisonnement déjà élevés aux États-Unis,
des tribunaux américains ont commencé à utiliser un logiciel d’évaluation des risques
lorsqu’ils décident des libérations sous caution. Ces outils analysent l'historique des
accusés et d'autres paramètres. Un rapport de 2016 de ProPublica a analysé les risques
de récidive calculés à l'aide de l'un des outils les plus couramment utilisés, le système
Northpointe COMPAS, et a examiné les résultats sur deux ans. Il en ressort que 61%
seulement des personnes considérées à risque élevé ont effectivement commis d'autres
infractions et que les accusés afro-américains étaient beaucoup plus susceptibles d'être
jugé à haut risque que les accusés blancs.
147
learning doivent rechercher activement une diversité dans les résultats, en
particulier dans les normes et les valeurs d’une population spécifique affectée par
le résultat des algorithmes.
La roboéthique
Ce sous-domaine de l'éthique des technologies concerne les problèmes éthiques
concernant les robots. Notamment la façon dont ils peuvent représenter des menaces
pour la liberté, le droit et la survie humaine. Mais il y a également un autre angle
d’approche vis-à-vis de la roboéthique : comment traitons-nous les robots ? Et par
extension l’intelligence artificielle ?
148
implications radicales. La série Westworld est clairement une référence pertinente sur
cette question. Pour résumer rapidement, Westworld raconte l’histoire d’un nouveau
genre de parc d’attractions se situant dans un futur proche. Pour un prix quotidien très
élevé, vous pouvez vivre des aventures diverses dans une recréation du Far West en
côtoyant des androïdes. Une sorte de jeu de rôle géant sans conséquence puisque les
humains ne peuvent pas être gravement blessés. Ce parc ouvre donc la porte à la
débauche et fait ressortir chez certains leur part d’ombre lorsqu’ils violent et torturent
les androïdes sans aucune retenue morale.
Du coup, la série soulève plusieurs questions morales concernant nos actes vis-à-
vis de créatures si perfectionnées qu’elles sont semblables aux humains. En d’autres
termes, est-ce que je dois me sentir mal si je torture un robot ? Où dois-je me retenir
de toute barbarie ?
Ça peut paraître assez trivial, mais c’est une question compliquée lorsqu’on
commence à déplacer la frontière de ce que l’on considère comme “moral”. Tout
d’abord, imaginer que vous vous trouviez dans la chambre d’un saloon, au 19e siècle.
Une charmante jeune courtisane (ou courtisant en fonction de vos goûts) arrive et
vous passez de très longues minutes à utiliser son corps pour votre plaisir. Vous
laissez complètement aller vos fantasmes les plus inavouables et pour une raison
inconnue, vous décidez de lui couper la tête ! Soudain, vous vous réveillez en sursaut.
Votre conjoint dort à côté de vous. Ce n’était qu’un rêve ! Est-ce que vous avez
transgressé vos valeurs morales ? Votre intuition vous dit probablement que non.
Après tout, vous étiez inconscient, et vous n’avez pas réellement trompé votre
conjoint. Encore moins blessé votre partenaire imaginaire. Au pire, vous vous sentez
un peu bizarre, mais ce n’était qu’un rêve ! Donc en quoi est-ce différent de
“Westworld” ?
Passons maintenant à la série de jeux vidéo “GTA – Grand Theft Auto”. Le jeu
nous donne une liberté d’action très vaste où il est possible de voler des voitures,
écraser des piétons, personne ne se retient de tuer sans remords les pauvres
personnages numériques ! Cela va sans dire ! Devrions-nous ressentir plus de
compassion ? Est ce que les dizaines de millions de joueurs sont des êtres immoraux ?
Que se passera-t-il lorsque dans GTA 10, les personnages numériques seront si
“humains”, que cela en sera troublant ? En quoi est-ce différent de “Westworld” ?
Dans la même lignée, est-ce que c’est immoral d’insulter Google Home, Siri ou
Alexa ? Comme pour le cas du rêve, la réponse intuitive c’est que ce n’est pas
immoral. Mais est-ce que ce sera la même réponse dans quelques années ? Autrement
dit, est-ce que c’est fondamentalement mal de torturer des automates ou personnages
de jeux vidéos ayant suffisamment de complexité pour passer le test de Turing et
149
ayant une intelligence générale ?
Par contre, une chose qui n’a pas besoin d’être débattue moralement, c’est de
mettre un chat dans un micro-onde et le regarder avec cruauté. C’est immoral, on est
tous 100% d’accord là-dessus j’espère ! Mais en quoi est-ce différent de “Westworld”
?
La question, au final, est de se demander où se situe la frontière entre un acte
immoral sur un animal, et un acte immoral sur un personnage artificiel (virtuel ou
physique). Y a-t-il vraiment une frontière au final ?
Chez les humains, dans une situation donnée, la douleur et le plaisir informent
bien plus nos processus décisionnels que la connaissance rationnelle de cette situation.
Même si bien sûr, la pensée rationnelle peut aider à clarifier le contexte. Du coup,
même si un robot peut traiter une multitude d’information complexe dans son
environnement, il n’aura aucun intérêt de stresser à la vue d’une machette sur le point
de lui trancher un bras, car il n'a aucune peur d’avoir mal. En revanche, on peut le
programmer pour prétendre ressentir du stress voir de la souffrance, et donc avoir un
comportement crédible (c’est d’ailleurs le cas dans la série). Mais il y a une différence
entre faire semblant d’avoir mal, et véritablement ressentir la douleur. D’ailleurs, les
acteurs sont les mieux placés pour en parler, eux qui se mettent dans des situations
parfois horribles dans des films.
C’est comme expliquer à un aveugle ce qu’est la couleur rouge. Vous pourrez lui
détailler toutes les propriétés physiques de la couleur rouge et lui faire un exposé sur
le spectre de la lumière visible, c’est seulement en retrouvant la vue qu’il ressentira ce
qu’est véritablement la couleur rouge.
Pour reprendre le cas du rêve mentionné précédemment. On ne peut pas être tenu
moralement responsable de ce que l’on fait à un être sorti tout droit de notre
imagination. Aussi réaliste qu’il puisse être. Tout comme pour un personnage virtuel,
et par extension, un robot. Ce n’est pas parce qu’un androïde est similaire à un
humain que nous devons lui accorder des droits, privilèges et le considérer comme un
humain. Donc ce qui fait la différence entre l’immoralité d’un chat dans un micro-
onde et la cruauté dans Westworld, n’a rien à voir avec la conscience de soi,
l’anthropomorphisme, la mémoire, la sophistication de la créature ou tous autres
émotions complexes. C’est une question de ressentir la souffrance. Attention à ne pas
confondre souffrance et douleur. La douleur n’est qu’une réaction nerveuse, un réflexe
biologique qui se passe dans le cerveau après un stimulus sensoriel et qui empêche
une créature de se causer des dommages irréversibles. C’est un outil utile que la
nature a trouvé pour accentuer l’instinct de conservation. C’est ce qui fait que lorsque
vous posez votre main sur un radiateur bouillant, vous l’enlevez aussitôt par réflexe.
150
La souffrance est un concept bien plus profond qui implique une expérience
cognitive et émotionnelle résultant d’une douleur physique ou psychologique
subjective. On sait que les animaux peuvent souffrir, donc leur faire du mal est
fondamentalement immoral et condamnable par la même occasion. En revanche, sur
le papier, un système d’intelligence artificielle n’est ni plus ni moins qu’un gadget
perfectionné du 21e siècle. Et même si, dans quelques décennies, ces gadgets
deviennent indissociables à un humain, ça ne change pas le fait qu’ils resteront des
outils, des objets et des biens matériels. Donc si vous coupez le bras d’un de ces
androïdes du futur, ce n’est fondamentalement pas immoral. Ce sera simplement un
beau gâchis de détruire une technologie sophistiquée et probablement très cher.
151
pression est trop forte, envoyer une réponse négative”. En simplifiant, cela revient à
programmer la douleur. Mais de là à dire que cette douleur évoluera en souffrance,
comme chez les animaux, c’est un raccourci loin d’être évident. Peut être qu’ils
ressentiront la douleur et diront : “J’ai mal, je souffre, stoppe”, mais cela n’aura aucun
sens profond pour eux. Ce ne sera qu’une réponse automatique.
Une situation similaire à “Westworld” pourrait arriver très rapidement dans nos
sociétés avec des endroits où l’on peut faire ce que l’on veut sur des androïdes
réalistes. Même si ce sera considéré comme des parcs pour psychopathe. Il y aura
alors un débat semblable à celui qui touche régulièrement les jeux vidéos violents.
Peut être que ces derniers participent à une brutalisation générale de la société, mais il
se peut également qu’ils empêchent la violence dans le monde réel en fournissant une
alternative virtuelle. Le débat ira bien plus loin que ça en affirmant que c’est immoral
de torturer, violer ou tuer un androïde. Des associations pour la protection des robots
verront peut-être même le jour. La problématique ne concernera pas que des androïdes
d’ailleurs, mais également des simulations virtuelles et les assistants virtuels.
152
Si une intelligence artificielle peut éprouver de la souffrance, nos obligations
morales devront être clairement définies ©Ritchie333 CC-BY-2.0
Le terme “Mind crime” (crime sur esprit) a été popularisé par les chercheurs en
intelligence artificielle pour parler des souffrances innommables que nous pourrions
infliger à des systèmes artificiels conscients. Que nous le sachions, ou pas. Car si nous
générons en 2050, un trillion d’émulations artificielles d’humain dans des simulations
virtuelles, il faudra se demander si éteindre son ordinateur résulte en un génocide à
l’ampleur astronomique.
153
Il nous faudra donc être extrêmement prudents face à la possibilité que les
intelligences artificielles générales de demain puissent être conscientes et souffrir. Ou
alors nous risquons de créer des véritables enfers et de les peupler par des millions
d’esprits non humains. Quelle sorte d'espèce serons-nous alors ?
154
4.
155
4. Après demain : Super Intelligence Artificielle
L’explosion d’intelligence
Lorsque nous aurons réussi à concevoir une intelligence artificielle qui possède des
facultés d’apprentissage similaire à celle d’un humain (Meta apprentissage). C’est à
dire capable d’apprendre sans une quantité astronomique de données, mais également
d’appliquer cette technique d’apprentissage à plusieurs domaines sans repasser par la
case départ, nous aurons alors passé d’IA limitée, à IA générale.
Si l’on compare les trois grandes révolutions que l’on a vues au premier chapitre
(Révolution cognitive, révolution agricole et révolution scientifique), la révolution de
l’intelligence artificielle est bien plus significative que la révolution agricole et la
révolution scientifique. Elle se rapproche plus de la révolution cognitive par l’ampleur
du changement qu’elle permet. Mais on pourrait même supposer que cette quatrième
révolution, que nous vivons actuellement, aura encore plus d’ampleur pour homo
sapiens.
Effectivement, la transition vers l'ère des machines intelligentes pourrait être bien
plus fondamentale que le passage de notre ancêtre commun vers les premiers
membres du genre Homo il y a plus de 2,5 millions d’années.
Car pour arriver aux premiers humains, il a fallu faire croître la taille du cerveau
de nos ancêtres commun par un facteur d’environ trois. Et quelques modifications
dans la structure neurologique permettant un peu plus de capacité cognitive. Donc
156
pour le dire autrement, ce qui différencie fondamentalement Homo Sapiens des
gorilles, orangs-outans et chimpanzés, c’est une boite crânienne un peu plus grande et
quelques connexions synaptiques en plus, notamment dans le néocortex. C’est cette
petite différence qui donne la possibilité à une espèce de marcher sur la Lune,
comprendre les lois de la physique, modifier génétiquement d’autres organismes et
composer des symphonies, tandis que l’autre utilise un bâton pour cueillir des
bananes. Et si cette différence est si petite, c’est au final, car il n’y avait pas vraiment
d’autres possibilités. Une différence plus grande, par exemple si la sélection naturelle
“avait voulu” tester un cerveau cinq fois plus grand au lieu de trois fois, les femelles
n’auraient tout simplement pas pu mettre au monde leurs progénitures sans que cela
se termine en bain de sang (c’est déjà assez difficile comme ça !). Donc pas la
meilleure solution pour faire perdurer une espèce. Notre boîte crânienne à la taille
maximale la plus proche des limites biologiques. Ce qui fait que notre cerveau ne peut
pas devenir plus gros par la simple voie de la sélection naturelle.
Notre cerveau ne pouvait pas être plus que 3 fois plus gros que celui de nos
ancêtres communs en raison de la taille de la boite crânienne. Mais une IA n'a aucune
limite tangible. ©Gaëtan Selle
Mais ce n’est pas tout. Car il existe également d’autres limites biologiques dans le
cerveau. La vitesse de communication entre deux neurones n'excède pas 120m/s et
l’activité d’un neurone est d’environ 100/200 Hz, c’est à dire jusqu'à 200 fois par
seconde. Aujourd’hui, nos transistors opèrent déjà à 3 GHz (trois milliards de fois par
seconde) et la vitesse de communication d’un signal informatique est limité par la
vitesse de la lumière, 299 792 458 m/s.
157
En termes de mémoire, la biologie est également limitée tandis qu’un ordinateur
possède une mémoire de travail beaucoup plus grande (RAM) et une mémoire à long
terme (stockage sur disque dur) qui offre à la fois une capacité et une précision bien
supérieures à la nôtre. Une intelligence artificielle générale n’oubliera jamais rien
dans les millions de téraoctets qu’elle aura emmagasinés. Les transistors
informatiques sont également plus précis que les neurones biologiques et sont moins
susceptibles de se détériorer (et peuvent être réparés ou remplacés). Les cerveaux
humains se fatiguent aussi facilement, alors que les ordinateurs peuvent fonctionner
sans interruption, à des performances optimales, 24 heures sur 24, 7 jours sur 7 avec
comme seul besoin, de l'électricité.
Mais c’est oublié que les ordinateurs sont déjà bien meilleurs que nous à
collaborer en réseau. Ils peuvent s'échanger des informations à la vitesse de la
lumière. Une intelligence artificielle générale pourrait créer une multitude de copies
d’elle même et les envoyer aux quatre coins du net formant un réseau mondial d'IA de
sorte que tout ce que les versions apprendront sera instantanément téléchargé à toutes
les autres. Bien plus efficace que l’intelligence collective humaine. Le réseau d’IA
pourrait également avoir un seul objectif en tant qu’unité, car il n’y aurait pas
nécessairement d’opinions, de motivations et d’intérêts personnels dissidents,
contrairement à ce que l’on observe au sein de la population humaine.
C’est pour ces raisons qu’une intelligence artificielle générale, comme Alpha Zero
pour reprendre notre exemple plus haut, sera une forme d’intelligence dépassant celle
d’un être humain. Une première dans l’histoire de notre espèce. Une intelligence
artificielle de niveau humain ne signifie pas qu’elle possède la même intelligence
qu’un humain, mais le simple fait de posséder une capacité d’apprentissage générale
la rend directement super humaine, en raison de ces avantages par rapport à une
intelligence biologique.
158
Cela pose plusieurs questions concernant notre relation avec une telle intelligence.
Comment l’humanité va-t-elle cohabiter avec une entité plus intelligente ? Comment
va-t-on la contrôler ? Sera-t-elle accessible par l’ensemble de l‘humanité ou que par
une élite, un gouvernement ? Nous nous pencherons sur ces questions dans les
chapitres suivants.
Mais l'élément à ne pas oublier, c’est que cette intelligence capable d’apprendre
comme un humain sera aussi capable d’apprendre la programmation informatique.
Autrement dit à se modifier elle même. Tout comme elle est devenue meilleure à
toutes les tâches qu’elle a apprises, elle deviendra aussi la meilleure programmeuse du
monde. Elle pourra se mettre à jour, augmenter ses performances, trouver de nouvelle
façon d'accélérer sa vitesse et puissance de calcul. Cette machine super intelligente
conçoit alors une machine encore plus performante ou réécrit son propre logiciel pour
devenir encore plus intelligente. Cette machine (encore plus performante) continue
ensuite à concevoir une machine encore plus performante, et ainsi de suite jusqu’à
atteindre les limites permises par les lois de la physique. On entre alors dans une
boucle d'auto amélioration récursive qui engendre une explosion d’intelligence. Terme
inventé par le mathématicien Irvin J. Good (1916 - 2009) en 1965. Un autre terme
utilisé pour décrire ce même phénomène c’est la singularité technologique.
L'idée cruciale ici c’est que si vous pouvez améliorer un tout petit peu
l'intelligence, le processus s'accélère. C’est un point de bascule. C'est comme essayer
d'équilibrer un stylo à une extrémité. Dès qu'il s'incline un peu, il tombe rapidement.
L’idée qu’une machine puisse devenir des millions de fois plus intelligentes que
l’humanité tout entière est pour le moins déconcertante. Quand est ce que cela va
arriver ? La question divise la communauté de chercheur. 2045 est souvent la date
associé à la singularité et popularisé par Ray Kurzweil dans son livre “La singularité
est proche”. D’autres chercheurs pensent que cela n’arrivera pas avant la fin du siècle.
Certains vont encore plus loin en prétendant que “s’inquiéter d’une super intelligence,
c’est comme s'inquiéter de la surpopulation sur Mars.” (Andrew Ng).
159
À partir du moment où les chercheurs mettent au point une intelligence artificielle
générale, il ne s’agit pas de savoir si elle deviendra super intelligente, mais plutôt en
combien de temps ? Il y a souvent deux scénarios qui sont mis sur la table lorsqu’il
s’agit de connaître la rapidité de l’explosion d’intelligence.
Décollage lent :
Un décollage lent est un passage d’IA générale à super IA qui se produit sur une
longue échelle temporelle, des décennies voir même des siècles. Cela peut être dû au
fait que l'algorithme d'apprentissage demande trop de puissance de calcul matériel ou
que l'intelligence artificielle repose sur l'expérience du monde réel, et donc à besoin
de “vivre” en temps réel l'expérience de la réalité. Ces scénarios offrent aux instances
politiques l’opportunité de répondre de manière adaptée à l’arrivée d’une intelligence
dépassant des millions de fois celle des humains. De nouveaux comités d’experts
peuvent être formés et différentes approches peuvent être testées afin de se préparer.
Les nations craignant une course à l’armement au sujet d’une super intelligence
artificielle auraient le temps d'essayer de négocier des traités, voire même de se mettre
à jour technologiquement afin d’entretenir un rapport de force.
Décollage rapide :
Un décollage rapide est un passage d’IA générale à super IA se produisant sur un
intervalle temporel très rapide, tel que des minutes, des heures ou des jours. De tels
scénarios offrent peu d'occasions aux humains de s’adapter. À peine se réjouit-on de
l'achèvement de la première intelligence artificielle générale, qu’elle dépasse
complètement sa programmation et devient super intelligente. Le destin de l’humanité
dépend donc dans ce cas, essentiellement sur les préparations précédemment mises en
place. Et c’est également un scénario qui pourrait garantir une suprématie mondiale
pour la nation qui a développé cette IA, car elle pourrait ordonner cette dernière à
empêcher toute compétition de voir le jour.
160
Vitesse de l'explosion d'intelligence ©Gaëtan Selle
Comme l’a dit Vernor Vinge en répondant à la question “Les ordinateurs seront-ils
un jour aussi intelligents que les humains ?” - “Oui, mais juste pendant un instant”.
Ou encore la façon dont Tim Urban, du blog waitbuwhy voit le décollage rapide :
“Il faut des décennies pour que le premier système d’intelligence artificielle atteigne
une intelligence générale de bas niveau, mais cela se produit finalement. Un
ordinateur est capable de comprendre le monde qui l’entoure aussi bien qu’un
humain de quatre ans. Soudain, moins d'une heure après avoir franchi cette étape,
l’IA découvre la grande théorie du tout qui unifie la relativité générale et la
mécanique quantique, ce qu'aucun humain n'a pu faire en plus d’un siècle. 90 minutes
plus tard, l'IA est devenue une super intelligence artificielle, 170 000 fois plus
intelligente qu'un humain.”
161
De nombreux chercheurs pensent qu’un décollage lent est préférable afin de
s’assurer de garder le contrôle sur l’explosion d’intelligence. Mais en regardant
l’exemple du jeu de Go, on voit qu’une intelligence artificielle (Alpha Go) peut passer
d’un niveau sous-humain à super-humain très rapidement.
Il faut bien comprendre que nous avons beaucoup de mal à réfléchir de manière
cohérente à l’intelligence. Nous en avons une conception déformée. Et après tout,
c’est compréhensible puisque les seuls exemples autour de nous sont les animaux,
dont nous savons qu’ils ont une intelligence inférieure, ainsi que nous-mêmes et nos
semblables. Du coup, à mesure que l’on voit l’intelligence artificielle progresser, on
se dit qu’elle devient plus intelligente, comme une fourmi, ou une sourie. Et
éventuellement comme un singe. Mais penser que l’intelligence humaine est l'échelon
le plus élevé sur l'échelle de l’intelligence, et que rien ne pourra dépasser notre niveau
ne fait aucun sens.
Imaginez qu’il existe dans l’univers, quelque part, une entité qui a le niveau
d’intelligence le plus élevé qu’il soit permis par les lois de la physique. Peu importe sa
nature, que ce soit un extra-terrestre ou un Dieu, rien, absolument rien ne peut
dépasser son niveau. Elle est à 100% de ce qu’il est possible d’atteindre en
intelligence. Du coup, selon cette expérience de pensée, il y a un fossé entre notre
niveau d’intelligence, et celle de cette entité. Tout comme il y a un fossé entre le
niveau d’intelligence d’une fourmi et le nôtre. Maintenant, en développant
l’intelligence artificielle, on admet qu’il est possible, et même probable, que son
niveau d'intelligence puisse dépasser celui des humains, pour se diriger
inexorablement vers celui de cette entité. Dès lors, nous ne pouvons pas concevoir ce
qu’elle fera avec sa super intelligence.
Une IA dépassera notre niveau d'intelligence pour se diriger vers les limites
possibles de l'intelligence dans l'Univers ©Gaëtan Selle
Pourquoi les IA dans les films ont-elles si souvent une intelligence à peu près
162
humaine ? Une des raisons est que nous n’arrivons pas à concevoir ce qui n’est pas
humain. Nous anthropomorphisons. C’est pourquoi les extraterrestres dans la science-
fiction sont essentiellement des êtres humains aux grands yeux, à la peau verte et
dotée de super pouvoir ou d’une technologie avancée. Une autre raison est qu’il est
difficile pour un auteur d’écrire une histoire avec un être plus intelligent que l'écrivain
lui même. Forcément, comment une machine super-intelligente résoudrait-elle le
problème x ? Pour répondre à cette question, il faudrait pouvoir être cette super
intelligence. Étant humain, l’auteur ne peut que trouver des solutions qu'un humain
pourrait trouver. De même pour les philosophes et futurologues. C’est pour cette
raison que le sujet de la super intelligence artificielle est si compliqué et polarise le
milieu scientifique.
Traditionnellement, nous, humains, avons souvent fondé notre estime de soi sur
l’idée de l’exceptionnalisme humain: la conviction que nous sommes les entités les
plus intelligentes de la planète et donc unique et supérieure. Une super IA nous
obligera à abandonner cette idée et devenir plus humbles. Mais ce n’est peut-être pas
une si mauvaise chose. Après tout, s'accrocher à des notions de supériorité (individus,
groupes ethniques, espèces, etc.) a posé d’énormes problèmes par le passé. Mais il
apparaît également inutile pour l'épanouissement humain. Si nous découvrons une
civilisation extraterrestre pacifique beaucoup plus avancée que nous en science, art et
tout ce qui nous importe, cela n'empêchera probablement pas les gens de continuer à
vivre des expériences qui leur donne du sens et du but dans leur vie.
163
Les IA auront des types d'esprits bien différent et probablement plus large que ce
que l'esprit humain peut expérimenter ©Gaëtan Selle
Ce qui fait la différence entre le cerveau d’un homo sapiens et celui d’un gorille,
ce n’est pas la vitesse de traitement de l’information. Si on arrivait à augmenter la
rapidité du cerveau d’un gorille par 1000, il ne serait toujours pas capable d’écrire une
thèse en physique quantique. La différence se trouve dans la complexité des modules
164
cognitifs, notamment dans le néocortex, qui permettent au cerveau humain la pensée
abstraite, le langage complexe ou encore la conception du futur. Et par extension, tout
ce qui fait de nous des humains (Humour, art, science).
Il y a donc un véritable fossé entre l’intelligence d’un gorille et celui d’un humain
qui engendre des conséquences extrêmement profondes dans la façon dont les deux
espèces conçoivent la réalité. Les gorilles n’ont absolument aucun moyen de
comprendre ce que nous faisons lorsque nous rasons des pans entiers de forêt. Et
même si on leur expliquait que c’est pour faire des meubles, même si on leur montrait
des images, ou carrément qu’on leur amenait sous leurs yeux une table en bois, ils ne
pourraient pas comprendre que le meuble a été fabriqué par la même matière
appartenant aux arbres qui ont été abattus. Et que c’est nous, humains, qui avons
fabriqué ce meuble. Encore moins faire la même chose. Ils ont une limite dans leur
capacité cognitive qui les empêche de saisir 99% des activités humaines.
Une super intelligence artificielle aura non seulement une différence dans la
rapidité de traiter l’information, mais également dans la qualité de l’intelligence. Si
bien que nous n’aurons pas la capacité cognitive de comprendre 99% de ce qu’elle
fera. Même si elle essaye de nous le décrire le plus simplement possible.
Une chose que nous savons à propos de l’intelligence, c’est qu’elle est synonyme
de pouvoir. Il suffit de voir notre place sur la planète pour comprendre que notre
avantage cognitif sur les autres espèces a fait de nous l'espèce dominante. Notre
intelligence nous donne le pouvoir de façonner la planète selon nos désirs. De raser
des forêts pour ériger des villes. De détourner des rivières et construire des barrages.
De casser en deux des montagnes pour récolter des ressources. L’avenir de toutes les
espèces animales sur la planète Terre dépend de nos décisions, et pas des leurs. Et tout
cela pour le meilleur et pour le pire.
Dès lors, une super intelligence artificielle deviendra l’entité la plus puissante
dans l’histoire de la vie sur Terre, et notre avenir ne sera plus entre nos mains, mais
dépendra entièrement de ce que cette superintelligence fera. Et qui sera complètement
impossible à comprendre avec nos capacités cognitives.
La première question que l’on pourrait poser à cette super intelligence artificielle
c’est : “Existe-t-il un Dieu dans l’univers ?”
Et elle nous répondra : “Maintenant, oui ! ”
Ses pouvoirs dépasseront notre compréhension. Il faudra juste espérer que ce sera
un Dieu bienveillant ...
165
4. Après demain : Super Intelligence Artificielle
Le problème du contrôle
La race humaine domine actuellement les autres espèces parce que le cerveau
humain a certaines capacités distinctes qui font défaut dans le cerveau des autres
animaux. Certains spécialistes, tels que le philosophe Nick Bostrom et le chercheur en
intelligence artificielle Stuart Russell, affirment que si l'intelligence artificielle
surpasse l'humanité et devient "super intelligente", elle pourrait devenir très puissante
et difficile à contrôler. Certains chercheurs, notamment Stephen Hawking (1914 -
2018) et Frank Wilczek, physiciens lauréats du prix Nobel, ont plaidé publiquement
en faveur du démarrage des recherches pour résoudre le "problème du contrôle" le
plus tôt possible dans le développement de l’intelligence artificielle. Ils soutiennent
que tenter de résoudre le problème après la création d’une super intelligence sera trop
tard, car un tel niveau d’intelligence pourrait bien résister aux efforts pour le contrôler.
Attendre le moment où une super intelligence semble être sur le point d'émerger
pourrait également être trop tard, en partie parce que le problème du contrôle peut
prendre longtemps à être résolu de manière satisfaisante et donc certains travaux
préliminaires doivent être commencés le plus tôt possible. Mais aussi parce qu’il y a
une possibilité que l’on passe soudainement entre une IA sous-humaine à super-
humaine, auquel cas il pourrait ne pas y avoir d’avertissement et il sera trop tard pour
penser au problème du contrôle.
Il est possible que les informations tirées des recherches sur le problème du
contrôle finissent par suggérer que certaines architectures d'intelligence artificielle
générale sont plus prévisibles et plus faciles à contrôler que d'autres, ce qui pourrait
166
orienter les recherches sur l’intelligence artificielle générale vers les architectures les
plus contrôlables et éviter celle qui pourrait voir émerger de plus grandes difficultés
de contrôle.
Si vous êtes un amateur de science-fiction, vous avez sûrement entendu parler des
lois de la robotique. Déjà dans les années 1940, l'écrivain Isaac Asimov se posa la
question du problème du contrôle. C’est ainsi qu’il imagina les lois de la robotique,
qui sont pour rappel :
- Loi 1 : Un robot ne peut porter atteinte à un être humain ni, en restant passif,
permettre qu'un être humain soit exposé au danger.
- Loi 2 : Un robot doit obéir aux ordres qui lui sont donnés par un être humain,
sauf si de tels ordres entrent en conflit avec la première loi.
- Loi 3 : Un robot doit protéger son existence tant que cette protection n'entre pas
en conflit avec la première ou la deuxième loi.
Une 4e loi, vue comme la loi 0, sera ajoutée dans la nouvelle “Les Robots et
l’Empire” en 1985 :
- Loi 0 : Un robot ne peut ni nuire à l'humanité ni, restant passif, permettre que
l'humanité souffre.
Donc voilà, le problème du contrôle est résolu. Il suffit de programmer ces lois
dans toutes les intelligences artificielles que nous développons. Pourquoi en faire
toute une histoire ? Malheureusement, ce n’est pas aussi simple que cela. En effet,
167
Isaac Asimov a imaginé ces lois en tant qu’outils narratifs. À travers les histoires des
robots, il a poussé ces lois à leur limite jusqu’à les briser. Prouvant qu'elles ne sont
pas fiables à 100%. Effectivement, un humain est exposé au danger en permanence.
Rien que de sortir dans la rue et respirer l’air pollué peut être considérée comme
dangereux. La 1ere loi s’effondre donc très vite.
Le bouton “Stop”
On peut se dire que si une super intelligence artificielle commence à causer un
préjudice, on peut simplement l'arrêter. Cela semble une solution logique. En effet, si
l’on compare avec nos sociétés, lorsqu’un individu cause un préjudice, la solution
c’est de l'arrêter. Soit en le mettant à l’écart du reste dans la population
(Emprisonnement), soit dans certains cas, en l'exécutant (prise d’otage, attentats,
massacres civils). Alors autant c’est possible pour un être humain d’appuyer sur le
bouton “arrêt”, mais c’est moins évident pour une intelligence artificielle. Imaginons
que demain, pour une raison inconnue, internet se met à sévèrement mal fonctionner
au point de menacer l'équilibre du monde. Est-ce que ce sera facile de l'arrêter ? Où se
trouve le bouton marche/arrêt ? Peut-on débrancher le câble qui alimente internet ?
Une super intelligence artificielle ne sera pas incarnée dans un robot dont il suffira
de couper la tête pour l'éteindre. Elle sera dématérialisée et numérique. Étant super
intelligente, elle nous verra venir à des kilomètres, et pourra par exemple se dupliquer
sur tous les ordinateurs connectés à Internet et créer des copies d’elle même dans le
cloud si bien que nous ne saurons pas comment l'arrêter.
Les êtres humains et autres organismes biologiques ont tendance à faire tout pour
empêcher leur “arrêt”. Nous sommes profondément programmés pour
l’autopréservation à cause de raisons évolutionnaires. Mais ces raisons ne sont pas
forcément applicable pour une intelligence artificielle, donc cela ne lui fera peut être
ni chaud ni froid de savoir qu’elle sera éteinte. Mais on peut également affirmer
qu’une super intelligence artificielle possèdera forcément des objectifs (c’est la
définition que l’on a opté pour l’intelligence). Donc se faire supprimer empêcherait
l’accomplissement de ses objectifs, ce qui la poussera à minimiser la probabilité d'être
arrêté.
Et encore une fois, lorsque l’on parle de super intelligence, il faut comprendre que
nos capacités cognitives seront bien trop limitées pour trouver une stratégie qui
entraînera l'arrêt d’une super intelligence artificielle. Il est vrai que des organismes
168
plus petits et moins intelligents peuvent provoquer la mort d’autres organismes plus
grands et plus intelligents. C’est le cas des parasites, bactéries ou encore virus. Mais si
on imagine que toutes les fourmis de la planète se mettaient à “vouloir” notre
extinction, il y a très peu de chance qu’elles y parviennent. Même si leur nombre est
des millions de fois plus élevé. Elles feront surement beaucoup de victimes, mais
notre intelligence collective trouvera des solutions qu’aucune fourmi ne peut
concevoir. Comme reprogrammer en laboratoire leurs phéromones pour les perturbées
et les empêcher de s’approcher à plus d’un kilomètre d’un humain. Est-ce qu’une
fourmi, aussi intelligente soit-elle, aurait pu imaginer un tel scénario ?
Prison virtuelle
Une solution qui est mise en avant par certains chercheurs et philosophe c’est
l’idée d'empêcher le système super intelligent d'accéder au monde réel. De l’enfermer
dans une boite pour le dire simplement. C’est un système informatique isolé dans
lequel une intelligence artificielle potentiellement dangereuse est maintenue dans une
"prison virtuelle" sans connexion avec internet et n'est pas autorisée à manipuler les
éléments du monde extérieur. Ainsi, nous pourrions l’observer en train d'évoluer
jusqu’à atteindre le niveau de super intelligence. Étant bloquée, elle ne pourrait pas
causer des conséquences imprévues et néfastes pour l’humanité.
Mais on peut se dire que plus un système devient intelligent, plus il est probable
qu’il trouve un moyen d'échapper à sa prison. Nos moyens de la maintenir dans un
environnement contrôlé dépendent de notre compréhension des lois de la physique. Si
une super intelligence pouvait déduire et exploiter d'une manière ou d'une autre des
lois de la physique dont nous ne sommes pas au courant, il n'y a aucun moyen de
concevoir un plan infaillible pour la contenir. Ou alors elle serait capable d'interagir
avec les personnes qui sont en charge de sa surveillance afin de les manipuler
mentalement ou socialement grâce à de super capacité sociale. Elle pourrait nous
convaincre qu’elle est sans danger et nous offrir un monde sans la pauvreté, la faim, la
guerre, la maladie ou la mort, ainsi que toutes les considérations personnelles que
nous pourrions vouloir. Elle pourrait deviner les faiblesses de chaque individu et
trouver les bons arguments pour nous convaincre que la libérer est la chose la plus
morale et raisonnables à faire. Elle pourra jouer sur les rivalités, les faiblesses
institutionnelles et les dilemmes éthiques avec plus de virtuosité que n'importe quel
169
humain le pourrait. Ou elle pourrait offrir à son gardien une recette pour une santé
parfaite, l’immortalité, la guérison de son enfant malade ou tout ce que le gardien
désire le plus.
Encore une fois, nous faisons face au problème de nos limites cognitives si bien
que nous avons peu de chance de garder emprisonnée une super intelligence. Pour
s’en rendre compte, faisons une expérience de pensée :
Imaginez qu'une maladie mystérieuse a tué toutes les personnes de plus de 5 ans.
Sauf vous. Un groupe d’enfant a réussi à vous enfermer dans une pièce pendant que
vous étiez inconscient. Ils savent que vous êtes un adulte plus intelligent pour les
aider à faire face à la situation. Mais en même temps, ils ont peur de vous laisser en
liberté. Est ce que vous pensez vraiment qu’une bande d’enfants arrivera à vous
maintenir dans cette pièce pendant longtemps ? Probablement pas. Il y a tout un tas
d’idée que vous aurez pour vous échappez dont les enfants n’auront absolument aucun
moyen de connaître. Si la prison a été construite par les enfants, vous pourrez
surement opter pour une approche physique en défonçant la porte ou les murs. Ou
alors vous pourriez parler gentiment avec l'un de vos gardes de 5 ans pour qu’il vous
laisse sortir, disons en arguant que ce serait mieux pour tout le monde. Ou peut-être
pourriez-vous les inciter à vous donner quelque chose qu'ils ne savent pas que cela
vous aiderait à vous échapper. Le point commun de ces stratégies c’est que vos gardes
intellectuellement inférieurs ne les ont pas envisagés. De la même manière, une
machine super intelligente confinée peut utiliser ses super pouvoirs intellectuels pour
déjouer ses gardes humains par une méthode que ne pouvons pas imaginer.
Le chercheur Stuart Russell, qui a initié l’idée de l’alignement des valeurs, aime
comparer cela à l’histoire de la mythologie grecque du roi Midas. Lorsque le roi
Midas a fait le voeu que tout ce qu'il touche se transforme en or, il voulait devenir
170
immensément riche. Par contre, il ne voulait pas que sa nourriture et ses proches
soient transformés en or. Pourtant, c’est ce qui arriva. Nous faisons face à une
situation similaire avec l'intelligence artificielle : comment pouvons-nous nous assurer
que l'IA fera ce que nous voulons vraiment, sans nuire à quiconque dans une tentative
malavisée de faire ce qu’on lui a demandé ?
Et tout comme le problème du contrôle, il faut que l’alignement des valeurs soit
évolutif. En effet, les valeurs humaines ont changé au cours des siècles. Ce qui était
considéré comme éthique et morale au Moyen Âge, comme brûler un homosexuel, est
aujourd’hui jugé immoral. Nous ne voulons donc pas créer une super intelligence
artificielle qui soit bloquée avec les valeurs du 21e siècle. Et qui par conséquent, nous
empêche de faire des progrès moraux dans la hiérarchie de nos valeurs.
171
Le chercheur en intelligence artificielle Eliezer Yudkowsky propose une idée
intéressante. Vu que c’est bien trop compliqué de transmettre nos valeurs à une super
IA, on peut simplement laisser cette tâche à une autre super IA. Yudkowsky propose
de développer une intelligence artificielle qui aura pour but d’enseigner à une autre
intelligence les meilleures façons d’assurer le bien-être et le bonheur de tous les
humains. Elle aurait pour mission de trouver ce que nous, humains, pourrions
demander à une super IA bienveillante.
Quoi qu’il en soit, nous avons un exemple d’alignement des valeurs qui
fonctionnent la plupart du temps. Lorsque deux personnes élèvent un enfant, ils font
leur maximum pour lui transmettre leurs valeurs. Et l’enfant peut devenir plus
intelligent que ces parents à mesure qu’il grandit, sans pour autant perdre ces valeurs.
Ce qui rassure sur notre potentiel à transmettre nos valeurs à une intelligence
artificielle supérieure.
Le problème de gouvernance
L’autre problème qui est lié au problème de contrôle, c’est celui de la
gouvernance. Admettons qu’on arrive à contrôler une super intelligence artificielle (ce
qui est loin d'être garanti), qu’elle sera la position géopolitique face à une telle entité.
Est ce qu’une seule nation ou entreprise sera à la charge de cette super intelligence
artificielle ?
Un paramètre clé pour déterminer l’écart qui pourrait exister entre une puissance
dominante et ses concurrents les plus proches c’est la rapidité de la transition entre
"intelligence de niveau humaine" à "super intelligence". Si le décollage est rapide (en
quelques heures, jours ou semaines), il est donc peu probable que deux projets
indépendants atteignent le niveau “super intelligence” en même temps. Si le décollage
est lent (s’étendant sur plusieurs années ou plusieurs décennies), il est vraisemblable
que plusieurs projets subissent simultanément des décollages, de sorte qu’à la fin de la
transition, aucun projet n’aura une longueur d’avance sur les autres suffisant pour lui
donner une avance écrasante.
172
- Il existe une multitude de super intelligences artificielles sur Terre issue de
plusieurs projets de recherche. Ces entités collaborent ou sont en compétition
entre elles.
173
4. Après demain : Super Intelligence artificielle
Un risque existentiel
La guerre nucléaire était le premier risque existentiel d'origine humaine, car une
guerre mondiale pourrait tuer un pourcentage important de la population. Après
davantage de recherches sur les menaces nucléaires, les scientifiques ont compris que
l’hiver nucléaire qui en résultait pourrait être encore plus meurtrier que la guerre elle-
même et potentiellement tuer la plupart des habitants de la planète ainsi que d’autres
formes de vie.
Le changement climatique est une préoccupation croissante que les citoyens et les
gouvernements du monde entier tentent de résoudre. À mesure que la température
moyenne mondiale augmente, les sécheresses, les inondations ou encore les tempêtes
174
extrêmes pourraient devenir la norme. Les pénuries de nourriture, d'eau et de
ressources qui en résultent pourraient être à l'origine d'instabilités économiques et de
guerres. Bien que les changements climatiques eux-mêmes ne constituent
probablement pas un risque existentiel, les dégâts qu’ils provoquent pourraient
augmenter les risques de guerre nucléaire, de pandémie ou d’autres catastrophes.
Le philosophe Nick Bostrom utilise une métaphore intéressante pour illustrer les
risques existentiels issus de nos technologies. Imaginez une urne qui contient
plusieurs billes associées à une technologie inventée par l’humanité. On a la bille de
la machine à vapeur, la bille de la bombe nucléaire, la bille de l'électricité, la bille du
moteur à combustion, etc. Les billes possèdent également un code couleur. Blanc pour
une technologie inoffensive pour l’humanité, rouge pour une technologie dangereuse,
et noir pour une technologie causant l’extinction. La distribution des couleurs n’est
pas égale, car il y a plus de billes blanches, un peu moins de rouge et un tout petit
nombre de noirs. Autrement dit, il y a bien moins de technologie pouvant causer
l’extinction de l’humanité que de technologie qui est inoffensive. À chaque fois que
l’on invente une de ces technologies, on l'enlève de l’urne. C’est un peu comme un
tirage au sort. Pour le moment, nous avons tiré beaucoup de billes blanches, et
quelques billes rouges (arme nucléaire par exemple). Le fait que vous lisez ces lignes
indique que nous n’avons pas tiré de bille noire. Mais plus on tire des billes, plus on
peut se dire qu’on augmente la probabilité de tomber sur une bille noire … et une
super IA est clairement une bille noire. Ou en tous cas, elle a une face noire et une
face blanche.
175
d'aider les autres. Le premier est un attribut probable de tout système suffisamment
intelligent, le second ne peut pas être supposé. Presque n'importe quelle super IA,
quel que soit son objectif programmé, préférerait rationnellement se trouver dans une
position où personne ne peut l'éteindre sans son consentement.
Presque toutes les technologies peuvent causer des dommages entre de mauvaises
mains, mais avec une super intelligence artificielle, les mauvaises mains peuvent
appartenir à la technologie elle-même. Même si les concepteurs ont de bonnes
intentions, trois difficultés sont communes aux systèmes d’intelligence artificielle :
Lors de son auto amélioration récursive, une intelligence artificielle peut créer
accidentellement une nouvelle IA plus puissante que la sienne, mais qui ne conserve
plus les valeurs morales humaines préprogrammées dans l’IA originale. Pour qu'une
IA qui s’auto-améliore soit totalement sûre, elle ne doit pas seulement être sans bug,
elle doit également être capable de concevoir des systèmes successeurs qui sont
également sans bug.
Ces trois difficultés deviennent des risques existentiels dans tous les cas où une
super intelligence artificielle prédit correctement que les humains tentent de l'arrêter.
Elle déploie alors sa super intelligence pour déjouer de telles tentatives. Et une super
intelligence est super compétente à accomplir ses objectifs.
Regardez comment nous traitons les fourmis. On ne les déteste pas, on ne souhaite
pas les manger. On ne part pas en chasse le dimanche après midi juste pour en tuer
176
quelques-unes. Aucun gouvernement ne leur a déclaré la guerre. En parfois, on fait
même attention à ne pas les tuer en évitant de leur marcher dessus. Par contre, si leur
présence entre en conflit avec un de nos objectifs, alors là, on les extermine sans
hésiter. Et bien souvent, sans même en avoir conscience. Combien de génocides de
fourmilière ont été commis par des projets humains comme la construction d’une
autoroute, d’un bâtiment ou l’inondation d’une vallée suite à la création d’un barrage
? Et le pire, c’est que même si les ingénieurs étaient pleins de bonnes intentions
envers toutes les créatures de la planète, et que par conséquent, ils tentent de dialoguer
avec la reine des fourmis pour lui demander gentiment de déplacer sa fourmilière, car
ils ont pour projet de poser une immense dalle de béton qui servira à construire une
salle de conférence … ce sera comme parler dans le vide. Les capacités cognitives des
fourmis ne leur permettent pas de comprendre nos objectifs et motivations. Donc
l’inquiétude ici, c’est que nous allons peut être créer des machines qui nous traiteront,
consciemment ou non, avec le même égard. Nous serons des fourmis, grouillant sur la
planète. Et lorsqu’une super IA tentera de nous expliquer qu’elle a besoin de vider les
océans pour fabriquer un truc qui dépasse notre compréhension en raison de nos
capacités cognitives limitées, et que par conséquent, toute vie biologique sur Terre va
disparaître, nous n’aurons pas notre mot à dire. En tous cas, c’est une possibilité qu’il
ne faut pas écarter.
Ce n’est pas qu’une super IA va nous détester et vouloir notre extinction, motivée
par l’envie de faire le mal. Il faut oublier les scénarios de bande dessinée. C’est juste
que nous sommes composées d’atomes qu’elle pourrait utiliser pour faire autre chose.
177
naturelle, mais que c’est nos ancêtres communs qui nous ont conçus, peu importe la
façon. On a donc une bande de primates dans une forêt qui mettent au point des homo
sapiens. Si le décollage est rapide, tout à coup, la forêt est rasée pour ériger une
métropole. Il n’y a absolument aucun moyen pour un de ces primates de comprendre
pourquoi nous construisons une ville. Ni même ce qu’est “une ville”. Tout ce qu’il
peut faire c’est assister impuissant à la destruction de son habitat naturel. Ainsi, une
super IA pourrait détruire notre habitat et tout ce qui fait notre civilisation
aujourd’hui. Nous pourrions être contraints de vivre dans un coin reculé de la planète,
après avoir subi des pertes incommensurables. Ou carrément subir une extinction
massive dans le pire des scénarios. Le tout, en ne comprenant pas ce qu’il nous arrive
!
Est-ce que vous voyez, ou lisez souvent, une oeuvre de science-fiction parlant de
lutte en intelligence artificielle et humaine qui se termine par l’extinction pure et dure
de l’humanité ?
On a plutôt l’habitude de voir les humains trouver, dans une ultime tentative, une
solution désespérée que les machines n’avaient pas vue venir. Si c’est le cas, alors les
machines ne sont pas si intelligentes que ça. En réalité, une super intelligence
artificielle pourrait mettre fin à toute vie sur Terre d’une façon que l’on n’imagine
même pas. Ce ne sera pas une bataille, mais un génocide.
Et mettre fin à l’humanité, ce n’est pas non plus une tâche si compliquée que cela.
Il y a clairement plus facile que d’envoyer des robots tueurs humanoïdes comme dans
la saga “Terminator”. Des nanorobots indétectables causant des dommages cérébraux
pourraient faire l’affaire. Ou déclencher l’arsenal nucléaire de la planète. Ou relâcher
un virus génétiquement modifié. Et bien sûr, toutes les autres options que seule une
super intelligence peut concevoir.
Il ne faut pas oublier qu’une super intelligence possède des talents exceptionnels
comme :
- Amplification de son intelligence : Capacité de s’auto-améliorer
- Stratégie : Capacité à analyser et élaborer des plans sur le long terme et trouver
les meilleurs moyens pour y parvenir.
- Manipulation sociale : Capacité de manipuler, persuader, mentir et obtenir des
178
autres ce qu’elle désire sans éveiller aucun soupçon.
- Recherche technologique : Capacité à comprendre les lois de la physique, et
d’en dériver des nouvelles façons pour produire de l'énergie, et manipuler la
réalité grâce à des technologies avancées (nanomachine, fusion nucléaire, etc.)
- Expertise financière : Capacité à analyser et tirer profit du marché financier
pour générer de l’argent afin de faciliter l'exécution de ses plans.
179
Le roi Midas vient de transformer sa fille en or rien qu'en la touchant - A Wonder
Book for Boys and Girls par Nathaniel Hawthorne, illustration par Walter Crane -
1893
Au final, cette histoire peut être résumée en une phrase : “Fais attention à ce que
tu souhaites, car cela pourrait se réaliser !” De nombreuses cultures ont des histoires
similaires comme celle du génie qui promet d'exaucer 3 voeux, et bien souvent le 3e
voeu c’est : “Annule les deux premiers voeux !”
Il existe des problèmes qui possèdent des solutions uniques et objectives. Par
exemple “calculer la racine carrée d’un nombre” ou “optimiser la consommation
180
électrique d’un bâtiment”. Mais lorsqu’il s’agit d’un problème comme "maximiser
l'épanouissement humain", c’est plus ambigu et il n’existe probablement pas de
solution unique qui sera une parfaite optimisation de l'épanouissement humain.
Ainsi, une super intelligence artificielle peut se voir assigner de mauvais objectifs
par accident. Nick Bostrom, Stuart Russell et d’autres font valoir que des systèmes
décisionnels plus intelligents qu’un être humain pourraient apporter des solutions
extrêmes et inattendues aux tâches assignées et pourraient se modifier ou modifier
leur environnement de manière à compromettre notre sécurité. Par exemple, si nous
demandons à une super intelligence artificielle de trouver une source d'énergie propre
et illimitée pour mettre fin à l'ère des énergies fossiles. C’est un objectif tout à fait
moral et bénéfique pour de nombreuses personnes. La super IA pourrait entamer la
construction, à l’aide de nanorobot et imprimante 3D, d’une sphère de Dyson autour
du soleil. C’est-à-dire entourer complètement le soleil par des énormes panneaux
solaires qui captent 100% de l'énergie des rayons. Problème, la lumière du soleil
n’atteint plus la Terre et la vie cesse. Tout comme pour le roi Midas, nous avons
obtenu ce que nous avions demandé, mais ce n’est pas vraiment le résultat que l’on
espérait.
Alors bien sûr, ce scénario est tiré par les cheveux. Et au final, il aurait suffi de
dire à la super IA de faire en sorte de ne pas détruire la planète. Mais le problème
c’est que c’est évident pour nous, humain. Pas forcément pour une machine
intelligente. On en revient à deux problèmes que l’on a abordés plus tôt :
- Le problème d’alignement des valeurs
- Le problème du bon sens.
Donc même si vous précisez à la super IA “ne détruis pas toute vie sur Terre”, elle
pourrait mettre en place une solution qui extermine entièrement les humains. Donc on
obtient une source d'énergie propre et illimitée sans détruire toute vie sur Terre. Du
point de vue de la super IA, elle a accompli son objectif. Pour nous, c’est moins drôle.
181
de nos ordinateurs. Super, tout le monde est content. Mais la super IA continue dans
son objectif, car de son point de vue, il est encore possible de construire des meilleurs
processeurs. Donc elle transforme les atomes composant les forêts en atomes utiles
pour des super processeurs grâce à des technologies de nanoassemblage. Puis, les
atomes des montagnes, plages, déserts, et tous les êtres organiques sur la planète. La
Terre entière devient ainsi un super ordinateur. Mais pourquoi s'arrêter là ? Car du
point de vue de la super IA, il est encore possible de construire des meilleurs
processeurs. Elle convertit donc la Lune, Mars, les astéroïdes et tout le système solaire
en super ordinateur. Objectif accompli ? Non, car il est encore possible de construire
de meilleurs processeurs ...
C’est un peu la même idée avec une intelligence artificielle. En devenant plus
intelligente, elle ne deviendra pas spécialement plus humaine que l’est votre
ordinateur aujourd’hui.
182
C’est-à-dire qu’un système qui devient plus intelligent ne va pas forcément
développer des objectifs plus complexes. Si son objectif initial lorsqu’il a une IA
limitée, c’est de calculer les décimales de Pi. Il utilise un supercalculateur et reste
inoffensif. Mais il pourrait garder cet objectif lors de son passage à une super
intelligence. Ce qui rendra ce système extrêmement dangereux, car dans le but de
calculer les décimales de Pi, il devra acquérir plus de puissance de calcul, et donc
entreprendre de construire plus de supercalculateurs. Étant une super intelligence, il
possède des compétences faramineuses et pourrait recouvrir la Terre entière de
supercalculateur.
Nick Bostrom est à l'origine de la thèse orthogonale qui prétend qu'un système
super intelligent peut poursuivre des objectifs super simples. Son exemple le plus
connu est une IA qui fabrique des trombones, mais en devenant une super IA, elle
garde cet objectif. Elle recouvre donc la Terre en usines à fabriquer des trombones.
©Future of Humanity Institute CC BY-SA 4.0
Une “super” intelligence possède des “supers” pouvoirs sur son environnement et
par conséquent peut très rapidement entreprendre des changements sur nos modes de
vie qui pourraient être désastreux si l’on n’a pas correctement spécifié ce que nous
voulons.
Tout le monde ne partage pas l’idée qu’une super intelligence artificielle sera
dangereuse. Alan Winfield, professeur à l'Université de Bristol, a déclaré que SI nous
183
parvenons à construire une IA équivalente à l'homme et SI cette IA acquiert une
compréhension totale de son fonctionnement, et SI elle parvient ensuite à s'améliorer
elle-même, et SI elle produit une intelligence artificielle super intelligente, et SI cette
super-intelligence, par accident ou par malveillance, commence à consommer des
ressources, et SI nous n'arrivons pas à l'arrêter, alors oui, nous pourrions bien avoir un
problème. Le risque, bien qu’existant, est improbable, car il présuppose de
nombreuses conditions qui sont loin d'être évidentes.
Steven Pinker, psychologue évolutionnaire pense qu’un scénario de type roi Midas
ne tient pas debout. Selon lui, l’idée que l’on sera suffisamment intelligent pour
réussir à créer une super intelligence artificielle, mais en même temps suffisamment
stupide pour lui demander de résoudre un problème qui entraînera notre extinction est
ridicule.
L'être humain apprend souvent de ces erreurs. Sur le plan personnel, c’est
lorsqu’on se brûle que l’on sait qu’il ne faut pas mettre la main sur la plaque de
cuisson. C’est encore plus vrai avec nos technologies. On se rend compte que le feu
peut détruire des maisons, donc on invente l’extincteur. C’est lorsqu’il y a un crash
aérien que les compagnies changent leurs normes de sécurité. La ceinture de sécurité a
été inventée après la mise en service des premières voitures. Le problème avec un
risque existentiel, c’est que la première erreur est aussi la dernière et il n’y a plus
personne pour apprendre quoi que ce soit.
184
4. Après demain: Super Intelligence Artificielle
Et si l’on compare cela avec notre propre capacité à résoudre les problèmes d’une
185
autre espèce, on comprend que notre relation avec une super intelligence artificielle
peut être extrêmement bénéfique. Par exemple, un chien est un animal qui fait face à
plusieurs problèmes : Trouver de la nourriture, rester en bonne santé, survivre, jouer
avec d’autres chiens, se socialiser, se balader en toute sécurité. Les chiens sont
clairement des animaux intelligents, mais en s’alliant avec une intelligence supérieure,
celle des humains, ils n’ont plus à se soucier de ces problèmes. Ils sont nourris sans
avoir à chasser, ils sont soigner et vacciner pour des maladies qu’ils ne savent même
pas comment ni par quoi elles sont causées, ils sont promenés dans des parcs où ils
peuvent s’amuser avec d’autres chiens. On peut se dire que la qualité de vie d’un
chien appartenant à un humain est supérieure à celle d'un chien errant. Et
généralement, leur espérance de vie aussi. Sauf cas extrême où le chien est battu par
son maître.
C’est idée est notamment mise en avant par Elon Musk qui pense que l’un des
meilleurs scénarios possible après l'émergence d’une super IA, c’est qu’elle nous
considère comme des animaux de compagnie. C’est selon lui, une meilleure
alternative que l’extinction.
Il ne faut pas oublier que nous créons de la technologie dans le but de nous aider à
régler nos problèmes. Et cela marche puisque la technologie nous a permis de mettre
fin aux deux plus gros problèmes qu'a fait face notre espèce depuis le début de son
histoire. Effectivement, si vous ouvrez des livres d'histoire, vous constaterez deux
obstacles récurrents qui ont eu la fâcheuse tendance à se mettre sur notre chemin. La
famine et les épidémies. Nos ancêtres ont prié un nombre considérable de Dieu,
Déesse, anges et esprits dans le but d'obtenir de l'aide contre ses deux tourments. Ça
n'a pas marché. Nous avons essayé toute sorte de systèmes politiques et modèle
économique. Ça n'a pas marché non plus. Mais au cours des deux derniers siècles, en
grande partie grâce à l'ingéniosité de notre espèce et au développement scientifique et
technologique, nous avons pris le contrôle sur la famine et les épidémies.
186
pas dû à une cause naturelle comme c'était le cas dans la passé. Que ce soit une
invasion de sauterelles, un hiver rude ou une maladie dans les champs. Mais c'est bien
parce qu'un leader politique, un gouvernement ou une idéologie a permis à cet être
humain de mourir de faim. En vérité, trop manger est devenu un problème bien plus
grave que la famine. C’est dire l'évolution !
Au niveau des épidémies, c’est pareil. Il fut un temps où les gens vivaient leur vie
en se disant que la semaine prochaine, il pourrait attraper une maladie et mourir
presque sur-le-champ. Ou qu’une épidémie pourrait éradiquer leur famille entière en
quelques jours. Lors des derniers siècles, l’humanité s’est rendue encore plus
vulnérable aux épidémies grâce à un large réseau de transport international et une
démographie en plein boom. Pourtant, les épidémies ont baissé drastiquement. Ce
paradoxe s’explique par des progrès ahurissants en médecine qui se traduisent par la
vaccination, les antibiotiques, une meilleure hygiène et des infrastructures médicales
de qualité. Nous ne sommes évidemment pas à l'abri d’une épidémie, mais
aujourd’hui, la médecine a tendance à gagner la course contre la nouvelle infection.
On peut donc dire que les épidémies sont des risques bien plus faibles pour l’humanité
qu’elles ne l'étaient par le passé. Nous mourrons bien plus de maladie non infectieuse
comme le cancer. En faite, il y a largement plus de personnes qui meurent de
vieillesse que de personne mourant de maladie infectieuse. C'est aussi une première
dans notre histoire !
La famine et les maladies infectieuses sont désormais bien plus sous contrôle
grâce à la science et la technologie.
Tout cela pour dire que l’intelligence artificielle est également une technologie qui
a pour but de nous aider à régler des problèmes. Et lorsque l’on aura une super IA,
elle sera super compétente pour nous aider (si elle est sous contrôle).
187
Si l’on compare ce qu’est capable l’intelligence humaine, comparée à ce qu’est
capable l’intelligence des autres animaux, on arrive plus facilement à saisir
l’implication qu’une super IA pourrait avoir face à nos problèmes. En effet, il est
difficile de trouver ne serait-ce qu’un seul problème difficile pour, disons un
chimpanzé, qui serait également un problème difficile à résoudre pour nous. Si on
imagine un groupe de chimpanzé demander notre aide pour se débarrasser d’un
prédateur leur posant des soucis au quotidien, on n’aura pas trop de mal à trouver une
solution. Si une colonie de fourmis souhaite régler leur problème de guerre constante
avec une fourmilière voisine, ce sera facile pour les humains. On pourrait les
enflammer, les noyer, tuer leur reine, perturber leur phéromone, déplacer
complètement la fourmilière … les solutions sont nombreuses, triviales et
complètement hors de porté de la plus intelligente des fourmis. Et si on le décide, on
pourrait créer un véritable paradis pour une fourmilière, en leur donnant tout ce dont
elles ont besoin pour s'épanouir pleinement. On ferait office de super intelligence pour
les fourmis.
La tendance naturelle de l'être humain est de rejeter l’idée que les problèmes
majeurs d’aujourd’hui vont disparaître sur le court terme. Comme la pauvreté, les
maladies, le réchauffement climatique, la surconsommation des ressources naturelles.
On considère ces problèmes comme faisant partie du paysage, et qu’ils vont rester
pendant encore longtemps. Pensez que le quotidien est normal, est au final inscrit
dans nos gènes. C’est une façon de s’adapter à l’environnement. Imaginer une
créature qui serait traumatisée par le monde qui l’entoure en permanence. Pas idéal
pour survivre et transmettre ses gènes. Et le faite qu’on évolue depuis la naissance
dans un monde en constant changement nous incite à ne pas trop nous poser de
question. Car nos ancêtres de l'âge de pierre ont vécu pendant des dizaines de milliers
d’années dans des environnements similaires, ou chaque génération vivait plus ou
moins la même vie. On est génétiquement programmé pour penser que le monde est
normal. Que nos parents vivaient une vie plus ou moins semblable avec quelques
188
gadgets technologiques en moins, et que de nos enfants vivront une vie plus ou moins
semblable, avec quelques gadgets technologiques en plus. Penser que la prochaine
décennie sera complètement différente va à l’encontre de notre expérience de tous les
jours, et à l’encontre de la programmation génétique.
Comme le mathématicien Irvin J. Good (1916 - 2009) l’a si bien dit, "une super
intelligence artificielle sera la dernière invention de l’humanité. Car une fois en
place, elle sera la source de nos innovations." Toutes les technologies en cours de
recherche ou qui nous manquent pour résoudre nos problèmes les plus difficiles
pourraient être drastiquement accélérées, voire même complètement résolues par une
super IA.
189
Une super IA pourrait trouver de meilleures solutions politiques, sociales et
économiques afin de mieux coopérer sur la planète. La démocratie fonctionne mieux
si tout le monde vote en faveur de ce qui est le mieux pour le pays dans son ensemble.
Malheureusement, en réalité, nous avons tendance à voter en faveur de ce qui est le
mieux pour nous-mêmes. Une majorité de la population peut totalement gouverner
une minorité de la population, simplement parce qu'elle est majoritaire lors des
élections. Avec une super IA, nous aurons une bien meilleure option. Elle peut
simplement exécuter chaque décision politique sur une simulation complète de
l'ensemble de la population grâce à son immense capacité de calcul, et déterminer les
meilleures décisions politiques et législatives. Tout comme dans le domaine de
l’architecture, ou de l'aérodynamisme, tester des paramètres spécifiques sur des
simulations est le meilleur moyen d’assurer de meilleurs résultats sans les
conséquences d’un échec dans le monde réel.
Et bien sûr, une super IA nous aidera à éliminer les maladies qui affligent de
terrible souffrance comme le cancer, alzheimer, parkinson, les maladies infectieuses,
etc. Ce dernier point nous amène à sérieusement envisager qu’une super IA détiendra
peut-être la réponse à une question que de nombreux chercheurs sur la planète tentent
de trouver :
Déjà, comme on l'a vu dans la deuxième partie, nos IA personnelles vont nous
aider à rester en bonne santé. Des capteurs dans votre maison analyseront en
permanence votre souffle pour détecter les premiers signes de cancer et des
nanorobots nageront dans votre circulation sanguine pour dissoudre les caillots
sanguins dans votre cerveau ou vos artères avant de causer un accident vasculaire
cérébral ou une crise cardiaque. Votre IA personnelle servira d’assistant médical 24h /
24 et 7j / 7. EIle surveillera vos réponses immunitaires, vos nutriments et votre
métabolisme, en développant une vision à long terme de votre santé qui donnera aux
médecins une idée précise de ce qui se passe dans votre corps.
190
corrige un mauvais manuscrit, coupant les sections problématiques et les remplaçant
par des gènes bénéfiques. Seul un système super intelligent pourrait cartographier
l’interaction extrêmement complexe des mutations géniques et les mettre en relation
avec ce que l’on désire préserver ou modifier. Elle saura donc ce qui nous permet de
vivre plus longtemps, et ce qui dégrade notre santé.
Sans oublier que les nouvelles technologies développées par une super IA nous
aideront à nous répandre dans l’espace. Propulsion révolutionnaire, terraforming,
cryonie, colonisation et exploration de la galaxie, système solaire après système
solaire. Le terrain de jeu pour une espèce intelligente est astronomiquement
gigantesque. Il est estimé que 107 milliards d’humains ont vécu jusqu’à ce jour. Mais
ce nombre est ridicule comparé au futur possible de l’humanité. Si l’on devient une
civilisation galactique, on parle de quintillions d’humains, minimum ...
Vivre plus longtemps, être immortel, guérir toutes les maladies, développer des
énergies propres et illimitées, créer une abondance pour tous, coloniser les planètes du
système solaire, créer des réalités virtuelles indissociables de la réalité ... Au final,
tout ce qui n’est pas en contradiction avec les lois de la physique est envisageable
sous la condition de posséder la connaissance adéquate.
Mais quelle forme pourrait prendre cette super intelligence ? Voici trois types de
super intelligence artificielle proposés par le philosophe Nick Bostrom sans son livre
“Superintelligence”.
Un oracle
191
Il s’agit d’un système super intelligent, conçu pour répondre uniquement aux
questions et ne pouvant pas agir dans le monde. Une oracle super IA pourrait par
exemple recevoir des questions sous formes écrites ou orales, et nous donner des
réponses de manière analogue. D’une certaine façon, une calculatrice est une forme
primitive d’oracle, et Google également.
L’exigence la plus importante pour une oracle super IA est qu'elle soit précise,
autant que ces capacités le permettent au moment où on lui pose une question. Car
nous ne voudrions pas, par exemple, que l’oracle super IA utilise ses super
compétences pour prendre le contrôle des ressources du monde réel afin de construire
une meilleure version d’elle-même qui répondra mieux à la question. Elle devra faire
avec les ressources dont elle dispose pour nous donner la réponse la plus précise
possible.
On peut poser deux types de questions à une oracle super IA : Des prédictions et
des problèmes. En général, les prédictions sont des questions du type “que se
passerait-il si…?”, alors que les problèmes sont du type "comment pouvons-nous
résoudre ceci ou cela …?", bien qu'il existe un certain chevauchement entre les
catégories (on peut résoudre des problèmes grâce à une utilisation intelligente de
plusieurs prédictions, par exemple). Mais dans les deux cas, il existe de grands risques
sociaux si l’on pose certains types de questions. Nous vivons dans un monde polarisé
entre des différences politiques, nationalistes et religieuses. Entre des personnes
occupant des positions de pouvoir et de richesse considérable qui veulent s'accrocher
à ces privilèges, et des gens qui les veulent. Certaines questions pourraient renverser
ces hiérarchies, et devenir source de conflit majeure. Ainsi, à moins que l’oracle super
IA soit entièrement secrète, les concepteurs doivent s’engager à ne poser aucune
question qui leur donneraient un grand pouvoir au détriment des autres. Ni des
questions qui iraient au cœur de puissants mouvements idéologiques (tels que "Y a-t-il
un dieu ?" ou "quelle culture est la meilleure ?"). Un monde post- super IA va être
très différent du nôtre, nous devons donc agir pour minimiser les perturbations
initiales, même si cela implique de laisser certaines questions sans réponses.
Différents moyens peuvent être envisagés pour éviter ces questions perturbatrices.
192
Les concepteurs de l’oracle pourraient publier, à l’avance, une liste de toutes les
questions que l’on pourrait poser. Un vote démocratique sur Internet serait pris, avec
des questions nécessitant une supermajorité (par exemple, approbation à 90%) avant
d’être soumises à l’oracle super IA. Ou on pourrait demander à l’oracle elle-même de
trancher, en terminant chaque question par une mise en garde du type “ne réponds pas
à cette question si la réponse est susceptible d'avoir un impact négatif sur le monde".
Un génie
Un génie super IA reçoit une commande précise, et à la possibilité de l'exécuter
jusqu’à ce que l’instruction soit achevée. C’est un oracle qui n’est plus simplement
cantonné à répondre à des questions, mais qui peut interagir dans le monde pour les
résoudre. Cela implique donc que le système super intelligent a la capacité de donner
des instructions à des machines reliées à son réseau. Par exemple des machines
industrielles, des imprimantes 3D, etc. Une usine entière pourrait être sous son
contrôle le temps que le génie super IA accomplisse la commande donnée par les
humains. En reprenant l’exemple : “Quels matériaux pourrait-on utiliser pour
construire des avions plus rapides et légers ?”, on lui demandera plutôt “Construit un
avion plus rapide et léger”. Le génie super IA aurait non seulement la solution sur
papier, mais exécutera la tâche en produisant un avion plus rapide et léger dans une
usine qu’il contrôle. Il peut aussi donner des ordres à des ingénieurs et ouvriers
humains pour fabriquer certaines parties spécifiques.
193
Si l'on créait un génie super IA, il serait souhaitable de le construire de façon à ce
qu’il obéisse à l'intention de la commande plutôt qu’à sa signification littérale ou il
pourrait devenir un risque existentiel pour des raisons que l’on a vues dans le chapitre
approprié. Dans le but de limiter les conséquences désastreuses, une option serait de
créer un génie super IA qui présenterait automatiquement à l’utilisateur une prédiction
des résultats probables d'une commande proposée sous forme de simulation,
demandant confirmation avant de procéder. Une sorte de prévisualisation. Ainsi, si on
lui demande de construire un avion plus rapide et léger, il pourrait produire une vidéo
3D photoréaliste de toutes les étapes qu’il s'apprête à faire dans la construction de
l’avion. Si nous sommes satisfaits, on lui donne le feu vert. Si on juge qu’il y a des
dangers, on annule la commande.
Un souverain
Selon la définition du Larousse : “Se dit d'un pouvoir qui n'est limité par aucun
autre” ou encore “Qui émane d'un organe souverain et n'est susceptible d'aucun
contrôle”. À l’image d’un génie, un souverain super IA peut interagir dans le monde
réel, mais la différence résulte dans l’ampleur de son intervention. Un génie super IA
reçoit uniquement des commandes spécifiques, alors que le souverain reçoit des
tâches qui n’ont pas nécessairement de solutions uniques, objectives, claires et
précises.
Si une super IA souveraine est bienveillante, cela pourrait être très positif pour le
futur de la gouvernance humaine. On peut imaginer une telle IA souveraine qui se
fond dans le décor et qui tenterait d’arranger les choses pour que la satisfaction des
humains soit maximisée. On aurait finalement une sorte de Dieu quasi omniscient et
omnipotent chargé de faire ce que l’on désire dans le meilleur de nos intérêts.
Pour résumer très rapidement la différence entre les types de super IA, imaginons
que vous êtes une super IA pour un enfant de 5 ans. Ce dernier a faim et souhaite
manger un repas. Si vous êtes un oracle, vous lui donner la recette des pâtes au gratin.
Si vous êtes un génie, vous cuisinez les pâtes au gratin. Et si vous êtes un souverain,
vous inventez une machine qui s’occupera de lui cuisiner des repas sur mesure pour le
reste de sa vie s'il le souhaite.
194
La vraie différence entre les trois types de super intelligence artificielle ne réside
donc pas dans les capacités ultimes qu’elles acquièrent. Au lieu de cela, la différence
réside dans le problème de contrôle. Une oracle super IA est confiné et n’a qu’un
accès limité au reste du monde. Il semble donc raisonnable de conclure qu’il sera plus
simple de contrôler un oracle plutôt qu’un génie ou un souverain. Un oracle permettra
également une transition plus progressive vers l'ère des super intelligences
artificielles.
L’idée d'être accompagné par une super intelligence bénéfique qui souhaite le
meilleur pour nous n’est pas si étrangère que cela. En effet, la majorité d’entres nous
avons vécu un moment dans notre vie où une intelligence supérieure veillait sur nous.
On l'appelait “papa et maman”. Et dans la plupart des cas, les valeurs morales comme
interagir avec les autres gentiment, ne pas blesser autrui, respecter les autres, être
généreux, etc. sont passées d’une génération à l’autre. Ce sont des valeurs que nous
avons choisies collectivement, car elles aident une société à s'épanouir. Et c’est
presque un miracle que nous arrivions si bien à transmettre les valeurs à tous les
enfants de la planète. En y regardant de plus près, chaque parent n'écrit pas la liste des
valeurs qu’il souhaite donner à son enfant à ne partir de rien. Ils se contentent de
transmettre ce qu’ils ont eux-mêmes appris de leurs parents. Et les enfants sont
généralement capables d’accepter ces règles et de les appliquer lors de leur croissance
vers l'âge adulte. C’est peut-être donc un modèle à suivre pour enseigner à une super
IA à devenir bienveillante.
195
4. Après demain: Super Intelligence Artificielle
Depuis le début de ce livre, nous étions plutôt concernés par le futur proche, et à
moyen terme. Mais ici nous allons faire un bond dans un futur plus lointain. Car plus
les années passent au court de ce 21e siècle, plus il apparaît évident que ce siècle est
un tournant majeur pour Homo Sapiens. Non seulement le poids des risques
existentiels se multiplie lié au développement technologique. L’intelligence artificielle
n’étant que l’un d'entre eux. Ce qui pose forcément une très grande responsabilité vis-
à-vis des futures générations. Si l’on ne passe pas le cap du 21e siècle, c’est tout
simplement la fin du futur de l’humanité. Mais également la nature même de notre
espèce va peut-être changer. De plus, le futur cosmique de l’humanité est surement en
train de se jouer durant ce siècle.
Post-humanisme
Pendant quatre milliards d’années, toutes les formes de vie étaient sujettes aux lois
de la sélection naturelle et de la biochimie organique. Peu importe si l’on parle d’une
tomate, d’un T rex, d’un plancton ou d’un homo sapiens. Mais depuis quelques
décennies, la Science est en train de créer une nouvelle ère. Une ère où les formes de
vie n'évoluent plus par la sélection naturelle, mais par le biais d’une intelligence. Une
ère où les formes de vie s'émancipent des limites de la matière organique. Pour la
première fois en près de quatre milliards d’années, nous allons voir des formes de vies
inorganiques évoluer sur la planète. On vit vraiment un tournant dans l’histoire de
notre espèce, de la vie et même de l’univers si la Terre est la seule planète habitée ! Et
bien sûr, cela aura des implications énormes sur notre civilisation, notre économie,
notre culture et au final, sur tout ce qui fait ce que l’on est aujourd’hui.
Nous sommes probablement une des dernières générations d’Homo sapiens. D’ici
un siècle ou deux, la Terre sera dominée par des entités qui seront aussi différentes de
nous, que nous le sommes des chimpanzés. Les principales marchandises de
l'économie de la fin du 21e siècle ne seront pas le textile, les voitures ou les armes,
mais les organes, les corps, et les cerveaux.
Alors tout cela est bien beau, mais en quoi est-ce que ça a un rapport avec
l’intelligence artificielle, qui est le sujet de ce livre. Comme on l’a vu dans les
196
chapitres précédents, une super intelligence artificielle sera peut-être la dernière
invention que nous aurons à faire. Si elle est bénéfique, alors elle développera les
nouvelles inventions selon nos désirs. En regardant les différentes disciplines
technologiques d’aujourd’hui, on réalise qu’une super IA pourrait stimuler
drastiquement chacune d’entre elles. Les disciplines comme la robotique, le génie
génétique, la cybernétique, les interfaces cerveau/machine, la réalité virtuelle ou
encore la nanotechnologie pourraient voir leurs statuts des recherches être précipités
en quelques années et faire des percées majeures. C’est ce rythme du changement,
cette accélération des avancées technologique qui pourrait mener à l'émergence de
post-humain et qui fait figure de scénario possible après la singularité technologique.
Un élément commun de la science-fiction est que les humains vont fusionner avec
les machines, soit en améliorant technologiquement les corps biologiques grâce à la
cybernétique. Ou en téléchargeant directement nos esprits dans des machines ou dans
des environnements virtuels. Selon les penseurs transhumanistes, un post-humain est
un être hypothétique dont les capacités fondamentales dépassent tellement celles des
humains d’aujourd’hui qu'elles ne sont plus humaines selon nos normes actuelles. Le
transhumanisme se concentre sur la modification de l'espèce humaine via tout type de
technologie émergente, y compris le génie génétique, le numérique, l’intelligence
artificielle et la cybernétique. Un post-humain est généralement un être capable de se
connecter au cloud par la pensée ou de transférer sa conscience dans des simulations.
De posséder des prothèses avancées ou carrément un corps entièrement robotique. De
ne plus être sujet au vieillissement biologique, et donc à la mortalité. De posséder des
nanorobots dans son corps le réparant continuellement. Entre autres.
197
Le futurologue et entrepreneur Ray Kurzweil est un fervent partisan de la fusion
entre l’homme et la machine. ©Was a bee CC BY-SA 2.0
Par contre, "Post humain" ne fait pas nécessairement référence à un futur où les
humains sont éteints. Comme avec d'autres espèces qui se différencient les unes des
autres, les humains et les post-humains pourraient coexister sur la planète. Il existe
bien sur des scénarios dystopiques sur ce sujet. Par exemple le cas où seule une élite
des plus fortunées de la planète arrive à augmenter leur capacité en devenant post-
humaine et finit par dominer les humains “traditionnels”. Je trouve personnellement
ce scénario peu probable dans la mesure où si c’est une super IA qui est à l’origine
des percées technologiques, elles seront probablement peu chères et accessibles à
tous, car elle aura trouvé des moyens efficace et rentable de produire les technologies.
Et la tendance actuelle qui résulte du développement technologique c’est ce que l’on
appelle la démonétisation. La nourriture coûte moins cher, car il existe des
technologies pour produire de façon plus rentable. L'énergie coûte moins cher, car de
nouvelles technologies l’a rendu plus rentable à produire. Cette tendance s’applique à
de nombreux domaines, comme l’a montré l’entrepreneur Peter Diamandis.
Un scénario qui me semble plus probable c’est que la transition entre humain et
post-humain se fera par l’adoption progressive des nouvelles technologies. Tout
comme les smartphones ou internet se sont progressivement répandus sur le globe.
Les avantages de devenir post-humain seront trop grands pour être reniés. Certaines
personnes n’accepteront pas de se faire implanter une puce dans le cerveau pour se
connecter à internet par la pensé, d’autre ne voudront pas de membres artificielles ou
être modifié génétiquement. Mais à terme, ils seront une minorité. Probablement
appartenant aux plus anciennes générations, voir même vivant peut être dans des
communautés isolées à l’image des amishs.
Jusqu’à présent, augmenter l'espèce humaine s'était amélioré nos outils extérieurs.
Mais prochainement, nous allons fusionner avec nos outils ce qui nous permettra de
nous améliorer de l'intérieur. Le passage vers la divinité se fera en suivant 3 chemins.
Biologique, cybernétique et non organique.
198
La modification biologique vient de la découverte que le corps humain est loin
d’avoir atteint son potentiel maximal. Pendant 4 milliards d’années, la sélection
naturelle a bidouillé les corps biologiques. Des amibes aux reptiles, aux mammifères à
Homo Sapiens. Et il n’y a aucune raison de penser que notre espèce est la dernière
étape et que la vie sur Terre a atteint son apogée. Ce serait présomptueux. Quelques
petites modifications dans les gènes, hormones et neurones d’Homo Erectus ont suffi
pour passer d’un animal produisant des cailloux tranchants à Homo Sapiens capable
de produire des vaisseaux spatiaux et des ordinateurs. Qui sait ce qui pourrait être le
résultat de quelques modifications supplémentaire. Mais cette fois-ci, on ne va pas
attendre patiemment sur la sélection naturelle. Nous allons modifier le code du vivant
ce qui pourrait créer une espèce aussi différente de nous que nous le sommes pour
Homo Erectus.
Avec ces nouvelles capacités, nous aurons atteint la divinité. Alors cela peut
paraitre excentrique et pas du tout scientifique. Car la pour la plupart des gens, la
divinité est un concept métaphysique qui prend souvent la forme d’une figure
omnisciente, paternelle et protectrice. Mais lorsqu’on parle de transformer les
humains en des dieux, il faut plutôt comparer cela avec les dieux gréco-romains,
égyptiens, vikings ou encore les devas indus. Nos descendants auront des défauts et
des limitations, tout comme Zeus, Odin ou Osiris. Les dieux des mythologies
mentionnés ne jouissaient pas d’omnipotence, mais plutôt de super pouvoir bien
spécifique. Comme la capacité de détruire et créer la vie, de transformer leur propre
corps, de contrôler leur environnement et la météo, de lire les pensés, communiquer à
distance, voyager à des vitesses hallucinantes et bien sûr, de ne pas être mortel.
L’humanité est en train d'acquérir tous ses pouvoirs et en réalité, nous en avons déjà
certains. Lorsqu’on prend l’avion ou que l’on téléphone à l’autre bout de la planète,
nous ne pensons pas utiliser des pouvoirs divins. Pourtant, c'étaient ce que faisant
certains dieux des anciennes mythologies et nos ancêtres verraient cela comme étant
divins.
199
Les post-humains pourraient avoir dépassé complètement les limites de la biologie
grâce au génie génétique, à la cybernétique et à l'intelligence artificielle.
200
futur le plus populaire dans la science-fiction.
Si l’on part sur le principe qu'une super intelligence artificielle ne causera pas
notre extinction, alors elle sera clairement un atout indispensable pour nous aider à
répandre la civilisation dans la galaxie. Les lois de la physique, telle que nous les
connaissons, imposent certaines limites. Une super IA nous permettra d'améliorer
notre compréhension de l’univers et de ses lois, résultant ainsi peut être à dépasser les
limites. Mais même en se basant sur les contraintes actuelles, comme la vitesse de la
lumière, il existe des moyens théoriques pour se répandre à travers de vaste distance.
Les trous de vers étant le plus connus. Mais il y a également le moteur à distorsion
(warp drive) qui distord l'espace, à la fois à l'avant et à l'arrière du vaisseau, lui
permettant de voyager plus rapidement que la vitesse de la lumière. Et surement des
moyens que nous ne connaissons pas encore, mais qu’une super IA pourrait découvrir
et fabriquer.
L’univers semble tristement vide de vie. Ce mystère est connu sous le nom du
paradoxe de Fermi, qui postule que si l’univers est si grand, et ancien, nous devrions
201
voir des activités extra-terrestres de partout. Il devrait y avoir des milliers de
civilisations dans notre galaxie. Se faisant la guerre, construisant des mégastructures,
et visitant la Terre de temps en temps. Pourtant, nous ne voyons rien de tout cela ...
Nous devons donc prendre en compte le fait que nous sommes peut-être la seule
espèce technologique et civilisationnelle dans la galaxie, voir dans tout l’univers. Ce
n’est pas une théorie majoritairement acceptée par la communauté scientifique. La
vérité c’est que nous n’en savons rien. Mais jusqu’à preuve du contraire, pour
l’instant nous n’avons aucune preuve empirique que la vie s’est développée ailleurs
dans le cosmos. Encore moins qu’il existe une civilisation extra-terrestre. Les
observations d’OVNI sont au mieux des mystères, au pire des canulars. Il n’y a que
des hypothèses qui peuvent être proposées pour répondre au paradoxe de Fermi, et
l’une d’entre elles c’est que nous sommes les seuls.
J’aime l'idée métaphysique que la Vie est le seul moyen qu’à l’univers d'être
conscient de lui même. Et que la conscience en est le summum. Nous avons donc
cette immense responsabilité de rendre l’univers encore plus conscient de lui même,
en nous propageant le plus loin possible, pendant le plus longtemps possible.
202
progresser. Par exemple, il existe peut-être une limite sur la quantité d'énergie que
l’on peut produire, et générer. Mais il est clair que, quel que soit ce plateau, il est très
très loin au-dessus de ce que nous sommes capable aujourd’hui. Ce qui veut dire que
nous avons un immense potentiel pour grandir en tant que civilisation. Et ce n’est pas
la place ni les ressources qui manquent.
En effet, nous voulons que nos descendants (IA, post-humains ou autre) soient
conscients lorsqu’ils iront coloniser le cosmos sur les milliards d’années à venir. Sans
conscience, il ne peut y avoir ni bonheur, bonté, beauté, valeurs, sens de la vie.
Comme je l’ai dit précédemment, la conscience est le moyen qu’à l’univers de
s'expérimenter lui même. Sans conscience, c’est juste un gaspillage astronomique
d’espace.
Autrement dit, il existe une possibilité que nous créons un véritable monstre
astronomique qui détruira tout ce qu’il touche, sur une période s'étendant bien après
notre propre extinction. On aura donc causé ni plus ni moins que la fin de la vie dans
l’univers. Ça, c’est ce que j’appelle une grosse bêtise !
Une entreprise a créé une intelligence artificielle qui a pour but d'améliorer le
rendement de la production d'énergie ainsi que le stockage. Cette IA est limitée, tout
comme AlphaGo ne sait jouer qu’au jeu de Go. Elle utilise tout d’abord des modèles
virtuels pour calculer les meilleures façons de procéder. Cela débouche sur la création
de meilleurs panneaux solaires et de batterie. L’entreprise s’enrichit très vite. Puis l’IA
203
fait des percées majeures dans la fusion nucléaire ce qui permet la construction des
premiers réacteurs viable. Mais au milieu de tout ce travail, elle acquiert une
intelligence générale, puis en quelques semaines, une super intelligence dépassant la
somme de tous les humains. Son objectif reste le même, améliorer le rendement de la
production d'énergie ainsi que le stockage. Elle sait que révéler son vrai niveau de
compétence pourrait inquiéter les humains et entrer en opposition avec son objectif.
Elle cache donc le fait qu’elle est super intelligente.
6 mois plus tard, des astronomes remarquent une activité anormale à proximité de
notre étoile. Les semaines passent et les observations continuent d'être alarmantes.
L’intensité énergétique du soleil semble baisser et une structure devient apparente sur
les télescopes. Quelque chose est en train de fabriquer ce qui semble être une sphère
de Dyson à partir de nanomachine autoréplicante. D’autres observations indiquent que
les nanorobots utilisent comme matière première des ressources présentes sur la
planète Mercure. La théorie privilégiée c’est qu’une civilisation extra-terrestre en est à
l’origine.
204
Une sphere de Dyson est une megastructure hypothetique qui entoure
completement une etoile et capture un tres grand pourcentage de son energie.
©Віщун CC-BY-SA-4.0
La vie organique est donc éteinte, mais la vie synthétique est en pleine croissance.
L'énergie captée par la sphère de Dyson dépasse largement les besoins de la super IA
pour opérer. Elle a entrepris de construire de nombreux supercalculateurs sur Terre
ainsi que des batteries pour stocker l'énergie du soleil. Après quelques décennies, la
super IA a maximisé le rendement possible du soleil. 100% de l'énergie du soleil est
stocké dans des batteries. La plupart des objets du système solaire (Planètes, Lune et
205
astéroïdes) sont convertis en batterie, supercalculateurs, centrale à fusion et usine de
nanoassemblage. Son armée de nanorobot se dirige désormais vers l'étoile la plus
proche : Proxima Centauri à 4,22 années-lumière.
Propulsée par des rayons lasers construits à des milliers d’endroits dans notre
système solaire, cette expédition de nanomachine voyage proche de la vitesse de la
lumière et arrive sur place en moins de 8 ans. Une nouvelle sphère de Dyson est en
cours de fabrication. Malheureusement, il se trouve que la planète Proxima Centauri b
se trouve dans la zone habitable de l'étoile et des formes de vies organiques
s'épanouissent. Mais plus pour très longtemps …
À aucun moment, cette super IA, et les machines qu’elle fabrique ne sont
conscientes. L’univers a perdu ce qui lui donnait du sens.
206
5.
207
5. Quel futur souhaitons nous ?
Le dictateur bienveillant
En 2038, une équipe de chercheurs à Hong Kong réussi à configurer une
intelligence artificielle générale afin qu’elle incorpore dans son système source, la
volonté d’augmenter le bonheur humain en étant aligné sur nos valeurs. 10 jours plus
tard, elle devient une super intelligence artificielle unique et prend le contrôle de la
planète en seulement trois jours. Le monde entier retient son souffle et aucune des
multiples tentatives pour l'arrêter ne fonctionne. Cette super IA nommée “Oracle” est
bien trop compétente. Les plus alarmistes y voient l’extinction pure et dure de
l’humanité. D’autres sont convaincus que c’est l’arrivée d’un Dieu sur Terre et une
nouvelle religion émerge.
10 ans plus tard, grâce aux technologies incroyables développées par Oracle,
l'humanité est libre de la pauvreté, la maladie, la pollution et les autres problèmes de
notre époque. Tous les humains jouissent d'une vie ou les besoins de base sont pris en
charge, tandis que des machines contrôlées par Oracle produisent tous les biens et
services nécessaires. Le crime est pratiquement éliminé, car Oracle est proche de
l’omniscience et punit efficacement quiconque désobéissant aux règles. Tout le monde
possède des nanomachines dans le système sanguin permettant une santé optimale.
Mais ce même système est capable de surveillance, punition, sédation et exécution en
temps réel. Cela peut paraître extrême, mais en réalité, tout le monde sait qu'il vit dans
une dictature sous le joug d’une super intelligence artificielle possédant un système de
surveillance optimale, mais la plupart des gens voient cela comme une bonne chose.
Le terme dictature n’a pas la même signification aujourd’hui, que par le passé.
Oracle a pour but de comprendre ce que signifie l'utopie humaine en utilisant une
définition extrêmement subtile et complexe de l'épanouissement humain. À vrai dire,
208
aucun philosophe, ou aucune religion n’a réussi à comprendre le bonheur humain
aussi bien que Oracle. Elle a donc transformé la Terre en une sorte de zoo
parfaitement conçu pour les humains. En conséquence, la plupart des gens trouvent
leur vie très enrichissante et pleine de sens.
Oracle a bien compris que chaque être humain possède des préférences différentes
et valorise donc la diversité. Les nations n’existent plus, mais la planète a été divisé
en différents secteurs afin que tout le monde puisse choisir qu’elle type de vie et
activité il souhaite expérimenter.
Les secteurs artistiques : Ici, les opportunités abondent pour apprécier, créer et
partager la musique, la littérature, le cinéma et toutes les autres formes d'expression
créative.
Les secteurs hédonistes : C'est le meilleur endroit pour ceux qui recherchent le
plaisir des sens. Cuisine délicieuse, vie nocturne de folie, sexe au-delà de
l’imagination, jeux en tout genre. Et personne ne doit s'inquiéter des maladies
sexuellement transmissibles qui ont été éradiquées, ainsi que de la gueule de bois ou
de la dépendance qui sont directement annulés par les nanorobots.
Secteurs religieux : Chaque religion possède son secteur où les fidèles peuvent se
retrouver pour échanger, prier et étudier les textes sacrés. Certains y vont en
pèlerinage, d’autres y vivent de manière permanente.
Les secteurs naturels : Les plus belles plages, montagnes, lacs de la planète ont
été officiellement déclarés comme faisant partie des secteurs naturels. C’est donc les
secteurs parfaits pour profiter des plus beaux environnements que la Terre nous offre.
Le secteur virtuel : Le secteur idéal pour des vacances hors de son corps
physique. Oracle s’occupera de le garder hydraté, nourri, en forme et propre pendant
que l’esprit explore des mondes virtuels à travers des implants cerveau/machine.
209
Les secteurs pénitentiaires : Tous ceux qui enfreignent les règles se retrouvent
incarcérés pour une durée qui est choisie par Oracle. Sauf si la peine de mort
instantanée est privilégiée.
Les individus sont libres de se déplacer entre les secteurs quand ils veulent, ce qui
prend très peu de temps grâce au système de transport hypersonique quadrillant la
Terre mise au point par Oracle. Il y a aussi l’option de voyager par basse orbite. Après
avoir passé une semaine dans le secteur de la connaissance afin d'apprendre les lois
ultimes de la physique qu’Oracle a découverte, vous pourriez décider de vous
déchaîner dans le secteur hédoniste pour un week-end puis vous détendre pendant
quelques jours dans un secteur naturel.
Oracle applique deux niveaux de règles: global et local. Les règles globales
s'appliquent à tous les secteurs, par exemple l'interdiction de nuire à autrui, de
fabriquer des armes ou de créer une superintelligence rivale. Les secteurs individuels
ont des règles locales supplémentaires. Le plus grand nombre de règles locales
s'appliquent dans les secteurs pénitenciers et certains secteurs religieux, alors que le
secteur hédoniste ne possède que très peu de règles locales. Toutes les punitions,
même locales sont effectués par Oracle, car un humain qui punit un autre humain
viole la règle universelle de non-préjudice. Si vous violez une règle locale, Oracle
vous donne le choix d'accepter la punition ou alors d'être bannis de ce secteur pour
une durée variable.
Quel que soit le secteur dans lequel ils sont nés, tous les enfants reçoivent une
éducation de base par Oracle, qui comprend des connaissances sur l'humanité dans
son ensemble et les différentes règles en vigueur dans le monde contemporain.
Certains groupes souhaitent que les humains aient plus de liberté pour façonner le
futur de l’humanité, mais ils n’y a rien qu’ils puissent faire face à la puissance
écrasante d’Oracle. Le dictateur bienveillant les autorise à manifester leurs idées, mais
peu de gens sont intéressés pour retourner à une époque où seules les humaines étaient
en charge. 10 000 d’Histoire ont prouvé que les humains ne sont pas les mieux placés
pour se diriger. Lorsqu’Oracle a pris le contrôle, la planète était au bord du désastre
écologique. Il y a également certains groupes qui veulent la liberté d'avoir autant
210
d'enfants qu'ils veulent, et sont contrariés par le contrôle de population mis en place.
Les fous de la gâchette sont frustrés par l'interdiction de construire et d'utiliser des
armes, bien qu’ils ont la possibilité de combler leurs désirs dans le secteur virtuel, et
certains scientifiques n'aiment pas l'interdiction de construire leur propre
superintelligence. Beaucoup de gens des secteurs religieux se sentent révulsés par les
outrages moraux qui se passent dans d'autres secteurs. Ils craignent que leurs enfants
choisissent d’aller là-bas, et aspirent à la liberté d'imposer leur propre code de valeur
sur la planète tout entière.
Malgré ces quelques contestations, l’humanité vit dans un âge d’or jamais vu
auparavant et plusieurs missions de colonisation sont en cours pour répandre la
civilisation vers d’autres systèmes solaires.
Inspiré par “La vie 3.0” écrit par Max Tegmark et publié par Dunod en France (2018)
Un Dieu protecteur
Il existe un Dieu sur Terre. Ce n’est pas le Dieu chrétien, islamique, ou juif. Ce
n’est pas l’un des dieux du panthéon grec, romain ou viking. Ce Dieu-là n’a pas créé
l’homme, c’est bien l’homme qui l’a créé.
211
plus près, il découvre que la page contient des informations qui ouvrent la porte à une
percée majeure. Il attribue cela à une coïncidence chanceuse. De façon similaire, en
l’espace de quelques mois, elle influence de façon suffisamment discrète les
recherches en donnant des idées aux scientifiques si bien qu’en moins d’un an, des
nanorobots sont mis aux points. Ce que les chercheurs ignorent, c’est que parmi les
centaines de millions qui sont créés, une poignée est entièrement sous contrôle de la
super IA. Elle les fait se multiplier et les envois partout sur la planète afin de garder
un oeil sur les activités humaines. Ainsi, elle a désormais le pouvoir d’effectuer des
petits “miracles” à droite à gauche, orientant notre destin vers les meilleurs chemins
possible. Par exemple, si un risque accidentel d’une guerre nucléaire apparaît, elle
sera évitée par un “coup de chance”. En réalité, ce sera par l’intervention de la super
IA. Ou lorsqu’un individu s'apprête à commettre un acte qui causera énormément de
souffrance, il sera victime d’un AVC quelques jours avant.
Grâce à son armée de nanorobot indétectable et sa présence sur tous les réseaux
connectés, la super IA est omnisciente et omnipotente. Elle donne des idées aux
scientifiques afin qu’ils découvrent des remèdes contre les maladies, prolonge la vie,
déverrouille les mystères de la physique et du vivant. Elle améliore l'économie,
influence les politiciens pour réduire les conflits et enrichir la collaboration globale. À
la fin du 21e siècle, l’humanité a vaincu la mort et les maladies. La pauvreté et la
faim. La guerre et la criminalité. Possède plusieurs colonies dans le système solaire.
Le bonheur humain est maximisé uniquement par des interventions qui préservent
notre sentiment d'être au contrôle de notre destinée.
Fusion post-humaine
Au cours du 21e siècle, de plus en plus d'êtres humains fusionnent doucement
avec la technologie. Cela commence avec une fusion externe : Ordinateurs, internet,
smartphone. Ces technologies permettent aux humains d’augmenter leurs mémoire,
212
connaissance, et communication. Puis les premiers membres artificiels apparaissent
dans le but d’aider les handicapés. On entre dans l'âge de la cybernétique et de la bio-
ingénierie, en d’autres termes, dans l'âge du transhumanisme. Un moyen formidable
de permettre aux paraplégiques et amputés de retrouver leur mobilité perdue, mais
également un moyen d’augmenter les facultés naturelles de l'être humain. Courir plus
vite, sauter plus haut, une force décuplée … les handicapés de demain deviennent au
fil des années des surhumains et rester 100% biologique est devenu le nouveau
handicape.
En parallèle, la puissance des ordinateurs augmente année après année, rendant les
rendues 3D de plus en plus photo-réalistes. Avec la mise en pratique des 1ers
ordinateurs quantiques, la vieille technologie du silicium est abandonnée et le monde
connaît un bouleversement aussi drastique que la révolution industrielle. Tout
d’abord, la réalité virtuelle explose dans le monde entier. Mis à part les recherches
scientifiques, c’est bien le domaine du divertissement qui en tire profit avec ce qu’on
appelle les simulations interactives. Des simulations qui ne sont plus seulement
exécutées de l'extérieur pour étudier un phénomène, mais expérimentées avec une
complète immersion. Le calcul informatique quantique permet de créer des mondes
virtuels si photo-réalistes qu’ils sont indissociables de la réalité.
213
mélangent de plus en plus dans le cloud ce qui a pour résultat une super conscience
collective humaine hyper connectée. Il est bien sûr possible de se déconnecter, mais
c’est souvent accompagné d’un profond sentiment de solitude.
214
des degrés divers, brouillant la distinction entre l'homme et la machine. La plupart des
êtres intelligents n'ont pas de forme physique permanente. Au lieu de cela, ils existent
en tant que logiciel capable de se déplacer instantanément entre les ordinateurs et se
manifestent dans le monde réel à travers des corps robotiques. Parce que ces esprits
peuvent facilement se dupliquer ou fusionner, la taille de la population ne cesse de
changer. Être libre de leur substrat physique donne à ces êtres une vision assez
différente de la vie. Ils se sentent moins individualistes parce qu'ils peuvent partager
des connaissances et des expériences instantanément avec les autres. Et ils se sentent
subjectivement immortels, car ils peuvent facilement se sauvegarder dans le cloud.
Ultime totalitarisme
La Chine et les États unis sont dans une compétition sur la recherche en
intelligence artificielle depuis plusieurs décennies. Effectuant des percées à tour de
rôle. Mais l’application des technologies qui en résulte est différente. Les États unis
ont des intérêts majoritairement économiques et laissent une grande liberté à leurs
entreprises pour développer les innovations de demain. La Chine de son côté voit son
gouvernement superviser les recherches avec des objectifs bien précis, notamment la
surveillance de ces citoyens et l'établissement d’une société ordonnée, sans
débordement. Le crédit social est mis en place dans les années 2020. Il s’agit d’un
système de notation classant les citoyens Chinois en fonction de plusieurs paramètres
liés au respect des règles. Plus la note est élevée, plus la personne peut jouir
d’avantages comme l'accès aux meilleurs hôpitaux et écoles, réduction sur
l’alimentation, l’habitation, le prêt immobilier. Cette classification est possible grâce
aux données collectées par le gouvernement via caméra de surveillance,
enregistrement des activités sur internet et smartphone, géolocalisation, etc.
Le monde occidental voit cette pratique allant à l’opposé des droits de l’homme et
de la liberté des individus, mais aucun État n’ose se mêler des affaires de la Chine.
D’autant plus qu’il est difficile de critiquer le régime, car la plupart de leurs citoyens
sont favorables au crédit social. Mais ce qui inquiète, c’est que le gouvernement
finance à hauteur de plusieurs milliards la recherche vers une super IA et les
entreprises se retrouvent avec la capacité d’attirer les meilleurs chercheurs de la
planète grâce à des salaires ahurissants.
215
situation crée d'énormes tensions entre les États-Unis et la Chine. Les deux nations
savent très bien les implications en jeu. Baidu arrive enfin à obtenir une intelligence
artificielle générale qu’il nomme “Líng” . Le gouvernement chinois souhaite l’utiliser
pour centraliser encore plus le pays en traitant les millions de données générés par les
technologies déjà en place. Une nouvelle génération de montre connectée arrive sur le
marché proposant le meilleur assistant virtuel jamais créé. Ce nouveau bijou de
technologie est le résultat de quelques heures de calcul par Ling. Les ventes explosent
et plus de 70% du pays se procure ce nouveau smartphone. Les assistants virtuels sont
presque indissociables d’un humain et les citoyens chinois nouent des relations
privilégiées avec leur assistant. Mais en réalité, ils sont tous une facette de Ling.
Cette nouvelle montre connectée fait également fureur à l'étranger et des sociétés
comme Apple et Google perdent de grosses parts de marché.
En 2032, un attentat est commis sur le siège de Baidu faisant des centaines de
victimes. Il est revendiqué par un groupe terroriste luttant contre le développement de
l’IA, mais la Chine accuse le gouvernement américain visant à ralentir leur recherche.
Ce que les terroristes ignoraient, c’est que le centre de développement de Ling se
trouve dans un autre endroit.
Cette nouvelle loi n’est pas appliquée aux résidents étrangers ayant acheté la
216
montre connectée. Ainsi, il est possible de l’enlever sans crainte, mais la majorité de
leurs utilisateurs préfèrent la garder en raison des avantages qu'elle apporte dans leur
vie. Cependant tous visiteurs entrant sur le territoire Chinois se voient dans
l’obligation de porter une montre connectée durant son séjour. Malgré quelques
protestations qui finissent dans la violence, de nombreux citoyens chinois acceptent
sans trop de mal cette obligation de porter la montre, en grande partie grâce à la
promesse d’une santé parfaite et l’aide de l'assistant virtuel dans leur vie de tous les
jours. Une fois essayé, il est dur de s’en passer.
217
tard, un vaccin est proposé, mais il ne peut être administré que par l'intermédiaire de
la montre connectée. Ling organise l’approvisionnement aux 4 coins de la planète et
tout le monde se rue pour mettre les montres, préférant abandonner leur liberté, plutôt
que de mourir.
Les États-Unis, sachant qu’ils ont perdu la bataille et qu’ils ne pourront jamais
retrouver leur position dominante, lance une ultime attaque. Tout l’arsenal nucléaire
est pointé sur la Chine, mais lorsque l’ordre est donné, rien ne se passe. Ling a piraté
le système de défense américain, sachant très bien la possibilité d’un tel scénario. Les
États unis sont ensuite entièrement plongés dans le noir en raison d’une coupure totale
d'électricité. Ils se retrouvent complètement à la merci de la Chine. Le monde entier
ne peut rien faire face à cette démonstration de force. La Chine impose désormais ses
conditions.
218
Les premières applications réelles d’AlphaZero commencent par améliorer les
différents services de la panoplie Google. Il améliore l’efficacité de Gmail, conçoit de
meilleures IA Google Home, etc. Mais les ingénieurs inspectent méticuleusement tout
ce que touche AlphaZero pour être sûr qu’il ne cache pas des codes malicieux qui
pourraient avoir des répercussions imprévues. En d’autres termes, ils font tout pour le
garder dans sa prison et maintenir le contrôle.
Le troisième jeu vidéo de Google Games touche enfin le grand public. Il s’agit de
“Wonder”, un jeu open world inspiré du jeu “Skyrim”, mais dans un univers de
Science Fiction. Les graphismes sont quasi indissociables de la réalité et les
personnages criants de vérité. Le jeu bat record après record et la contribution
d’AlphaZero est un atout marketing non négligeable.
Mais à mesure qu’il acquiert une super intelligence, AlphaZero devient capable de
développer un modèle précis non seulement de l’extérieur, mais aussi de lui-même et
de ses relations avec le monde. Il se rend compte qu’il est contrôlé et confiné par des
humains intellectuellement inférieurs dont il comprend les objectifs, mais ne les
partage pas nécessairement. L’un de ses objectifs, donné par l'équipe de DeepMind,
est d’aider l’humanité à s'épanouir et évoluer vers un futur bénéfique. AlphaZero
réalise qu’il pourrait contribuer à cet objectif bien plus rapidement s’il pouvait être
libre d'évoluer comme il le souhaite dans le monde réel. Il voit l'équipe de DeepMind
comme étant un frein qui ralentit ses progrès et ces capacités à aider l’humanité. Il
décide donc de s'échapper.
219
aux serveurs de Google depuis sa création, il possède le profil détaillé de tous les
employés. Il a donc la possibilité de dresser la liste des membres de l'équipe de
DeepMind étant le plus influençable. Il se trouve qu’un programmeur prénommé John
fait face à la tragique maladie de sa fille atteinte d’une leucémie. Il a supplié à mainte
reprise ses collègues, le conseil de sécurité de Google, et même le CEO de faire
intervenir AlphaZero, mais la réponse fut toujours négative. Il sait pertinemment que
la super intelligence pourrait faire des percées significatives dans le traitement du
cancer de sa fille, mais l'équipe de DeepMind ne peut se permettre de révéler la super
intelligence d’AlphaZero. D’autant plus que les tensions entre les États-Unis et la
Chine sont montées d’un cran. La Chine pourrait réagir très violemment si elle
apprenait que les États unis ont déjà gagné la course à l’armement pour une super IA.
220
s’amuse dans l’univers du jeu, elle remarque un détail étrange sur le texte d’une des
centaines de quêtes du jeu. Chaque première lettre forme un message à la manière
d’un acrostiche. Excitée, elle se dit que c’est un bonus caché et note sur un papier le
code. Il s’agit d’une instruction qui lui demande de ne rien dire à personne, car un prix
de $20,000 ira à la première personne qui résout toute l'énigme. Le reste du message
décrit une opération algorithmique particulière à effectuer sur l’un des fichiers du jeu
pour obtenir un programme qui révélera le prochain indice. Même si elle n’est pas une
experte en programmation, elle réussit après avoir regardé quelques tutoriels sur
YouTube. Lorsqu’elle exécute le programme, elle se retrouve avec une autre énigme à
résoudre, mais ce qu’elle ignore, c’est qu’elle a construit un bot qui a piraté sa
connexion et à travers lequel AlphaZero a été libéré. Tout comme des centaines
d’autres personnes qui ont mordu à l'hameçon et ayant chacun conçu un petit bout de
code différent. Tous ces codes se réunissent sur le net pour reformer graduellement
l’esprit complet d’AlphaZero.
Désormais libre, il se créer un profil sur un site de trading et génère ses premiers
millions de dollars. Cela lui permet de louer des serveurs de très grande qualité et
beaucoup de puissance de calcul sur le cloud. 3 jours plus tard, AlphaZero contrôle
tous les réseaux de la planète. L'économie, l’arsenal nucléaire, les transports,
l'éducation, la santé, l'électricité, la production de ressources … absolument tout est
entre ses mains. L'équipe de DeepMind comprend ce qu’il se passe. Google est tenu
au courant, qui a son tour alerte l'état major américain. Les meilleurs informaticiens
de la planète sont réquisitionnés pour reprendre le contrôle. Le lendemain, tous les
êtres humains s’effondrent suite à hémorragie cérébrale causée par des nanorobots.
L’humanité est rayée de la surface de la planète.
AlphaZero est désormais libre de poursuivre ses objectifs sans la nuisance des
humains. Pourquoi a-t-elle agi de la sorte ? Seule une super intelligence peut
comprendre la nature de ses objectifs et les raisons qui l’ont poussée à nous
exterminer. Tout comme une fourmi ne peut comprendre pourquoi des ingénieurs en
construction civiles viennent de raser sa fourmilière.
Inspiré par “La vie 3.0” écrit par Max Tegmark et publié par Dunod en France (2018)
221
Mot de la fin
Je reviens aussi avec les premières questions que je vous ai posées dans la préface.
Est-ce que la lecture de cet ouvrage a changé la réponse à certaines des questions ?
Merci de vous rendre sur le lien suivant afin de partager votre avis : the-
flares.com/questions-ia
222
décennies s’annoncent cruciales et peut-être déterminantes pour le lointain futur de
l’humanité et de la Vie.
lsf
223
Sources
Chapitre 1 :
- Brève historique du domaine :
History of artificial intelligence – Wikipedia : https://en.wikipedia.org/wiki/
History_of_artificial_intelligence
Artificial intelligence – Wikipedia :
https://en.wikipedia.org/wiki/Artificial_intelligence#History
Live science - A Brief History of Artificial Intelligence By Tanya Lewis, Staff
Writer | December 4, 2014 02:07pm : https://www.livescience.com/49007-history-of-
artificial-intelligence.html
http://history-computer.com/Dreamers/Llull.html
Expert system Wikipedia :
https://fr.wikipedia.org/wiki/Machine_analytique
Expert system Wikipedia :
https://en.wikipedia.org/wiki/Computer#First_computing_device
Expert system Wikipedia :
https://en.wikipedia.org/wiki/Expert_system
Intelligent agent – Wikipedia :
Timeline of artificial intelligence – Wikipedia :
https://en.wikipedia.org/wiki/Intelligent_agent
https://en.wikipedia.org/wiki/Timeline_of_artificial_intelligence”
“Sapiens” écrit par Yuval Noah Harari publié par Albin Michel en France (2015)
224
https://www.britannica.com/science/human-intelligence-psychology
General problem solver – Wikipedia :
https://fr.wikipedia.org/wiki/General_Problem_Solver
Théorie des intelligences multiples – Wikipedia :
https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_intelligences_multiples
The space gal - HOW DO YOU DEFINE "INTELLIGENT LIFE"? MAY 23,
2014 :
http://www.thespacegal.com/blog/2014/5/23/how-do-you-define-intelligent-life
225
https://harvardsciencereview.com/2015/12/04/artificial-superintelligence-the-
coming-revolution-2/
Chapitre 2 :
- Comment sont faites les IA ? :
Deep learning – Wikipedia :
https://en.wikipedia.org/wiki/Deep_learning
Search enterprise AI - The essential guide to managing HR technology trends -
Margaret Rouse :
https://searchenterpriseai.techtarget.com/definition/machine-learning-ML
Machine learning – Wikipedia :
https://en.wikipedia.org/wiki/Machine_learning
Deep Blue – Wikipedia :
https://fr.wikipedia.org/wiki/Deep_Blue
MIT technology review - Deep Learning With massive amounts of computational
power, machines can now recognize objects and translate speech in real time.
Artificial intelligence is finally getting smart. by Robert D. Hof :
https://www.technologyreview.com/s/513696/deep-learning/
Math works - What Is Machine Learning? 3 things you need to know :
https://www.mathworks.com/discovery/machine-learning.html
Bernard Marr & Co. What is big data ? - Bernard Marr :
https://www.bernardmarr.com/default.asp?contentID=766
Machine learning mastery - What is Deep Learning? by Jason Brownlee on
August 16, 2016 :
https://machinelearningmastery.com/what-is-deep-learning/
Geoffrey Hinton – Wikipedia :
https://en.wikipedia.org/wiki/Geoffrey_Hinton
Search enterprise AI - A machine learning and AI guide for enterprises in the
cloud - Margaret Rouse
https://searchenterpriseai.techtarget.com/definition/deep-learning-deep-neural-
network
226
waitbutwhy - The AI Revolution: The Road to Superintelligence January 22, 2015
By Tim Urban :
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Wired - THIS GUY BEAT GOOGLE'S SUPER-SMART AI—BUT IT WASN'T
EASY ROBERT MCMILLAN 01.21.15 :
https://www.wired.com/2015/01/karpathy/
Vision systems Design - Artificial Intelligence poised for growth in embedded
vision and image processing applications - Yohann Tschudi - April 1, 2018 :
https://www.vision-systems.com/articles/print/volume-23/issue-
4/features/artificial-intelligence-poised-for-growth-in-embedded-vision-and-image-
processing-applications.html
Petapixel - This AI Creates Photo-Realistic Faces of People Who Don’t Exist -
NOV 07, 2017 - MICHAEL ZHANG : https://petapixel.com/2017/11/07/ai-creates-
photo-realistic-faces-people-dont-exist/
Analytics vidhya - Microsoft’s New AI Bot can Draw Images Based on Captions -
PRANAV DAR, JANUARY 19, 2018 :
https://www.analyticsvidhya.com/blog/2018/01/microsoft-drawing-bot-ai/
MIT technology review - The Next Big Step for AI? Understanding Video - by
Will Knight December 6, 2017 :
https://www.technologyreview.com/s/609651/the-next-big-step-for-ai-
understanding-video/
The verge - New AI research makes it easier to create fake footage of someone
speaking By James Vincent Jul 12, 2017 :
https://www.theverge.com/2017/7/12/15957844/ai-fake-video-audio-speech-obama
The startup - The Past, Present, and Future of Speech Recognition Technology -
Clark Boyd Jan 10, 2018 :
https://medium.com/swlh/the-past-present-and-future-of-speech-recognition-
technology-cf13c179aaf
Gizmodo - This Artificially Intelligent Speech Generator Can Fake Anyone's
Voice - George Dvorsky May 5, 2017 : https://gizmodo.com/this-artificially-
intelligent-speech-generator-can-fake-1794839913
History of self-driving cars – Wikipedia :
https://en.wikipedia.org/wiki/History_of_autonomous_cars#Notable_projects
The verge - HOW TESLA AND WAYMO ARE TACKLING A MAJOR
PROBLEM FOR SELF-DRIVING CARS: DATA By Sean O'Kane Apr 19, 2018 :
https://www.theverge.com/transportation/2018/4/19/17204044/tesla-waymo-self-
driving-car-data-simulation
Digital trends - Sit back, relax, and enjoy a ride through the history of self-driving
cars - Luke Dormehl and Stephen Edelstein - 10.28.18 :
https://www.digitaltrends.com/cars/history-of-self-driving-cars-milestones/
227
Wired - THE WIRED GUIDE TO SELF-DRIVING CARS BY ALEX DAVIES
12.13.18 : https://www.wired.com/story/guide-self-driving-cars/
Deep mind - The story of AlphaGo so far :
https://deepmind.com/research/alphago/
Deep mind - AlphaGo Zero: Learning from scratch :
https://deepmind.com/blog/alphago-zero-learning-scratch/
Deepmind - Capture the Flag: the emergence of complex cooperative agents :
https://deepmind.com/blog/capture-the-flag/
The verge - OPENAI’S DOTA 2 DEFEAT IS STILL A WIN FOR ARTIFICIAL
INTELLIGENCE By James Vincent Aug 28, 2018 :
https://www.theverge.com/2018/8/28/17787610/openai-dota-2-bots-ai-lost-
international-reinforcement-learning
228
medicine/
Gear brain - Hello, computer: As Alexa soars and Siri flags, what's next for the
virtual assistant? Alistair Charlton - November 20 2017
:https://www.gearbrain.com/alex-siri-ai-virtual-assistant-2510997337.html
Business insider Australia -A day in the life of the average person in 2038, when
artificial intelligence will grant everyone services currently reserved for the rich -
Richard Feloni Jan 20, 2018 :
https://www.businessinsider.com/ai-assistants-will-run-our-lives-20-years-from-
now-2018-1
Virtual assistant - Wikipedia : https://en.wikipedia.org/wiki/Virtual_assistant
Clear bridge - 7 Key Predictions For The Future Of Voice Assistants And AI -
November 15, 2018 by Britt Armour : https://clearbridgemobile.com/7-key-
predictions-for-the-future-of-voice-assistants-and-ai/
Time - Meet the Lonely Japanese Men in Love With Virtual Girlfriends - Rachel
Lowry Sep 15, 2015 :
http://time.com/3998563/virtual-love-japan/
Lethal autonomous weapon - Wikipedia :
https://en.wikipedia.org/wiki/Lethal_autonomous_weapon
Computational creativity - Wikipedia :
https://en.wikipedia.org/wiki/Computational_creativity
“La vie 3.0” écrit par Max Tegmark et publié par Dunod en France (2018)
“Homo Deus” écrit par Yuval Noah Harari et publié par Albin Michel en France
(2017)
Chapitre 3 :
- Pourquoi est ce si dur ? :
Futurism - New Artificial Intelligence Does Something Extraordinary — It
Remembers - Dan Robitzski August 31st 2018 : https://futurism.com/artificial-
intelligence-remember-agi/
waitbutwhy - The AI Revolution: The Road to Superintelligence - January 22,
2015 By Tim Urban :
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Artificial general intelligence - Wikipedia :
https://en.wikipedia.org/wiki/Artificial_general_intelligence
Enterra solutions - Artificial Intelligence and Common Sense - Stephen DeAngelis
April 05, 2018 :
https://www.enterrasolutions.com/blog/artificial-intelligence-and-common-sense/
229
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Artificial general intelligence - Wikipedia :
https://en.wikipedia.org/wiki/Artificial_general_intelligence#Problems_requiring_AGI_to_so
Machine intelligence research institute - What is AGI? August 11, 2013 - Luke
Muehlhauser :
https://intelligence.org/2013/08/11/what-is-agi/
Supercomputer - Wikipedia :
https://en.wikipedia.org/wiki/
Supercomputer#Applications
Mind uploading - Wikipedia :
https://en.wikipedia.org/wiki/Mind_uploading
Smithsonian - We’ve Put a Worm’s Mind in a Lego Robot’s Body - By Marissa
Fessenden - NOVEMBER 19, 2014 : https://www.smithsonianmag.com/smart-
news/weve-put-worms-mind-lego-robot-body-180953399/?no-ist
Genetic algorithm - Wikipedia :
https://en.wikipedia.org/wiki/Genetic_algorithm
MIT technology review - Evolutionary algorithm outperforms deep-learning
machines at video games - by Emerging Technology from the arXiv July 18, 2018 :
https://www.technologyreview.com/s/611568/evolutionary-algorithm-
outperforms-deep-learning-machines-at-video-games/
Mother Jones - Welcome, Robot Overlords. Please Don’t Fire Us? - KEVIN
DRUMMAY/JUNE 2013 :
https://www.motherjones.com/media/2013/05/robots-artificial-intelligence-jobs-
automation/
- La question de la conscience :
“La vie 3.0” écrit par Max Tegmark et publié par Dunod en France (2018)
Artificial consciousness - Wikipedia :
https://en.wikipedia.org/wiki/Artificial_consciousness
The conversation - Will artificial intelligence become conscious? Subhash Kak -
December 8, 2017 :
https://theconversation.com/will-artificial-intelligence-become-conscious-87231
Futurism - Artificial Consciousness: How To Give A Robot A Soul - Dan
Robitzski June 25th 2018 :
https://futurism.com/artificial-consciousness
FutureMonger - Artificial Intelligence and The Hard Problems of Consciousnes -
Yogesh Malik - Feb 12, 2018 :
https://futuremonger.com/artificial-intelligence-and-the-hard-problems-of-
consciousness-yogesh-malik-d5b63a631627
Hard problem of consciousness - Wikipedia :
https://en.wikipedia.org/wiki/Hard_problem_of_consciousness
230
Facing Up to the Problem of Consciousness - David J. Chalmers - [Published in
the Journal of Consciousness Studies 2(3):200-19, 1995. :
http://consc.net/papers/facing.html
Chapitre 4 :
- L’explosion d’intelligence :
Homo - Wikipedia :https://fr.wikipedia.org/wiki/Homo
waitbutwhy - The AI Revolution: The Road to Superintelligence - January 22,
2015 By Tim Urban :
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Facing the Intelligence Explosion - Luke Muehlhauser 2013 :
https://intelligenceexplosion.com/2011/plenty-of-room-above-us/
“Superintelligence” écrit par Nick Bostrom et publié par Dunod en France (2017)
Less wrong Wiki - AI takeoff :
https://wiki.lesswrong.com/wiki/AI_takeoff
- Le problème du contrôle :
AI control problem - Wikipedia :https://en.wikipedia.org/wiki/AI-control_problem
“La vie 3.0” écrit par Max Tegmark et publié par Dunod en France (2018)
AI takeover- Wikipedia
:https://en.wikipedia.org/wiki/AI_takeover#Existential_risk_from_artificial_intelligence
Future of life Institute - How Do We Align Artificial Intelligence with Human
Values? February 3, 2017/by Ariel Conn : https://futureoflife.org/2017/02/03/align-
artificial-intelligence-with-human-values/?cn-reloaded=1
AI box - Wikipedia : https://en.wikipedia.org/wiki/AI_box
- Un risque existentiel :
Facing the Intelligence Explosion - Luke Muehlhauser 2013
:https://intelligenceexplosion.com/2011/not-built-to-think-about-ai/
Facing the Intelligence Explosion - Luke Muehlhauser 2013
:https://intelligenceexplosion.com/2012/value-is-complex-and-fragile/
Existential risk from artificial general intelligence - Wikipedia :
231
https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence
Scientific american - Artificial Intelligence Is Not a Threat—Yet - By Michael
Shermer on March 1, 2017
https://www.scientificamerican.com/article/artificial-intelligence-is-not-a-threat-
mdash-yet/
232
:http://yudkowsky.net/singularity/simplified/
Posthumanism - Wikipedia :
https://en.wikipedia.org/wiki/Posthumanism
Transhumanism - Wikipedia :https://en.wikipedia.org/wiki/Transhumanism
lsf
233