Vision croisée de l’IA Explicable entre philosophie et informatique

Pourquoi ne pas proposer au grand public une vision croisée de l’IA explicable entre philosophie et sciences informatiques des enjeux, des pistes de recherche et des conditions auxquelles les outils d’explications pourront être déterminants pour la confiance des utilisateurs et des autorités de régulation (s’il y en a un jour) de ces outils. Autrement dit, un fil de philosophie de l’Intelligence Artificielle (IA) sur l’opacité des systèmes computationnels complexes d’un point de vue de la philosophie des sciencesCédric Brun, chercheur en philosophie des sciences en Neuroscience, Humanities & Society (NeHuS) et Ikram Chraibi Kaadoud, chercheuse en IA explicable et  IA digne de confiance, nous partage cette vision. Thierry Viéville.

Philosophie de l’IA 

La philosophie s’est très tôt intéressée à l’IA comme discipline et comme projet théorique.

D’abord parce qu’une partie de l’IA et de la philosophie de l’esprit posent des questions proches, avec des outils différents. Par exemple, John Haugeland, feu professeur émérite de philosophie à l’université de Chicago, a discuté en 1980 dans son livre “Artificial Intelligence, the Very Idea” (image ci dessous) de l’idée que la pensée humaine et le traitement formel de l’’information dans une machine sont « radicalement les mêmes ». Le contexte de l’époque opposait alors les humanistes qui soulignaient que “Les machines qui pensent – c’est tout à fait absurde » et les techno-visionnaires qui soutenaient que  “L’intelligence artificielle est là et sur le point de surpasser la nôtre ». 

43 ans après, force est de constater que ces questions, posées probablement différemment,  sont toujours d’actualité.

 “Artificial Intelligence, the Very Idea » de John Haugeland  (Trad fr. J. Henry,  L’esprit dans la machine, fondement de l’intelligence artificielle, Odile Jacob 1989) Src: https://mitpress.mit.edu/9780262081535/ 

 

L’une des questions centrales mais souvent évitées est celle de la nature de  l’intelligence : qu’est-ce que l’intelligence ? L’intelligence humaine peut-elle être reproduite, voire dépassée, par des outils computationnels ? La conscience (ou au moins la connaissance réflexive) d’un agent intelligent humain peut-elle être simulée, reproduite, voire réalisée par des machines ?

Hilary Putnam, philosophe américain co-fondateur du computationnalisme* et figure centrale de la philosophie contemporaine américaine, a tenté d’apporter des éléments de réponses à ces questions dans son article “Minds and Machines” (Les esprits et les machines) de 1960. Selon lui, les différentes questions et énigmes qui constituent le problème traditionnel du corps et de l’esprit peuvent entièrement être approchées par leur nature linguistique et logique. Cette approche l’a ainsi conduit à conclure que la cognition humaine n’est pas fondamentalement de nature différente d’un traitement formel de symboles par un ordinateur. 

Putnam, H. (1960). Minds and machines.URL: https://philpapers.org/rec/PUTMAM 

 

Moment Glossaire: 

 
*Un système computationnel est un modèle qui fait des calculs à partir d’informations données en entrée, et qui donne en sortie un résultat numérique.                                                 Source: Collins, A., & Khamassi, M. (2021). Initiation à la modélisation computationnelle
 

* Le computationnalisme est une théorie fonctionnaliste en philosophie de l’esprit qui conçoit l’esprit comme un système de traitement de l’information et compare la pensée à un calcul (en anglais, computation) et, plus précisément, à l’application d’un système de règles. Cette théorie est différente du cognitivisme.                                   Source: https://fr.wikipedia.org/wiki/Computationnalisme 

* Le cognitivisme est le courant de recherche scientifique endossant l’hypothèse selon laquelle la pensée est analogue à un processus de traitement de l’information, cadre théorique qui s’est opposé, dans les années 1950, au béhaviorisme. La notion de cognition y est centrale. Elle est définie en lien avec l’intelligence artificielle comme une manipulation de symboles ou de représentations symboliques effectuée selon un ensemble de règles. Elle peut être réalisée par n’importe quel dispositif capable d’opérer ces manipulations.                                                                                                                    Source: https://fr.wikipedia.org/wiki/Cognitivisme 

Plus récemment, la philosophie de l’IA s’est davantage tournée  vers des questions techniques relatives aux différentes architectures et méthodes computationnelles et leurs enjeux épistémologiques, éthiques et politiques du fait de la pénétration et du développement de l’IA dans la pratique scientifique et dans la société.

Daniel Andler dans son livre Intelligence artificielle, intelligence humaine : la double énigme en 2023 (image ci dessous), a introduit l’idée qu’il existait un écart entre la représentation de la philosophie de l’IA chez les non spécialistes  et l’actualité de la recherche en philosophie de l’IA. Cela est d’autant plus vrai pour lui lorsqu’il s’agit des sujets éthiques et des problèmes fondationnels sur la possibilité d’une Intelligence Générale Artificielle (IGA) ou d’une IA forte,  sujets très présents dans la philosophie du transhumanisme*.

Src:https://www.gallimard.fr/Catalogue/GALLIMARD/NRF-Essais/Intelligence-artificielle-intelligence-humaine-la-double-enigme

 

Une bonne partie de la philosophie de l’IA concerne des enjeux éthiques et politiques de l’IA tels que par exemple les biais, l’équité, la confiance, la transparence, mais reste  toujours liée à des enjeux épistémologiques* selon les outils techniques mobilisés en IA, à savoir apprentissage machine supervisé ou non, Réseaux de neurones profonds convolutifs ou encore systèmes symboliques classiques. 

Moment Glossaire: 

* La philosophie du transhumanisme ou transhumanisme est une doctrine philosophique prétendant qu’il est possible d’améliorer l’humanité par la science et la technologie en libérant l’humanité de ses limites biologiques notamment en surmontant l’évolution naturelle. Le changement apporté à l’humain serait positif, car cela pourrait signifier la libération des contraintes de la nature, comme la maladie ou la mort. L’idée centrale est celle d’un dépassement de l’humain (et non de son élimination) par l’intermédiaire des techniques qui évoluent de manière très rapide. Source: Le transhumanisme selon https://philosciences.com/                                                Pour en savoir plus: https://encyclo-philo.fr/transhumanisme-a 


* L’épistémologie désigne de manière générale l’étude de la connaissance et de ses conditions de possibilité.  En un sens plus spécifique, c’est un domaine de la philosophie qui étudie les disciplines scientifiques et les conditions logiques, méthodologiques et conceptuelles de production des connaissances scientifiques. Pour un domaine scientifique particulier (l’IA par exemple), l’épistémologie désignera l’étude critique des savoirs qu’il produit à partir de l’analyse de ses méthodes, pratiques et concepts.

Opacité et transparence des Systèmes Computationnels Complexes (SCC)

 
 

L’opacité d’un Système Computationnel Complexe (SCC)  est dérivée du concept d’opacité épistémique. Au sens le plus fort, l’opacité épistémique désigne la complexité (voir l’impossibilité) de suivre et comprendre les processus computationnels impliqués dans un système: les étapes, les justifications et les implications de chaque étape du processus deviennent hors de porté pour des agents cognitifs humains.

Autrement dit, nous ne pouvons expliquer ni pourquoi, ni comment le système produit, en sortie, les résultats (classifications, décisions) qu’il produit selon les données fournies (ou collectées) en entrées du système. On parle alors de boîte-noire, puisque les processus internes en sont inscrutables.

Cette opacité s’étend aussi à la nature exacte des données pertinentes au fonctionnement du système dans le cas de l’apprentissage profond.

Rappelez-vous les réactions aux premiers résultats de Parcoursup en mai 2023, faites une recherche “#PARCOURSUP + opacité” sur X (anciennement Twitter), pour voir. Nous retrouvons alors des opinions comme celle-ci : 

 

En résumé, l’opacité survient lorsque nous ne savons pas exactement comment le comportement du système est produit ni sur quelles données (ou propriétés de ces données) il s’appuie pour produire ce comportement.

Dans un article de 2016 intitulé How the machine ‘thinks’: Understanding opacity in machine learning algorithms” (Comment les machines pensent: comprendre l’opacité dans les algorithmes d’apprentissage autonome), Jenna Burrell @jennaburrell , alors professeure à l’UC Berkeley, a examiné la question de l’opacité en tant que problème pour les mécanismes de classification et de classement ayant des conséquences sociales, tels que les filtres anti-spam, la détection des fraudes à la carte de crédit, les moteurs de recherche, les tendances de l’actualité, la segmentation du marché et la publicité, l’assurance ou la qualification des prêts, et l’évaluation de la solvabilité. Ces mécanismes de classification s’appuyent tous fréquemment sur des algorithmes et, dans de nombreux cas, sur des algorithmes d’apprentissage automatique.

La chercheuse distingue ainsi 3 types d’opacité :

  • (1) Intentionnel : l’opacité en tant que secret d’entreprise ou d’État intentionnel,
  • (2) Educationnelle :  l’opacité en tant qu’analphabétisme technique (technical illiteracy) 
  • (3) Opératoire :  l’opacité qui découle des caractéristiques des algorithmes d’apprentissage automatique et de l’échelle requise pour les appliquer de manière utile.

Les deux premiers types ne sont pas spécifiques à l’apprentissage machine/profond.  On les retrouve dans tous les domaines techniques et scientifiques : essayez de démonter et réparer un écran OLED de dernière génération, pour voir ; ou de dépanner vous-mêmes votre voiture hybride.  Ne serait-ce que comprendre les processus engagés entre l’action réalisée par votre votre index sur la télécommande et le résultat sur l’écran ( par exemple le changement de chaîne) représente un défi si vous n’avez pas de connaissances poussées en physique et en électronique. Votre téléviseur est une boîte-noire, autrement dit une « lucarne MAGIQUE ».

La spécificité des SCC, en tout cas de certains, c’est que même si vous avez accès au code et que vous avez toutes les connaissances nécessaires pour concevoir ce système, son caractère récursif, l’échelle à laquelle il fonctionne et l’organisation dynamique de ses données produisent une opacité opératoire qui vous affecte quasiment au même titre que le béotien1 ! 

 

Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big data & society, 3(1), 2053951715622512. URL:  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2660674


Quid de la communauté scientifique IA ? 

Les chercheur.e.s en IA, les scientifiques qui utilisent des outils complexes de traitement computationnel des données massives et les philosophes de l’IA ont fait valoir que réduire l’opacité, et amener de la transparence exigeait : (i) un effort en direction de plus de transparence, d’interprétabilité ou d’explicabilité (tous ces concepts doivent être soigneusement distingués, mais cela nous engagerait dans un long développement technique). Cela s’est parfois traduit dans des règlements internationaux (RGPD par exemple en Europe), (ii) des programmes de recherche (privés et publics) et (iii) un grand nombre de publications en IA, en SHS, en droit, en sciences politiques, autrement dit, de la pluridisciplinarité!

Cette exigence de transparence repose sur l’espoir d’une plus grande confiance des utilisateurs proximaux ou finaux.  L’argument étant le suivant: la confiance dans une personne provient de la capacité à exhiber les raisons de ses décisions. Si ces raisons sont impénétrables, inaccessibles ou opaques, alors il n’y aura pas de pleine confiance. Certains auteurs ont cependant déjà prévenu (il y a déjà un certain temps) que cette opacité des SCC était inhérente, insurmontable et inéliminable et qu’il fallait faire avec.

 – Deal with it! – 

Paul Humphreys, Professeur britannique de philosophie à l’université de Virginie, spécialisé dans la philosophie des sciences, la métaphysique et l’épistémologie, s’est intéressé à la métaphysique et à l’épistémologie de l’émergence, à la science informatique, à l’empirisme et au réalisme. En 2009, il explique dans son article “The philosophical novelty of computer simulation methods” (La nouveauté philosophique des méthodes de simulation informatique) que les simulations informatiques et la science computationnelle sont  un ensemble de méthodes scientifiques distinctement nouvelles qui  introduisent de nouvelles questions à la fois épistémologiques et méthodologiques dans la philosophie des sciences.

Ces outils numériques, utilisés à grande échelle, modifient profondément la pratique scientifique, mais surtout les buts de la recherche scientifique: La modélisation et la simulation computationnelles nous conduiraient à envisager la recherche scientifique comme visant la prédiction de phénomènes ou processus modélisés, plutôt que leur compréhension ou explication.

 

Humphreys, P. (2009). The philosophical novelty of computer simulation methods. Synthese, 169, 615-626. URL : https://philpapers.org/rec/HUMTPN

 

Certains chercheurs considèrent que si l’on ne parvient pas à réduire cette opacité fondamentale en choisissant des architectures et méthodes plus transparentes que l’apprentissage machine non supervisé ou l’apprentissage profond, il faudrait alors exclure l’utilisation des SCC de certains cas. 

Par exemple, en médecine, dans le domaine judiciaire ou l’éducation, les SCC devraient être suffisamment transparents du point de vue opératoire car sans cela, leur utilisation ne devrait pas être autorisée.

C’est autour de cette idée que se sont construits les travaux de Cynthia Rudin  @CynthiaRudin qui ont annoncé un changement de cap dans le domaine de l’explicabilité en IA notamment centrée-humain.

 Informaticienne et statisticienne américaine spécialisée dans l’apprentissage automatique, elle est notamment connue pour ses travaux sur  l’interprétabilité des algorithmes d’apprentissage automatique. Directrice de l‘Interpretable Machine Learning Lab à l’université Duke, où elle est professeur d’informatique, d’ingénierie électrique et informatique, de science statistique, de biostatistique et de bio-informatique, elle a remporté en 2022 le Squirrel AI Award for Artificial Intelligence for the Benefit of Humanity de l’Association for the Advancement of Artificial Intelligence (AAAI) pour ses travaux sur l’importance de la transparence des systèmes d’IA dans les domaines à haut risque.

Dans son article de 2019 intitulé “Stop explaining black-box machine learning models for high-stakes decisions and use interpretable models instead.” (Cessez d’expliquer des modèles d’apprentissage automatique à boîte noire pour des décisions à fort enjeu et utilisez plutôt des modèles interprétables.), Cynthia Rudin se penche sur l’idée que la création de  méthodes permettant d’expliquer ces modèles boîtes noires atténuera certains des problèmes éthiques recensés dans la littérature. Elle y discute notamment l’idée que s’échiner à expliquer les modèles boîte noire, plutôt que de créer des modèles interprétables en premier lieu, risque de perpétuer les mauvaises pratiques et peut potentiellement causer un grand préjudice à la société.

La voie à suivre, selon elle, consiste à concevoir des modèles intrinsèquement interprétables notamment pour les décisions à fort enjeu comme dans la justice pénale, les soins de santé et la vision par ordinateur.

Src: Rudin, C. (2019). Stop explaining black-box machine learning models for high-stakes decisions and use interpretable models instead. Nature machine intelligence, 1(5), 206-215. URL: https://tinyurl.com/4vtac7zh

 

En parallèle à ce mouvement lancé par Cyntia Rudin, d’autres chercheurs et industriels, pensent qu’en distinguant des types de transparence on pourra limiter l’opacité opératoire et gagner en confiance, ainsi qu’en maîtrise (recherche de bugs par les modélisateurs) et en capacité explicative (pour les scientifiques utilisant ces outils). C’est notamment ce que propose Kathleen Creel @KathleenACreel dans un article de 2020 extrêmement éclairant, “Transparency in Complex Computational Systems”  (“Transparence des systèmes computationnels complexes”).

Professeur assistante à la Northeastern University, Kathleen Creel mène des travaux sur les implications morales, politiques et épistémiques de l’apprentissage automatique tel qu’il est utilisé dans la prise de décision automatisée non étatique et dans la science.  Elle a notamment contribué à intégrer les enseignements d’éthique aux programmes informatiques de Stanford afin de permettre l’acquisition de compétences aux étudiants qui  leur permettraient de discuter et de réfléchir aux dilemmes éthiques qu’ils pourraient rencontrer dans leur carrière professionnelle.

Dans cet article de 2020, Kathleen Creel propose une analyse de la transparence sous trois formes : (i) la transparence de l’algorithme, (ii) la réalisation de l’algorithme dans le code et (iii)la manière dont le code est exécuté sur un matériel et des données particuliers. En visant la transparence sous ces trois formes, cela permettrait de cibler la transparence la plus utile pour une tâche donnée en fournissant une transparence partielle lorsque la transparence totale est impossible, tout en évitant un usage instrumentaliste des systèmes opaques.

Creel, K. A. (2020). Transparency in complex computational systems. Philosophy of Science, 87(4), 568-589. URL: http://philsci-archive.pitt.edu/16669/  

 

Enfin, d’autres considèrent qu’en exigeant une telle transparence des SCC, nous faisons deux poids-deux mesures puisque cette opacité opératoire n’est qu’une sous-catégorie de l’opacité épistémique dans laquelle nous nous trouvons face à nos congénères : 

https://psyche.co/ideas/should-we-be-concerned-that-the-decisions-of-ais-are-inscrutable 

 

Au fond, nous serions face à l’aide à la décision apportée par un.e docteur.e en médecine avant de donner notre consentement éclairé pour une opération comme nous sommes face à un SCC d’aide à la décision en apprentissage profond. Seul le contexte d’interaction permettrait de fonder notre confiance, sans compter que des travaux menés en explicabilité centrée humain, montrent que dans certains contextes, l’accès à des explications est plus source de stress (et donc de rejets de l’information) que de confiance et d’acceptabilité des SCC.

Dr Juliette @FerryDanini, enseignante chercheuse en philosophie à l’université de Namur, a fait une communication sur ce débat en 2021 au Congress of the Quebec Philosophy Society, nous vous conseillons de la voir si ça vous intéresse, la vidéo étant ci dessous: 

Vidéo youtube:  https://www.youtube.com/watch?v=xNWe3PsfNng 

TAKE HOME MESSAGE

Alors que retenir de cette vision croisée de l’IA Explicable, entre philosophie et informatiques ? des réflexions et probablement des questionnements aussi !

‘Take home message #1 : Comme toujours en philosophie des sciences et techniques, les problèmes éthiques sont liés à des problèmes épistémologiques qui supposent une compréhension des questions pratiques et théoriques centrales soulevées par l’usage de ces méthodes : pas d’indépendance des deux.

Take-home message #2 : La philosophie de l’IA suppose une certaine familiarité avec des questions techniques. Idéalement, savoir coder est potentiellement une exigence à viser.

Take-home message #3 : Un gros travail interdisciplinaire de définition des concepts centraux (transparence, explicabilité, interprétabilité, opacité) doit être fait pour stabiliser le champ et les stratégies théoriques et pratiques, voire industrielles.

Take-Home message #4 : La confiance comme vertu cardinale du rapport aux SCC nous semble à questionner. Il y a du boulot à faire 🙂 

Cédric Brun, chercheur en philosophie des sciences en Neuroscience, Humanities & Society (NeHuS) et Ikram Chraibi Kaadoud, chercheuse en IA explicable et  IA digne de confiance.


1  L’adjectif béotien : de la région de Béotie. Les habitants de la Béotie, province de l’ancienne Grèce, avaient, à Athènes, la réputation d’être un peuple inculte, lourdaud et peu raffiné. De nos jours, l’adjectif béotien, béotienne qualifie un individu peu ouvert aux lettres et aux arts, aux goûts grossiers.  Source: https://www.projet-voltaire.fr/culture-generale/beotien-marathon-sybarite-ces-mots-francais_toponymes-grecs-antiques-noms-lieux-grecs/ 

Pour en savoir plus/Références

  • L’intelligence artificielle explicable (XAI) :
    • Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., … & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115. URL: https://www.sciencedirect.com/science/article/abs/pii/S1566253519308103 
    • Comment saisir ce que font les réseaux de neurones ? Série de trois articles du blog binaire sur les concepts d’intéprétabilité et d’explicabilité: https://www.lemonde.fr/blog/binaire/2020/09/04/comment-saisir-ce-que-font-les-reseaux-de-neurones/

La Bible nous parle de l’informatique

Un nouvel « Entretien autour de l’informatique » avec Haïm Korsia, grand-rabbin de France depuis 2014 et membre de l’académie des sciences morales et politique. Haïm Korsia est rabbin, ancien aumônier en chef du culte israélite des armées, aumônier de l’École polytechnique depuis 2005, administrateur du Souvenir français et ancien membre du Comité consultatif national d’éthique.

Haïm Korsia

« Quand personne ne me pose la question, je le sais ; mais si quelqu’un me la pose et que je veuille y répondre, je ne sais plus ». (Saint Augustin, Confessions XI). Pour moi, l’informatique est un peu comme cela.  Haïm Korsia.

Binaire : Vous êtes rabbin. Comment en êtes-vous arrivé à vous intéresser à l’informatique et à l’intelligence artificielle ?

HK : Je fais partie de la première génération à utiliser des ordinateurs de façon quotidienne. A l’école rabbinique, mon professeur d’histoire, le Professeur Gérard Nahon, nous disait deux choses : « Vous devrez apprendre à parler anglais », et : « Un jour, vous n’aurez plus de secrétaire et il faudra taper vous-mêmes vos lettres. » Pour nous, cela tenait de l’impossible. D’abord, la langue à apprendre était l’hébreu. Et puis, le rabbin faisait le sermon et allait voir les gens. Taper des lettres à la machine, ne faisait pas partie de son travail.

Une machine à écrire Rheinmetall, 1920, Wikipédia

J’ai écouté ce prof et j’ai appris l’anglais. Et puis, rue Gay-Lussac, dans un magasin d’antiquités, j’ai vu une machine Rheinmetall. J’en ai rêvé et je l’ai achetée dès que j’ai eu un peu d’argent. Plus tard, quand j’ai vu mon collègue de Besançon qui avait une machine de traitement de texte, j’ai fait en sorte d’avoir un ordinateur portable. J’ai continué et depuis j’utilise des ordinateurs. Sans être un geek, j’ai appris à utiliser ces machines.

Pour moi, l’informatique est d’abord utilitaire et émancipatrice. L’informatique libère en évitant, par exemple, d’avoir à retaper plusieurs de fois un même texte, parce qu’on peut le corriger. Et puis, il est devenu impensable aujourd’hui de vivre sans les connexions que l’informatique nous apporte ! Mais il faut savoir doser cette utilisation.

Binaire : L’informatique et le numérique permettent de tisser des liens. Est-ce que vous pensez que le développement de tels liens a transformé la notion de communauté ?

HK : Bien sûr ! On voit bien, par exemple, avec des gens qui ont 5 000 amis sur Facebook mais aucun n’est capable d’aller leur chercher un médicament quand ils sont malades. Pour moi, c’est une dévalorisation de la notion d’ami. Cela m’évoque la fable d’Ésope, « la langue est la meilleure et la pire des choses ». Les réseaux sociaux peuvent enfermer les gens dans un même mode de pensée et en même temps ils ouvrent des potentiels incroyables. Cela dépend de la façon dont on les utilise.

Dans le judaïsme, nous avons un avantage sur les autres religions : quoi que vous me donniez comme moyen de communication, le samedi, je vais uniquement « là où mes pieds me portent ». Je retrouve en cela mon humanité sans tout ce qui me donne habituellement le sentiment d’avoir une humanité augmentée. Ni voiture, ni vélo, ni avion, ni téléphone. Rien. Au moins un jour par semaine, le samedi, je retrouve ma communauté telle qu’elle est vraiment. Tous les appendices qui augmentent ma capacité de lien sont supprimés le jour du shabbat, et je me désintoxique aussi de l’addiction aux moyens numérique de communication. Le samedi je n’ai pas de téléphone.

En quoi est-ce un avantage ? Cela me permet de ne pas perdre l’idée que ces outils sont juste des extensions de moi, qu’ils ne font pas partie de moi. 

Binaire : Est-ce que la Bible peut nous aider à comprendre l’informatique ?

HK : La Bible nous parle de la vie des hommes, des femmes, et des invariants humains : la toute-puissance, la peur, la confiance, le rejet, la haine, la jalousie, l’amour, etc. Tout est là et chacun s’y retrouve. Mon maitre le grand rabbin Chouchena disait : Si tu lis un verset de la Bible et que tu ne vois pas ce qu’il t’apporte, c’est que tu l’as mal lu, relis-le !

Prenons un exemple. Considérez ce que dit la Bible [1] sur la neuvième plaie d’Égypte, la plaie de l’obscurité :

« Moïse dirigea sa main vers le ciel et d’épaisses ténèbres couvrirent tout le pays d’Égypte, durant trois jours. On ne se voyait pas l’un l’autre et nul ne se leva de sa place, durant trois jours mais tous les enfants d’Israël jouissaient de la lumière dans leurs demeures. Exode, 10-22,23.

Une interprétation possible, c’est d’imaginer qu’un volcan a explosé quelque part, ou qu’il y a eu une éclipse du soleil, comme dans Tintin et le temple du soleil. Une autre interprétation, c’est de lire, littéralement : « Un homme ne voyait pas son prochain comme un frère. » L’obscurité, alors, ce n’est pas un moment où il fait nuit, mais un moment où on devient indifférent à la fraternité qui devrait nous lier l’un à l’autre. Ainsi, l’indifférence dans la société, c’est la nuit du monde. Ce n’est pas inscrit comme cela dans le verset. Tout est question de l’interprétation du texte. 

Autre exemple. J’ai connu le confinement au début de la pandémie, et cela m’a donné une capacité à interpréter autrement la Bible. Par exemple, dans Bible, il est dit :

« et ton existence flottera incertaine devant toi, et tu trembleras nuit et jour, et tu ne croiras pas à ta propre vie ! ». Deutéronome, 28-66.

Il s’agit du grand discours du dernier jour de la vie de Moïse, dans la partie sur les malédictions. Dans ce contexte, Rachi [2], un des plus grands commentateurs de Bible, parle de celui qui achète son blé au marché. Pendant le Covid, j’ai vu un avion atterrir avec une cargaison de masques et un acheteur étranger acheter toute la cargaison. Cela met en évidence le problème d’une dépendance au marché pour les choses stratégiques, les masques, les médicaments… Tant que tout va bien, tu te fournis au marché, quitte à payer plus cher ; mais s’il n’y a pas ces choses, même milliardaire, ta vie se retrouve en suspens. Si on dépend du marché pour des approvisionnements stratégiques, c’est une vie d’angoisse. Cela conduit à un commentaire que je propose suite à cet épisode. Les rabbins avant moi ne pouvaient pas proposer cette interprétation parce qu’ils n’avaient pas connu le covid.

Ces exemples illustrent la méthode. Confronter des questions d’actualité aux textes bibliques amène un entrechoquement fécond de la pensée.  Posez-moi une question sur l’informatique. Je ne dis pas que la réponse est dans la Bible. Mais la Bible et ses commentaires proposent des façons de réfléchir, des pistes de réflexion.

Binaire : Alors sur l’informatique, que peut-on trouver dans la Bible selon vous ?

HK : L’informatique, c’est une volonté de maitrise, de l’ultra-rapidité, l’agglomération de tous les savoirs. Les questions d’augmentation, d’orgueil, de sentiment de puissance ou de toute-puissance, la Bible en parle. À nous d’y trouver un sens actuel, contemporain. 

L’intelligence, ce n’est pas d’avoir des savoirs, mais de savoir où chercher, à qui demander. Individuellement je suis limité par mes capacités d’analyse, mais celui qui sait où chercher, lui est intelligent. Des machines toujours plus rapides, avec des capacités de mémorisation toujours plus importantes, ce n’est pas forcément ce qui va marcher le mieux. Pour prendre une métaphore sportive, ce n’est pas en prenant les onze meilleurs joueurs de foot du monde qu’on a la meilleure équipe du monde. Il faut onze joueurs qui jouent ensemble. Il faut savoir s’appuyer les uns sur les autres.

Binaire : Que pensez-vous de l’intelligence artificielle ?

HK : Prenons par exemple un dermatologue. Combien d’image de maladie de la peau arrive-t-il à mémoriser ? Quelques milliers. Le logiciel Watson d’IBM en mémorise 40 000. Il a acquis plus de points de comparaisons. Autre exemple : la justice. Prenez toutes les jurisprudences, c’est formidable de précision. L’intelligence artificielle peut nous aider à analyser les jurisprudences. Mais est-ce qu’elle permet de juger ? Est-ce qu’elle prend en compte la réalité humaine des gens qui viennent devant le juge ?

Adventures Of Rabbi Harvey: A Graphic Novel of Jewish Wisdom and Wit in the Wild West, de Steve Sheinkin

Dans la Bible, le roi David, quand un pauvre volait un riche, condamnait le pauvre parce que c’est la loi. Mais de sa cassette personnelle, il lui donnait de quoi payer l’amende. Une machine ne peut pas faire ça. On ne peut pas demander à une machine d’avoir de l’humanité. Dans l’histoire « Les aventures de Rabbi Harvey », Monsieur Katz est chez lui. Un pauvre gars lui rapporte son portefeuille. Katz se dit : « Quel idiot ! Il m’a rendu le portefeuille avec 200 dollars dedans ! » Il lui dit : « Enfin, il y avait 300 dollars, tu es un voleur ! » On soumet le cas au rabbin Harvey. Le rabbin comprend que Katz se moque du pauvre. Réponse du rabbin : « Ce n’est pas compliqué. Puisque ce n’est pas la bonne somme, ce n’est pas ton portefeuille. » ; et il le rend au pauvre ! Est-ce qu’un ordinateur aurait trouvé cela ? Est-ce qu’il aurait cet humour ? Je ne sais pas.

L’humanité ne peut pas être transformée en pensée informatique, en se laissant confiner dans la précision. La vie n’est pas seulement dans la précision. La machine crée une cohérence mais, en réalité, sans pouvoir comprendre.

Ne juge pas ton prochain avant de te trouver à sa place, dit le Talmud. Une machine ne peut pas être à la place de l’accusé.

Binaire : Qu’attendez-vous de l’intelligence artificielle ?

HK : Elle pourrait nous permettre de faire mieux certaines choses. En médecine par exemple, on s’est rendu compte que 25% des ordonnances contiennent des contre-indications connues entre médicaments ! Jamais une machine ne ferait de telles erreurs. Le médecin ne sait pas forcement certaines choses sur les antécédents mais l’ordinateur, le système informatique peut le savoir, donc peut en tenir compte dans les prescriptions. D’où l’intérêt d’utiliser l’informatique dans les prescriptions.  

Mais il ne faut pas que cela ait pour conséquence que le médecin se contente de regarder l’écran, et oublie de regarder son patient. Et puis, imaginez une panne informatique dans un système médical ; tout le système s’écroule, plus rien ne marche. De mon point de vue, il faut toujours faire en sorte qu’on ait le maximum d’aide mais avec le minimum de dépendance. Donc oui, il faut utiliser l’intelligence artificielle. Mais il faut éviter la dépendance. 

L’informatique et l’intelligence artificielle nous permettent d’aller plus loin. Deep Blue a battu Kasparov. Mais pourquoi voir cela comme une compétition ? Nous ne sommes pas sur un même plan. Il n’y a aucune raison de comparer, d’opposer l’humain et l’informatique. L’informatique n’est ni bonne ni mauvaise, elle est ce que nous en faisons. Nous devons utiliser cette force extraordinaire mais ne pas être utilisées par elles. En particulier, nous ne devons pas laisser l’informatique s’interposer entre les humains. Nous avons cette force d’imagination, sortir de ce qui a été pensé avant. Il nous faut trouver une autre façon d’être humain.

Binaire : Est-ce que l’intelligence artificielle soulève des problèmes nouveaux pour un juif pratiquant ?

HK : L’informatique en soulève déjà. Il y avait par exemple déjà la question de l’accès aux maisons avec digicodes pendant le shabbat. Le shabbat, je n’ai plus de téléphone portable, donc je n’existe plus ? Comment vivre le shabbat quand le monde est devenu numérique ? On m’a dit que ce sont les juifs qui sauveront les livres en papier parce que, pendant le shabbat, les livres numériques, c’est impossible.

Le shabbat, l’utilisation de l’électricité est interdite. En Israël, certains rabbins ont autorisé les visioconférences pour la fête de Pessah, pendant la pandémie. Le but était de faciliter des rassemblements familiaux virtuels, pour permettre de vivre les fêtes en famille. La question m’a été posée. J’ai dit non aux visios, car si on accepte une fois, les gens vont se dire que ce n’est pas grave de faire ça tout le temps. J’ai préféré refuser.

Et puis, vivre une journée sans technologie, je trouve ça formidable. Le shabbat est une très grande liberté.

Binaire : Vous parlez de « golémisation des humains ». Que voulez-vous dire par ça ?

HK : C’est le sujet de ma conférence dans le cycle des Conférences de l’Institut. Golem, GLM, les mêmes initiales que Generalized Language Model, ce ne peut être par hasard. Il s’agit de la mise en place de processus qui nient l’unicité de chaque personne. Le processus admet ce qui sort du lot, mais considère que si on arrive à gérer 95% des cas, on est tranquille. Mais nous, on est tous dans les 5% ! C’est ça, la golémisation : fonctionner avec des cases, des réponses préremplies, et si ça dépasse, si ça sort des cases, ce n’est pas bon. On ne doit jamais oublier que l’informatique est une aide. Quand l’aide de l’informatique devient un poids, un problème, j’appelle cela la golémisation.

L’informatique devient un poids symbolique inacceptable si ça m’empêche de pouvoir faire par moi-même. Dans ces problèmes idiots de nos rapports avec l’informatique, il faut remettre de l’intelligence plus fine et plus l’humanité. C’est une grande crainte, que la machine prenne le dessus sur les hommes. On irait vers un monde où les machines imposent leur mode de fonctionnement aux hommes qui, en adoptant le fonctionnement des machines, abdiquent leur humanité.

Binaire : Pour certains penseurs de la silicone vallée, l’IA pourrait nous permettre de devenir immortels. 

HK : Selon eux, on pourrait arriver à concevoir comment les neurones conservent, gardent la mémoire, les espérances, à externaliser la mémoire de quelqu’un et à la transmettre. Si on y arrivait, le rêve d’immortalité se réaliserait. On est dans la science-fiction. Chaque époque a produit sa façon d’être immortel, par l’habit vert à l’académie par exemple. Léonard de Vinci est immortel d’une certaine manière ; Moïse en transmettant la Torah aux hébreux acquiert aussi une forme d’immortalité. On peut chercher l’immortalité à travers sa descendance.

La véritable obligation du judaïsme, ce n’est pas le shabbat, la nourriture cacher, etc., mais la phrase : « tu le raconteras à tes enfants et aux enfants de tes enfants. Et comme c’est dit dans la Bible :

Souviens-toi des jours antiques, médite les annales de chaque siècle ; interroge ton père, il te l’apprendra, tes vieillards, ils te le diront ! Deuteronome 32, 7.

On s’assure qu’il y ait deux générations qui puissent porter une mémoire une expérience de vie. Les rescapés de la Shoah ont voulu protéger leurs enfants en ne parlant pas. Mais quand ils sont devenus grands-parents, leurs petits-enfants leur ont demandé de raconter.

Binaire : Pour conclure, peut-être voulez-vous revenir sur la question de l’hyper-puissance de l’informatique.

HK : Cette technologie donne un sentiment de tout maitriser, et moi j’aime des fragilités. Quand je me suis marié, la personne qui m’a vendu mon alliance m’a dit : « il y a 12 000 personnes par an qui ont le doigt arraché par une anneau. Mais chez nous, il y a une fragilité dans l’or de l’anneau qui fait que l’anneau cède s’il y a une traction sur votre doigt. » La force de mon anneau, c’est sa fragilité ! Cela m’a impressionné. L’ordinateur ne sait pas intégrer la faiblesse dans sa réflexion, la fragilité, alors que c’est l’une des forces de l’humain. Cette toute puissance, conduit précisément à la faiblesse des systèmes informatiques. La super machine dans sa surpuissance devient fragile, alors que nous, notre fragilité fait notre force. 

Serge Abiteboul, Inria et ENS Paris, Claire Mathieu, CNRS

 

[1] Les traductions de la Bible sont prises de Torah-Box, https://www.torah-box.com/

[2] Rabbi Salomon fils d’Isaac le Français, aussi connu sous le nom de Salomon de Troyes, est un rabbin, exégète, talmudiste, poète, légiste et décisionnaire français, né vers 1040 à Troyes en France et mort le 13 juillet 1105 dans la même ville. [Wikipédia]

Les entretiens autour de l’informatique

Un nouveau RISC-V

Binaire a demandé à Bruno Levy, de nous parler d’un processeur spécifique le RISC-V. Ce processeur ouvert/libre pourrait rebattre les cartes des coeurs de processeurs. Bruno Levy est chercheur Inria, spécialiste des optimisations mathématiques, il  a rejoint la nouvelle équipe projet PARMA (une machine mathématique à remonter le temps pour explorer l’univers). Bruno est aussi l’un des ambassadeurs du RISC-V, nous lui avons ouvert nos colonnes. Pierre Paradinas

Risc-V, une nouvelle donne dans le monde des micro-processeurs

Les micro-processeurs, au coeur du numérique… Véritable concentrés de technologie, objets les plus complexes jamais conçu par l’être humain, constitués de milliards d’éléments, mais guère plus grands qu’une tête d’épingle, les microprocesseurs sont omniprésents dans notre quotidien. Que ça soit pour envoyer la photographie du petit dernier à la famille, pour réserver un billet de train, pour nous assister dans la conduite de nos véhicules, et même pour optimiser la consommation d’eau du lave vaisselle, de plus en plus rares sont les gestes du quotidien qui n’impliquent pas de près ou de loin des microprocesseurs. Une évolution majeure, nommée RISC-V, est susceptible de changer en profondeur la donne pour ces objets de haute technologie au coeur de notre quotidien.

Le jeu d’instructions, l’« alphabet » du microprocesseur. En quelque sorte, pour nos appareils numériques, le microprocesseur joue le rôle du « chef d’orchestre », jocoeuruant  la « partition » – un programme – qui décrit le fonctionnement de l’appareil.  Ce programme est écrit dans un langage, qui a son propre « alphabet », constitué d’instructions élémentaires, très simples, encodées sous forme de nombres dans la mémoire de l’ordinateur. De la même manière qu’il existe plusieurs alphabets (mandarin, cantonais, japonais, latin, grec, cyrillique …), il existe plusieurs jeux d’instructions différents : x86 pour les processeurs Intel, ARM très utilisé pour les téléphones portables et les Macs, AVR utilisé par des microcontroleurs dans les systèmes embarqués … Et parmi ces jeux d’instruction, il existe deux grandes classes, les jeux d’instructions dits CISC (pour Complex Instruction Set), qui comportent un grand nombre d’instructions élémentaires, ou encore un grand nombre de lettres différentes dans leur « alphabet » (comme dans les alphabets chinois qui comportent des milliers d’idéogrammes). C’est le cas des processeurs x86 Intel,  dont les dernières évolutions supportent plusieurs milliers d’instructions différentes, la documentation comportant plus de 5000 pages, réparties dans 10 volumes (!). L’autre grande famille de jeux d’instruction, appelée RISC (pour Reduced Instruction Set) se fonde sur un « alphabet » plus restreint, avec tout au plus une petite centaine d’instructions différentes, qui ressemble plus à l’alphabet latin ou grec. D’une certaine manière, les instructions CISC correspondent plus à des syllables qu’à des lettres, et il faudra plusieurs instructions RISC pour faire la même chose.

Ecosystème et normalisation : tout seul, le microprocesseur ne peut rien faire ! Il ne peut vivre qu’au sein d’un réseau d’acteurs différents, fournissant à la fois l’environnement matériel (les ordinateurs ou gadgets électroniques autour du microprocesseur, les périphériques, …) et l’environnement logiciel (les logiciels, le système d’exploitation, les langages de programmation…). Ce qui permet à toute cette chaîne d’acteurs de travailler ensemble, c’est la normalisation du jeu d’instruction (Instruction Set Architecture), un document qui décrit dans le détail chaque instruction élémentaire et ce qu’elle est censée faire. C’est en quelque sorte le « contrat » que passe le micro-processeur (et son fabriquant) avec les autres acteurs, garant du fait que tout ce petit monde saura « se parler » et travailler ensemble. Par exemple, le jeu d’instruction ARM de l’entreprise britannique du même nom est utilisé par beaucoup d’acteur, notamment Apple, Samsung, Qualcomm, MediaTek, Nvidia. Pour obtenir le droit d’utiliser le jeu d’instruction ARM, ces acteurs doivent payer un « ticket d’entrée », à savoir une licence, 1 ou 2 % du prix de vente de la puce, reversé à ARM.  Mais ARM a été rachetée par l’entreprise Japonaise SoftBank (pour 32 milliards de dollars), qui prévoit d’augmenter significativement le prix de la licence. Nvidia prévoyait à son tour de racheter ARM à Softbank (pour 40 milliards de dollars), projet finalement abandonné après que la FTC américaine ait saisi la justice.  Les rachats sont monnaie courante dans le monde des microprocesseurs, comme le rachat d’Atmel par Microchip en 2016 (fabriquant de micro-controlleurs pour les systèmes embarqués). Ces rachats font peser à chaque fois des grandes incertitudes sur les clients utilisant ces microprocesseurs dans leur produit. C’est particulièrement le cas de produits de type « internet des objets », utilisant des microcontrôleurs à quelques centimes d’Euros pièce, pour lesquels le prix d’une licence peut représenter une part significative du coût de revient.

Berkeley Lab’s Wang Hall – computer research facility -July 6, 2015, Photo credit: Berkeley Lab, Roy Kaltschmidt

 

 RISC-V, un jeu d’instruction et une organisation qui pourraient changer la donne : RISC-V est à la fois une architecture de jeu d’instruction et une organisation visant à développer l’écosystème d’acteurs autour de ce jeu d’instructions. Issue de travaux de recherche académiques, la première mouture du jeu d’instruction a été conçue en 2010. Le jeu d’instruction en lui-même est issu des travaux d’Asanovic, Lee et Waterman au Parallel Computing Lab de l’Université de Berkeley, dirigé par Patterson. Il a été soutenu par différentes sources de financement, par des industriels (dont Intel et Microsoft), par l’état de Californie et par un projet DARPA. En 2015 est créée la fondation RISCV-International, une association à but non lucratif ayant pour objectif de développer le standard et de stimuler l’émergence d’un écosystèmes d’acteurs pour créer du matériel et du logiciel autour du standard.   Afin de mieux garantir son indépendance, l’association a déménagé en Suisse à Zurich en 2020.

Yunsup Lee holding RISC V prototype chip. At UC Berkeley Par Lab Winter Retreat, January 2013.

 

Des petits et des grands microprocesseurs : Du plus petit microcontrôleur intégré au lave-vaisselle jusqu’au grands centres de calculs qui brassent des péta-octets de données, les microprocesseurs peuvent avoir des fonctionnalités et des puissances de calcul très différentes. Malgré cela, tous ces secteurs sont susceptibles d’être impactés par RISC-V. Le jeu d’instruction est conçu en « oignon », avec un « alphabet » pour les tâches les plus simples, et des  « lettres en plus » pour certaines tâches spécialisées. Par exemple, un mathématicien va utiliser en plus des 26 lettres de l’alphabet des symboles spéciaux. Il en va de même dans la norme RISC-V, qui introduit des instructions spéciales pour le calcul. Et pour que tout le monde continue à se comprendre, il est possible pour un processeur de base de comprendre ces instructions supplémentaires en les traduisant à la volée, grâce à un logiciel spécial. Cela prend un peu plus de temps, mais cela fonctionne, et tout le monde reste compatible. D’autre part, la norme RISC-V prévoit la possibilité d’ajouter des instructions. Par exemple, il sera possible de créer des instructions spécifiques pour accélérer les calculs en IA, ou encore pour assurer des propriétés renforcées de sécurité informatique.

Et après, quels enjeux pour le futur ?

En ouvrant la conception de micro-processeurs qui était jusqu’à maintenant contrôlée par quelques gros acteurs, et en offrant des garanties sur la libre utilisation du jeu d’instruction, la norme RISC-V va favoriser l’émergence de petits acteurs dans le monde des micro-processeurs. Une plus grande « bio-diversité » est susceptible de conduire vers plus d’innovation, tant dans les usages que dans l’architecture de ces micro-processeurs : le microprocesseur est une véritable petite « ville », à l’échelle microscopique (et même nano-scopique!), avec ses routes, qui acheminent les données, son réseau électrique qui distribue le courant, ses usines qui traitent les données. Ces « villes » sont conçues par des architectes (c’est le même nom qui leur est donné), à l’aide d’outils logiciels d’aide à la conception (la chaîne EDA, pour Electronic Design and Automation). Cette chaîne d’outil est également en train de s’ouvrir, avec l’émergence de logiciels open-source et d’approches nouvelles, comme l’introduction de l’intelligence artificielle pour optimiser le plan global de la « ville », utilisé par Google pour sa prochaine génération de processeurs. Dans un futur proche, la frontière entre le matériel et le logiciel va devenir de plus en plus floue, avec des nouvelles générations de micro-processeurs plus efficaces, plus économes en énergie, mieux adaptés aux différents usages. Dans cette nouvelle donne, les deux principaux enjeux seront la création et l’accès aux nouveaux outils EDA d’aide à la conception de microprocesseur, et surtout la formation de la nouvelle génération d’architectes, à savoir des ingénieurs « parlant couramment » ces nouveaux paradigmes, outils et langages de description du matériel, qui vont devenir rapidement assez différents des langages de programmation pratiqués par les ingénieurs du numérique actuel.

Bruno Levy, DR-Inria, https://bsky.app/profile/brunolevy01.bsky.social ou https://www.linkedin.com/in/blevy/

Pour aller plus loin

Des IA conseillères assurément, une IA présidente jamais de la vie

L’article du blog binaire de Jason Richard a conduit à une réaction de Max Dauchet. Max est professeur émérite à l’Université de Lille. Il a réalisé des recherches sur les outils logiques et méthodes formelles pour la programmation, l’algorithmique et sur la bioinformatique. Il s’intéresse aujourd’hui à l’éthique des sciences et technologies du numérique. Il fait partie du comité étique et scientifique de Parcoursup. Serge Abiteboul

Des IA conseillères assurément, une IA présidente jamais de la vie

Jason Richard s’interrogeait dans ce blog sur la possibilité et l’opportunité qu’un pays soit gouverné par une IA1. Recensant le pour et le contre, il laissait la question ouverte.

La réponse se précise si l’on considère que l’intelligence obéit à des lois universelles de l’information et qu’elle n’a rien de spécifiquement humain, au même titre que la force obéit aux lois universelles de la physique. L’IA apparaît alors comme un outil parmi les autres, aux côtés de la machine à vapeur. Parce que c’est un outil, il ne faut pas se priver de son aide, parce que ce n’est qu’un outil, l’idée qu’elle préside à notre destinée est vide de sens.

Cependant l’IA n’est pas n’importe quel outil. Elle est de ces instruments qui révolutionnent les civilisations, comme la lunette astronomique mena à l’héliocentrisme, l’imprimerie à la démocratie libérale. En étendant sans limites notre intelligence, et en la libérant de ses biais cognitifs, l’IA « peut conduire à une renaissance de l’humanité, un nouveau siècle des Lumières2 ».

Les politiques répètent à l’envie qu’il faut « changer de logiciel ». Changeons donc de logiciel.

Une seconde révolution copernicienne

En se penchant sur ses morts, le Sapiens s’interrogea sur son sort. Il imagina son salut par l’obéissance à des lois divines. Quand la révolution copernicienne discrédita l’idée d’une création dont il était le centre, vinrent les Lumières où l’homme se reporta sur sa raison pour comprendre et organiser le monde à son avantage. Cette arrogance de l’esprit nous a conduits au pied d’un mur environnemental qui va selon certains jusqu’à menacer notre espèce. Une nouvelle révolution voit le jour, celle de l’intelligence partagée, instrumentée par l’Intelligence dite Artificielle pour éclairer nos choix. Se priver d’IA dans les débats parlementaires serait désormais aussi stupide que jadis partir en exploration sans boussole, ou maintenant délibérer en COP sans l’expertise du GIEC.

Si nous répugnons encore à cette perspective, c’est que nous demeurons dans l’idée toute cartésienne que l’intelligence est l’apanage de l’humain. C’est pourquoi nous sommes troublés de voir l’intelligence machine pulvériser nos capacités, alors que nous nous félicitons que nos engins soient bien plus forts que nous pour nous aider dans les chantiers. Quand nous avons inventé la machine à vapeur, nous ne l’avons pas nommée Puissance Artificielle, parce que nous savions que la force et la puissance obéissent à des lois universelles de la mécanique et que nos prédateurs ancestraux nous surpassaient dans ce registre. C’est dans l’intelligence que nous avons placé ces derniers siècles la fierté de notre espèce, comme en témoignent nos contes et récits, où c’est toujours le petit futé qui l’emporte sur le grand crétin. Nous devons désormais nous faire à l’idée que l’intelligence n’est pas non plus notre apanage, qu’elle est partagée avec la nature et nos machines

La révolution des réseaux de neurones

La révolution informatique repose sur l’universalité des ordinateurs, leur capacité à « calculer tout ce qui est calculable », pourvu qu’ils aient assez de mémoire et de temps. La difficulté est que pour tout problème, il faut trouver un algorithme qui le résout. La révolution de l’IA repose sur une double universalité : d’une part un réseau de neurones artificiels peut « souvent apprendre approximativement ce qui est apprenable », pourvu qu’il soit assez grand, et d’autre part il peut le faire avec un même et seul algorithme, l’algorithme de rétro-propagation du gradient. En cela l’IA connexionnisme, celle des réseaux de neurones, ne fait que mimer la formidable trouvaille de l’évolution darwinienne qu’est le cortex et ses circonvolutions, avec l’avantage pour la machine de ne pas devoir se tasser dans une boîte crânienne.

Que des théorèmes expliquent pourquoi l’IA semble faire « tout mieux que nous »3 est de nature à nous rassurer et à tordre le cou aux obscurantismes. Cependant cette affirmation met à l’état de l’art « ses habits du dimanche » comme aurait joliment dit Marcel Pagnol, car il est bon de garder en tête qu’elle cache de nombreux bémols, qui sont autant de pistes pour les recherches futures4.

Cette révolution ne pouvait avoir lieu que maintenant, car le connexionnisme ne fonctionne que dans la gigantisme, quand tout se compte en milliards, milliards de données, milliards de neurones, milliardièmes de seconde, ce qui n’était pas technologiquement abordable avant ces dernières années.

Des intelligences non biaisées par la condition humaine

Un autre avantage de la machine est qu’elle est exempte de nos biais cognitifs5. Des biais sont souvent imputés aux machines, des déboires historiques de Siri aux dérapages récents de la reconnaissance faciale6. Ce faisant on oublie que ces biais ne sont pas liés au fonctionnement des machines mais aux comportements humains, en l’occurrence sexistes ou racistes, reflétés dans les échantillons d’apprentissage. Il faut donc distinguer les biais dans les données et les biais de traitement : là où notre raisonnement est biaisé, le traitement machine des mêmes données ne l’est pas.

Le Monde a consacré à nos biais cognitifs une série d’articles l’été dernier, « Les intox du cortex », et la chaîne YouTube « La Tronche en Biais », 300k abonnés, dédiée à l’esprit critique, accorde comme son nom l’indique une large place au sujet.

Un biais cognitif qualifie la différence d’analyse entre celle faite par un humain et celle réalisée de façon purement logique et rationnelle. Il est vraisemblable que nos biais trouvent leurs origines dans des avantages compétitifs qu’ils procuraient à notre espèce et ses individus au cours de la sélection darwinienne, avantages qui peuvent se retourner en handicaps quand l’environnement change. Sébastien Bohler va très loin en la matière7. Selon ce neuro-scientifique vulgarisateur, notre espèce doit sa survie à sa propension à dévorer, copuler, en imposer à la première occasion, tant la condition de nos ancêtre ne tenait qu’à un fil, avec la nourriture rare, la mortalité précoce et la trahison quotidienne. Avec l’abondance de l’ère industrielle, cette tendance – que Bohler nomme bug – qui nous a conduit à la surconsommation, à l explosion démographique, à la profusion de bagnoles, de fringues, et autres biens statutaires, jusqu’au pied du mur écologique.

Des intelligences machines novatrices

Le conformisme des IA est souvent évoqué pour les moteurs de recommandations, qui en se basant sur les statistiques de nos goûts nous proposent ce que l’on aime déjà. Mais cela ne vaut pas dans des applications avancées. Ainsi lors du match historique de 2016 AlphaGo réussit contre Lee Sedol un « coup de Dieu », comme le qualifient les spécialistes du jeu de Go. Des recherches récentes expliquent qu’au cours de son apprentissage un réseau connexionniste peut détecter entre des situations des similitudes qui nous échappent tant les sens que nous leur attribuons sont éloignés8. C’est ce que nous appelons parfois la créativité. Là où nos raisonnement seront prisonniers de nos biais, la machine privilégiera des principes mathématiques qui conduiront à des scénarios inédits, qu’elle alimentera de sa capacité à articuler des milliards de données hétérogènes, humaines, économiques, culturelles, scientifiques.

Quand l’IA éclairera le politique…

La voiture. Capter le regard envieux du voisin ou celui conquis de l’être convoité est selon les publicités le rêve de tout possesseur d’une voiture. Quitte à frustrer notre goût pour les biens statutaires, l’IA proposera la suppression de la voiture individuelle au profit de flottes collectives semi-autonomes appelées et congédiées d’un clic, elle élaborera des scénarios chiffrés de transition, dont la difficulté est actuellement prétexte à écarter l’idée.

Les retraites. Par principe de parcimonie, qui privilégie les hypothèses les plus simples, l’IA favorisera l’assertion « tous les humains ont une égale dignité, ils doivent être traités à égalité dès lors qu’ils cessent d’être des agents sociaux-économiques », et elle détaillera là aussi les difficiles scénarios de transition.

Les migrations. L’humanité s’est fondée sur les migrations, cela n’échappera pas aux machines.

La fin de vie. La machine ne produira rien qui fasse sens pour nous, car il s’agit de notre mort.

dans une génération

Bien entendu nous serons libres de critiquer et réfuter les scénarios des machines. Cependant nos décisions face à ces scénarios devront être solidement argumentées et débattues, car nous aurons à en rendre compte aux générations futures. Les décisions des COP face aux expertises du GIEC donnent un avant goût de cette situation.

Il faudra une génération pour que le recours institutionnel à l’IA se mette en place. Le temps que celle-ci conquière progressivement notre confiance dans ce rôle. Il faudra en codifier l’usage au fil des expérimentations, comme on codifie le fonctionnement démocratique. Tout comme les experts sont corruptibles, les IA sont manipulables, aussi faudra-t-il également codifier les protocoles de traitement et confronter les IA comme on confronte les experts.

En revanche l’IA possède un énorme avantage en matière de transparence9. On ne peut pas sonder les crânes pour estimer la sincérité d’un argument, en revanche on peut expertiser les processus de façon reproductible, contradictoire et opposable.

Le spectre souvent évoqué de la dictature des algorithmes ou des IA n’est pas à craindre : la machine proposera, nous éclairant en surplomb de notre condition, nous seuls disposerons de notre destin. L’intelligence machine pèsera certes sur nos décisions, mais il n’y a là rien de nouveau, nous co-évoluons avec les outils dont nous nous dotons depuis l’époque où nos ancêtres taillaient les silex.

Max Dauchet, Professeur à l’Université de Lille

1 Une intelligence artificielle à la tête d’un pays : science fiction ou réalité future ? 27 octobre 2023

2Propos de Yann le Cun, prix Turing et un des pères de l’IA actuelle, dans une interview au Monde, le 28 avril 2023

3On a l’embarras du choix d’articles de tous niveaux sur le net. Pour un scientifique francophone non spécialiste, les cours du Collège de France, disponibles en vidéo, sont une entrée attrayante : ceux de Stanislas Dehaene, titulaire de la chaire «Psychologie cognitive expérimentale » pour les aspects biologiques, et pour les aspects sciences du numérique le cours de Yann Le Cun invité en 2015-2016 sur la chaire « Informatique et sciences numériques », ainsi que les cours de Stéphane Mallat, titulaire de la chaire « Sciences des données », axés autour du triangle « régularité, approximation, parcimonie », où l’extraction d’informations de masses de données s’apparente à une réduction de dimension des problèmes à milliards de paramètres.

On peut aussi aborder la comparaison entre biologie et numérique par le petit bout de la lorgnette, sans aucune connaissance préalable, à travers trois courts articles de mon blog https://la-data-au-secours-des-lumieres.blogspot.com/: « L’affaire du Perceptron » raconte par l’anecdote l’émoi suscité par le Perceptron dans les années 70, imposante machine qui s’avéra avec le recul n’être qu’un séparateur linéaire, comme l’est un neurone muni de la loi formulée par Hebb d’évolution des connexions, dont la vérification expérimentale valut à Eric Kandel le prix Nobel de médecine 2000, séparation linéaire qui est l’opération la plus élémentaire de classification, celle que les enfants apprennent en maternelle (« Le petit neurone et la règle d’écolier »). Dans « Le théorème de convergence du Perceptron », un cadre mathématique élémentaire élucide complètement le comportement du Perceptron, que d’aucuns voyaient un demi siècle auparavant supplanter l’homme.

4– La notion de ce qui est apprenable est cernée mathématiquement mais floue dans la pratique. Intuitivement, est apprenable ce qui est structuré, d’où la boutade des chercheurs « Soit le monde est structuré, soit Dieu existe » (rapportée d’Outre Atlantique par Yann le Cun), face aux succès dépassant mystérieusement leurs attentes. Il s’avère que le connexionnisme permet d’ exploiter les structures (d’un problème souvent riche de milliards de paramètres) sans avoir à les décrire. C’est ce que fait un enfant quand il apprend à faire des phrases sans rien connaître de la grammaire, ou qu’il apprend à se repérer sans rien connaître de la géométrie.

– Dans la pratique l’apprentissage ou la génération sont améliorés par des intervenants humains, qui peuvent être une foultitude de petites mains pour les grandes applications.

– L’universalité est théorique, pour être efficace dans la pratique, l’architecture d’un réseau est adaptée à tâtons à un problème, et tous les problèmes ne sont pas traitables en temps réaliste.

– De part son principe, l’algorithme de rétro-propagation peut converger vers divers comportements du réseau, sans que l’on puisse préciser à quel point ils sont bons. Des résultats théoriques montrent que de telles limitations sont inévitables.

– Dans l’intelligence humaine comme dans celle de la machine bien d’autres fonctions entrent en jeu, souvent encore mal connues en neurosciences, et souvent relevant de techniques dites symboliques en IA, techniques objets de controverses face au connexionnisme au cours de la jeune histoire de l’IA.

5Comme le relève Jason Richard dans sa liste des avantages de l’IA.

6Siri, un des premiers assistants personnels sur smartphone, fut accusé de tenir des propos inappropriés. Plus récemment des systèmes de reconnaissance faciale, entraînés principalement sur des blancs, commettaient des confusions sur les personnes de couleur.

7 Le Bug humain, Robert Laffont, 2020

8 Jean-Paul Delahaye, « Derrière les modèles massifs de langage », Pour la science, janvier 2024

9On reproche couramment à l’IA son manque d’explicabilité, parce que dans les applications de masse, les conditions d’exploitation ne permettent pas l’analyse des traces de calcul. Ce ne sera pas le cas ici.