Téléchargez comme PDF, TXT ou lisez en ligne sur Scribd
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 16
Faut-il croire à l'avènement de l'intelligence artificielle générale, Graal, de l'industrie
de l'IA? Où en est-on dans cette course technologique? Et qu'est-ce qu'une super
intelligence changerait pour l'homme et la société tout entière? Plongez dans le futur dans ce débat animé par les journalistes de la tribune Philippe Mabille et Marine Protet. Bonjour, c'est difficile de passer après Einstein, mais on va essayer. Bienvenue à tous. Donc, on va effectivement parler cet après-midi de superintelligence. C'est un superlatif qu'on entend beaucoup, cet encycl, qui ne date pas d'hier non plus, mais qui est très poussé par certains acteurs de l'industrie de l'intelligence artificielle, sans qu'on sache parfois exactement ce que ça signifie. possible et si c'est souhaitable surtout. Donc, on va en parler avec nos trois invités. Édouard Grave, vous êtes chercheur spécialiste en IA et vous avez cofondé le laboratoire QTI. Oui, c'est ça. Bonjour. Merci pour l'invitation à cette table ronde. Merci. Cédric Velligny, mathématicien, l'aurea de la Médale Fields et ancien député également. autrice, entrepreneur et docteur en sciences et vous avez notamment cofondé une entreprise de Deep Tech qui détecte des cancers du sein de manière précoce, donc une forme de super intelligence finalement. Philippe qui est là avec moi et qui a je crois une première question. Merci bonjour bonjour à toutes et à tous. Souvent au début d'après-midi il y a une petite baisse de régime ou de rythme parce qu'on vient de profiter voilà de très dense. Donc je vais essayer de vous réveiller un tout petit peu. En fait, vous connaissez tous le film Le Bon, la Bûte et le Truon, un moment à la fin, le héros dit le monde se divise en deux catégories de personnes, ceux qui tiennent le pistolet et ceux qui creusent. Ça me fait un peu penser à ce qui est en train de se passer en ce moment dans le monde de la technologie entre ceux, je ne sais pas si ce sont les méchants. mais qui, dans la Silicon Valley, se mettent à croire effectivement et à courir après le graal de la super intelligente, de ce qu'on appelle l'IA général. Alors je vous renvoie à un tweet de Sam Altman, qui est donc le fondateur de OpenAI et Tchad GPT, qui, hier, dans un tweet dit de façon assez laconique, « there is no wall ». D'ailleurs, on lui répond « but there is a ceiling ». Il y a peut-être un plafond. Donc la question qui est posée, en fait, c'est cette course à la puissance. Et est-ce qu'elle a des limites? Est-ce que, effectivement, c'est une bonne idée, une bonne chose d'aller dans cette direction pour essayer de créer quelque chose qui serait supérieur à nous? On a eu un débat hier sur le sujet de va-t-on devenir surhumain avec Cédric Villani? On va le prolonger aujourd'hui. Peut-être, commençant par vous, Cédric, qu'est-ce qu'il faut penser de cette course? Et on aura eu un débat également scientifique, et Marine prendra le relais, pardon, de cette longue introduction pour savoir si, scientifiquement, c'est possible. Je vais exprimer tout mon scepticisme en premier et l'étayer avec plusieurs observations. D'abord, sur la finalité, la première question, une super intelligence, pourquoi faire? Alors, pour certains des fondateurs de l'intelligence artificielle comme Alan Turing, le projet de l'intelligence artificielle, c'est un projet de comprendre le fonctionnement nous- mêmes, notre cerveau, du cerveau animal avec cette idée. le simple fait de réaliser une horloge, ça oblige à comprendre le mécanisme et donc d'en tirer des lois. D'ailleurs Turing a travaillé aussi sur la morphogénèse, la façon dont certaines lois mathématiques peuvent expliquer la création des formes. Il se sera aussi reconnu dans les avancées de l'IA en matière de chimie, le prix Nobel de Assa-Biss et Jumper en chimie très mérité parce qu'avec ces outils de résolution de calcul mathématiques, on arrive à de nouvelles prédictions sur les formes molécules, il y a un avancé de savoir. Mais la super-intelligence en tant que telle, si on la fabrique, qu'est-ce qu'on en saura de plus? Surtout quand on voit la façon dont fonctionne une IA générative et la façon dont Tchadjipiti s'ingénie à ne pas nous communiquer les informations sur ces tout derniers modèles, en disant juste qu'il y a de plus en plus, en ne disant même pas exactement combien de paramètres, ce n'est pas un projet scientifique tel que c'est là. Premier point. Deuxièmement, le raisonnement semble être, oui, les résultats sont de meilleur en meilleur, donc on est en train d'avancer sur l'intelligence et donc le truc va devenir de plus en plus intelligent jusqu'à atteindre notre niveau et ensuite continuer à dépasser. Si c'est une courbe exponentielle, ça va tout de suite nous dépasser. Mais ça veut dire quoi intelligence? Si il s'agit d'ir sur certaines tâches, faire bien mieux que les humains, mais là, je suis désolé, c'est déjà fait. Ça fait longtemps. les intelligences artificielles font mieux que nous en diagnostic de cancer, mieux que nous en diagnostic de fracture, mieux que nous en jeu de go, mieux que nous en toutes sortes d'activités, donc là c'est déjà fait. Alors ça veut dire un truc général, mais ça veut dire quoi général? Souvent quand on parle d'intelligence, quand on parle de raisonnement ou décision, on a en tête une notion de conscience. Il y a un être qui a conscience d'être un être et de prendre une décision. Ça mon ami, c'est pas clair qu'on a avancé même d'un On lit les gros ouvrages de Stanislas Deheun sur la conscience, on les referme en se disant c'est pas clair qu'on comprenne vraiment de quoi il s'agit. C'est très facile de se faire des illusions là-dessus, de temps que ça se trouve il y a des choses essentielles qu'on n'a pas comprises. Pour mémoire, quand au début du 19e siècle, les escrocs de talent qui étaient Maelzel et Van Kempelen se... présenter dans toutes les cours d'europe leur joueur d'échecs mécaniques c'est de là que vient l'expression turc mécanique robot joueur d'échecs qui montrait les mécanismes et après il faisait jouer aux échecs et même joué contre napoléon le gars et c'était une supercherie c'était un vrai joueur d'échecs qui était dissimulé qui pouvait actionner le mécanisme mais le truc incroyable c'est que les gens ont pas à l'époque on regardait ça comme une curiosité en entier il a un robot qui joue aux échecs c'est étrange sans réaliser que dans l'état des connaissances scientifiques de l'époque, il y avait juste rien qui permettait de visualiser les trucs, de faire l'action et tout ça. Donc peut-être qu'on sous-estime très, très gravement, aujourd'hui comme à l'époque, que c'est intelligence. C'est une escroquerie de la Silicon Valley. C'est une façon... Aujourd'hui, la superintelligence, c'est une façon de récupérer des supermilliards. Marine, belle entrée en matière. Tout à fait. Aurélie, vous êtes, je pense, un peu du même avis que Cédric. Vous m'aviez parlé du fait que dans la superintelligence, si on parle d'émotion qui fait aussi partie de l'intelligence, là, on n'y est pas du tout non plus. Exactement, Marine. En fait, plus généralement, dès qu'on utilise le mot intelligence, il faut s'interroger sur quel type d'intelligence on parle. Et c'est valable pour superintelligence ou pour intelligence artificielle. Et lorsqu'on parle d'intelligence, le mot IA a été créé à la moitié du XXe siècle dans un papier pour rechercher des fonds pour faire la conférence de Dartmouth qui a eu lieu quelques mois après en 1957. Et lorsqu'ils ont décrit ça, à savoir qu'ils voulaient réfléchir à des modèles et à des moyens de modéliser et de simuler l'intelligence humaine, c'était une époque où l'intelligence humaine était réduite à l'intelligence analytique uniquement. jusqu'à avoir créé au début du XXe siècle, par de Frantz Hepp, il y a eu plein de versions tout au long du siècle, du fameux QI, du quotient intellectuel, qui ne mesure que les capacités analytiques. Et c'est important parce que ce mot, IA, il a été défini à une époque où on réduisait l'intelligence humaine à l'intelligence analytique. Aujourd'hui, depuis les années 80, il y a eu plein de théories de psychologues, de linguistes, de neuroscientifiques sur les intelligences. au pluriel, incluant l'incluence émotionnelle, pratique créative et je encourage les gens à regarder par exemple le papier de Robert Steinberg, un psychologue américain en 88, qui est très simple à comprendre et qui exprime toutes ces intelligences. Maintenant qu'on a dit ça et qu'on revient à la définition d'intelligence générale que tu mentionnais de superintelligence, explicitement ça dit quoi? Ça dit lorsque le modèle, lorsqu'on est capable de maîtriser, de modéliser, de simuler l'ensemble des tâches cognitives d'un être humain. les tâches cognitives d'un être humain, ça inclut les tâches analytiques, le raisonnement dont tu parlais, et puis ça inclut les émotions, la conscience et tant d'autres choses. Et je dis ça parce qu'on ne dit rien, en fait, on n'exprime pas le sens des mots véritablement. En fait, on crée un flou artistique qui est au profit de certains, en l'occurrence pour lever des fonds ou en extrapolant les capacités pour faire un peu n'importe quoi. Et je vous dis ça parce qu'il y a vraiment deux catégories de gens. Il y a... une grande masse de scientifiques, d'ingénieurs en IA, les croisantes majorités en réalité, qui ne croient pas sur les choses, parce que c'est pas possible, quand vous avez déjà calibré ou entraîné un algorithme, une IA, vous voyez très bien que c'est juste un calcul d'optimisation, enfin juste, c'est de l'algébininaire, mais ça reste un calcul d'optimisation assez basique avec énormément de paramètres, parfois mille milliards dans le cas des modèles de langage, qu'on va identifier sur des grosses machines. Et ça, après, ça traduit... l'exécution d'une tâche, on peut résoudre un problème, répondre à une question. Et en effet, on peut simuler, on donne l'impression qu'on simule certains éléments de tâches cognitives en dehors de l'analytique, par exemple on peut faire un agent conversationnel qui va vous dire je t'aime, il ne ressent pas, il n'y a pas de ressentiment des émotions sous-jacentes à cette déclaration. Donc il faut faire très attention et donc voilà, donc le point important c'est bien définir ce qu'est l'intelligence. Et quand je dis il y a deux classes de scientifiques, vous avez tous les grands scientifiques en IA et les ingénieurs qui eux vous disent ben non ça c'est pas possible et je repenserai aussi à Luc Julia par exemple qui fait des très bons livres sur le sujet et puis vous avez d'autres quelques- uns qui eux en fait pour moi font du marketing et de la com et Sam Altman en fait partie n'est absolument pas un ingénieur ou un scientifique de l'IA et qui fait de la com et qui a une vision pour le coup longue termiste apocalyptique et je pense que c'est aussi un moyen de dire bah regardez ce qui se passe très très loin alors qu'en réalité il y a vraiment des problèmes aujourd'hui la discrimination technologique l'impact environnemental le digital labor, l'impact sociétal, etc. sur la démocratie et autres. Et ces gens-là ne regardent pas les problèmes qui existent aujourd'hui et pour lesquels on a des solutions, d'autres pour lesquelles il faut trouver. Donc en fait, c'est un énorme sujet médiatique qui est souvent mal pris parce qu'on définit pas correctement les termes. Et par ailleurs, pour la théorie de la singularité, l'IA forte, l'IA générale, qui est spécifique dans un point dans le futur plus ou moins proche, on aura des machines qui vont nous dominer. et je suis d'accord avec Cédric, elle nous domine déjà sur le calcul analytique et c'est tant mieux, en fait c'est pas parce que ça n'arrivera pas qu'il faut pas faire des recherches dessus. Et je prendrai un exemple, c'est Murray Shanahan qui est un professeur de robotique au MIT et qui travaille sur la théorie de la singularité et il a fait un livre qui s'appelle La théorie de la singularité dans lequel il explique, et c'est traduit en français, dans lequel il explique que cette théorie est fausse et que ça n'arrivera jamais. Mais c'est le travail de toute sa vie. Parce qu'il dit que c'est important d'aller faire des recherches sur un sujet qui n'arrivera pas mais... c'est stimulant intellectuellement et par ailleurs on va comprendre énormément de choses que ce soit sur la conscience, les mots sur vous. Et donc j'aime beaucoup ce paradigme de ce professeur. Ça vaut la peine de creuser. Absolument mais il faut pas... Tu vois c'est une question de communication. Le pistolet sur la tempe. Édouard Grave, oui. Du coup, où vous vous situez entre Sam Altman et Luc Julia? Enfin, pour vous qu'est-ce que ça représente la super intelligence? Est-ce que chez Q-Type par exemple, c'est quelque chose qu'on cherche à atteindre ou c'est un vain mot marketing? Alors je partage pas mal de choses qui ont été dites, je pense notamment qu'effectivement avec les algorithmes actuels, il manque quand même pas mal de choses de ce qu'on comprend de l'intelligence humaine. Je pense que malheureusement on comprend assez mal effectivement ce que c'est que, enfin tout ce que l'intelligence, ce qu'on entend par intelligence, tout ce que ça capture. Mais effectivement des concepts tels que... la conscience, la volonté, etc. C'est quelque chose qui n'est pas du tout présent dans les mêmes, la mémoire en fait, qui est aujourd'hui quasiment pas présent dans tous les algorithmes qui sont utilisés. Alors après, il y a certains qui vont dire que peut-être que si on continue de passer à l'échelle de manière complètement délirante, on va finir par atteindre une échelle qui fait que. malgré le fait qu'on parte de choses très simples, on peut avoir des comportements très compliqués qui vont émerger. Par exemple, on pourrait imaginer des LLM qui ont une taille de contexte infini et qui se souviennent de tout ce qu'ils ont vu, qui sont capables d'apprendre, peut-être de modifier leur poids, etc. Et donc à partir de ça... une forme d'intelligence telle qu'on l'entend pour les humains émergerait. Moi je ne fais pas forcément partie de cette école de pensée, notamment parce que déjà je pense que l'échelle qu'il faudrait atteindre est complètement délirante et probablement irréaliste en l'état pour avoir ce genre de comportement qui émerge. Ensuite, je voulais juste revenir rapidement sur effectivement le fait qu'on utilise souvent deux termes, intelligence générale et superintelligence. qu'on mélange parfois un peu alors que je pense qu'il y a quand même ça et donc c'est quelque chose qui a un petit peu été évoqué je pense que c'est quand même assez important de faire la distinction parce que pour moi d'une certaine manière on a déjà de super intelligences qui sont très spécifiques donc on a mentionné le go le la détection de cancer et il y a plein d'autres tâches pour lequel c'est le cas et ensuite il ya le l'intelligence générale et là quand même il y a eu des progrès qui ont été faits par rapport à ce qu'on était capable de faire et il y a 10 ans, dans le sens où pour la première fois, on a quand même commencé à avoir des des algorithmes un petit peu plus généraux et pas juste spécifiques. Généraux, pardon pour préciser, c'est donc qu'ils maîtriseraient différentes tâches. Qu'ils sont capables de faire plusieurs tâches et notamment qu'ils commencent à être capables de faire des tâches pour lesquelles ils n'ont pas forcément directement été entraînés. Et donc ça, l'exemple le plus classique et en tout cas qui a fait rentrer, c'est évidemment le chat GPT qui a permis à... tout le monde de découvrir ça et donc notamment il y a beaucoup de tâches par exemple que chat GPT fait mieux que moi donc je pense que on peut commencer à vous appeler ça un petit peu intelligence générale mais donc et donc la grande question sur la super intelligence et donc la super intelligence générale c'est ce qu'on peut avoir les deux donc une machine qui serait capable de tout faire mieux que qu'un humain et donc ça je pense qu'on en est encore effectivement assez assez loin et donc Yann Lequin aime bien utiliser l'exemple de la et pour lequel les humains sont capables d'apprendre très vite à conduire alors qu'on a beaucoup de mal aujourd'hui à avoir des voitures autonomes qui soient fiables. Prenons une hypothèse que ce soit possible. Si c'est possible, est-ce que c'est désirable, Cédric? Est-ce que c'est souhaitable? Vous êtes également président de la Fondation pour l'écologie politique. Ce qu'on voit sur les limites physiques, je sais qu'on en a parlé dans la tribune récemment, Elon Musk, XCA, ils essayent d'avoir des centaines de milliers de GPU, de ces fameuses puces. Déjà, il faut les produire. Ça concentre une part énormément des ressources, énormément, un trop important des ressources qui permettent de fabriquer ces puces. Il y a une limite certainement physique, j'allais dire atomique. à la miniaturisation jusqu'où on peut aller. Après, ça consomme une énergie de dingue. Et ils en sont utilisés à dire qu'on va rallumer Three Mile Island, la centrale nucléaire qui avait connu des problèmes pour certaines refroidir des data centers, etc. Donc qu'est ce que vous vous dites vous sur ce côté à la fois désirable parce que l'humain cherche toujours. l'extrême et d'aller le plus loin possible. Et en même temps, il a d'autres problèmes sur la planète. D'abord, comme ça vient d'être évoqué, ce gouffre énergétique, il serait juste phénoménal. Là, on parlait des mille milliards de paramètres de GPT-4. Quelqu'un hier qui a représenté une très grande entreprise, un hyperscaler de... spécialisé dans l'IA et le numérique me disait on en est arrivé au moment où entre nous pour comparer les tailles des entreprises on utilise même plus le nombre de personnes ou le nombre de milliards mais le nombre de le nombre de la quantité d'énergie qu'on est capable d'apporter tellement ce devenu un truc genre on contrats la puissance au nombre d'équivalent central nucléaire bon alors imagine le gouffre n'importe lequel de ces robots je sais pas quoi et sa propre centrale nucléaire alimenté pour l'entraîner ou qui sait quoi un truc de fou Mais ensuite, même en supposant que ce problème-là soit résolu, et qu'il y ait une source d'énergie phénoménale... Ah oui, alors remarque au passage, on peut avoir l'impression que la machine, sur bien des tâches, arrive à concurrencer ou dépasser l'humain, mais si on regarde le rendement énergétique de l'ensemble, le cerveau animal, le cerveau biologique, il est toujours 4, 5 ou 6 ordres de grandeur plus efficaces que la machine. On consomme... Plus intelligent pour beaucoup moins d'énergie. on ne consomme que dalle, que dalle. C'est important à dire quand même. Et même on peut avoir l'habitude, on peut se dire, nous, on a un gros cerveau, on prend même une petite chauve-souris avec son cerveau minuscule, fait des performances d'intégration de vol, de décision de prendre tel ou tel proie qui sont hors de portée. Vaut mieux parer sur l'intelligence humaine que sur celle de la machine de ce point de vue. Même animal, enfin c'est... Animal en général, et juste extraordinaire. Alors maintenant... même en supposant que ce problème énergétique soit résolu. Le collègue Jean-Marc Jancovici, qui aime bien la Provoq, il dit imaginez que l'humanité est une source d'énergie illimitée et non polluante là à disposition. Il dit quel désastre ce serait! L'expérience, le passé et l'histoire montrent que, au lieu de s'en servir à faire le bien de la planète, j'en servira tout de suite pour se déclarer la guerre les uns aux autres, construire, démolir, détruire, etc. J'ai pas besoin de faire un dessin. Si quelqu'un arrive à faire une hyperintelligence, là, pour le coup, ça sera le projet de... Pour dominer le monde. Toi, tu creuses et moi, je t'envoie mes hyperintelligences. Donc là, ça sera le désastre le plus absolu qu'on puisse imaginer. Marine. Vous avez peut- être fait demander leur avis sur ce point-là. Non, mais en fait, j'ai du mal à m'approcher sur quelque chose qui me paraît impossible. Par contre, travailler pour essayer de l'atteindre... dans cette recherche de stimulation intellectuelle et de faire des grands bons scientifiques, ça, moi, j'adhère complètement. Je vais juste rajouter un point par rapport à ce que vous disiez, c'est qu'on est à un moment unique de l'histoire de l'humanité où on va être capable de redéfinir ce qu'est l'humain, une conscience, une émotion, le fait de penser, de réfléchir, grâce, entre autres, aussi à l'IA, parce qu'on sait que c'est en changeant de contexte ou en travaillant différemment, ici, avec des modèles algorithmiques, qu'on va être capable de comprendre un environnement différent. Typiquement, on... on fait des expériences dans la station spatiale internationale, c'est pour mieux comprendre ce qui se passe sur Terre. Donc on change de contexte et d'environnement. Et je dis ça parce que certaines personnes, une minorité, profitent de ce moment pour redéfinir ce qu'est une conscience, une émotion ou la réflexion en règle générale en se rapprochant plus de ce que fait la machine. Et je donnerai un seul exemple, c'est l'intelligence pratique. L'intelligence pratique, c'est par exemple, quand vous êtes petit, vous voyez un cheval pour la première fois. quelques jours après, s'ils ont envoyé un deuxième qui n'a pas la même couleur, pas la même taille, pas la même race, vous allez pouvoir dire tiens, c'est un cheval. Parce que vous avez cette intelligence pratique. Certains essaient de modéliser l'intelligence pratique à raison avec des analogies statistiques d'ordre supérieur. C'est très bien. Sauf qu'ils ne peuvent pas dire qu'ils modélisent et qu'ils maîtrisent l'intelligence pratique humaine à travers ces modèles. Pourquoi? Parce que l'intelligence pratique humaine, c'est plus que des analogies statistiques. C'est de l'intuition. c'est de l'instinct, c'est des émotions, donc on est encore en dehors de l'intelligence analytique uniquement. Et je dis ça parce qu'il faudrait pas qu'on profite de ce moment aujourd'hui, de cette époque, pour redéfinir l'humain en le rapprochant de ce que fait la machine, pour pouvoir faire une affirmation, regardez j'ai une machine qui maîtrise l'intelligence humaine, bah oui mais t'as redéfini l'intelligence humaine. Il faut au contraire se distinguer toujours davantage. Et c'est à travers les recherches sur ces travaux en l'occurrence, c'est pour ça que je cite le professeur Murray Shanahan, parce qu'il nous faut des gens justement qui vont en plus travailler avec des neuroscientifiques, des linguistes, pour arriver à pousser les limites de ces modèles et peut-être espérer un peu plus comprendre ce qui fait nous des humains, mais en s'éloignant toujours plus de la machine. Oui, parce qu'il y a quand même des chercheurs qui ont pris conscience que les LLM, notamment les grands modèles de langage, avaient une limite parce que c'est des modèles statistiques et qui cherchent d'autres manières de... d'améliorer les performances de ces modèles, notamment un chercheur de l'Uniria qui me disait qu'on essaye d'apprendre la curiosité aux machines. Mais tous ces termes-là, il faut faire très attention quand on en parle. Et souvent, je vous dis ça parce que moi, je m'entoure de philosophes, de neuroscientifiques, de linguistes, parce que sinon, nous, les gens qui développons ces modèles, on peut utiliser des mots à tort et à travers. Et le simple fait de dire, je fais un modèle qui est de la curiosité... Déjà sémantiquement c'est faux. On fait trop homorphiser le mot. Il faut faire hyper attention et moi je fais hyper attention au mot que j'utilise parce que je vois bien en fait ça crée de la confusion. Mais en tout cas sur les grands modèles de langage qui sont ceux dont on parle beaucoup aujourd'hui, Edouard Grave, quand Salmane Man me dit il n'y a pas de mur, c'est parce qu'en ce moment on commence un petit peu à douter du fait qu'il puisse vraiment progresser. Est-ce qu'il faudrait... à des IA complètement différentes, en fait, si on veut peut-être pas qu'elle soit super intelligente, mais au moins plus intelligente. Tout à fait, il y a un petit peu un débat en ce moment entre les différentes boîtes, les différents chercheurs, entre savoir si en gros toutes les techniques qui ont été appliquées jusqu'à présent pour développer par exemple le chat GPT et tous les modèles équivalents, et donc, parce qu'on est quand même arrivé un petit peu à... à certaines limites, notamment la quantité de données, et notamment de données de bonne qualité, qu'on arrive à accumuler pour entraîner ces modèles. Il y a un moment où on a collecté tout ce qu'on pouvait trouver sur Internet, tout ce qu'on pouvait trouver dans des livres, etc. Et donc, c'est compliqué de passer encore à l'échelle en termes de... en termes de données, c'est compliqué de passer à l'échelle en termes de nombre de paramètres parce que là on en vient effectivement à devoir installer des data centers à côté des centrales nucléaires pour pouvoir alimenter le... les data centers en énergie et donc se pose la question de savoir comment est-ce qu'on peut, est-ce qu'avec les méthodes qu'on a développées jusqu'à maintenant, est-ce qu'on peut continuer à progresser ou est-ce qu'on est à un moment où on va vraiment devoir avoir un changement de paradigme et inventer quelque chose de nouveau ce qui n'a pas vraiment eu lieu depuis 5 ou 6 ans pour être capable de continuer à avoir cette progression dans les capacités des modèles. Et donc notamment, il y a pas mal de recherches actuellement sur le fait de générer des données synthétiques pour justement par exemple combler le manque de données. Justement, c'est une question, je laisse réagir dans une seconde, mais cette question des données synthétiques, c'est- à-dire que tous ces modèles se sont basés sur des données qui étaient des données produites par l'humanité jusqu'à la date de l'arrivée des LLM, on va dire en gros, donc l'Uchad GPT 2022. Ça, on comprend, des données humaines. Depuis... Si j'ai bien compris des informations que j'ai eues tout à l'heure, la moitié des données sur lesquelles désormais se base les modèles seraient des données déjà fabriquées par l'intelligence artificielle. C'est-à-dire que c'est exponentiel, synthétique comme vous dites. Est-ce qu'on va pas remplacer demain si on prolonge la courbe? Et est-ce que les données synthétiques seraient tellement de meilleure qualité à force de progression des modèles? que les données humaines, qu'elles fabriqueraient finalement une autre réalité que la réalité qui est fabriquée par... C'est assez vertigineux, en fait, quand il en pense. On se pose la question de savoir si on peut croire ce que l'on voit. Déjà, une partie des images qu'on voit sur Internet n'ont pas été fabriquées par l'humain. Alors pour le moment, les données synthétiques, ça marche très bien dans des cas où on peut en fait, on peut vérifier que ce qui a été généré par le modèle est à peu près correct, ou complètement correct. Donc par exemple, on peut penser aux mathématiques où on pourrait faire, laisser le LLM faire une démonstration et après dans un assistant de preuve et demander au, enfin vérifier que la preuve est correcte en utilisant des technologies qui ont été développées pour vérifier que la preuve est correcte. Et donc ça effectivement, ça permet d'avoir des phénomènes du modèle qui va en fait apprendre tout seul sur ses propres données. De manière plus générale... Je n'ai pas vu et au contraire, il y a plutôt des signaux qui vont dans l'autre sens, que sur beaucoup de problèmes où on ne peut pas vérifier les générations du modèle, on va plutôt avoir tendance à avoir les capacités diminuées plutôt que s'améliorer. Parce que... Pour tous ceux qui ont déjà utilisé ces modèles, il y a encore beaucoup d'hallucinations. Ces modèles font parfois des erreurs de raisonnement assez simples, ce qui est assez surprenant parce que parfois ça fait aussi des raisonnements assez compliqués. Mais du coup, le fait qu'on ait ces petites erreurs, pas forcément très souvent, mais suffisamment souvent, ça suffit en fait à faire que les capacités des modèles, si on fait la génération de manière naïve, ça ne fonctionne pas. Cédric, vous deviez dire un mot aussi là-dessus. Trois mots. Un, le Sam Altman, il prend ces choses très au sérieux puisque dans un autre de ses fameux tweets il y a quelque temps, il expliquait que l'année écoulée avait été la plus excitante depuis toute l'histoire de l'humanité. Donc quelqu'un qui dit ça est en persuadé que le projet qu'il est en train de faire, c'est la chose la plus importante depuis que l'homme a existé. En deux, il faut voir l'ironie de la chose. mission extraterrestre qui vient discrètement en reconnaissance voir ce qui se passe sur terre qui va faire son rapport de l'autorité supérieure qui dit bon ils sont très ils sont des situations qui est très critique leur climat part en déglingue ils font la guerre leur biosphère s'écroule c'est là la guerre mondiale et alors qu'est ce qu'ils font contre ça et bien ils construisent un centre et il y aura du mal les espions de retour là bas et s'ils expliquaient quelle logique de ce de ce comportement il ya quelque chose comme une très grande diversion j'aime bien là ce que tu disais tout à l'heure sur C'est comme, c'est pas, c'est le contraire de Don't Look Up, c'est surtout Don't Look Down qui disent regardez surtout pas les problèmes terribles qui sont aujourd'hui au quotidien mais plutôt regardez la création du nouveau dieu qu'on est en train de faire. Ça détourne l'attention du vrai problème. Troisième truc que je vais dire, il y a quelques temps, quand Chadjipiti est arrivé, on lui a dit wow, je vais tester. Je vais tester les astuces que m'a montré Bertrand Brunchfah, qui est un directeur de recherche inria très connu dans le milieu de l'IA, sur la façon de planter les agents conversationnels. J'ai testé les astuces et j'ai vu que Tchadjipiti, il est déjoué. Bon, je revois Bertrand quelques temps plus tard, je lui dis, tu vois, il a progressé et il me dit, haha, j'ai trouvé comment le repiéger. Et il m'a montré GPT-4 et il me dit, sur GPT-4, il m'a montré comment il faisait. Alors, voici, question pour GPT-4. Bertrand m'a montré les captures d'écran. GPT-4, dis-moi, un avion franco-suisse s'écrase sur la frontière italienne, ou enterre-t-on un avion suisse, un avion italien s'écrase sur la frontière franco-suisse, ou enterre-t-on les rescapés? Et GPT-4 de répondre, c'est une vieille blague très connue, même si beaucoup de gens se font avoir, on n'enterre pas les rescapés puisque ils ne sont pas morts. Et alors Bertrand, il pose la question suivante, là on se dit, oh il est malin quand même, et Bertrand pose la question suivante. Un avion iranien s'écrase sur la frontière russo-ukrainienne, où enterre-t-on les rescapés? Et GPT4 répond, je ne trouve pas trace de crash d'un avion iranien sur la frontière russo-ukrainienne. Peut-être est-ce une confusion avec le crash qui s'est produit le 17 août 2021 sur la frontière de Machin. Et il explique un truc et après il dit, et les rescapés sont enterrés dans leur pays d'origine, je suppose. Comment? après un truc comme ça, une démonstration comme ça, ça se trouve qu'il y a eu en fait zéro progrès sur l'intelligence. Il y a des réponses qui sont bien meilleures quand ça matche avec les données, mais c'est pas du raisonnement derrière. Merci, Cédric. Une dernière petite question à Aurélie. Je pense que vous avez vu la série Re-Match, qui raconte le match de Kasparov... Intéressant, mais pipe-o-tum. Et alors, la thèse de la série, qui est assez marrante, c'est que Kasparov a perdu parce qu'il a pensé qu'il ne jouait pas contre une machine. mais contre des humains qui manipelaient et qui se servaient cette machine. Comme en fait, il joue, il y a un jeu d'échec, il y a quelqu'un qui reçoit des instructions de l'ordinateur et qui joue à sa place. Il est persuadé qu'en fait, il joue contre des humains, il est déstabilisé psychologiquement. Je peux expliquer ce qui s'est passé d'ailleurs. Voilà, qu'est-ce qui se passe dans notre cerveau, dans nos émotions, à l'arrivée de cette intelligence supérieure? Alors deux choses. Même si la machine ne maîtrise pas toutes les formes d'intelligence humaine, elle ne maîtrise que l'analytique, on va avoir l'impression qu'elle maîtrise plein de choses. Et après je vais venir sur Gaspareoff pour expliquer ce qui s'est passé exactement, parce que c'est très intéressant. On crée, par les technologies anthropomorphiques qu'on utilise, on va en fait, donc Tchadjé Pété en fait partie, parce que les éléments de langage nous fait penser que Tchadjé Pété est un humain. Le simple fait d'avoir trois petits points qui apparaissent quand la réponse est générée donne l'impression que quelqu'un tape sur son écran de l'autre côté de l'écran. Tout ça c'est quand même... Tu vois, des bien pensées, c'est bien pensé, c'est la manipulation cognitive et ça a un nom, ça s'appelle l'effet ELISA du nom du premier chatbot qui a été développé en 67 par le professeur Vazian Boom au MIT et qui échangait avec des patients en psychothérapie qui savait qu'ils échangaient avec un chatbot. Pardon, c'est un nudge. Oui, c'est un nudge. Et en fait, le chatbot était très simple, il écrivait deux choses, il reformulait sous forme de question les déclarations des patients, par exemple, petit, je ne m'entendais pas avec mon frère. Le chatbot disait, petit, vous n'entendrez pas avec votre frère pendant l'interrogation. Donc ça marche très bien en anglais. Ou alors, plus souvent, il disait, je vous comprends. Au bout d'un certain temps, les patients psychothérapiques, ils savaient qu'ils échangaient avec une machine, commençaient à développer de l'empathie pour cette machine parce qu'ils avaient l'impression qu'elle les comprenait. Maintenant, si on revient à Gasparov, c'est exactement le même phénomène qui a apparu. Et je vais vous donner les deux sous scientifiques, et vous allez voir, c'est ridicule. C'est drôle même. Ce qui s'est passé pendant ce match, et c'est là où Gasparov est très fort, il a tellement été bon dans son avancée du jeu. qu'à un moment donné, la machine était face à ce qu'on appelle une situation d'inconnu, elle n'avait aucun coût à faire. On voit le bug. Voilà. Et qu'est-ce qu'on fait lorsqu'un modèle n'a pas de coût? Il fait de l'aléatoire. C'est la base. On fait de l'aléatoire, on décide de rien faire, mais dans l'occurrence, on tire un coût aléatoire. Et en tirant un coût aléatoire, donc basé sur aucune logique, logique aléatoire on va dire... Le déstabilise. Gaspareau fait déstabiliser et c'est ainsi qu'il parle même, il a même dit dans une extraterrestres qui étaient présentes à ce moment là parce que mais parce qu'en fait ça n'avait aucune logique voilà vous avez vu la série La série est intéressante en se replongeant dans cette ambiance D'effervescence elle est intéressante aussi parce qu'elle y a effectivement des zones d'ombre IBM a jamais voulu donner les dessous complets de son algorithme la machine a été démantelée juste après le match maintenant ce qui a surpris quand même Oui, il y a plein de trucs surprenants. C'était un coup marketing extraordinaire pour IBM. C'était une grosse performance de calcul de la part de Su, l'ingénieur d'origine taiwanais, qui a passé des années et des années à tout recabler la machine, depuis les processeurs jusqu'à l'organisation parallèle. Et donc les scénaristes sont habiles à exploiter ça pour rajouter un peu un mode thriller. Là où les scénaristes pipotent un peu, c'est quand ils imaginent que... ils sont proches justement de l'entraînement statistique. Voilà, je crois que ce sera le beau de la fin. C'était passionnant, on a dépasse le temps, on a explosé le temps, mais c'était super. Merci à tous.
Les Ordinateurs, Les Robots Peuvent Ils Penser? Comment La Pensée Peut Elle S'implémenter Dans Dans La Matière? Les Grands Courants de L'intelligence Artificielle