Les selfies de binaire : Charlotte

Suite et fin provisoire de notre série les selfies de binaire. Après Thierry, Pascal,  Antoine et Marie-Agnès, Serge,  Charlotte Truchet nous dévoile un secret.

 

Charlotte Truchet,
Chercheuse sans contrainte.

 Ton parcours

Quand j’étais petite, je faisais Licence d’informatique. Mais comme je n’étais pas trop heureuse dans mon école, j’ai envoyé des CV à des journaux scientifiques pour trouver un stage. Et là, paf, surprise, le magazine La Recherche me prend à l’essai comme pigiste ! J’ai pris une claque comme jamais : les bouclages, la rédaction, les enquêtes… je ne savais rien faire. Ça a été très dur au début, et puis petit à petit j’ai appris et j’ai adoré : c’est tellement important de transmettre la science nue, crue, pure. Tout le monde ou presque est d’accord là dessus, mais peu de gens s’y collent vraiment… Peu importe que l’audience soit parfois en deçà des espérances, peu importe que le public ne comprenne pas tout – le lien entre scientifiques et grand public doit être entretenu, à tout prix.

Bref, je suis restée 3 ans à La Recherche, je suis passée rédactrice, et après je suis retournée à l’école : j’ai fait une thèse et je suis devenue universitaire. Cette histoire m’a rendue durablement schizophrène : comme ancienne journaliste, je trouve que les chercheurs abusent grave quand ils vulgarisent (à pinailler sur deux virgules, à tout compliquer, à exiger des affiliations illisibles longues de 10 km…). Comme chercheuse, je trouve que les journalistes se foutent de la gueule du monde (à trop simplifier, à ne pas assez vérifier, à chercher le buzz). Grâce à Binaire, au moins, ma schizophrénie sert à quelque chose !

Ton domaine de recherche

© users.cecs.anu.edu.au/~jks/G12

Je fais de la programmation par contraintes, mais je vais pas m’étendre parce que j’en ai déjà parlé ici. J’aime bien travailler sur des problèmes mal formulés, surtout si c’est en collaboration avec des non-informaticiens : j’ai fait ma thèse en informatique musicale, puis j’ai travaillé avec des urbanistes et maintenant des chimistes. C’est difficile, on ne se comprend pas mais on s’enrichit. Tout le monde a plein de problèmes fondamentalement informatiques, sans le savoir ! Et c’est joli quand on arrive à s’y attaquer sans que personne n’y perde son identité.

 Quelle est l’évolution de ton domaine ?

© mnemonas

Comme tout le monde, je suis ébahie par l’irruption de l’IA dans le débat public. La programmation par contraintes, c’est de l’IA au sens scientifique, mais pas au sens grand public. Alors forcément, la vie est compliquée. C’est un peu inquiétant de voir l’essentiel des ressources scientifiques du moment concentrées sur un domaine connu pour une seule techno visible (l’apprentissage), et aux contours soigneusement mal définis. Enfin, on survivra. De toutes façons mon domaine, traditionnellement centré sur les méthodes de résolution (qu’on veut toujours plus rapides et plus efficaces), s’ouvre maintenant sur d’autres disciplines, et c’est une bonne chose. L’informatique est trop jeune pour être cloisonnée.

Le plus et le moins dans ton activité de recherche

Le plus : Je ne saurais pas le formuler, j’adore mon métier, c’est tout. J’aime particulièrement travailler au tableau avec des belles notations et d’autres personnes. Le côté esthétique est très important. La qualité des autres personnes, aussi ! Travailler au tableau, c’est partager beaucoup de choses : des intuitions, des idées lumineuses ou foireuses, des blagues, des échecs… L’avantage à l’Université c’est qu’on peut partager ça avec des gens fantastiques (et qu’on n’est pas obligé de le partager avec des gens pas fantastiques). C’est une liberté fondamentale qui nous permet de survivre à presque tout, je pense.

Le moins :  C’est plus facile à identifier, c’est l’administration qui nous bouffe. Quand j’entends un chef dire « ça on va demander aux enseignants-chercheurs de le faire, ça ne prend pas trop de temps », j’ai envie de tuer quelqu’un.

Numérique et éducation … vous avez dit #CreaSmartEdtech ?

Et si on donnait des tablettes à tous les enfants pour qu’ils apprennent par eux-mêmes en jouant ? Ou … pas ! Les liens entre numérique et éducation provoquent des débats d’opinion sans fin. Mais qu’en est-il dans les faits ? Et surtout : comment outiller les professionnel·le·s de l’éducation face à ce que le numérique peut apporter, pour accompagner la transformation de l’éducation vers plus de sens et le développement de compétences clés du 21e siècle.. Il y a maintenant des formations qui adressent spécifiquement ces enjeux et aident à fournir des réponses, allons en découvrir deux. Thierry Vieville

Le Master Education et Technologie (EdTech) [dit AIRE] du Centre de Recherches Interdisciplinaires (CRI Paris / Université Paris Diderot et Université Paris Descartes) est la première formation universitaire consacrée à ce nouveau champ d’activité en France. Il prépare, à Paris, des chercheur·e·s, entrepreneur·e·s, enseignant·e·s, médiateur·e·s, à comprendre la transformation de l’éducation à l’heure du numérique et à concevoir des projets utiles, pertinents et ambitieux avec les meilleurs outils numériques. Ce master repose sur une pédagogie créative et interdisciplinaire.

©UCA

L’Université Côte d’Azur (UCA) ouvre un nouveau programme pour former les professionnels du numérique éducatif, avec 90% de cours en ligne et deux semaines intensives pour faciliter la participation d’étudiants internationaux. On y développe une approche du numérique à la fois participative, critique et créative, tout en incluant résolument les enjeux sociaux et économiques. On y aborde tant la compréhension des sciences du numérique, que les processus d’innovation dans l’intégration du numérique en éducation, les démarches de co-création ou encore l’apprentissage par le jeu et l’approche « par le faire ».

https://margaridaromero.files.wordpress.com/2016/11/diapositive11.png
© margaridaromero.wordpress.com

Une démarche et une méthode commune.

À notre connaissance, ce sont les deux seules formations disponibles sur notre territoire, au delà de formations limitées à l’utilisation de technologies. Les deux formations ont la particularité d’enseigner l’innovation et la différenciation en pédagogie de manière… innovante et différenciée : faisons, ensemble, ce qu’on dit qu’on va faire. Elles ont un objectif commun : former aux pédagogies du 21e siècle afin d’apprendre à utiliser et à comprendre les atouts du numérique pour l’éducation, mais aussi ses limites. Sans oublier le nécessaire questionnement à propos du sens et de l’impérieuse nécessité de l’éducation, dans un monde connecté où cohabitent démocratisation  de l’accès à de nombreuses ressources en ligne, et inégalités toujours plus criantes entre pays comme entre individus. Le numérique offre de nombreuses opportunités pour les enseignants comme pour les professionnels de la création de ressources. Mais, face aux nombreux « mythes » qui entourent le numérique éducatif (panacée ou repoussoir…) il est plus que jamais nécessaire de travailler ensemble, afin d’irriguer pédagogie et didactique au sein des EdTech, et de permettre aux enseignant·e·s et autres professionnel·le·s de l’éducation de maîtriser les EdTech.

Tout au long du programme, l’étudiant est amené à réfléchir sur son propre projet à l’éclairage des différents enseignements qui lui sont proposés. Il est accompagné pendant son parcours de manière personnalisée grâce à l’expertise d’enseignants-chercheurs et de partenaires industriels. Le programme permet aussi de découvrir certains domaines dits “disruptifs” de la pédagogie : remise en cause des modèles pédagogiques et des savoirs dominants, recentrage de l’apprentissage sur la créativité et l’analyse critique,  mise en place de pratiques d’enseignements alternatives hors classe. Les processus d’innovation dans l’intégration du numérique sont questionnés, les processus d’apprentissage décortiqués afin d’ouvrir les espaces pédagogiques à la co-création, à l’apprentissage par le jeu et à une pédagogie de l’expérience.

Comprendre aussi comment se passe l’éducation ailleurs, ouvrir des possibilités de collaborations internationales sont deux des bénéfices de cette volonté d’ouverture.

Trois exemples de cours du Msc #CreaSmartEdtech

©UCA

Introduction à la démarche de “maker” et à la robotique éducative. Ce cours développe une approche de curiosité et de construction participative en éducation dans laquelle les participants s’engagent activement dans une démarche de construction tangible pour apprendre à apprendre. Le travail d’équipe et les attitudes co-créative (curiosité, tolérance de l’ambiguïté, tolérance à l’erreur, prise de risque) seront valorisées durant le cours.

©Inria

Initiation à l’informatique éducative. Ce cours, basé sur Class´Code, amènera l’étudiant à comprendre et prendre la main sur les outils informatiques en lien avec les technologies éducatives, et à se forger une vision des grandes notions actuelles (apprentissage machine, web sémantique…) en lien avec la pensée informatique. Les prérequis techniques sont minimaux, et les différences de niveaux serviront de levier pour pratiquer une pédagogie différenciée.

©Skema

Introduction à l’éducation et à la pédagogie “disruptive”. Ce cours a pour but de développer la compréhension de diverses formes de création. À travers des séries d’activités et de recherche, les participants utiliserons de nouvelles méthodes de pensées issues des principes de l’effectuation pour créer leur propre vision de la disruption en abordant un problème complexe qu’ils veulent résoudre.

Pour toute demande de renseignements sur cette formation un contact mail: msc-edtech@univ-cotedazur.fr, facebook ou twitter est disponible.

Une formation de Master et un MSc.

Mais les modèles économiques de ces deux formations sont très différents. La première aboutit à un diplôme national et est entièrement financée avec l’argent de l’État ; elle est donc accessible aux étudiant·e·s avec des frais d’inscription minimaux. L’autre est une formation universitaire (nommée MSc en anglais) qui offre le même niveau Bac+5 en sortie, mais qui doit être autofinancée. C’est un profond sujet de controverse. Un camp va défendre la quasi-gratuité de l’enseignement universitaire, un autre la nécessité que l’université devienne plus attractive, donc soit mieux financée (sans augmenter encore les impôts). Bon, alors : on … fait quoi ? Le MSc #CreaSmartEdtech a pris le risque d’essayer de trouver une « voie du milieu ».
– Formation payante, certes, mais en utilisant au maximum les formations en ligne, en recherchant des financements multiples qui permettent de doter les étudiants de bourses, en restant dans un cadre sans but lucratif, on passe de montants de l’ordre de 4000 € à environ 1500 € par an, avec ces bourses. Concrètement, pour ces étudiant·e·s la barrière financière est le fait de vivre en faisant des études, et proposer une formation majoritairement en ligne aux horaires flexibles cumulable avec un emploi leur offre une vraie solution.
– Formation performative, la problématique du coût des études (surtout à l’échelle internationale) est en soi un enjeu majeur de l’éducation du 21ème siècle ; les étudiant·e·s de ce MSc suivront un enseignement sur ce sujet et sont déjà confrontés à des travaux pratiques ! À savoir financer leur voyage et leur séjour pour venir profiter de cette formation, par exemple avec des financements participatifs.
– Formation qui joue collectif au sein de l’offre de formation de son université, loin de vouloir faire disparaître les enseignements nationaux actuels, cette formation va surtout essayer de renforcer l’attractivité de toutes les formations que propose son université d’accueil.
Sommes nous complètement utopistes ? Voir même naïfs ? Essayons ! Au moins nous saurons.

Mélanie Ciussi, Nathalie Colombier, Saint-Clair Lefèvre, Irina Yastrebova Otmanine, Margarida Romero, Cindy De Smet, Thierry Viéville.

Les selfies de binaire : Serge

Suite de notre série les selfies de binaire. Après Thierry, Pascal,  Antoine et Marie-Agnès, Serge Abiteboul nous dévoile son univers.

 

Serge Abiteboul
Chercheur en données

 

 Ton parcours

Je suis chercheur en informatique. Je me suis pas mal ennuyé au collège, au lycée, en prépa, et en école d’ingé. J’ai découvert l’informatique en master au Technion de Haïfa, par hasard. J’ai fait un PhD à USC, Los Angeles, parce que j’avais envie de découvrir la Californie et j’ai surtout découvert que je voulais être chercheur. Depuis, j’ai passé la plus grande partie de ma vie chez Inria, avec à coté deux ans à Stanford, une chaire au Collège de France, du temps dans d’autres universités, et une startup (Xyleme), entre autres. J’écris aussi des romans et des essais. Récemment, j’ai rejoint le Collège de l’Arcep où je travaille sur la régulation des communications électroniques et de la poste. Je n’ai plus trouvé le temps de m’ennuyer et parfois je le regrette.

Ton domaine de recherche

J’ai fait une thèse sur les bases de données relationnelles parce qu’il fallait bien choisir un sujet. C’était un domaine en friche. Ça m’allait bien parce que je suis fainéant et que c’est plus simple d’obtenir des résultats au début d’un domaine que quand il est bien mûr. Je suis passé des bases de données, aux bases d’informations, aux bases de connaissances, à la gestion de données distribuées, entre autres. L’info théorique pure, ce n’est pas mon truc. Trop abstrait. Juste le développement de système, non plus. Trop pratique. J’aime bien vivre dans la zone grise entre les deux. Il y a plein de  façons différentes de faire de la recherche.

Quelle est l’évolution de ton domaine ?

La gestion de données mue sans arrêt en particulier avec les transformations des capacités de stockage et de calcul. Quand j’ai commencé, on mesurait les mémoires en Kilooctets. Aujourd’hui c’est en Gigaoctets. Un million de fois plus ! Ça tombe bien, de plus en plus de données sont disponibles. Le grand truc aujourd’hui, c’est l’analyse de ces données.

Le plus et le moins dans ton activité de recherche

Le plus : Des moments : quand on s’éclate sur un problème avec des collègues, quand on arrive à prouver un truc cool ou quand le système sur lequel on bosse depuis des plombes se met à fonctionner, quand on voit une lueur briller dans le regard d’un.e étudiant.e…

Le moins : Quand une preuve résiste. Quand un bug vous bloque. Quand la lueur n’arrive pas…

Science-fiction et fiction du droit

Un travail collaboratif sur la relation droit et robot [1] a été réalisé par les étudiants de Master 2 sur la base des mouvements Droit et littérature et Droit et cinéma. L’ambition de ces deux mouvements est de promouvoir l’interdisciplinarité et la compréhension du droit par l’entremise des arts. Ce travail de recherche, dans une approche interdisciplinaire des catégories juridiques, a été réalisé sous la coordination de Diana Villegas, Maître de conférences à l’Université Paris II Panthéon Assas. Binaire leurs donne la parole. Serge Abiteboul, Marie-Agnès Enard.

Robots chirurgiens, robots ménagers, robots sexuels, véhicules autonomes… Les robots sont partout et prennent une place à part entière dans notre quotidien. L’expansion des robots et le développement de l’intelligence artificielle (IA) ouvrent de nouvelles perspectives accompagnées de certains dangers appelant un encadrement juridique. Cependant encore faut-il savoir ce que l’on encadre.

Plusieurs définitions du mot « robot » ont vu le jour depuis la première utilisation par Karel Capek en 1920[2] : certaines désignent la machine imitant l’Homme ; d’autres, une personne agissant de manière automatique. Pour Isaac Asimov, « un robot n’est pas tout à fait une machine. Un robot est une machine fabriquée pour imiter de son mieux l’être Humain »[3].

En droit français, il n’existe pas de définition juridique du robot ou encore de l’IA et celle-ci ne semble pas nécessaire à partir du moment où il est possible de les faire rentrer dans l’une des deux catégories fondamentales du Code civil : personne ou chose.

Cette distinction commande notre vie de tous les jours. Une personne, au sens juridique, est dotée de la personnalité juridique. Cela signifie que le droit lui reconnaît la faculté de jouir des droits et de les exercer, d’être soumise à certaines obligations ou encore d’être à la tête d’un patrimoine. Ce patrimoine étant constitué de biens et notamment de « choses ». Ainsi, le statut de chose correspond, quant à lui, à ce qui peut être acquis ou commercialisé par une personne et détermine la façon dont celle-ci en sera responsable. Cet exercice de catégorisation est complexe et a déjà posé des difficultés à propos de l’animal ou encore de l’embryon.

Il en est de même lorsqu’il s’agit des robots et de l’IA. S’il semble évident que, contrairement à la personne humaine, un robot peut être commercialisé ou encore détruit par son propriétaire, qu’en est-il de la chose « fabriquée pour imiter de son mieux l’être Humain » ? Est-elle une chose comme les autres ? Sa ressemblance excessive à une personne, de par son apparence ou son intelligence, en fait-elle une personne ?

S’inspirant de la littérature et du cinéma, il est possible de tenter de répondre à ces questions et d’analyser les enjeux actuels et prospectifs que les robots et l’IA représentent pour le droit.

Les robots, des choses comme les autres

Le premier réflexe serait de considérer les robots comme des choses et c’est d’ailleurs la solution qui a été retenue en droit. Il semble absurde de vouloir accorder la personnalité juridique à un robot mixeur ! Contrairement à la personne humaine, caractérisée par son unicité et sa singularité, les robots n’ont d’unique que leur numéro de série, leur immatriculation, comme les véhicules motorisés. Si les robots possèdent une identité, un prénom, c’est par l’intervention de l’Homme. Dans le film Blade Runner, les robots de compagnie ont tous la même apparence et sont indissociables à l’œil nu. En cas de casse ou de dégradation, ils sont interchangeables. La série Real Humans va même plus loin en montrant au téléspectateur un système de recyclage des robots irréparables.

Affiche série Real Humans

Ces illustrations viennent rappeler que les robots sont créés pour être au service des hommes, pour les aider comme tout autre objet du quotidien. Ils ne sont pas indépendants de leur créateur ou de leur utilisateur. Les trois lois de la Robotique d’Asimov illustrent cette absence d’indépendance du robot par rapport à l’humain. En effet, selon la troisième loi d’Asimov, le robot ne devra et ne pourra protéger son existence que si cela ne revient pas à enfreindre les deux premières lois : « ne pas porter atteinte à un être humain » et « suivre les ordres donnés par ce dernier ». Le robot est ainsi soumis à l’Homme, le faisant toujours passer en premier. Par conséquent, l’absence d’individualisation et d’indépendance vis-à-vis de l’Homme pousse à considérer juridiquement les robots comme étant des choses. Dans ce cas, qui est responsable lorsque ces derniers ne fonctionnent pas correctement et causent des dommages ?

Les robots « sous bonne garde » !

En droit français, c’est le gardien qui est considéré comme responsable du dommage causé par la chose qu’il a sous sa garde [4]. Qu’il soit propriétaire ou non de la chose, le gardien est celui qui en détient le contrôle, la maîtrise et l’usage. Dès lors, le robot, en tant que chose, se voit nécessairement rattaché à un gardien. Le documentaire Lo and Behold : Reveries of the Connected World s’intéresse précisément à cette question de la détermination de la responsabilité en cas de dommage causé par un robot, en l’occurrence, une voiture autonome. Cet exemple démontre que la maîtrise de la chose est mise à mal lorsque le robot est doté d’une autonomie décisionnelle avancée et qu’il échappe au contrôle de l’Homme (notamment si l’algorithme utilisé est empreint de deep ou machine learning). Plus un robot est autonome, moins il peut être considéré comme un simple outil contrôlé par d’autres acteurs. Il ne serait ainsi plus possible de recourir à la notion de garde. Néanmoins, le Conseil d’État propose d’assimiler l’utilisateur de l’algorithme au gardien de la chose. Il faudrait alors étendre la notion classique de garde qui ne serait plus seulement matérielle, mais aussi intellectuelle [5]. Même s’il est possible d’adapter la notion de garde, l’autonomie des robots emporte une forme d’indépendance par rapport à l’homme et ouvre une perspective nouvelle quant à la question de leur responsabilité, en leur attribuant la personnalité juridique.

Le robot, une personne comme les autres ?

Deux hypothèses sont actuellement débattues pour donner une personnalité aux robots. Me Alain Bensoussan a développé la théorie de la « personne-robot » et propose de leur accorder une personnalité juridique distincte de celle déjà présente dans le Code civil, avec de droits proches de ceux des humains. Les robots y sont reconnus dans leur spécificité, titulaires d’une personnalité juridique distincte de celle de la personne physique. Il parle même de robot humanité [6].

L'Homme Bicentenaire

Le Parlement européen propose, quant à lui, une personnalité numérique et immatérielle accordée « à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers »[7]. Cette personnalité les rendrait titulaires d’une identité, d’un numéro d’immatriculation et d’un patrimoine propre permettant d’indemniser les préjudices causés par le robot. Il semble que la démarche soit plus pragmatique que symbolique en ce qu’elle vise surtout à faciliter l’indemnisation en cas de dommage causé par un robot doué d’autonomie.

Autonomie et cas de conscience

L’autonomie est une notion au cœur du droit et de l’appréhension de la personnalité juridique cependant elle est différente pour les robots. Elle n’est, a priori, ni prouvée ni constatable ; elle n’est peut-être même pas souhaitable, sauf si elle est limitée à des missions définies par et pour l’Homme. Dans le dessin animé Wall-E, le robot Auto applique délibérément une norme lorsqu’il y a un conflit, opérant ainsi une interprétation de celle-ci. Se pose aussi la question de la désobéissance du robot. C’est le cas dans Wall-E, Ex Machina et Blade Runner : des robots peuvent être considérés comme des rebelles ou des autarciques. Cette mutation est contraire à la nature du robot, car une telle autonomie peut se comparer à l’autonomie intellectuelle humaine.

Affiche Blade Runner

Le robot naît de la science, il ne possède pas d’âme ; pourtant perdure la question de sa conscience. Le chercheur Selmer Bringsjord a prouvé qu’un robot, à qui l’on avait donné une « pilule de mutisme », avait réussi à déterminer qu’il avait pris cette pilule. Dans le cinéma, le film Blade Runner 2049 envisage la question de la conscience via le cogito cartésien. Le personnage de Sebastian affirme : « je pense, donc je suis ». La pensée semble ici exister au sein d’un robot. Le robot Wall-E, lui aussi, semble capable de poser une hiérarchie morale, qui laisse entrevoir une conscience.

Il faut noter qu’il est de plus en plus fait référence dans la science-fiction au test de Turing. La série Westworld, les films Ex-machina ou encore Blade Runner 2049 envisage le test mis au point en 1950 par Alan Turing qui vise à déceler le degré d’intelligence d’une machine par une confrontation verbale aveugle avec un ordinateur et un autre humain. Si la personne qui engage les conversations ne peut dire lequel de ses interlocuteurs est un ordinateur, le logiciel de l’ordinateur a passé avec succès le test. L’imitation parfaite serait celle qui conduit l’humain à ne plus pouvoir ou à ne plus vouloir dissocier le robot de ses semblables.

Rassurons-nous, l’état actuel des progrès en matière de robotique est loin d’en arriver au stade où nous ne saurions plus distinguer les humains des robots. Le développement scientifique tend néanmoins à l’effacement de cette distinction. En témoignent les questions que pose le développement par google de son assistant vocal, Google Dupleix, qui passe des coups de fil à votre place et dont l’imitation de la voix humaine est très réaliste.

La réflexion autour des robots en tant que choses ou personnes est loin d’être achevée. Il reste cependant à déterminer ce qui identifiera le robot en tant que personne afin d’envisager les dangers futurs d’une nouvelle catégorie juridique qui bouleverserait notre droit ainsi que la vision que nous portons sur l’humain.

 

Diane BEAUDENON, Myriam CLEMENCEAU, Anthony GIBERT, Thuy-My VU, étudiants du Master 2 Usages Sociaux du Droit de l’Université Paris II Panthéon-Assas

Pour aller plus loin :

  • VILLANI C., Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Paris, Rapport de synthèse. France intelligence artificiel, 28 mars 2018
  • BOUTEILLE-BRIGANT M., « Intelligence artificielle et droit : entre tentation d’une personne juridique du troisième type et avènement d’un “transjuridisme” », Petits affiches, n° 062, 27 mars, 2018, p. 7.

Références

Les étudiants on choisi neuf supports cinématographiques et littéraires  : le dessin animé Wall-E (2008) ; les séries télévisées Black Mirror (2011-2016), Westworld (2016) et Real Humans : 100 % humains (2012-2014) ; les films Ex-Machina (2014), Her (2013), Blade Runner (1982) et Blade Runner 2049 (2017), le documentaire Lo and Behold Reveries of the Connected World (2017); ainsi que la pièce de théâtre R.U.R. Rossum’s Universal Robot (1920).

[1] Une version longue de cet article est à paraître dans les actes du colloque « La personne. Intelligences artificielles et robots : des choses et/ou des personnes ? » organisé par le Laboratoire de sociologie juridique de l’Université Paris II Panthéon-Assas.
[2] Le mot robot vient du mot tchèque robota, qui signifie corvée, cf. CAPEK K., R.U.R. Rossum’s universal Robots, trad. par J. Rubes, Paris, Éditions La différence, coll. Minos, 2011, 220 p.
[3] ASIMOV I., Prodige, La cité des robots, Paris, trad. par F-M WATKINS, Paris, Éditions J’ai lu, coll. Science-Fiction, 1990, p. 235.
[4] Art. 1242 du Code civil.
[5] Conseil d’État, Puissance publique et plateformes numériques : accompagner « l’uberisation », Paris, La documentation française, coll. Les études du Conseil d’État, 2017, p. 116.
[6] BENSOUSSAN A., La personne robot, D. 2017, p. 2044 et BENSOUSSAN A., Droit et robot : science-fiction ou anticipation ?, D. 2015, p. 1640.
[7] Parlement européen, Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103 (INL)), art. 59. f, Principes généraux concernant le développement de la robotique et de l’intelligence artificielle à usage civil.

La naissance du numérique

Il y a 70 ans, à l’université de Manchester, un ordinateur fonctionnait pour la première fois dans l’histoire. Le Manchester Museum of Science and Industry célèbre cet exploit par une exposition et une série de conférences sur les débuts de l’informatique. Le clou de cette manifestation est une réplique du Baby computer de 1948, construite à l’identique avec ses lampes radio et sa mémoire à tube cathodique, qui effectue des calculs sur des logiciels d’époque. Un historien, Pierre Mounier-Kuhn, nous raconte cette histoire histoire et souligne que la Grande-Bretagne sait admirablement mettre en valeur son patrimoine numérique (mieux que nous ?). Serge Abiteboul et Thierry Viéville.

 

Manchester Small-Scale Experimental Machine, ou Baby pour ses pères.
 La machine originale, testée en 1948, a été rapidement cannibalisée pour assembler un ordinateur opérationnel. Le Musée des sciences et de l’industrie de Manchester a réuni en 1998 les pionniers survivants pour en construire une réplique fidèle, en état de fonctionner.
  Photo Lorette & Musée des sciences et de l’industrie, Manchester.

Du concept à l’ordinosaure

En 1945, tirant les leçons des réalisations électroniques secrètes menées pendant la guerre, deux documents ont défini une structure de machine radicalement nouvelle : le calculateur numérique à programme enregistré en mémoire — auquel les Français donneront plus tard le nom bien pratique d’ordinateur.

Le premier, le rapport Von Neumann, publié dès juin 1945, aura un large impact en raison même de sa disponibilité (on peut l’acheter à Washington pour une poignée de dollars) et de la notoriété de son auteur : John von Neumann, l’un des esprits les plus brillants et les plus universels du xxe siècle, est bien connu dans le monde scientifique et a ses entrées chez les dirigeants civils et militaires.

Le deuxième, élaboré quelques mois plus tard à Londres, est un plan beaucoup plus détaillé d’ordinateur, conçu par le mathématicien Alan Turing pour le National Physical Laboratory. Il cite d’ailleurs le rapport Von Neumann comme référence principale.

La dématérialisation complète du programme, passant de cartes perforées ou de bandes de papier à des impulsions électroniques, permet d’accélérer énormément le traitement des instructions et ouvre de nouvelles possibilités algorithmiques : il est beaucoup plus facile, dans une machine, d’accéder à n’importe quelle adresse mémoire électronique que de dérouler et rembobiner en permanence une bande de papier !

Si l’architecture définie par Von Neumann constitue potentiellement une solution élégante et prometteuse, elle commence par poser un problème technique ardu : comment réaliser les mémoires ? Cet organe essentiel pour stocker les instructions et les données est en principe au cœur de la nouvelle machine. Mais il n’existe rien de tel dans les technologies matérielles disponibles à l’époque, pour mémoriser des impulsions binaires.

Au cours des années qui suivent, une dizaine d’équipes à travers le monde se lancent dans le développement d’ordinateurs, surtout en Angleterre et aux États-Unis. Elles expérimentent divers procédés de mémorisation, empruntés souvent au radar et aux télécommunications.

L’une de ces équipes se rassemble à l’université de Manchester. Elle est issue en partie de Blechtley Park et du laboratoire des Télécommunications britanniques, qui a participé au développement de machines secrètes pendant la guerre. Les responsables du département de génie électrique, Williams et Kilburn, parient sur la possibilité d’enregistrer des données sur l’écran d’un tube cathodique – d’un écran de télévision. En simplifiant beaucoup, disons que chaque bit d’information serait représenté sur l’écran par un pixel, inscrit, renouvelé ou lu à chaque balayage de l’écran par le faisceau cathodique. Un peu comme, pendant la bataille d’Angleterre, les opératrices radar voyaient sur leur écran s’afficher des points lumineux représentant les avions ennemis, et qui bougeaient à chaque balayage du radar.

Pour tester cette idée, ils construisent une maquette de laboratoire : un « tube de Williams » avec ses circuits de commande, connecté à un calculateur électronique minimal. Chaque tube cathodique peut mémoriser entre 512 et 2048 bits, régénérés chaque milliseconde. Le processeur ne sait faire qu’une opération : la soustraction ! Nous avons tous appris à l’école qu’en combinant deux soustractions on obtient une addition (« moins par moins fait plus »), qu’en combinant des additions on obtient une multiplication et qu’en soustrayant plusieurs fois on effectue une division… Un processeur arithmétique réduit au minimum permet donc de calculer ce que l’on veut en économisant le matériel, si l’on accepte une certaine lenteur d’opération. C’est suffisant pour vérifier la faisabilité pratique de la mémorisation dans des tubes cathodiques, but de cette Manchester Small-Scale Experimental Machine, surnommée Baby par ses développeurs.

Le 21 juin 1948, pour la première fois dans l’histoire, un programme enregistré servant de test effectue un calcul dans cette machine. Tom Kilburn a écrit et codé en binaire un algorithme, une simple recherche du plus grand facteur propre de 218. L’intérêt de ce calcul banal n’est pas mathématique, mais technique : nécessitant beaucoup d’opérations, il prend beaucoup de temps… donc permettra de vérifier si la machine est fiable. Après 52 minutes et 3,5 millions d’instructions exécutées, le système produit la réponse correcte (131 072). On peut dater de ce jour la naissance de l’ordinateur, en considérant que l’enregistrement d’un programme dans une mémoire directement accessible par le processeur est l’innovation qui va permettre les développements algorithmiques ultérieurs.

Le premier programme enregistré de l’histoire : 17 instructions (ici, la version modifiée en juillet 1948). Photo School of Computer Science, The University of Manchester.

De l’expérience de laboratoire à l’ordinateur commercial

La Baby Machine sera la base d’un grand ordinateur, Manchester Mark I, construit l’année suivante et industrialisé ensuite par une grande entreprise locale de matériels électriques, Ferranti.

Le mathématicien qui a initié et supervisé tout le projet, Max Newman, n’est autre que le professeur de Cambridge qui avaient enseigné la logique au jeune Turing en 1936, puis l’avait rejoint au service de cryptanalyse. À la rentrée 1948, il invite Alan Turing à Manchester pour prendre en charge la programmation du nouvel ordinateur. Turing ne se contentera pas de développer des méthodes de codage et de vérification de programmes : il y testera ses modèles mathématiques de morphogenèse et spéculera sur les possibilités de simuler la pensée. Dès octobre 1949, le département de philosophie de l’université accueille un colloque de cogitations cybernéticiennes sur « The Mind and the Computing Machines ».

En 1950, une dizaine d’ordinateurs sont en construction, certains même déjà en service, en Angleterre, aux États-Unis et en Union Soviétique. Le caractère extrêmement risqué de ces projets justifie qu’ils soient menés généralement dans les laboratoires de recherche publics : ceux-ci, financés par des agences gouvernementales ou des académies, peuvent explorer librement des voies absolument nouvelles susceptibles d’être des impasses, prendre plus de temps que prévu pour surmonter des difficultés inédites, échanger ouvertement informations et leçons de l’expérience, là où des laboratoires privés seraient contraints par le secret industriel.

Rapidement, toutefois, d’assez nombreuses entreprises de toutes tailles organisent les transferts de technologies (généralement par des transferts d’hommes), mettent au point et industrialisent les nouvelles machines. En les mettant à la disposition d’utilisateurs de plus en plus nombreux, elles favorisent la multiplication des expériences et l’acquisition de savoir-faire, donc de nouveaux progrès qui ne s’arrêteront plus.

Comme toujours au stade initial du développement d’une technologie, les pionniers de l’ordinateur ont expérimenté des voies très diverses, avant de resserrer l’éventail des possibles sur quelques techniques devenues des standards. La plupart des dispositifs de mémoire essayés à la fin des années 1940 étaient trop fragiles et trop limités en taille et en vitesse. Ils furent rapidement rejetés au profit de procédés d’enregistrement magnétique, qui allaient dominer pendant 25 ans dans les mémoires vives et existent toujours dans nos disques durs.

Les fondateurs de l’informatique ont eu une vision assez claire de l’évolution future du matériel, mais ont largement sous-estimé l’importance et la difficulté de la programmation. Bien qu’universels en principe, les premiers ordinateurs étaient conçus en vue de la résolution d’une certaine classe de problèmes — souvent pour produire des tables numériques. Ils étaient utilisés par des ingénieurs, physiciens et mathématiciens qui indiquaient à la machine la suite des opérations à effectuer et récupéraient les résultats ; sans être triviale, l’écriture de programmes ne représentait pas une difficulté majeure. Avec le développement des premiers systèmes commerciaux dans les années 1950, les possibilités et domaines d’utilisation exploseront et la programmation deviendra le facteur critique de la réussite d’un projet — elle l’est encore de nos jours.

Alan Turing (à gauche) et la console du Ferranti Mark I.
 Photo Ferranti / School of Computer Science, The University of Manchester.

Pierre Mounier-Kuhn, CNRS & Université Paris-Sorbonne

Bibliographie indicative

  • Thomas Haigh, Mark Priestley & Crispin Rope, Eniac In Action: Making & Remaking the Modern Computer, Cambridge (MA), MIT Press, 2016.
  • Simon Lavington, Alan Turing and His Contemporaries: Building the World’s First Computers, Londres, Computer Conservation Society (BCS), 2012.
  • Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, (préface de Gérard Berry, professeur au Collège de France), Paris, EDP Sciences, 2016.
  • Pierre Mounier-Kuhn, L’Informatique en France de la seconde guerre mondiale au Plan Calcul. L’Émergence d’une science, préface de Jean-Jacques Duby, Presses de l’Université Paris-Sorbonne, 2010.
  • Brian Randell, The Origins of Digital Computers, Springer Verlag, Berlin et New-York, 1982.

Pourquoi il faut développer l’accessibilité numérique !

Dans un très intéressant rapport publié en 2013, le Conseil National du Numérique s’interrogeait sur les différentes formes d’exclusion numérique dont souffre notre société et proposait des pistes pour tenter de les réduire, voire de les supprimer pour certaines d’entre elles. Parmi les origines clairement identifiées figure le handicap. Dans la série des selfies de Binaire, Pascal Guitton nous a parlé d’accessibilité numérique,  nous lui avons donc demandé de nous expliquer pourquoi il faut la développer.
Cette image montre un fauteuil roulant vide en face d'escaliers
Crédit Photo : Doulkeridis Book on VisualHunt / CC BY-SA

Quand on parle d’accessibilité dans un contexte de handicap, on pense tout de suite à l’accessibilité des bâtiments ou à celle des transports en commun. Est-il possible d’utiliser un ascenseur ou une rampe inclinée pour accéder à un niveau supérieur ? Les toilettes sont-elles suffisamment grandes pour pouvoir y accéder ? Le seuil du tramway est-il positionné à la bonne hauteur ? Autant de problèmes importants que les législations successives de notre pays ont permis d’atténuer partiellement, même si la récente annonce  faite par le gouvernement marque un véritable retour en arrière.

Au-delà de ces premiers sujets qui viennent à l’esprit quand on évoque l’accessibilité, il existe beaucoup d’autres facettes à considérer. Par exemple, la présence d’une signalétique en braille dans un bâtiment (magasin, musée, station de métro…) ou de signaux sonores associés aux feux de circulation, la possibilité d’avoir recours à une audio-description pour suivre des émissions à la télévision, etc.

Ces différentes illustrations mettent en avant le caractère varié des origines de handicap : moteur (incapacité ou difficulté à effectuer certains mouvements) ou sensoriel (déficiences visuelles, auditives). N’oublions pas de mentionner les troubles de type cognitif – souvent qualifiés de handicap invisible – et pourtant très fréquents ; ils affectent des capacités de mémorisation, d’attention, d’échanges sociaux. Il est évident que l’environnement joue un rôle important : si la rampe d’accès, la signalétique ou l’audio-description ne sont pas disponibles, la personne sera en situation de handicap (PSH) indépendamment de ses efforts pour réaliser une activité de la vie quotidienne : se déplacer, se nourrir, se divertir, dialoguer, etc.

Cette image montre les pictogrammes associés à des types de handicap. De gauche à droite : autif, visuel, moteur, mental, élocution.

Et le monde numérique ?

Si tous ces aspects sont importants, il est un « nouveau » domaine qui est apparu crucial depuis quelques années : il s’agit de l’accès au monde numérique. Nous sommes tout.e.s concerné.e.s dans nos vies privées, sociales, professionnelles qui seraient « perturbées » sans le recours très fréquent à ces outils et services. Imaginez par exemple, la disparition du web et des téléphones portables. Et bien, c’est ce que vivent au quotidien nombre de PSH !

Pourquoi ? Si vous êtes déficients visuels, comment interpréter les informations affichées sur un écran ? Si vous avez des difficultés de motricité fine, comment utiliser un clavier ou une souris ? Si vous possédez des troubles de l’attention, comment percevoir les informations pertinentes sur un site web rempli d’annonces déroulantes, clignotantes à l’excès ? La réponse est malheureusement : « Vous ne faites rien de tout ça ».

Malheureusement d’abord, parce que cette exclusion des outils et services numériques constitue une des causes principales de discrimination dans notre société. Comment imaginer apprendre, se former, travailler, avoir une vie sociale aujourd’hui, sans l’accès au monde numérique si on le souhaite ?

Malheureusement ensuite, parce que l’avènement de ces technologies a ouvert nombre d’espoirs aux PSH en offrant un potentiel gigantesque d’aides, de compensations, d’adaptations qui pourraient améliorer de façon très significative leur qualité de vie. Prenons un exemple simple : pour des personnes déficientes visuelles ou possédant une mobilité des membres supérieurs limitée, lire un journal ou un livre est impossible sans l’aide d’une autre personne. Grâce aux versions numériques et à des logiciels adaptés, cette lecture est devenue – potentiellement – possible, ce qui favorise(rait) leur indépendance et leur autonomie. Le fait que ces espoirs soient trop souvent déçus par manque d’accessibilité augmente encore le fossé entre la population générale et les PSH au lieu de contribuer à le combler !

Malheureusement enfin, parce qu’il existe un grand nombre de solutions et de recommandations qui permettent de corriger – parfois totalement – cette inaccessibilité numérique mais qu’elles sont peu connues et par conséquent peu utilisées. Alors que connaitre et appliquer quelques principes simples, permettrait de développer des systèmes numériques accessibles au plus grand nombre.

Comment faire ?

Il est bien entendu impossible dans un billet court de détailler toutes les solutions existantes ; cependant, afin d’atteindre une bonne accessibilité numérique, il convient de distinguer plusieurs niveaux importants.

Commençons par les équipements d’interface en les regroupant autour de leurs objectifs principaux :

  • Saisir l’information : claviers adaptés, reconnaissance vocale, capture de mouvements (de la tête, de la langue, des yeux), et demain interfaces cerveau-ordinateur…
  • Restituer l’information : plage braille, synthèse vocale, dispositifs à retour d’effort…
Cette photo montre un clavier de marque Maltron destiné à des personnes ayant une motricité réduite. Il est de forme semi-concave de façon à réduire les mouvements nécessaires.
Clavier unidextre – (c) Maltron
Cette image montre une personne tenant une baguette dans sa bouche pour saisir des caractères sur un claier vertical et de forme légèrementarrondie.
Clavier « bouche-baguette » – (c) Maltron
Cette photo montre une page Braille située au contact d'un ordinateur portable
Plage Braille – Crédit S.Delorme – WikiMedia, CC BY-SA 3.0

 

 

 

 

 

 

Quelques principes simples

Continuons en énonçant quelques principes simples comme :

  • Augmenter le signal (loupes, taille des polices, couleurs et contrastes adaptés…), possibilité de saisir séquentiellement une suite de caractères habituellement simultanés (par exemple le Ctrl C), scans de listes;
  • Faciliter la compréhension, par exemple, en ralentissant les débits ou en supprimant des distracteurs d’attention.

Considérons maintenant les systèmes d’exploitation des ordinateurs, y compris ceux des smartphones ; ils proposent tous des fonctions permettant d’améliorer l’accessibilité numérique : des alternatives clavier (pour remplacer une commande complexe à saisir), des loupes, des substitutions de signaux (remplacer un bip sonore par un message visuel), des lecteurs d’écran qui restituent le contenu textuel d’une fenêtre par sa synthèse vocale… Exemples : Windows, Mac OS, Linux, Androïd… Autant d’outils souvent méconnus mais qui sont disponibles gratuitement et qui, s’ils étaient utilisés, ouvriraient les systèmes numériques à beaucoup de PSH.

Ensuite, il existe beaucoup de logiciels qui proposent désormais des fonctionnalités adaptées aux besoins des PSH, depuis les outils de bureautique jusqu’aux navigateurs web en passant par les jeux video [1] et réseaux sociaux. Citons par exemple, FaceBook qui utilise une intelligence artificielle pour détecter dans une photo les principaux éléments ; une synthèse vocale de leur description permet à une personne déficiente visuelle d’en prendre connaissance et de réagir comme ses amis.

Et maintenant, les contenus (web, documents)

Logo de l’initiative WAI du consortium W3C

Enfin, mais ce n’est pas le moins important, bien au contraire, il est important d’insister sur l’accessibilité des contenus numériques. En effet, vous pouvez utiliser un navigateur web accessible mais si le contenu de la page que vous visitez n’a pas été conçu de façon accessible, vous ne pourrez pas l’exploiter. C’est pour cette raison que, dès la genèse du web, une réflexion a été entamée au sein du W3C (consortium qui gère son développement) qui a débouché sur des recommandations, notamment les WCAG[2] dont la 2ème version publiée en 2008 est toujours d’actualité. Elles reposent sur une douzaine de règles simples et décrivent les erreurs les plus courantes à ne pas commettre.

Au-delà des contenus web, nous utilisons en permanence des documents numériques (textes, feuilles de calcul, présentations…). Afin de les rendre accessibles, il est nécessaire d’appliquer quelques principes simples, par exemple :

  • utiliser les styles fournis par les éditeurs pour structurer le texte (titrages, sections) afin de le rendre facilement exploitable par un lecteur d’écran ;
  • fournir un texte alternatif pour décrire une image ou une vidéo ;
  • nommer de façon informative chaque colonne/ligne d’un tableau ;
  • fournir une description pour les url (notamment celles qui sont construites avec de longues chaines de caractères sans signification).

De façon similaire aux pages web, il existe des vérificateurs d’accessibilité qui vont, par exemple dans MS Word, détecter les erreurs, expliquer leur origine et proposer leurs corrections. Et donc, de la même façon qu’il n’est plus acceptable aujourd’hui de produire des documents contenant des fautes d’orthographe alors qu’il existe un grand nombre de correcteurs automatiques, il ne devrait plus être tolérable  de produire et/ou de diffuser des contenus qui sont inaccessibles alors que nous avons à notre disposition des assistances efficaces.

Pourquoi le faire ?

Les sections précédentes ont permis de démontrer de façon très rapide qu’il existait un grand nombre de réponses techniques au problème de l’inaccessibilité numérique. Malheureusement, même si on constate des améliorations, la situation globale est très loin d’être satisfaisante. Alors comment contribuer à la faire évoluer ?

Il n’existe pas d’argumentation unique mais plusieurs niveaux de motivation qu’il convient de combiner en mettant en avant leurs bénéfices :

  • pour les individus : augmenter l’auto-détermination et globalement la qualité de vie,
  • pour la société : contribuer à la rendre vraiment inclusive en combattant les discriminations,
  • pour les entreprises, les organisations :
    • augmenter les bénéfices potentiels en augmentant le nombre de clients ou de visiteurs d’un site, exclus auparavant de la cible de marché,
    • permettre à ses employés de travailler et de se former dans des conditions d’efficacité équitable en leur fournissant un environnement de travail accessible,
    • améliorer son image (on parle de e-reputation) ; à l’inverse, il existe des listes noires d’entreprises refusant cette évolution que des associations incitent à boycotter,
    • respecter les législations ou les directives nationales et européennes qui vont de plus en plus imposer l’accessibilité numérique à tous les acteurs.

Certes, proposer un produit ou un service numérique accessible entraîne un coût supplémentaire en termes de développement. Mais les entreprises ayant adopté cette démarche témoignent des bénéfices induits qui contrebalancent ces coûts, à condition que l’accessibilité ait été intégrée dès l’étape de conception et pas une fois le produit développé ; on parle alors d’accessibility by design. Et bien entendu, le problème de la formation des développeurs logiciels se pose : à quand de véritables enseignements à l’accessibilité numérique pour les étudiants en informatique, à l’image par exemple de ce que les étudiants en architecture apprennent sur l’accessibilité des bâtiments dans leur parcours académique ?

Pour finir

On le voit, la question de l’accessibilité numérique est complexe ; sans tomber, ni dans un pessimisme exagéré, ni dans un optimisme béat, je pense que nous devons tou.te.s ensemble lutter contre ces exclusions en contribuant dans nos différents rôles (citoyen, employé, consommateur) à sensibiliser, à informer et à utiliser les solutions existantes. C’était l’objectif de cet article.

Pascal Guitton, Professeur à l’Université de Bordeaux & Inria

 

[1] C’est aujourd’hui un des secteurs les plus moteurs sur ce sujet.

[2] Web Content Accessibility Guidelines

 

Petit binaire : laissez passer les petits papiers

Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec cette nouvelle rubrique « petit binaire », osons ici expliquer de manière simple et accessible une partie du fonctionnement du plus grand système informatique du monde : Internet. Pour cela, nous allons, avec cette informaticienne imaginaire, rendre visite à une classe de collège qui se demande bien ce qui leur arrive. Marie-Agnès Enard, Pascal Guitton et Thierry Viéville.

Bonjour les enfants permettez-moi de distribuer ces petits bouts de papier afin que vous puissiez vous passer des petits messages sous la table pendant le cours d’informatique

On est pas des enfants !

Les jeunes de cette classe de collège sont stupéfait·e·s. Claude se dit dans sa tête :

* C’est qui cette grand-mère habillée comme une étudiante qui vient aider la prof de techno ou le prof de math pour nous initier à la pensée … euh … informatique ?

Puis réfléchit :

* Comment les messages vont arriver, si on a juste la possibilité de les faire circuler sous la table sans savoir vraiment dans quelle direction ils vont ? Mais bon pour une fois qu’on fait quelque chose de rigolo allons-y d’ailleurs ça tombe bien il fallait que je dise à Ben que Jo sort plus avec Ric parce que y’a Al qui a… Ah mais, si jamais Jo ou Ric tombent sur le message je suis morte, je vais écrire le message en basque parce qu’il y a que moi et Ben qui captons cette langue régionale. Évidemment il faudra que je mette le nom de Ben en clair comme destinataire pour que le message lui arrive.

© Canopé

Et cela semble marcher, on voit à travers les gestes des élèves plein de messages qui circulent sous les tables de proche en proche et chaque élève garde le message si c’est pour lui ou sinon le passe à n’importe quel voisin.

Madame, madame pourquoi ça a l’air de marcher alors que finalement on envoie les messages au petit bonheur la chance ?
– C’est parce qu’il y a énormément de connexions : chaque élève est connecté à ses quatre voisins (devant derrière gauche et droite) plus celles et ceux en oblique, et bien même sans savoir exactement par quel chemin faire circuler le message il a une forte chance de bien arriver, tellement cela circule largement.
– Oui, mais ce serait plus efficace si on connaissait le trajet précis entre un expéditeur et une destinataire à travers les tables de la classe, non ?
– Tu as raison, c’est ce qui se passe souvent dans les réseaux informatiques où l’itinéraire des messages est (re)calculé en permanence en utilisant des informations stockées dans un nœud (l’équivalent d’une table de classe). Très concrètement, on choisit d’envoyer un message vers le nœud voisin pour lequel la durée de trajet est la plus courte et on itère ce procédé de proche en proche ; au final, on dit qu’on a optimisé le trajet. Les informaticien.ne.s appellent routage cette opération de choix de chemin dans un graphe et ont inventé beaucoup d’algorithmes pour répondre à ce problème.

Et le jeu sérieux continue.

Réseau de capteurs de l’ IoT Lab, Rocquencourt. Notre environnement se peuple d’objects connectés, ici des réseaux de capteurs pour fournir en permanence des informations sur un environnement. La communication entre ces objets, par les protocoles,
 © Inria / Photo H. Rague

Oui, mais, madame, madame, on peut pas savoir si le message est bien arrivé avec votre histoire !
– Tu as raison : comment faire ?
– On pourrait renvoyer le message à l’expéditeur avec une marque dessus pour dire qu’on l’a bien reçu
– C’est une très bonne idée, pas besoin de renvoyer le message entier d’ailleurs il suffit juste de renvoyer un accusé de réception

Et voilà le groupe qui rajoute ce mécanisme.

Cliquer pour visualiser l’animation.

* Ah bah oui, ça marche, voilà l’accusé de réception de Ben.
* Et si j’avais pas reçu cet accusé de réception, je crois qu’au bout d’un certain temps j’aurai renvoyé le message…
* Par contre il y a un truc pas cool, c’est Ric : il n’a évidemment pas pu lire le message mais comme il est sur le passage, il a obligatoirement détecté que Ben et moi on s’échange des messages, et ça, ça lui fournit une information sur le fait qu’on a des secrets à s’échanger, et comme il sait que je sais … Mais je ne pouvais pas rendre secret l’expéditeur et le destinataire (chiffrer, dit l’informaticienne), sinon mon message ne serait jamais arrivé.

Madame madame pourquoi on a fait cette activité ?

– Mes enfants, heu pardon, chers élèves, vous venez de découvrir par vous-même le fonctionnement de la couche TCP-IP d’Internet : les ordinateurs qui sont connectés entre eux à travers ce réseau des réseaux sont un peu dans votre situation, ils ont des messages à faire passer, ils les découpent en petits paquets pour optimiser encore la vitesse de transfert, et ils les font circuler de proche en proche, en ajoutant parfois de l’information en plus pour détecter si le paquet arrive intact ou si il a été abîmé, comme si vous reproduisiez votre message plusieurs fois au cas où le papier était devenu partiellement illisible, afin de corriger si une partie de l’information était perdue …

Et l’activité continue.

Dessin de Pétillon. Une délicate question de protocole :)
Dessin de Pétillon. Une délicate question de protocole 🙂

Madame, madame, c’est un algorithme en fait ?

– Ah oui, mais un peu étrange : c’est un algorithme distribué, qui est exécuté par plein d’entités en même temps qui se sont mises d’accord au préalable sur la façon d’agir de manière concertée c’est à dire en respectant un protocole. Même les pays ennemis, s’ils sont reliés à Internet (et tous les pays du monde le sont) jouent le jeu et font circuler ces paquets pour qu’Internet puisse fonctionner.

– Ah mince, c’est déjà la fin du cours…

Madame, madame, j’ai une dernière question : ce mécanisme on l’utilise avec des ordinateurs mais des mécanismes comme ça, on pourrait très bien s’en servir dans la vie de tous les jours entre humains (sous une forme différente évidemment)

– Tout à fait et c’est pour ça que l’on parle de pensée informatique parce que cela va bien au-delà du fait de programmer un ordinateur, la programmation ce n’est qu’un outil, comme apprendre à souder pour faire des systèmes électroniques. Maintenant à vous de jouer !

à bientôt avec petit binaire …pour vous parler de comment résoudre une équation sans faire de maths.

http://www.codeweekfrance.org/img/codeweekeu.pngCe contenu correspond à une activité qui sera proposée pendant la Code Week en octobre 2018. La Code Week est une semaine dédiée au code et à la programmation numérique pour célébrer l’apprentissage du code. Vous aussi participez-y !

Les selfies de binaire : Marie-Agnès

Suite de notre série les selfies de binaire. Après Thierry, Pascal et Antoine, c’est au tour de Marie-Agnès Enard de nous faire découvrir son univers.

Marie-Agnès Enard
Responsable Communication Inria

 

Ton parcours

Je déteste l’informatique ! Voilà ce que je disais à 18 ans. Je suis plutôt une littéraire et j’ai toujours été attirée par l’information, j’ai donc suivi un cursus universitaire dans la communication et l’information. Mon parcours professionnel va pourtant être jalonné d’expériences multiples en lien avec l’informatique ; mon premier emploi consiste à gérer un shipchandler (magasin de pièces détachées de bâteaux) en Guadeloupe où je suis béta testeuse d’un logiciel de gestion de stock. J’avoue que j’avais un peu survendu mes compétences en informatique pour avoir le job. 4 ans après, à l’époque des premiers téléphones portables, je deviens responsable marketing et communication chez le leader mondial de la carte à puce à Gémenos où je passe du temps avec les informaticiens de la R&D pour produire des supports de com et dénicher les pépites sur lesquels ils travaillent pour les mettre en lumière lors de salons professionnels. Dans les années 2000, j’atterris chez Inria par souhait de travailler dans un établissement public en tant que responsable de la communication où je continue avec grand plaisir à promouvoir les activités de recherche de l’institut. Aujourd’hui, l’informatique et moi, c’est donc une belle histoire qui continue.

Ton domaine d’activité

Depuis plus de 15 ans, j’ai communiqué sur à peu près tous les sujets sur lesquels les équipes de recherche d’Inria travaillent : réalité virtuelle, data, ingénierie logicielle, simulation, IHM, machine learning, robotique, internet des objets, réseaux, langages de programmation, … J’ai participé au déploiement du premier show-room d’Inria à Lille où j’ai scénarisé des démonstrateurs (salle d’opération, circuit de robot dans une ville, salle de classe) pour montrer la recherche différement. J’ai mis en place de nombreuses actions de médiation scientifique qui sont encore déployées aujourd’hui. Je viens en accompagnement à la stratégie de l’entreprise ou de l’établissement où je travaille pour piloter et déployer une communication sur-mesure. Dans mes différents postes, j’ai souvent réalisé des actions de com qui se voulaient décalées par rapport au contexte : des stands dans le domaine de la High-Tech avec une décoration en mur de pelouse ou avec un vrai jardin japonais, une campagne de changement de logo avec le visuel de Big Bang Theory, un jeu-concours sur Twitter pour faire voyager un badge #ILoveInriaLille, ou encore une vidéo parodique pour le départ en retraite d’un de mes directeurs. Je conjugue la communication au pluriel en gardant toujours à l’esprit les objectifs, les cibles et la pertinence des moyens.

Quelle est l’évolution de ton domaine ?

La communication publique en lien avec des activités de recherche est complexe et ce constat est renforcé depuis une dizaine d’année car le numérique est devenu un sujet impactant dans bien des domaines. On attend des professionnels de la communication qu’ils aient un socle d’expertise sur certains sujets afin de faire adhérer les scientifiques aux projets de communication proposés avec plus de facilité voir de légitimité tout en veillant à apporter un message qui soit clair et pertinent selon les publics visés. Les usages en terme de communication évoluent constamment avec les réseaux sociaux et la fluidité des échanges, le communicant doit dont être adaptable, interopérable et agile, trois caractéristiques qui peuvent aussi s’appliquer à un bon logiciel. Le travail de veille sur les outils et bonnes pratiques, le développement d’un réseau de communicants et la qualité des liens tissés avec les personnalités que l’on rencontre permettent souvent de faire toute la différence sur l’impact de votre communication. Pour moi, il est aussi primordial d’aller à la découverte de l’art sous toutes ses formes et d’alimenter ma curiosité sur des domaines à priori éloignés des sujets sur lesquels je travaille comme l’art, la BD, les jeux, la cuisine… Être original en communication, c’est bien souvent adapter une idée ou un concept dans un tout autre environnement. Connaître les codes de la communication publique et ceux du marketing et de la publicité sont des vrais atouts.

Le plus et le moins dans ton activité

Le plus : No limit dans l’imagination, tout en tenant compte des contraintes et délais de mise en œuvre . En bref, j’adore pouvoir imaginer, concevoir et déployer des actions de communication qui sortent des sentiers battus et qui mettent en lumière des sujets qui sont souvent laissés de côté car jugés trop complexes pour un public de non averti.
Le moins : quand je dois encore convaincre que la communication est utile et pas futile pour accompagner une stratégie et donner de la visibilité.