You are under arrest

Les objets connectés envahissent notre monde, téléphones, montres, voitures et autres moyens de transports, domotique, etc. Ils ont pour but d’améliorer nos vies. Toutes les données qu’ils captent dévoilent nos vies privées si elles ne sont pas protégées. Notre sécurité est aussi en question. Une nouvelle de Serge Abiteboul qui essaie d’imaginer ce qui pourrait se produire dans le futur si, aujourd’hui, nous n’accordons pas au sujet de la sécurité, toute l’importance qu’il mérite. Thierry Viéville

You are under arrest, ©© Bétise à bloguer

La Mustang fonce silencieusement dans le petit matin, à quelques mètres au dessus de la chaussée. Les truands savent depuis longtemps trafiquer le contrôleur de vitesse. La Peugeot de la police les course dans le 20ème arrondis­se­ment encore quasi désert.

Clyde interroge Bonnie :

  • Le braquage du chinois devait être finger in the nose. Il fallait vraiment que t’aies besoin de passer aux gogues?
  • Ça se commande pas.
  • Et que tu vois pas le détecteur d’intrusion ? Mon amour de pied nickelé.
  • Qui met un détecteur d’intrusion aux chiottes. Pourquoi pas des caméras ?

Ça paraissait un plan tranquille. Évidemment, il ne s’agissait pas de cambrioler un coffre-fort : depuis longtemps, il n’y a plus de cash ou même de bijoux dans les coffres qui sont devenus numériques. Bonnie et Clyde voulaient juste s’introduire dans le réseau d’un galeriste pour y réaliser quelques transactions juteuses.

Silence dans la voiture. Clyde trouve que cette poursuite s’éternise :

  • Tu nous débarrasses des morpions ?
  • Donne-moi une minute. Leur voiture est équipée du dernier système android. C’est une passoire de sécurité, explique-t-elle.
  • Tu as eu le temps d’imprimer ceux qui nous coursent ?
  • Oui. Un robot dans le siège du conducteur et une keuflette qui pianote sur un laptop dans celui de la morte.

Ça faire rire Clyde :

  • Si on en arrive à la baston, tu prends la meuffe et moi le robot. J’ai toujours rêvé de péter la gueule d’un robocop.

Rue Oberkampf à fond la caisse. Virage dans un crissement de pneus de la Mustang, rue de Belleville. C’est au tour de Bonnie de rire :

  • Trop vrais les crissements de pneu. On se croirait dans un vieux Fast and Furious.
  • Je les ai trouvés dans un truc encore plus vieux. Bullit, précise Clyde.
  • Vintage !

Dans la voiture de police, la « keuflette » essaie l’injonction d’arrêt de la Mustang ; sans succès : les deux truands ont bloqué tous les systèmes officiels qui permettent à la police de prendre le contrôle de voitures pour éviter un accident, empêcher de perpétrer un attentat terroriste, ou juste parce que la tronche du conducteur ne leur revient pas.  Comme rien ne marche, elle se plonge sur le site d’Europol. Elle résume les pedigrees des deux braqueurs :

  • Bonnie Nguyen, 29 ans, parisienne, ingénieure en informatique, condamnée plusieurs fois pour violation de la loi Anti Piratage Numérique.
  • Clyde Martin-Adjani, son compagnon, 27 ans, pur produit de la partie sombre du 9-3, un peu dealer et beaucoup black hat. Un casier judiciaire long comme un jour de tafe, qui culmine avec deux ans de prison pour usurpation d’identité sur le net. Ce con se faisait passer pour le fils du roi du Maroc.

Les deux voitures roulent l’une derrière l’autre. Les policiers se rapprochent et n’ont plus qu’une centaine de mètres de retard sur les truands… quand le moteur de la Peugeot s’éteint. Ils continuent sur l’élan mais la Mustang s’éloigne.

La policière questionne :

  • Qu’est-ce que tu nous fais Starsky ?
  • Rien ! Les suspects ont pris le contrôle de la batterie. Elle indiquait 95% il y a quelques secondes. Maintenant 0%. Je ne comprends pas. Qu’est-ce qu’on fait ?
  • Celui qu’a fait ça est pas la moitié d’un mulot, reconnaît la policière. Putain. Je vais te bloquer ces connards.

Il s’appelle Starsky et elle, Hutch. Starsky et Hutch étaient deux policiers d’une série culte du siècle dernier. Deux hommes, pas un robot et une femme. Les temps changent.

Dans la Mustang, Bonnie commente sobrement :

  • Dans le cul, les keufles.

Leurs rires s’éteignent quand leur voiture freine brutalement et s’immobilise.

  • Que passa ? interroge Clyde.
  • Jamais vu, répond Bonnie. La Mustang reçoit chaque seconde une mise-à-jour de Waze qui lui indique que la route devant est fermée, puis rouverte, puis fermée… Ça gèle le sélecteur de trajet. La keuflette est une sacrée hackeuse.`
  • On peut faire quelque chose ?
  • Courir ?

Bonnie et Clyde abandonnent la Mustang et partent en courant dans les petites rues de Ménilmontant, Hutch et son robot Starsky à leurs trousses. Finalement, flics et voyous se retrouvent dans un ballet vieux comme le monde.

Bonnie et Clyde ne sont pas sportifs alors que Hutch est championne régionale de badminton, et que Starsky peut rouler à près de vingt kilomètres heure pendant des heures, tant qu’il n’a pas vidé sa batterie. Les escaliers le ralentissent bien un peu mais il est équipé du nouveau système Jumpy-quadruped de l’armée chinoise qui lui permet de grimper des marches, peut-être sans élégance, mais à une vitesse raisonnable.

C’était prévisible, les deux truands se font rattraper. Ils n’avaient pas la moindre chance de s’en tirer, surtout avec un drone de la police maintenant au-dessus d’eux, collé à leurs basques.

Bonnie se rend sans résister à Hutch. Clyde tente une manœuvre :

  • On ne va pas se laisser arrêter comme cela.
    Téléportation bleue !

La téléportation, une technique révolutionnaire pour transférer son corps dans l’espace en le numérisant et en utilisant des communications quantiques. Vous y croyez, vous ?

Starsky commente sobrement :

  • Monsieur, il ne faut pas croire tout ce qu’on trouve sur Internet.

Bonnie, qui n’aime pas qu’on se moque de son mec, se venge à sa façon :

  • Tu feras moins la maline, petite quincaille, dans quelques jours quand tu seras terminée. Tu ne sais peut-être pas qu’Hutch a commandé un modèle tout neuf.
  • Je ne savais pas, reconnait Starsky à voix douce. Mais c’est la life des robots.

Comme Clyde ne se laisse pas menotter, le robot lui balance un coup de taser de plusieurs dizaines de milliers de volts, en contradiction avec la convention de Romorantin qui interdit aux robots les actes de violence sur les humains. Puis, satisfait de la victoire des bons sur les méchants, Starsky chantonne une vieille chanson de Gainsbourg : You’re under arrest, Cause you are the best…

On rencontre même des robots heureux.

Serge Abiteboul, Inria et ENS, Paris

Inria : 50 ans et l’ambition du numérique pour la France

Dans le paysage numérique français au cœur de l’intérêt de Binaire, Inria, l’institut français en science du numérique, tient une place singulière, voire essentielle. A l’occasion des 50 ans d’Inria, nous avons demandé à son président, Antoine Petit, de nous parler du passé de l’institut et surtout de nous dire comment il voit le futur de la recherche dans ce domaine en France. Binaire profite de cette occasion pour souhaiter à Inria : Bon anniversaire et tous nos vœux de succès pour les années à venir ! Serge Abiteboul

Antoine Petit, PDG d’Inria © Inria / Photo G. Scagnelli

Le Plan Calcul voulu par le Général de Gaulle a conduit à la création en 1967 de l’IRIA et de la CII devenue par la suite CII Honeywell Bull puis Bull. L’idée originelle était de doter la France des capacités, tant sur le plan recherche que sur le plan industriel, de concurrencer les américains qui venaient de refuser de nous vendre le plus gros ordinateur de l’époque (d’une puissance bien moindre que les smartphones que la plupart d’entre nous ont dans leur poche). Ce n’est qu’en 1979 que l’IRIA devient national et se transforme en INRIA – Institut National de Recherche en Informatique et en Automatique. C’est la même année qu’est créé le deuxième centre Inria, à Rennes. Puis les centres de Sophia-Antipolis (1983), Grenoble (1986), Nancy (1992), Bordeaux, Lille et Saclay (tous les trois en 2008) voient successivement le jour. Et en 2011, INRIA décide de ne plus être un acronyme mais un nom, Inria, celui de l’institut français en charge des sciences du numérique.

Voilà donc 50 ans qu’Inria met son excellence scientifique au service du transfert technologique et de la société. Inria est aujourd’hui un des instituts les plus performants à travers le monde dans ses domaines de compétences, attractif et très international, près de 100 nationalités sont présentes dans nos équipes-projets. Il faut souligner qu’une grande partie des succès d’Inria ont été construits dans le cadre de partenariats avec des universités ou grandes écoles, ou d’autres organismes de recherche, le CNRS bien sûr et aussi le CEA, l’Inra ou l’Inserm pour ne citer que les principaux.

En 50 ans le monde est devenu numérique, belle formule souvent attribuée à Gérard Berry. Inria a accompagné cette transformation et la montée en puissance, et la reconnaissance de la science informatique qui s’en sont suivies dans notre pays.

L’évolution a été très forte en un demi-siècle. En schématisant et en simplifiant, hier, informaticiens et mathématiciens travaillaient un peu de leur côté, pour eux mêmes. Aujourd’hui, ils collaborent de plus en plus avec les autres sciences, que ce soient les sciences de la vie, les sciences de l’environnement, les sciences humaines et sociales, etc. Une autre évolution très perceptible concerne la transformation numérique des activités socio-économiques et la présence de plus en plus importante du numérique dans la vie de tous les jours.

Pour autant, nous sommes convaincus que cette transformation numérique du monde n’en est qu’à ses débuts, presque à ses balbutiements. Si le futur de notre société sera numérique, ce futur n’est pour autant pas écrit. Dans 50 ans, le monde dans lequel nous vivrons sera celui que nous aurons choisi de construire en fonction de nos valeurs, de nos cultures et de nos choix de sociétés. Nous devrons savoir prendre en compte des questions scientifiques et technologiques bien sûr mais aussi  des questions de formation, d’éthique et même de choix de société

Nous devons aussi décider quelle place nous voulons que la France occupe dans ce futur numérique. La France a tous les atouts pour y jouer un rôle de premier plan, pour autant qu’elle en fasse une réelle priorité. Nous devons investir aujourd’hui pour que demain des emplois et de la valeur soient créés dans notre pays. Mais, il ne faut pas se voiler la face, la compétition est internationale et féroce.

Si la France décide de participer à cette compétition, elle doit faire les choix nécessaires pour y figurer dignement.

N’en déplaise à quelques esprits rétrogrades qui ne comprennent pas le monde nouveau qui est le nôtre,  il est totalement anormal et contreproductif qu’une lycéenne ou un lycéen puisse entrer à l’Université sans savoir coder et s’être construit une pensée algorithmique, et ce quel que soit le métier auquel elle ou il se destine.

Il faut également revoir l’éducation et la formation tout au long de la vie, et donner à chacune et chacun les clés de compréhension du monde numérique dans lequel nous vivons. La faible culture, voire même parfois l’inculture, de la société en général, des décideurs en particulier – même s’il y a bien sûr des exceptions – est un handicap pour notre pays.

Inria essaye à son niveau de faire bouger les choses en prenant une part active à des opérations aussi diverses  que le portage de l’opération Class Code, programme de formation de formateurs en informatique ou encore la conception, en liaison étroite avec le Conseil National du Numérique de la plateforme TransAlgo qui vise à étudier la transparence et la loyauté des algorithmes, tout en faisant réfléchir à ces notions. Mais toutes ces initiatives ne passent pas à l’échelle et font courir le risque d’éloigner Inria de son cœur de métier. C’est à d’autres de prendre le relais et de permettre au plus grand nombre de bénéficier de sensibilisations ou de formations comparables.

Il faut aussi que notre pays sache investir massivement s’il veut jouer un rôle de premier plan, s’il veut tirer parti des investissements déjà réalisés et s’il veut que les citoyens, bien formés, trouvent des emplois adaptés à leurs compétences dans ce nouvel ordre économique.

Nous attendons avec impatience le rapport de Cédric Villani sur l’intelligence artificielle. Mais il sera essentiel que ce rapport ne reste pas lettre morte, cela arrive parfois dans notre pays. Il appartiendra au Gouvernement d’en tirer un plan d’actions et d’y consacrer une enveloppe budgétaire d’un niveau donnant l’ambition à la France d’être un acteur de premier plan au niveau international. Bien sûr, nous savons tous que la France a des marges de manœuvre financière limitées.  C’est justement pour cela qu’il faut faire des vrais choix, définir des priorités et donc savoir aussi renoncer.

L’enjeu est de taille, c’est tout simplement la France, celle que nous voulons construire pour nos enfants et petits-enfants, une France attractive où il y aura des emplois, du bien-être et des richesses pour le plus grand nombre, idéalement pour toutes et tous, une France qui aura à cœur que les progrès liés au numérique bénéficient au plus grand nombre et ne soient pas accaparés par quelques-uns, individus, grandes firmes internationales ou nations, pour leur seul profit.

Antoine Petit, Président d’Inria

Algorithmes : au-delà de la transparence, la redevabilité

Les algorithmes envahissent nos vies, et en cela ils se doivent de respecter les lois, et les valeurs éthiques de notre société. Pour coexister avec eux, il est important de comprendre ce qu’ils font. C’est en cela que leur transparence prend toute son importance. Pour traiter ce sujet pour Binaire, nous avons un tandem ; un informaticien et une juriste. Il faut bien cela pour un sujet qui, s’il parle d’informatique, implique les sciences humaines de manière essentielle. Serge Abiteboul.

              

Les algorithmes d’aide à la décision sont désormais omniprésents. Ils influencent notre vie quotidienne, par les informations qui nous sont transmises ou par les suggestions qui nous sont adressées en ligne. Ils facilitent nos actions individuelles au jour le jour, mais sont aussi susceptibles d’apporter de grands bénéfices collectifs, dans des domaines aussi variés que la médecine, la justice ou la sécurité par exemple. Toutefois, leur développement suscite également des craintes importantes. Elles concernent notamment les risques de discriminations, de traitements déloyaux, voire de manipulations. Ces éventuels mésusages méritent d’être débattus, et le sont dans des cadres variés depuis l’adoption de la Loi pour une République numérique : cycle de débats sur l’éthique et le numérique lancé par la CNIL en janvier 2017, consultation sur les plateformes initiée par CNNum en octobre 2017, ou encore projet TransAlgo piloté par Inria. La France n’est évidemment pas seule à se mobiliser sur ces questions et on ne compte plus les rapports, recommandations et livres blancs sur l’éthique du numérique ou de l’intelligence artificielle (IA) publiés en Europe et aux Etats-Unis.

Soyons redevable

La première source d’inquiétude concernant les algorithmes étant leur opacité, la transparence est généralement mise en avant comme le premier remède. Cependant le terme de « transparence » n’est pas lui-même dénué d’ambiguïté. Par exemple, la seule publication du texte d’un algorithme ou du code source d’un logiciel n’est pas la panacée car ceux-ci peuvent demeurer tout à fait opaques pour le commun des citoyens (et même parfois pour des experts). Par ailleurs, le fonctionnement de certains types d’algorithmes, qui reposent sur l’apprentissage automatique, ne peut être appréhendé indépendamment des jeux de données utilisés pour l’apprentissage. En effet, ces données peuvent intégrer des biais qui seront « appris » puis reproduits par l’algorithme. Plus que la transparence, c’est la « redevabilité » entendue comme « devoir de rendre compte », qui nous paraît le véritable enjeu. Ce devoir inclut deux composantes : le respect de règles, notamment juridiques ou éthiques, d’une part ; la nécessité de rendre intelligible la logique sous-jacente au traitement, d’autre part. Il se décline de différentes manières selon les publics visés. Pour le citoyen sans compétence technique particulière, il peut s’agir de comprendre les critères déterminants qui ont conduit à un résultat qui le concerne (classement d’information, recommandation, envoi de publicité ciblée, etc.) ou la justification d’une décision particulière (affectation dans une université, refus de prêt, etc.). Un expert pourra être intéressé par des mesures plus globales, comme des explications sous forme d’arbres de décision ou d’autres représentations graphiques mettant en lumière les données prises en compte par l’algorithme et leur influence sur les résultats. Un organisme de certification peut se voir confier une mission de vérification qu’un algorithme satisfait certains critères de qualité (non-discrimination, correction, etc.), sans pour autant que celui-ci ne soit rendu public.

Cette exigence de « redevabilité » représente un défi majeur pour les juristes comme pour les informaticiens. D’une part, certains algorithmes reposent sur des techniques, comme l’apprentissage profond qui sont intrinsèquement difficiles à appréhender pour des humains. D’autre part, qu’ils reposent sur l’IA ou pas, les quantités importantes de facteurs (données d’entrée) pris en compte et les multiples manières de les combiner sont parfois des obstacles à l’intelligibilité. Enfin, certains algorithmes sont fréquemment modifiés, ce qui ajoute encore un niveau de difficulté.

La question de l’explication n’est pas un sujet de recherche complètement nouveau en informatique. Elle a été étudiée en particulier dans les domaines du logiciel et de l’IA, et elle suscite depuis quelques années un regain d’intérêt. De nombreux défis restent à relever cependant. En particulier, comment marier la précision d’une explication et son intelligibilité, garantir sa fiabilité, mesurer son intelligibilité envers différents publics (qu’est-ce qu’une bonne explication ?). En sus des travaux visant à reconstituer a posteriori une forme d’intelligibilité aux traitements algorithmiques, l’idéal serait de prendre en compte cette exigence dès la phase de conception, et de concevoir ainsi « par construction » des algorithmes produisant, en plus de leurs résultats nominaux, les justifications associées.

Même si les solutions en la matière reposent forcément sur les techniques disponibles, la technologie ne peut prétendre répondre seule aux questions posées par l’usage des algorithmes d’aide à la décision. Avec l’adoption de la Loi pour une République numérique, la France a introduit de nouvelles obligations pour les administrations et les plateformes numériques.

Le décret d’application du 16 mars 2017 dispose notamment que « l’administration communique à la personne faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique, à la demande de celle-ci, sous une forme intelligible et sous réserve de ne pas porter atteinte à des secrets protégés par la loi, les informations suivantes :

– Le degré et le mode de contribution du traitement algorithmique à la prise de décision
– Les données traitées et leurs sources ;
– Les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé ;
– Les opérations effectuées par le traitement. »

Ces exigences réglementaires sont assez précises, et peuvent être difficiles à mettre en œuvre pour certains algorithmes, mais elles ont un champ délimité, puisqu’elles ne concernent que les décisions des administrations. D’autres visent les opérateurs de plateforme en ligne, mais leur objet est « de délivrer au consommateur une information loyale, claire et transparente sur :

Les conditions générales d’utilisation du service d’intermédiation qu’il propose et sur les modalités de référencement, de classement et de déréférencement des contenus, des biens ou des services auxquels ce service permet d’accéder ;

L’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à son profit, dès lors qu’ils influencent le classement ou le référencement des contenus, des biens ou des services proposés ou mis en ligne.

Au-delà de ces activités précises, il faut se tourner vers le droit des données personnelles.

La loi Informatique et Liberté et le nouveau règlement européen sur les données personnelles encadrent précisément les « décisions individuelles automatisées » (art. 22), avec notamment le « droit de la personne concernée d’obtenir une intervention humaine de la part du responsable du traitement, d’exprimer son point de vue et de contester la décision ». Cependant ces dispositions sont sujettes à interprétation et comportent des restrictions majeures. En particulier, elles ne concernent que les décisions fondées exclusivement sur un traitement automatisé et produisant des effets juridiques ou affectant de manière significative le sujet. De ce fait, il reste encore du travail à faire pour garantir que les outils d’aide à la décision répondent à l’exigence de redevabilité, vis-à-vis de leurs utilisateurs-décideurs comme des personnes destinataires de la décision.

Au-delà de leur grande variété, les algorithmes partagent un point commun : leur fonctionnement repose sur l’exploitation de données, souvent à grande échelle, et ces données sont souvent des données personnelles. Dès lors, l’exigence de redevabilité s’applique également à la collecte des données et cette phase pose aussi de nouveaux défis à une époque où des données de plus en plus nombreuses sont collectées de multiples façons et dans des contextes variés. C’est le cas en particulier de ce qu’on appelle les métadonnées (ou « données sur les données ») qui sont transmises implicitement avec les données principales, par exemple lors d’une communication. Ces métadonnées (en particulier les données de connexion ou de géolocalisation) sont parfois plus intrusives que les données auxquelles elles se rapportent. Le droit français et européen a ainsi été amené à étendre le champ de la protection des données personnelles, par exemple pour intégrer les adresses IP. Par ailleurs, la divulgation de données même anodines en apparence devient problématique.  En effet, ces données peuvent souvent être recoupées pour inférer des informations précises ou constituer des profils. La CNIL en est très consciente et alerte depuis plusieurs années sur les risques induits en la matière. En informatique, de nombreux travaux ont également été réalisés ces dernières années pour améliorer les connaissances sur les collectes de données personnelles. A titre d’exemple, le projet Mobilitics, fruit d’une collaboration entre l’équipe-projet Inria Privatics et la CNIL, a permis de mettre au jour certaines pratiques opaques, déloyales, et même parfois illégales en matière de collecte de données personnelles sur les téléphones mobiles.

Pour conclure, au-delà des enjeux techniques et juridiques, il est clair que la généralisation de l’usage des algorithmes pose d’abord des questions d’éthique et de choix de société. Ces choix doivent être mis au débat, comme on l’a entrepris récemment en France et dans de nombreux autres pays. Pour dépasser les positionnements idéologiques, ces débats doivent être autant que possible alimentés par la connaissance scientifique et informés par une meilleure diffusion de la culture informatique. Pour ce qui concerne la technique elle-même, il faut admettre que de grand progrès sont encore à réaliser pour rendre possible la « redevabilité des algorithmes ». Ce courant de recherche devrait connaître un fort développement au cours des années à venir. On peut espérer que cet effort sera conduit de manière interdisciplinaire car il doit mobiliser des compétences variées aussi bien dans le domaine informatique au sens large (intelligence artificielle, logiciels, interaction homme-machine, etc.), qu’en sciences humaines (juridiques, éthiques, sociales, politiques, etc.).

Daniel Le Métayer, Inria, Université de Lyon, et Sonia Desmoulin-Canselier, CNRS, Université de Nantes.

Cinquante nuances de matière grise

À l’heure où nous commençons à déléguer à des algorithmes le soin de prendre certaines décisions humaines,  et confions aux machines de plus en plus de tâches qui réalisées par un humain auraient été qualifiées d’intelligentes, si nous nous tournions vers ce que nous comprenons aujourd’hui de notre cerveau ? Comment nous « fait-il prendre » des décisions ? Nous avons demandé à un collègue des neurosciences, Thomas Boraud, de nous éclairer sur ces sujets. Thomas Boraud dirige une équipe de recherche à l’Institut des maladies neurodégénératives à Bordeaux dont les travaux portent sur l’identification des substrats neurobiologiques des processus de prise de décision. Serge Abiteboul et Thierry Viéville. Cet article est publié en collaboration avec The Conversation.

Bienvenu dans l’ère du neuro-essentialisme

L’IRM de diffusion et la magnéto- et l’électro-encéphalographie permettent d’explorer la géographie du cerveau pour en comprendre le fonctionnement. © Inria / Photo C. Morel / ATHENA

Les neurosciences sont de plus en plus sollicitées par la société civile pour fournir une explication sur le fonctionnement de l’individu et son rapport à la société moderne. Heureux qu’on ait peu à peu laissé tomber les explications génétiques et la psychanalyse pour s’intéresser à leur discipline favorite, les neuroscientifiques se prêtent volontiers au jeu et apportent des explications sur les bases neurobiologiques de tel comportement (conduites à risque, procrastination, comportements criminels), de telle pathologie (addiction, autisme, trouble du déficit de l’attention avec ou sans hyperactivité, stress post-traumatique) ou de tel fait de société (théorie des genres, racisme, réussite sociale). Ils sont aidés par le développement de l’imagerie fonctionnelle qui fournit des supports visuels intelligibles par toutes et tous où s’allument comme par magie les zones cérébrales impliquées. S’il est indéniable que tout ce qui concerne le comportement humain a son origine dans le cerveau, il peut être utile néanmoins de tempérer cet engouement et d’en souligner les limites. Mieux appréhender ce que les neurosciences peuvent apporter comme éléments de réponse à des questions sociétales permettra de ne pas retomber dans les travers scientistes des deux siècles précédents qui se sont développés sur les paradigmes essentialistes (je donnerais comme exemples non exhaustifs la dérive suprématiste qui s’est développée à partir de la théorie de l’évolution, ou bien les tendances eugénistes inspirées par la génétique).

Tout d’abord, il peut être utile de rappeler que le cerveau ne fonctionne pas tout seul lorsqu’il génère un comportement, mais qu’il est en symbiose avec un corps lui-même en interaction avec un environnement. Cela engendre un certain nombre de contraintes physico-chimiques et temporelles qui doivent être prises en compte dans l’explication des origines du comportement. Deuxièmement, le cerveau est un objet complexe au sens mathématique du terme. Pour comprendre son fonctionnement, il est indispensable d’utiliser une formalisation adaptée à la manipulation d’un nombre à priori indénombrable de paramètres. C’est l’adoption de ce cadre conceptuel qui a permis par exemple à la physique, d’effectuer sa révolution à la charnière du 19ème et du 20ème siècle. C’est encore loin d’être le cas dans notre domaine il faut donc rester très prudent en ce qui concerne la portée de notre compréhension des mécanismes neuronaux à l’origine des comportements (Voir « Neurosciences, les limites de la méthode« , Le Monde, 2/10/2013). Enfin, il faut éviter de tomber dans un travers de déresponsabilisation de l’individu (ce n’est pas de ma faute, mais celle de mon cerveau). La question du libre-arbitre, nécessite un dialogue avec des philosophes, des juristes, des sociologues, etc. et le neuroscientifique ne peut fournir à lui seul qu’une réponse plus  simpliste.

Aux frontières de la rationalité

La neuro-économie a émergé dans ce contexte neuro-essentialiste. Tout commence par le constat effectué au milieu du 20ème siècle que la rationalité est souvent prise en défaut lorsqu’il s’agit de prendre des décisions. Cette découverte remettant en question les fondements même de l’économie capitaliste (la prospérité émerge de l’interaction entre des agents économiques rationnels qui œuvrent pour leurs propres intérêts), les économistes furent d’abord déstabilisés. Ils se sont rapidement ressaisis et l’étude des contours de la rationalité est devenue leur nouvelle frontière. Il en est ressorti un certain nombre de théories (rationalité limitées, théorie des perspectives, paternalisme libéral) dont plusieurs ont été consacrées par des prix « Nobel »[1] d’économie (Kahneman en 2002 ou Thaler en 2017 pour ne citer que les deux plus récents). On pourrait résumer ces travaux par 5 grands axes.

1. La rationalité de l’agent est limitée par ses capacités cognitives et la quantité d’informations à sa disposition.
2. Les agents ont tendance à présenter un certain nombre de biais cognitifs qui influencent leurs décisions.
3. Ils ont une mauvaise estimation des probabilités.
4. À partir d’un cadre initial, ils auront tendance à éviter les risques en ce qui concerne les gains et au contraire à les rechercher en ce qui concerne les pertes.
5. La connaissance de ces différents aspects de la décision peut être mise à profit pour influencer les individus pour leur propre profit et celui de la société (ce qu’on appelle le paternalisme libéral).

Longtemps frileux en ce qui concerne l’étude des corrélats neuronaux des processus cognitifs, l’apparition de l’imagerie cérébrale et le développement d’autres méthodes d’observation de l’activité cérébrale  ont poussé les neuroscientifiques à se pencher finalement sur la question au début des années 2000. S’ils ne sont pas encore autorisés à dire grand-chose sur le paternalisme libéral (heureusement !), ils ont largement investi les autres axes de l’étude des frontières de la rationalité. Ils en ont aussi profité pour tenter d’étudier de façon plus générale les mécanismes neuronaux de la prise de décision et ont nommé cette discipline émergente neuro-économie pour bien marquer son individualité par rapport au reste des neurosciences.

Plus que d’autres, ce domaine engendre des inquiétudes car il semble toucher aux fondements de notre société. D’autant plus que souvent confondu avec le neuro-marketing (sur l’intérêt duquel il y aurait beaucoup à dire), il fait suspecter une volonté d’influencer les comportements des acteurs économiques et/ou des consommateurs. Il convient donc de ramener à leur juste valeur les grands apports de cette discipline.

La neuro-économie pour les nuls

CeCe Comprendre le lien entre notre cerveaux et nos fonctions cognitives, site de vulgarisation scientifique http://lecerveau.mcgill.ca

Comme toujours, quand une nouvelle discipline émerge, ses premières années ont été consacrées à en définir les contours et à en affiner les outils. Schématiquement, les méthodes se résument à 3 grandes étapes :

1.Définir un cadre théorique ou axiomatique pour poser une question précise (le système d’attribution de valeurs, les aires cérébrales impliquées dans le doute, le risque, le jugement moral) ;
2. Opérationnaliser cette question avec un paradigme emprunté à l’économie expérimentale ;
3. Etudier les corrélats neuronaux avec des méthodes d’imagerie fonctionnelle (chez l’homme) ou des enregistrements électrophysiologiques (sur les modèles animaux).

Ces méthodes ont agi comme une prophétie auto-réalisatrice : des corrélats neuronaux des choix effectués dans les divers paradigmes utilisés ont été mis en évidences dans de nombreuses aires corticales, ou sous-corticales, validant les cadres théoriques qui ont été proposés. Cependant, ces méthodes descendantes (top-down) ont fini par atteindre les limites de leurs cadres conceptuels. Nous possédons maintenant un catalogue de fonctions unitaires associées à différentes aires cérébrales, mais l’articulation entre les différentes sous-parties et la façon dont le tissu cérébral génère ces fonctions échappent encore à l’entendement.

Matière à décision

Depuis une dizaine d’années, une approche ascendante (bottom-up) se développe. Il s’agit cette fois de chercher à comprendre ce qu’est la décision au niveau neuronal : un processus de compétition entre plusieurs populations de neurones. Une fois ce cadre conceptuel posé, les adeptes de cette méthode ont cherché quelles sont les structures cérébrales capables de générer ces processus de compétition. Deux candidats sérieux ont émergé dans la littérature : le cortex et les noyaux gris centraux. Une véritable querelle de clocher s’est donc développée entre deux sous-communautés qui défendent chacune la prépondérance d’une des deux structures sur la seconde dans les processus de prise de décision.

L’anatomie comparée apporte une solution élégante à cette opposition apparente.  Elle propose que les noyaux gris centraux étaient seuls à l’origine de ces processus chez les vertébrés les plus anciens. Leur plasticité, sensible à des mécanismes d’apprentissage par renforcement dont la dopamine est un des éléments clef, confère aux organismes qui en sont dotés des capacités d’apprentissage. Dans ces structures, le mécanisme qui préside à la décision repose sur des processus stochastiques c’est à dire qu’ils utilisent le hasard pour choisir entre différentes options possibles. Au fur et à mesure des essais et des erreurs, l’expérience acquise facilite le choix de l’option la plus intéressante en terme de renforcement (accès à de la nourriture, à un abri, etc.), sans que ce soit complétement automatique.  Ces processus  permettent de comprendre un certain nombre de comportements aberrants sur le plan économique, mais qui font sens sur le plan évolutif (tels que l’équilibre entre les comportements d’exploration et d’exploitation). Sur ces mécanismes, au fil de l’évolution, s’est greffée  une couche corticale. Cette dernière est supervisée par les noyaux gris centraux pour apprendre de nouvelles compétences, mais fonctionne de façon autonome une fois que ces dernières sont automatisées.  Le développement des aires corticales et leur organisation de plus en plus hiérarchisée seraient à l’origine de l’extension du nombre et de la complexité des comportements observés au fur et à mesure de l’évolution, mais aussi à l’apparition de comportements plus stéréotypés donc plus résistants aux changements.

Cette approche propose en outre que ces processus se sont développés en parallèle dans plusieurs taxa[2] de vertébrés puisque des mécanismes comparables sont observés chez les mammifères (avec les cas notables des primates mais aussi des mammifères marins et des éléphants), chez les oiseaux dont le développement et la spécialisation du pallium (qui est l’équivalent du cortex chez ces espèces) est corrélé à l’utilisation d’outils chez certains corvidés et peut être aussi chez certains poissons. Pour les batraciens et les reptiles, nous manquons encore de données expérimentales.

L’imbrication entre un tel processus sous-cortical dont l’apprentissage se fait par renforcement (c’est à dire en vue de maximiser une récompense) et un processus cortical plus rigide une fois automatisé, permet en outre de fournir un substrat organique à l’opposition entre un système rapide-système lent  pour expliquer les mécanismes qui sous-tendent sa théorie des perspectives [3].

Il faut néanmoins demeurer prudent dans nos interprétations. Cette hypothèse élégante et riche d’une forte valeur heuristique, est supportée par un certain nombre de données expérimentales, mais de nombreuses zones d’ombres doivent encore être explorées. Sa richesse est aussi une faiblesse, puisque la nécessité de la tester à différentes étapes de l’évolution des vertébrés laisse présager qu’il faudra encore un certain nombre d’années avant qu’elle ne soit totalement confirmée… ou définitivement infirmée.

Thomas Boraud, Directeur de recherche au CNRS

Publication commune avec The conversation .

Pour en savoir plus : Comment fonctionne notre cerveau et comment s’opèrent nos choix ? Thomas Boraud, Biblis, 2017 :

Et si notre faculté à prendre des décisions relevait plus du hasard que d’un processus rationnel ? On a longtemps admis que l’esprit décide, le corps obéit. Or, c’est l’inverse : le mécanisme décisionnel est produit par la matière cérébrale. C’est un phénomène aléatoire qui résulte de processus de compétitions au sein d’un réseau dont l’architecture a peu évolué depuis les premiers vertébrés.
Malgré l’extraordinaire développement du cortex humain, le processus conserve sa nature aléatoire. Ainsi, lorsqu’un individu pèse le pour et le contre, il ne fait que de s’en remettre au hasard de dés virtuels. Apprendre consiste dès lors à piper ces dés… Mais ce qui n’est qu’une rationalité limitée est peut-être le prix à payer pour conserver notre grande capacité d’adaptation.


[1] Rappelons qu’Alfred Nobel n’a pas prévu de prix pour l’économie dans son testament et que ce que nous appelons abusivement prix Nobel d’économie est en réalité le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel institué en 1968.

[2] Un taxon (pluriel taxa) est une entité conceptuelle qui regroupe des organismes vivants possédant en commun certains caractères au sein de l’arbre phylogénétique.

[3] On pourra citer l’opposition entre système rapide-système lent proposé par Daniel Kahneman pour expliquer les mécanismes qui sous-tendent sa théorie des perspectives. Il est à noter que cette explication est à l’opposé de celle fournie traditionnellement par les psychologues expérimentaux, imprégnés de la vieille théorie du cerveaux triunique de MacLean qui reposent sur un présupposé finaliste.

Maman ! Papa ! J’veux devenir informaticien.ne !!

C’est une bonne idée mon enfant, tu maîtriseras le numérique, tu verras si les métiers en lien avec l’informatique peuvent te plaîre et écoute ça ; tu peux le faire dès maintenant.

La découverte : le Concours Castor.

 Découvrir ce qu’est l’informatique et ne pas uniquement l’utiliser ?

Le concours Castor Informatique se déroule en ce moment et jusqu’au 8 décembre. Plus de 500 000 élèves du CM1 à la terminale y participent.

Les défis du concours Castor permettent de découvrir des éléments introductifs aux bases du codage de l’information, de l’algorithmique, des graphes, des bases de données, de la programmation, de la logique …

Il n’est pas trop tard pour participer ! Parlez-en aux enseignants, ceux sont eux qui inscrivent les classes, en créant un compte sur la plateforme de coordination.

Témoignages :

«Merci pour ce concours, 3 ans que je le fais passer aux élèves. La plupart prennent beaucoup de plaisir et certains se découvrent même des capacités et prennent de la confiance en eux pour le reste de l’année. — Antoine, enseignant au collège dans l’académie de Nantes.

Permettez-moi avant tout de vous remercier pour tout le travail que vous faites, c’est stimulant pour nos élèves et ça leur donne goût aux mathématiques et à la programmation. — Éric, enseignant dans l’académie de Paris. »

Le concours Castor : comment ça marche ?

Lors du concours Castor, les participant.e.s ont 45 minutes pour résoudre, seul.e.s ou en binômes, 12 défis interactifs en ligne. Chaque défi est décliné en trois versions, de difficulté progressive. La navigation dans les défis s’adapte automatiquement selon la réussite et le temps passé.

Pour visualiser à quoi ressemble un défi, vous pouvez rejouer les défis de l’année dernière !

Notez que le concours est entièrement gratuit et ouvert à toutes les filières (générales, technologiques, professionnelles, SEGPA, ULIS, …).

Après le Castor : découvrir la programmation avec Algoréa !

 Découvrir si l’informatique ça me plaît  ?

Algoréa propose des défis pour s’initier à la programmation de manière ludique et à son rythme. Il s’agit, par exemple, de programmer les actions d’un robot qui doit ramasser des objets ou peindre des cases.

Le retour visuel interactif permet aux élèves de facilement comprendre leurs erreurs. Il motive les élèves et leur permet une progression rapide. Comme pour le Castor, la difficulté est progressive, permettant de bien maîtriser les concepts fondamentaux. Les défis Algoréa peuvent être programmés avec des langages visuels (Blockly ou Scratch). Le langage Python, enseigné au lycée, peut également être utilisé. Les notions abordées correspondent aux contenus des programmes d’enseignement.

Afin de proposer des défis adaptés au niveau de chacun.e, Algoréa est organisé* en 3 tours. À chaque tour, il est possible de participer dans l’un des 5 niveaux, et de passer ainsi au niveau suivant.

Le premier tour se déroule en janvier. Les élèves peuvent participer soit en classe avec leur enseignant, soit en individuel à la maison, en s’inscrivant sur le site d’Algoréa. Les tours suivants ont lieu en mars puis en mai. Ensuite, les meilleurs de chaque niveau scolaire sont invités à participer à la demi-finale organisée en juin, et éventuellement se qualifier pour la finale qui se déroule pendant l’été. Pour ces étapes, il est également possible participer en programmant en C, C++ ou Java.

Tous les participants à Algoréa pourront repartir l’année suivante directement du niveau atteint cette année, l’objectif étant d’accompagner les élèves dans leur progression d’année en année.

L´équipe du Castor et de Algoréa, Arthur Charguéraud, Françoise Tort et Mathias Hiron de France IOI, L’ENS Paris Saclay et Inria.

(*) Le niveau blanc permet de se familiariser avec le principe des séquences d’instructions, des répétitions simples, et des appels de fonctions simples; le niveau jaune permet de découvrir et pratiquer les notions d’instructions conditionnelles, de boucles répéter simples, et l’imbrication de boucles et d’instructions conditionnelles ; le niveau orange permet d’apprendre à manipuler des variables, les opérateurs arithmétiques et booléens, et les boucles « tant que » ; le niveau vert permet d’apprendre à créer ses propres fonctions, manipuler des tableaux, listes et chaînes de caractères ; enfin, le niveau bleu introduit des concepts plus avancés comme les fonctions récursives.

T’as pas cent balles (ransomware) ?

Nous avons demandé à Hélène Le Bouder et Aurélien Palisse chercheur.e.s rennais de nous parler d’un sujet d’actualité : les ransomware. Ces nouveaux logiciels à la propagation virale, qui vous réclament de l’argent pour ne pas détruire vos données… De quoi s’agit-il ? Pierre Paradinas.

À propos de Ransomware

Les ransomware (logiciels de rançon) ne cessent de se développer. Ils représentent l’une des plus grandes menaces du monde informatique d’aujourd’hui; mais que sont-ils exactement ? Un ransomware chiffre les données d’un ordinateur, puis demande à son propriétaire d’envoyer une somme d’argent en échange de la clé cryptographique permettant de les déchiffrer. Les ransomware infectent les ordinateurs via internet et attendent un signal pour s’activer. Ainsi 80% d’entre eux parviennent à chiffrer toutes les données d’un utilisateur en moins d’une minute. Les autorités conseillent de ne pas payer, afin de ne pas encourager des activités criminelles. Il est important de noter que le paiement d’une rançon ne garantit pas la récupération de ses données.

Une étude, estime que plus de 25 millions de dollars ont été payés ces dernières années. Le prix des rançons varie de 50 à 300 euros. La rançon peut atteindre plusieurs milliers d’euros comme en juin 2017 pour un groupe industriel.

Les cybercriminels souhaitent être payés en utilisant une monnaie virtuelle difficilement traçable, comme le bitcoin. Des moyens de paiement plus hétéroclites ont déjà été utilisés dans le passé comme des cartes cadeaux Amazon, ou des SMS surtaxés.

Certains anti-virus permettent de détecter un ransomware avec des résultats plus ou moins efficaces. Notons que Windows 10 inclut une protection contre les ransomware.

Les chercheur.e.s ne connaissant pas à ce jour de solutions acceptables [3, 1] principalement pour des raisons de performance. En effet, la détection se base sur le comportement des applications vis à vis du système de fichiers. Par exemple, un grand nombre de fichiers renommés ou de dossiers/fichiers explorés peuvent être liés au comportement d’un ransomware. L’apprentissage automatique (machine learning) est très utilisé, notamment par ShieldFS un outil développé par des chercheurs italiens. Le principal problème des solutions académiques est le déclenchement intempestif de fausses alertes : de nombreux programmes sont suspectés d’être malveillants à tort.

© Inria / Photo C. Morel

Au Laboratoire de Haute Sécurité d’Inria à Rennes, une plateforme (Malware’O’Matic) constituée de plusieurs ordinateurs est dédiée à ce thème de recherche. Le but est de développer une contre-mesure plus performante qu’un antivirus traditionnel en termes de taux de détection (99% de ransomware détectés) et de rapidité d’exécution.

Des données chiffrées ont une répartition proche d’une répartition aléatoire. Aussi nous utilisons des tests statistiques de détection d’aléa pour détecter le processus de chiffrement. Une version plus aboutie, permettant de limiter le nombre de fausses alertes est actuellement en cours de développement avec un effort particulier pour limiter l’impact sur les performances de l’ordinateur.

Aujourd’hui la plupart des études se focalisent sur les menaces courantes et ne se projettent pas sur les menaces futures. Les ransomware actuels sont assez frustres mais ils risquent d’évoluer d’une part en complexité et d’autre part vers de nouvelles cibles comme les téléphones. Des travaux récents [2] montrent que des techniques d’apprentissage supervisé utilisées pour détecter les logiciels malveillants peuvent aussi être utilisées pour concevoir des logiciels furtifs et les rendre ainsi indétectables par les antivirus actuels. Il est important pour le monde de la recherche de ne pas se cantonner aux problèmes actuels et d’anticiper des solutions pour l’avenir.

Hélène Le Bouder (MdC à l’IMT-Atlantique), et Aurélien Palisse (doctorant chez Inria)

Pour aller plus loin, écoutez le Podcast d’Aurélien sur le sujet des ransomware sur )i(nterstices

Références

  1. A. Continella, A. Guagnelli, G. Zingaro, G. De Pasquale, A. Barenghi, S. Zanero, and F. Maggi. ShieldFS : A self-healing, ransomware-aware filesystem. In Proceedings of the 32nd Annual Com- puter Security Applications Conference. ACM.
  2. I. Rosenberg. Improvements in Obfuscation and Detection Techniques of Malicious Code. PhDthesis, The Open University, 2016.
  3. N. Scaife, H. Carter, P. Traynor, and K. R. Butler. Cryptolock (and drop it) : stopping ransomware attacks on user data. In Distributed Computing Systems (ICDCS), 2016 IEEE 36th International Conference on, pages 303–312. IEEE, 2016.

Pour les filles et la science

En octobre dernier, le colloque « Casser les codes. Femmes, genre et informatique » co-organisé à l’Institut des sciences de la communication par la SIF et Inria a donné lieu à des débats riches. C’était l’occasion de faire le point sur la situation et de parler de propositions concrètes pour changer les choses. Une des présentatrices, Diane Baras, nous a parlé du travail de la Fondation L’Oréal. Binaire l’a invitée à prendre la plume ici pour nous raconter ce qu’ils font. Serge Abiteboul

Je m’appelle Diane, j’ai 36 ans.  Je suis ingénieure et je suis engagée pour la cause des femmes de science, et plus particulièrement en faveur des jeunes filles.

Je rêve qu’au plus vite, les jeunes filles puissent choisir librement d’exercer un métier scientifique. Aujourd’hui ce n’est pas le cas : en France, moins de 30% des étudiants en sciences fondamentales sont des filles, alors qu’elles composent près de la moitié des classes de Terminale S. C’est à l’âge de 15 ans en moyenne que les jeunes filles se détournent des sciences. Or 15 ans, c’est l’âge des choix d’orientation. On pourrait invoquer comme cause la méconnaissance des métiers scientifiques. Ma conviction est que le problème est bien plus profond. Notre société véhicule encore et toujours des préjugés à l’égard des sciences et des femmes scientifiques : les métiers seraient difficiles, monotones, solitaires, élitistes et difficiles d’accès. Si cela vous paraît caricatural, interrogez les jeunes autour de vous. Les réponses sont parfois sans appel.

Je les entends régulièrement dans les classes où j’interviens depuis 2 ans comme ambassadrice du programme Pour les Filles et la Science de la Fondation L’Oréal. Demandez à des jeunes de 15 ans de décrire un scientifique : vous obtiendrez quasi systématiquement la description du savant fou ! Instaurez le dialogue avec les jeunes et vous verrez se dessiner un manque de confiance chez de très nombreuses jeunes filles, persuadées de ne pas avoir les prédispositions pour ces « métiers d’hommes ».

C’est pour toutes ces raisons que je me suis engagée dans ce programme. Créé en 2014, en partenariat avec le Ministère de l’Éducation Nationale, il est destiné à améliorer l’attractivité des métiers scientifiques et à susciter plus de vocations scientifiques, en particulier chez les jeunes filles. Il est basé sur le role model. 200 femmes scientifiques partent régulièrement, comme moi, à la rencontre des jeunes de la 4ème à la terminale. Ce programme a la particularité d’être épaulé par une agence spécialisée dans le changement comportemental. L’ensemble des ambassadrices est entrainé à créer le lien avec les jeunes, à engager la discussion, à ébranler les préjugés, à redonner confiance, et surtout… à inspirer ! Au travers de notre propre parcours personnel et professionnel, nous devenons avec modestie des role models.

Une éducatrice spécialisée, Elsa Lorthe, forme les futures ambassadrices

Depuis son lancement, plus de 45 000 élèves, garçons et filles, ont été sensibilisés aux filières scientifiques partout en France. Parmi ces jeunes, j’ai vu des visages s’illuminer, des yeux s’écarquiller, de l’espoir émerger. Ce programme marche. Je l’ai vu de mes yeux !

Changer la donne est possible. Cela nécessitera l’investissement de tous. C’est une mission de la Fondation L’Oréal. Au-delà des interventions en classe, la Fondation a bousculé les codes en créant un show innovant en collaboration avec la Cité des Sciences et de l’Industrie de la Villette. Imaginez sur la scène de l’auditorium, un maître de cérémonie ancien GO du club Med et 3 Ambassadrices de la science aux parcours variés (IUT, DUT, école d’ingénieur, doctorat, etc.) ; dans la salle et en visioconférence dans toute la France, des jeunes connectés avec leur téléphone portable pour répondre à des sondages en live et chatter en direct avec les  femmes scientifiques. Le style est décalé et étonnant mais il est profondément humain et moderne. Je suis convaincue que c’est ce type d’actions qui aidera les jeunes à changer leur regard sur les sciences.

Une autre action de la Fondation : une campagne YouTube à suivre avec le hashtag #NowYouKnow. Le principe : 6 influenceuses de Youtube rencontrent, au cours de 6 vidéos, 6 scientifiques pour discuter d’une question qui les taraude chacune. C’est ainsi, par exemple, que Lola Dubini (actuellement sur M6 pour A la Recherche de la Nouvelle Star) rencontre Jimena Royo Letellier, une scientifique travaillant pour la plateforme musicale Deezer. La discussion s’enclenche pour comprendre comment les plateformes musicales parviennent à nous proposer, comme par magie, des play lists qui nous séduisent. Et bien sûr, ce n’est pas de la magie, c’est de la science ! 2 vidéos sont actuellement accessibles avec déjà 170 000 vues.

La science peut séduire les jeunes garçons et les jeunes filles. Preuve en est !

Diane Baras, L’Oréal, @DianeBaras

 

Les algorithmes du luxe

Charles Ollion, Chief Science Officer & Cofondateur d’Heuritech

B : Charles, comment es-tu arrivé à l’informatique ?
CO : quand j’étais ado, j’aimais programmer des jeux vidéo. J’ai fait Télécom Paris, puis une thèse en informatique sur l’apprentissage profond, à l’Institut des Systèmes Intelligents et de Robotique de l’Université Pierre et Marie Curie. Ensuite, j’ai cofondé Heuritech en 2013 avec Tony Pinville (le PDG actuel) et d’autres copains de thèse. Au début, nous faisions surtout du conseil en apprentissage automatique (machine learning) sur l’analyse du langage et de l’image. Cela nous a appris à connaître un peu le monde des entreprises.

Faster R-CNN – Ren 2015

B : comment en êtes-vous arrivés à la mode et au luxe ?
CO : nous cherchions un marché. Notre techno, c’était au départ surtout de l’analyse d’images, et dans la mode, les images sont justement essentielles. Et puis, la mode est un marché important en France. Enfin, aucun acteur spécialisé ne dominait le secteur. La demande des géants du secteur, et une pointe de hasard, ont fait le reste. Nous avons été invités à participer au jury d’un hackathon* organisé par Louis Vuitton. On a hésité à y aller, c’était un dimanche matin ! Finalement, un mois plus tard, Vuitton nous rappelait et nous gagnions notre premier gros client du secteur. Nous avions trouvé notre spécialité : le luxe et la mode.

B : vous analysez des images, pour quoi faire ?
CO : A partir d’images du web, de réseaux sociaux, en particulier d’Instagram, nous analysons les choix des consommateurs sur les produits qu’ils portent, qu’ils viennent de nos clients ou de leurs concurrents. Cela nous permet de mesurer les performances de ces produits, les évolutions selon les modèles, les couleurs, les pays… Nous cherchons à comprendre comment différents types de clients s’approprient ces produits, comment ils les portent, dans quel contexte… Si un produit est porté différemment que ce qui était prévu par les designers par exemple, cela intéresse nos clients. Enfin, nous détectons les nouvelles tendances.

Dernièrement, nous avons pu ainsi étudier un engouement pour les sacs en osier. Notre client avait déjà pu observer le phénomène. Ce que nous apportons, c’est quantifier ce qui est en train de se passer pour savoir si c’est significatif et probablement parti pour durer, ou juste une mode passagère.

Les résultats que nous obtenons sur les comportements de consommateurs, dans la mode et le luxe, sont utilisés par nos clients sur différents enjeux. Leurs équipes produit peuvent mieux adapter les collections, les équipes de logistique ajuster les prévisions, les équipes marketing mieux orienter les campagnes de pub.

B : qui sont vos concurrents ?
CO : Il y a quelques startups similaires à nous en IA pour la mode. Mais on entend surtout parler de grands de l’IA comme Google qui proposent des solutions généralistes, pour analyser tout type d’images. Nos algorithmes sont toutefois plus spécialisés et obtiennent donc des résultats plus précis. Pour apporter de la valeur, il ne suffit pas d’avoir de super techniciens d’apprentissage automatique, il faut aussi des experts du domaine, la mode dans notre cas.

B : vous apprenez à des logiciels à analyser les tendances de la mode. Tu peux nous raconter un peu comment fonctionne votre chaine d’apprentissage ?
CO : nous partons d’un principe bien connu en Deep Learning : un entraînement à partir d’une base d’images annotées à la main, par exemple des photos de mode et les différents types d’habits présents sur ces photos. L’algorithme apprend sur cette base d’images, et si celle-ci est assez large et diversifiée, il est capable de généraliser et prédire les annotations sur de nouvelles images. Nous utilisons également d’autres techniques plus avancées développées en interne qui nous permettent de réduire le nombre d’exemples annotés à la main.

Nous faisons passer dans ce réseau de neurones un volume énorme de photos. C’est ce qui nous fournit les analyses du marché, les tendances dont nos clients ont besoin. Pour le travail qu’il fait, le réseau n’a pas besoin d’avoir une précision parfaite, pas besoin de procurer la même qualité qu’un expert. Parce que pour repérer des tendances, donc faire des analyses à un niveau très agrégé, avoir raison dans 90 à 95% des cas suffit. Par contre, il serait impensable de faire traiter de tels volumes de données par des humains. Nous récupérons environ 10 millions d’images par jour, en crawlant le web. Nous avons besoin de logiciels, et même de logiciels très performants.

Pour développer nos algorithmes, nous nous basons sur des modèles libres de réseaux convolutifs, et des frameworks comme TensorFlow et Keras.

Localisation d’un objet dans une image, le chien
Segmentation d’un objet dans une image, le chien

B : continuez-vous à améliorer vos algorithmes ?
CO : bien sûr. Par exemple, nous utilisons des techniques récentes pour faire de la « segmentation ». Prenez un sac à main dans une image. Nous commençons par le localiser avec un premier réseau relativement classique de neurones qui produit des coordonnées pour délimiter un rectangle autour du sac. Puis, nous utilisons un autre réseau, profond celui-là, pour trouver son contour exact à l’intérieur de ce rectangle. C’est à dire que nous l’extrayons du reste de l’image. C’est une tâche que le cerveau d’un humain réalise simplement, mais qui est compliquée pour un ordinateur. Cette approche nous procure de bien meilleurs modèles de sac, ce qui fera que nous aurons besoin de beaucoup moins d’images à l’avenir pour entrainer notre modèle à reconnaître ces sacs. Pour cela, nous utilisons des résultats de recherche très récents.

B : au sein d’Heuritech, combien êtes-vous aujourd’hui dans la technique, et combien d’experts en mode ?
CO : nous avons une quinzaine d’informaticiens, pour moitié avec des doctorats, et une dizaine de personnes pour la gestion de projet, au contact des clients. Il y a des croisements entre les compétences des uns et des autres : d’un côté nos informaticiens se familiarisent avec la mode, de l’autre nous formons les gestionnaires de projet aux bases de l’apprentissage automatique. Ce n’est pas simple de trouver des spécialistes en IA sur le marché, mais nous y arrivons parce qu’ils trouvent chez nous des défis techniques, une vraie R&D.

B : quels sont vos prochains chantiers ?
CO : nous voulons industrialiser les processus d’apprentissage. Pour satisfaire de nouveaux clients sans que cela ne devienne trop coûteux, il faut que nous automatisions encore plus l’introduction de nouvelles classes de produits, de nouvelles images d’entrainement. C’est indispensable aussi pour pouvoir nous installer sur de nouveaux marchés comme le mobilier ou le vin. Et puis nous allons devoir nous améliorer sur d’autres techniques, en particulier sur l’analyse de texte. L’apprentissage automatique fonctionne assez bien sur certaines tâches de traitement de texte comme la traduction, mais moins bien pour d’autres comme comprendre une phrase dans un contexte particulier. Il faut que nous puissions extraire des connaissances des textes pour encore mieux comprendre le contenu des images qu’ils accompagnent.

Serge Abiteboul, Inria et ENS Paris, Tom Morisse, Fabernovel

(*) Un hackathon est une réunion de développeurs pour collaborer à un logiciel, le plus souvent pendant plusieurs jours.

Voir aussi les diapos du cours « Deep Learning », Master Data science, Université Paris Saclay, par Olivier Grisel, Inria, et Charles Ollion, Heuritech

Darwin, bit à bit …

La biologie évolutive vise à comprendre les scénarios et les mécanismes de l’évolution des espèces. En étudiant l’évolution des systèmes biologiques, on peut remonter le temps, essayer de comprendre les biologies du passé (voir l’article avec Allessandra Carbone). La simulation numérique joue un rôle essentiel dans ce domaine.  Quand les impacts sur notre planète de la vie humaine (l’ère de l’anthropocène) sont considérables, catastrophiques, voire suicidaires, il devient essentiel de savoir prédire les évolutions de systèmes biologiques. La biologie évolutive nous aide à imaginer les futurs possibles.  Guillaume Beslon et Dominique Schneider traitent de ce sujet vital. Serge Abiteboul et Thierry Viéville.

La biologie évolutive prend ses racines dans le passé, soit pour disposer de données lui permettant d’identifier les mécanismes de l’évolution soit pour retrouver, à partir d’espèces contemporaines, les événements évolutifs ayant conduit à leur apparition. Pourtant l’évolution est bien une science du présent … et du futur. En effet, nombre de phénomènes contemporains et de menaces futures pour la planète et les organismes vivants – ce qui inclus évidemment l’homme – sont directement liés à l’évolution. À l’ère de l’anthropocène, il devient donc vital pour l’écologie, l’agriculture, la médecine, l’économie, … d’être capable de prédire l’évolution pour être capable d’avoir au moins « un coup d’avance » sur elle : en effet, nous avons besoin d’anticiper l’évolution afin de mieux gérer la biodiversité, l’innovation technologique et biotechnologique, les traitements antibactériens ou anticancéreux, ou la politique agricole.

Pour ce qui est de la santé humaine, évoquons la résistance aux antibactériens qui, en quelques décennies d’usage des antibiotiques (le « présent » à l’échelle de la planète), a conduit à l’émergence de souches bactériennes multi-résistantes1 ou les tumeurs cancéreuses qui, au cours de leur prolifération, s’adaptent à leurs conditions environnementales et « apprennent » ainsi à résister aux traitements anticancéreux. À une échelle plus globale, de nombreuses espèces (plantes, animaux, virus) sont confrontées à des variations rapides de leur environnement et s’adaptent – ou pas – ce qui entraine des bouleversement majeurs des écosystèmes2.

Pour permettre de prévoir le futur des espèces, la biologie évolutive doit se doter d’outils théoriques lui permettant de se tourner vers le futur, exactement comme la météorologie s’est dotée, au fil des décennies, de puissants simulateurs lui permettant de prévoir, certes avec une marge d’erreur et un horizon temporel limité, l’évolution des masses d’air. Or, qui dit prédiction dit généralement simulation numérique … La biologie évolutive, qui utilise depuis près de cinquante ans les sciences du numérique pour inférer le passé des espèces (via la « bioinformatique »), doit donc ouvrir un nouveau front de collaboration avec les sciences du numérique pour développer des simulateurs capables de prédire le futur des espèces et des écosystèmes.

C’est le développement de tels simulateurs, ainsi que leur validation, qui occupe l’équipe Beagle3(Inria/INSA-Lyon) depuis plus de 10 ans et qui fait l’objet d’une collaboration soutenue avec l’équipe GEM4 (CNRS/Université Grenoble-Alpes). C’est cette combinaison d’outils théoriques et expérimentaux pour appréhender l’évolution qui permet de développer des modèles prédictifs de plus en plus précis et fiables. Avant d’entrer plus avant dans le détail de ces travaux, revenons rapidement sur les deux concepts centraux que sont, d’une part, l’évolution, et d’autre part, la prédiction.

Qu’est-ce que l’évolution ?

Si le principe de l’évolution des espèces s’est progressivement imposé dans les sciences du vivant au cours des 17ème et 18ème siècles, c’est Charles Darwin qui, en 1859, en a énoncé les mécanismes fondamentaux, la « descendance avec variation » et la « sélection naturelle », dans son livre « l’Origine des Espèces ». Ensuite, au cours des 20ème et 21ème siècles, ces mécanismes fondamentaux ont été associés à des mécanismes moléculaires et génomiques pour aboutir à la « synthèse néo-darwinienne » ou « théorie synthétique de l’évolution ». En quelques mots, et pour simplifier la rigueur d’une définition scientifique, l’évolution peut être assimilée à un phénomène qui, au sein d’une population d’individus, conjugue des variations aléatoires du génome (les « mutations ») et une sélection des individus les plus à même de produire une descendance et donc de transmettre leur patrimoine génétique (les plus « adaptés »). Les variations individuelles, initialement aléatoires (bien que dépendantes des conditions de l’environnement), sont filtrées à l’échelle de la population. Les individus porteurs de variations très négatives (« délétères ») ont une forte probabilité d’être éliminés par la sélection tandis que les individus porteurs de variations favorables peuvent se multiplier en fonction de l’avantage conféré par ces variations, de la taille de la population ou d’interactions avec d’autres variations favorables ou défavorables. Les variations neutres ou quasi-neutres, quant à elles, se répandent aléatoirement, c’est le phénomène de dérive génétique. In fine, c’est la combinaison de ces mécanismes qui permet l’évolution et l’adaptation des individus et espèces à leur environnement.

Qu’est-ce que la prédiction ?

Issu du latin praedicere, prédire signifie « annoncer à l’avance ». Mais annoncer quoi ? Il y a en fait plusieurs formes de prédiction, quantitatives ou qualitatives, plus ou moins certaines, plus ou moins précises. Là encore, sans entrer dans des détails mathématiques, nous considèrerons ici que prédire c’est disposer aujourd’hui d’une information utile pour prendre une décision opérationnelle en tenant compte des conséquences futures probables de cette décision. Pour prendre un exemple relevant du sens commun, sommes-nous capables de prédire ce qui va se passer si une voiture entre dans un virage en épingle à 150 km/h ? Dans les détails (quelle va être la trajectoire exacte de la voiture ?), la réponse est clairement non. Mais nous pouvons tout de même prédire une sortie de route et cette prédiction est suffisante pour décider d’une limitation de vitesse sur cette portion de route. Cette prédiction peut également être validée par des simulations expérimentales réalisées au laboratoire. Elle sera d’autant plus fiable qu’elle pourra être testée par une combinaison d’approches théoriques et expérimentales. La politique actuelle face aux bactéries résistantes aux antibiotiques n’est pas différente : nous ne savons ni où, ni quand, ni comment les bactéries vont acquérir une résistance. Mais nous savons qu’elles vont y parvenir et cela nous suffit pour énoncer des règles d’usage limitant le risque de « sortie de route ».

Si ces deux définitions sont prises conjointement, elles peuvent nous faire douter que l’évolution soit prédictible puisqu’elle repose sur une série d’événements aléatoires, les mutations. De fait, mis à part les prédictions très macroscopiques (du type « entre deux individus, celui ayant le plus grand succès reproducteur va à terme coloniser l’ensemble de la population5 »), nous ne sommes pas capables de prédire grand chose, au grand dam des biologistes eux-mêmes ! Ainsi, même des expériences d’évolution expérimentale – au cours desquelles des micro-organismes sont cultivés dans des milieux simples et constants pendant quelques jours ou quelques semaines – sont capables de nous surprendre. C’est là que la vision numérique est susceptible d’apporter un éclairage nouveau sur le phénomène évolutif en changeant notre angle de vue. En effet …

L’évolution est un algorithme !

Qu’est-ce qu’un algorithme ? C’est une suite d’opérations permettant de résoudre un problème. Et justement qu’est-ce que l’évolution si ce n’est une suite d’opérations (variations individuelles, sélection) répétées indéfiniment au fil des générations ? Nous pouvons donc considérer l’évolution d’un point de vue algorithmique pour répondre à des questions comme : « Est-ce que cet algorithme converge ? En combien de temps ? Quel est l’avantage conféré par tel ou tel type de variation ? … ». Plusieurs chercheurs en informatique tels que Leslie Valiant à Harvard ou Christos Papadimitriou à Berkeley ont ainsi abordé l’évolution d’un point de vue algorithmique, ce qui leur a permis de travailler par exemple sur les limites de l’évolution ou l’avantage de la reproduction sexuée : du point de vue algorithmique, la reproduction sexuée est une variante de l’algorithme évolutif « simple ». Nous pouvons donc raisonner théoriquement sur cette variante pour identifier les conditions sous lesquelles elle est avantageuse. Pourtant ces travaux ne sont pas d’une grande utilité lorsqu’il s’agit de prédire l’évolution. En effet, pour pouvoir raisonner théoriquement sur un algorithme, il faut qu’il reste relativement simple, ce qui est le cas de la théorie Darwinienne mais pas de la synthèse néo-Darwinienne telle que nous l’avons rapidement décrite ci-dessus. Vue algorithmiquement, la synthèse néo-Darwinienne reprend les grandes structures de l’algorithme « évolution », mais les processus de variation et de sélection sont éminemment plus complexes puisqu’il faut désormais tenir compte de notions telles que les « gènes », « les réarrangements chromosomiques », le « développement de l’organisme », etc. Il en résulte une forme algorithmique inaccessible à l’analyse théorique mais qui, malgré tout, peut être étudiée au moyen d’une approche alternative : l’algorithmique expérimentale. Dans cette approche, l’algorithme est implémenté sous la forme d’un programme et c’est l’étude de nombreuses exécutions du programme qui permet de déduire les caractéristiques de l’algorithme. En d’autres termes, nous allons programmer et exécuter l’algorithme de l’évolution sur un ordinateur et, ainsi, en étudier les propriétés.


A gauche, l’algorithme de l’évolution tel qu’il est classiquement implémenté (une population d’individus évolue par mutation et sélection. Comme les mutations se produisent sur le génome alors que la sélection a lieu sur les individus ces deux étapes sont séparées par une étape relativement simple de décodage des génomes). A droite, la structure de l’algorithme est similaire mais trois processus supplémentaires ont été ajoutés pour tenir compte (a) de la complexité des génomes réels et des mutations, (b) de la complexité du décodage du genome qui passe par de nombreuses étapes (ADN, ARN, gènes, protéines, …) et (c) de la complexité des conditions environnementales et de leur influence sur la sélection. Lors d’une évolution expérimentale in silico, tout ou partie de ces trois processus est intégré à la simulation de façon à étudier leurs effets sur le processus évolutif.

 

L’évolution expérimentale in silico

Appliquée à la synthèse néo-Darwinienne, l’algorithmique expérimentale ressemble d’assez près à ce que les biologistes appellent « l’évolution expérimentale in vivo » : des organismes sont propagés et évoluent dans un milieu contrôlé pendant plusieurs centaines, milliers, voire dizaines de milliers de générations (pour la plus longue en cours), et les trajectoires suivies sont analysées à l’échelle des génomes, des individus ou des populations. La différence est cependant de taille : lors d’une évolution expérimentale in silico, ce ne sont pas des organismes vivants qui évoluent mais des structures de données définies pour avoir des propriétés similaires aux organismes réels sur le plan de l’organisation de l’information génétique, de son décodage ou des différents types de variation qui peuvent altérer cette information. Autre différence, les ordres de grandeurs accessibles en termes de durée ou de répétition des expériences. Ainsi, quand les organismes naturels les plus rapides (bactéries et virus) se reproduisent à raison d’une génération toutes les vingt à soixante minutes environ, l’évolution expérimentale in silico parvient à simuler plusieurs générations par seconde et quand il est difficile in vivo de maintenir un grand nombre de cultures en parallèle pendant de longues périodes, il n’y a pratiquement pas de limite au nombre de répétitions pour les expériences in silico. Ainsi, à titre de comparaison, l’expérience d’évolution expérimentale la plus longue à ce jour, la LTEE (Long-Term Evolution Experiment), a été initiée par Richard Lenski en 1988 à Michigan State University et n’a jamais été interrompue depuis, ce qui fait qu’elle atteint aujourd’hui plus de 65 000 générations pour 12 populations indépendantes de bactéries issues du même « ancêtre » en 1988. Simuler 12 populations sur 65 000 générations grâce à l’évolution expérimentale in silico ne prendrait aujourd’hui que quelques jours (au lieu de 30 ans pour la Biologie), certes avec des structures de données bien plus simples que les bactéries Escherichia coli cultivées au cours de la LTEE !


L’évolution expérimentale in vivo consiste à cultiver des organismes (généralement des micro-organismes en raison de leur rapidité de division) dans un milieu contrôlé pendant un temps suffisant pour pouvoir observer leur évolution. Des organismes sont régulièrement prélevés dans la population et congelés pour reconstruire a postériori l’histoire évolutive. L’évolution expérimentale in silico procède exactement de la même manière mais les organismes étudiés sont des structures de données qui sont soumises, dans l’ordinateur, à « l’algorithme de l’évolution » (variation-sélection, voir la première figure). En conséquence, ces structures de données évoluent et l’influence de différents paramètres sur leur histoire évolutive peut être étudiée. Pour cela, tous les événements qui se sont produits au cours de la simulation sont stockés dans des fichiers de façon à disposer de « fossiles numériques » parfaits.

Revenons, à la prédiction de l’évolution : en quoi l’évolution expérimentale in silico permet-elle de prédire quoi que ce soit puisqu’on y fait évoluer des structures de données qui n’ont donc qu’un lointain rapport avec les organismes vivants ? Pour le comprendre, il faut revenir à l’exemple de l’automobile lancée à 150 km/h dans une épingle. Finalement, peu importe qu’il s’agisse d’une automobile : il nous suffit de savoir qu’il s’agit d’un « mobile » et de connaître les forces en jeu pour prédire le risque de sortie de route ! Or, les forces en jeu dépendent de certaines caractéristiques du mobile mais pas de tous ses détails ! L’évolution expérimentale in silico, en raisonnant sur l’algorithme néo-Darwinien procède exactement de la même manière : l’organisme est certes simplifié mais en veillant à conserver les caractéristiques clés qui influencent son évolution. Des expériences virtuelles peuvent alors être réalisées en simulation, et peuvent être répétées autant que nécessaire, les conditions peuvent changer à volonté et même des expériences impossibles en pratique (pour des raisons techniques ou éthiques) sont réalisables ! Il est alors possible d’identifier et de distinguer ce qui va se répéter à l’identique de ce qui va différer (si je teste dix voitures, est-ce qu’elles sortent toutes de la route ?), ce qui dépend des conditions environnementales de ce qui n’en dépend pas (si le virage est moins serré, combien de voitures feront une sortie de route ?), ou ce qui dépend de caractéristiques propres aux organismes eux-mêmes (que ce passera-t-il si mes voitures ont de meilleurs freins ?) … Autant d’expériences susceptibles de nous renseigner sur la prédictibilité de l’évolution, même si elles ne nous permettent pas – pas encore ? – de prédire l’évolution d’organismes particuliers puisque nous ne sommes pas – pas encore ? – capables de simuler des organismes réels. Mais disposer d’informations sur la prédictibilité, c’est tout de même devenir capable de prédire puisque les forces identifiées in silico s’appliquent à tout organisme soumis aux mêmes contraintes, de même que les forces centrifuges s’appliquent à tout.e (auto)mobile soumis.e à un mouvement de rotation !

Un exemple : prédire l’évolution des virus

Pour illustrer cet aspect, prenons l’exemple d’une expérience en cours sur l’évolution des virus (expérience réalisée en collaboration avec Santiago Elena de l’Université de Valence en Espagne). Nous avons simulé l’évolution de 30 génomes viraux à l’aide du logiciel d’évolution expérimentale in silico « aevol », développé par l’équipe Beagle. Ces virus virtuels ont évolué in silico pendant 200 000 générations à la suite desquelles nous les avons clonés 30 fois chacun et nous avons laissé évoluer les 900 simulations ainsi générées pendant 25 000 générations supplémentaires. A la suite de ces simulations – qui n’ont demandé que quelques semaines de calcul sur un ordinateur de bureau – nous avons pu observer que, si la grande majorité des virus n’avaient pas subi de changements majeurs au cours de ces 25 000 générations, environ un quart d’entre eux étaient passés par une courte période au cours de laquelle ils avaient subi une succession de mutations favorables, entrainant une nette amélioration de leur succès reproductif. En d’autres termes, un quart de nos virus virtuels avaient innové ! Or, l’avantage de la simulation est que l’on connaît parfaitement les conditions. Ici, nous savons que ces virus « innovants » ne sont pas différents des non-innovants, du moins au départ et que les mutations se produisent a priori de façon totalement aléatoire ! Comment donc se fait-il que, chez certains virus, les « innovants », les mutations observées a posteriori ne soient, elles, pas du tout aléatoires ? En observant plus précisément les épisodes d’innovation, nous nous sommes rendus compte que ces épisodes ne débutaient pas par n’importe quel événement mutationnel mais par certains événements précis, souvent des duplications de petits segments du génome viral ou des ajouts de petites séquences aléatoires. Les mutations « classiques », les substitutions (remplaçant une « lettre » de l’ADN par une autre), apparaissaient, elles, fréquemment au cours de l’épisode d’innovation mais seulement après ces événements initiateurs. De plus, les événements initiateurs n’étaient pas toujours très favorables alors que les mutations suivantes, elles, l’étaient ! Ces observations nous ont permis de comprendre la dynamique à l’œuvre dans nos simulations et, qui plus est, c’est la notion d’information qui permet de comprendre le mécanisme sous-jacent (mais cette fois via la combinatoire, la science du dénombrement) : les virus ayant des génomes très courts et des populations très grandes, il ne faut pas beaucoup de générations pour qu’une population virale explore aléatoirement toutes les substitutions possibles puisque le nombre de combinaisons est proportionnel à la taille du génome. En revanche, le nombre de duplications, lui, augmente comme la taille du génome au cube ! Autrement dit, quand un virus de 10 000 paires de bases (grossièrement le virus de la grippe) peut explorer un espace d’environ 30 000 génomes différents lorsqu’il subit une substitution, l’espace accessible via une unique duplication est de l’ordre de mille milliards (1012) génomes différents. Nous obtenons alors une vision très différente de l’évolution où la dynamique des virus est gouvernée par la combinatoire : en quelques milliers de générations, un virus s’adapte à son environnement grâce aux événements à combinatoire « faible » : les substitutions. Mais une fois cette période d’évolution « faste » épuisée, il lui faut attendre, parfois très longtemps, qu’un événement à combinatoire « forte » (duplication, insertion aléatoire, transfert, …) favorable se produise (notons que ces événements ne sont pas « rares » : dans nos simulations ils sont aussi fréquents que les substitutions. Simplement, leurs effets et leur combinatoire sont telles qu’il est nécessaire d’en tester beaucoup pour en trouver un qui soit favorable. Cet événement ouvre alors un chemin évolutif au cours duquel de nouvelles substitutions vont pouvoir avoir lieu (nouvelle période « faste »), mais celles-ci vont rapidement épuiser leur potentiel et il faudra attendre à nouveau qu’un événement vienne relancer la flamme évolutive … Ceci explique pourquoi les mutations ne sont pas aléatoires chez les virus innovants, mais aussi pourquoi la majorité des virus n’ont pas innové : ceux-là n’ont tout simplement pas eu la chance de subir une mutation « à forte combinatoire » favorable au cours des 25 000 générations de l’expérience …

Conclusion

Que peut-on en conclure ? Avons-nous, au moyen de cette expérience, augmenté la prédictibilité de l’évolution des virus ? Oui, à condition de garder à l’esprit que nous ne parlons « que » d’une simulation : nous pouvons proposer l’hypothèse selon laquelle certains types de mutations (celles à combinatoire « forte ») augmentent le potentiel évolutif des virus mais il reste aux virologues de confronter cette hypothèse à leur corpus ou à l’expérience. Nous pourrons alors suggérer de surveiller tout particulièrement les virus ayant récemment subi une telle mutation puisqu’ils sont susceptibles de rapidement s’adapter au cours des générations suivantes. Nous pouvons aussi étendre cette approche à d’autres organismes ou à d’autres questions telles que la résistance aux antibiotiques ou aux traitements anticancéreux. Est-il possible de prédire les conditions d’émergence de résistances ? Et, si oui, est-il possible de proposer des stratégies de traitement qui minimisent les risques d’émergence de résistances (des traitements dits « évolutivement-sûrs ») ? Il faudra peut-être passer par plusieurs étapes d’amélioration des modèles pour en arriver là, mais nous sommes convaincus que l’évolution expérimentale in silico ouvre un nouveau champ de collaboration entre les sciences du vivant et les sciences du numérique. L’évolution expérimentale in silico apporte des outils nouveaux pour l’étude de l’évolution mais, comme dans toute collaboration interdisciplinaire, elle permet surtout de confronter plusieurs regards, formés à différentes disciplines scientifiques, sur un même objet d’étude. Ainsi, dans le cas de nos virus virtuels, c’est la juxtaposition d’une vision moléculaire et d’une vision combinatoire qui a permis de comprendre la dynamique à l’œuvre. Et s’il nous est permis de terminer cet article par une doléance, nous avons tous deux la chance de travailler dans des contextes interdisciplinaires, mais nous ne pouvons que constater la difficulté qu’il y a à conduire ce type de recherches dans un contexte universitaire fortement structuré par les disciplines « historiques ». Il devient urgent que la France se dote d’outils structurels et de financements dédiés afin de faciliter les échanges interdisciplinaires.

Guillaume Beslon, Professeur au Département Informatique de l’Institut National des Sciences Appliquées de Lyon au sein de l’Université de Lyon et  Dominique Schneider, Professeur en biologie (biodiversité, écologie, évolution) de l’Université Grenoble – Alpes.

1 Lecteur, songe que depuis ta naissance, ce sont plusieurs dizaines de milliers de générations de bactéries qui se sont reproduites dans ton estomac : tu es un écosystème en évolution et ton mode de vie, tes habitudes alimentaires, ton usage plus ou moins fréquent et plus ou moins rationnel des antibiotiques, ont laissé des traces quasi-indélébiles dans l’ADN de ces bactéries.

2 Jusqu’à une période récente, l’évolution était à la fois cause et effet de la plupart des changements globaux. La période contemporaine a ceci de particulier que l’homme provoque des changements beaucoup plus rapides que l’évolution, ce qui entraine des bouleversements écologiques auxquels les espèces peuvent difficilement s’adapter. On parle par exemple de « piège évolutif » lorsqu’un comportement, acquis au cours de millénaires d’évolution et alors favorable à l’espèce, devient subitement négatif du fait d’une modification de l’environnement. Le caractère très rapide de cette modification, par exemple la dispersion de particules de plastique dans l’océan, ne permet pas à aux espèces, ici les poissons qui confondent ces particules de plastique avec de la nourriture, d’évoluer pour s’adapter suffisamment rapidement aux nouvelles conditions.

3 L’équipe Beagle est une équipe-projet Inria/INSA-Lyon. Elle regroupe des chercheurs et enseignants-chercheurs de l’INRIA et de l’INSA-Lyon issus de trois laboratoires : le Laboratoire d’Informatique en Image et Systèmes d’Information (LIRIS, UMR CNRS 5205), le Laboratoire de Biométrie et Biologie Evolutive (LBBE, UMR CNRS 5558) et le laboratoire cardiovasculaire, métabolisme, diabétologie et Nutrition (CarMeN, UMR INSERM U1060). L’équipe conduit des recherches en biologie computationnelle et en évolution artificielle.

4 L’équipe GEM est une équipe CNRS/Université Grenoble Alpes (UGA). Elle regroupe des chercheurs et enseignants-chercheurs du CNRS et de l’UGA. Elle a créé un laboratoire international avec l’équipe Beagle et l’équipe du Professeur Richard Lenski (Michigan State University, USA) pour étudier l’évolution avec des organismes bactériens et numériques. L’équipe conduit des recherches visant à comprendre les mécanismes moléculaires, génomiques et écologiques de l’évolution.

5 Notons qu’une telle prédiction est déjà très utile, par exemple pour choisir les souches les plus susceptibles de déclencher la prochaine épidémie de grippe et donc produire en avance un vaccin ayant le plus de chance d’être efficace.

Assister à la naissance du Web

L’histoire de Tim Berners-Lee ou presque… Par isabelle Christment 6’24

Mais qui a inventé le Web ? C’est une belle histoire, quand on sait que Tim Berners-Lee a inventé le Web pour partager des documents au sein d’une structure très fermée – le CERN – avec ses collègues qui provenaient du monde entier. Son invention a permis à l’humanité de faire de la connaissance un bien commun et de la liberté d’expression et d’information un enjeu planétaire…

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

Algorithmes

Claire Mathieu est Directrice de Recherche au Centre National de la Recherche Scientifique. Elle travaille au Département d’Informatique de L’École Normale Supérieure et à l’Irif, Université Paris-Diderot. Elle est la toute nouvelle titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où elle présente un cours intitulé « Algorithmes » (leçon inaugurale le 16 novembre 2017). Les algorithmes fascinent, peuvent inquiéter, prennent une place considérable dans nos vies. Il nous faut mieux les comprendre pour qu’ils fassent ce que nous voulons. Entrons avec Claire Mathieu, parmi les meilleurs spécialistes mondiaux du domaine, dans leur monde merveilleux .  Serge Abiteboul. Cet article est publié en collaboration avec The Conversation.

Claire est également une éditrice invitée fidèle de Binaire.

Claire Mathieu

Les algorithmes, quand ils sont bien conçus car bien compris, contribuent au bien social et sont un outil de transformation de la société. Ils y prennent une place grandissante, que ce soit pour des applications informatiques telles que gérer efficacement des données, pour les transmettre rapidement et de façon fiable, pour faire des calculs, pour optimiser l’allocation de tâches, ou de plus en plus pour des usages en société comme le calcul d’itinéraire, les recommandations de lectures ou de films, l’affectation des étudiants avec APB, etc.

Très souvent, ces algorithmes sont opaques, mystérieux, voire effrayants. Comment marchent-ils ? Quelles sont les étapes du calcul ou de la prise de décision ? Pourquoi marchent-ils ? Quelles sont les propriétés mathématiques qui expliquent leurs performances ? Le “comment” et le “pourquoi” sont les deux facettes de l’étude des algorithmes : la conception (comment ça marche) et l’analyse (pourquoi ça marche).

En général, l’analyse d’algorithmes sert d’abord à montrer qu’un algorithme résout correctement un problème, puis qu’il le fait en un temps raisonnable, de façon fiable et en restant économe en ressources.

Un sous-domaine fondamental largement développé depuis une vingtaine d’années concerne les algorithmes d’approximation. Un tel algorithme, plutôt que de rechercher une solution exacte et précise, se contente d’une solution approchée. On les utilise pour résoudre les problèmes trop difficiles pour être résolus complètement en un temps raisonnable. On s’autorise alors à accepter des solutions dont la valeur serait, disons, à 5% de la valeur optimale. Par exemple, prenons le problème de la livraison de marchandises. Comment optimiser les trajets d’un camion qui doit livrer des marchandises, connaissant le lieu de l’entrepôt, les lieux et volumes des commandes des clients, ainsi que la capacité du camion ? C’est un problème difficile lorsque le nombre de clients est élevé et on ne sait le résoudre que dans des cas particuliers qui ne correspondent pas toujours aux applications réelles rencontrées : aujourd’hui, même dans les cas les plus simples, calculer une solution approchée à 1% prend un temps déraisonnable. L’un de nos axes de recherche est donc de continuer à développer et d’améliorer ces algorithmes d’approximation.

Claire et Le point de vue algorithmique, #tembelone

Modélisation mathématique et évolutions technologiques

Pour les chercheurs qui comme moi travaillent en informatique théorique, l’élément non-négociable est la recherche du théorème. Les problèmes sont variés, les méthodes de résolution aussi, mais à la fin, ce qui est produit, ce qui apparaît dans le paragraphe intitulé “nos résultats” dans nos introductions, est toujours un théorème. La rigueur mathématique prime. C’est un principe de base.

Cependant, avec les évolutions technologiques, de nouvelles problématiques surgissent et se traduisent de façon naturelle par des évolutions des questions mathématiques étudiées. Ainsi, les modèles de calcul évoluent, avec par exemple de plus en plus de modèles de calcul ou de communication qui limitent l’accès aux données (par exemple, dans le modèle du flux de données, l’utilisateur voit toute une suite d’informations défiler devant lui, par exemple des paquets transitant sur un réseau. Bien qu’il n’ait pas suffisamment de place en mémoire pour garder toutes les informations vues, il souhaite cependant calculer des informations statistiques sur ce flux), ou dont les données évoluent de façon dynamique, ou encore avec une incertitude sur les données (par exemple, les avis lus sur internet sur la qualité d’un restaurant, d’un hôtel ou d’un médecin sont notoirement peu fiables, et contiennent pourtant des informations précieuses.)

Il nous faut donc non seulement travailler sur des problèmes reconnus du domaine, mais également proposer des problèmes algorithmiques nouveaux. Il s’agit de définir une question algorithmique de façon formelle, qui soit suffisamment simple dans sa structure pour que l’on puisse l’étudier avec un espoir de démontrer des résultats rigoureux. C’est ainsi qu’on peut rigoureusement démontrer l’effet de « petit monde » dans les réseaux sociaux (soit le nombre limité de degrés de séparation entre tous ses membres) : bien que leur taille aille grandissant, il demeure toujours possible à un membre du réseau social de prendre contact avec presque n’importe quel autre membre grâce à une courte chaîne de connaissances. Ici, la démonstration mathématique se fait sur un modèle simplifié, inspiré du modèle dit “de feu de forêt”. C’est en passant par ce type de modèles simplifiés que l’on peut espérer arriver à des intuitions pour une meilleure compréhension du monde.

Claire jongle avec problèmes algorithmiques et techniques mathématiques, #tembelone

“Pourquoi” et “Dans quel but” : des questions d’éthique

Par ailleurs, comme les algorithmes agissent de plus en plus non seulement sur de simples octets mais également sur les personnes, les questions d’éthique comme l’équité ou la transparence deviennent prégnantes.

Une constante du domaine est qu’un algorithme est développé dans un but précis et analysé en relation avec la façon dont il atteint son but. Mais ces années dernières ont vu apparaître des algorithmes qui résolvent un problème imprécis, et qui ne “marchent” que dans un sens très flou — le choix d’informations à présenter au lecteur en ligne ou les recommandations de produits à acheter, par exemple. Qu’est-ce qui fait qu’une sélection donnée est le meilleur choix ? Un résultat donné est-il, ou non, satisfaisant ? Quel est le but recherché ? Ces questions sont à la périphérie de l’algorithmique classique et en même temps centrales pour l’évolution du domaine dans la décennie à venir.

Un des nouveaux enjeux de l’algorithmique est donc comprendre le “pourquoi” et le “dans quel but” des algorithmes de la famille des méthodes d’ « apprentissage profond », qui se retrouvent appliqués un peu partout avant qu’on ait vraiment compris leurs aspects fondamentaux. Ici, la théorie a pris du retard sur la pratique, et ce retard de compréhension induit des risques de manipulation sans contrôle.

Il ne faut pas avoir peur des algorithmes, mais il faut apprendre à les connaître pour les apprivoiser : c’est la mission de l’algorithmique.

Dans le cadre de la chaire annuelle “Informatique et sciences numériques”, leçon inaugurale au Collège de France le jeudi 16 novembre 2017 à 18h, cours les mardis à 10h à partir du 24 novembre.

Claire Mathieu, CNRS, Paris

L’apprentissage profond avant tout

Un nouvel « Entretien autour de l’informatique ». Yann LeCun  est un informaticien, chercheur en intelligence artificielle, et plus particulièrement en « apprentissage automatique » (machine learning). Il est internationalement reconnu notamment pour ses résultats sur la reconnaissance de caractères et la vision par ordinateur en s’appuyant sur les réseaux de neurones convolutifs (son invention). Il est professeur à l’Université de New York et directeur du laboratoire d’Intelligence Artificielle de Facebook. Il a été titulaire de la Chaire « Informatique et sciences numériques » au Collège de France (2015-2016). Cet article est publié en collaboration avec TheConversation.

Yann LeCun (@ylecun sur Twitter)

B : Pourrais-tu nous parler de l’ « apprentissage machine » ?
YL : On écrit un programme informatique pour réaliser une tâche particulière comme faire une recherche dans une base de données. Mais parfois la tâche est trop compliquée. On ne sait pas expliquer à l’ordinateur comment la réaliser. On utilise alors un programme d’apprentissage, un programme simple mais avec de nombreux paramètres. A partir de données qu’on lui fournit en entrée (par exemple une image), le programme calcule des valeurs de sortie (c’est un chien, un chat, etc.) et le résultat dépend fortement des paramètres qu’on ne sait pas a priori fixer. On fournit beaucoup d’images de chats et de chiens avec des annotations qui précisent de quel animal il s’agit. On va ensuite faire des tas de calculs pour déterminer les paramètres du programme, ceux qui donnent les résultats les plus proches des valeurs des annotations. Et on arrive ce cette façon à un programme qui distingue très bien les images de chats de celles de chiens.

Le programme d’apprentissage qui les distingue est relativement simple (quelques pages de code). Il utilise des maths du 18ème siècle, et de l’informatique du siècle dernier. Ce qui a véritablement fait marcher tout cela, ce sont des puissances de calcul considérable, la disponibilité de grands corpus de données numériques, et le développement de nouveaux algorithmes dans les années 80 : les réseaux neuronaux artificiels multicouche et la rétropropagation du gradient de l’erreur.

B : est-ce que tu peux nous expliquer un peu comment ils fonctionnent ?
YL : ce sont des algorithmes inspirés (mais de loin) du fonctionnement des neurones biologiques. Imaginez des couches de petits calculateurs très simples commandés par des paramètres ; chaque calculateur décide de ses sorties à partir de ses entrées… et de ses paramètres. On fournit des entrées au réseau global (une image) et il propose une sortie (c’est un chat, c’est un chien). Si le système ne donne pas le résultat que nous espérons obtenir sur un exemple particulier, on calcule une « différence » entre ce qu’on obtient et ce qu’on voudrait obtenir et on propage cette différence pour modifier les paramètres de tous les petits calculateurs. La difficulté est d’arriver à régler efficacement les paramètres pour minimiser l’erreur que le réseau fait sur l’ensemble des exemples annotés.

B : c’est en réalité bien plus compliqué que ce que tu dis. De nombreux algorithmes ont été proposés. Il a fallu pas mal de temps avant d’obtenir de bons résultats.
YL : oui. L’idée est simple mais sa mise au point a pris du temps.

B : et il existe d’autres types d’apprentissage…
YL : ce que je viens de décrire c’est de l’apprentissage supervisé. Dans ce cadre, j’ai par exemple proposé des algorithmes de réseaux convolutifs qui donnent d’excellents résultats et qui sont très utilisés.

Et puis, on peut aussi considérer l’apprentissage par renforcement. Pour battre le champion du monde de Go, DeepMind  s’est appuyé sur un grand nombre de techniques. Leur programme a, de manière classique, appris d’une énorme quantité de parties de Go jouées par des grands maîtres, c’est de l’apprentissage supervisé. Mais il a aussi joué des millions de parties contre lui même. Une des versions du programme-joueur essaie de faire varier un paramètre dans un sens ou dans un autre. Si cette version gagne plus souvent que l’autre, cela renforce la conviction que c’était une bonne idée de faire varier ainsi le paramètre. C’est ce qu’on appelle l’apprentissage par renforcement.

Enfin, d’autres chercheurs travaillent sur l’apprentissage non supervisé. Un programme observe ce qui se passe autour de lui, et construit à partir de cette observation un modèle du monde. C’est essentiellement de cette façon que les oiseaux, les mammifères, que nous mêmes fonctionnons. Ce n’est pas si simple ; les algorithmes que nous concevons aujourd’hui attendent des prédictions du monde qui soient exactes, déterministes. Mais si vous laissez tomber un stylo (voir photo), vous ne pouvez pas prédire de quel côté il va tomber. Nos programmes d’apprentissage retiennent qu’il est tombé, par exemple, à gauche puis devant. Il faudrait apprendre qu’il peut tomber n’importe où aléatoirement. Il y a des travaux passionnants dans cette direction. Cela ouvre des portes pour de l’intelligence artificielle, au-delà de l’analyse de contenu.

B : je t’ai entendu dire que certaines fonctions du cerveau comme le langage ou la mémoire étaient relativement simples, que la vraie difficulté résidait dans l’apprentissage.
YL : au delà de l’inné qui est bien présent, l’apprentissage est essentiel. Une procédure d’apprentissage est présente dans le cortex d’animaux, identique dans plusieurs zones du cerveau. Si pour une raison quelconque, une de ces zones est abîmée, la fonction qu’elle abrite va se reconstruire ailleurs. Le même programme va recevoir dans une autre zone des entrées et va se spécialiser dans la tâche qui aurait dû être réalisée par la zone abîmée.

On peut proposer la thèse que de nombreuses parties du cerveau abritent le même principe d’apprentissage. On pourrait s’inspirer de cette idée en intelligence artificielle pour utiliser le même algorithme d’apprentissage pour de nombreuses fonctions. Les évolutions récentes confortent ce point de vue. Dans des domaines de l’informatique très séparés, comme la traduction, la reconnaissance de formes, la conduite de voiture, les mêmes principes des réseaux convolutifs, de l’apprentissage supervisé, donnent de très bons résultats, et sont aujourd’hui utilisés couramment.

B : une inquiétude avec ces méthodes est que nous risquons de construire des systèmes informatiques que nous comprenons finalement assez mal, que nous maîtrisons mal.
YL : oui. Le programme d’apprentissage automatique est simple et la difficulté réside souvent dans le choix des données qui sont fournies pour l’entraîner. On ne sait pas où on peut arriver et cela dépend des données d’apprentissage. Par exemple, ce n’est pas simple de complètement fiabiliser le comportement d’une voiture autonome. La masse de données est considérable, les risques le sont également. C’est compliqué mais on y arrive quand même. C’est surtout possible parce que les systèmes peuvent s’autocorriger. Un accident ou même un presque-accident apportent de l’expérience au système, l’améliorent. Si on ne peut pas promettre de construire un programme parfait du premier coup, on peut surveiller ce qui se passe, entraîner le programme pour le perfectionner continuellement.

B : comme ces systèmes prennent une importance considérable dans notre société, ne doit-on pas attendre d’eux qu’ils aient des responsabilités, qu’ils obéissent à des règles éthiques ?
YL : évidemment. Ce sujet est de plus en plus important. Les humains présentent des biais parfois conscients, souvent inconscients. Mal entraînée, une machine peut reproduire ces même biais. Google a par exemple proposé un système de reconnaissance des visages qui classifiait parfois des visages noirs comme des visages de gorille. Le logiciel n’était pas raciste. C’est qu’il avait été mal entraîné, avec trop peu de visages noirs.

Avec Facebook et des partenaires industriels, l’UNESCO et des ONG comme l’ACLU (Union américaine pour les libertés civiles), nous avons monté le « Partnership on AI »  pour mettre cette technologie au service des gens et de la société.

B : saura-t-on bientôt construire des machines avec l’intelligence générale d’un humain ?
YL : un jour. Mais ça va prendre du temps. Les chercheurs dans les tranchées savent combien le problème est difficile.

Il est d’ailleurs passionnant de voir comment les programmes et les machines transforment la valeur des choses. Un lecteur Blue Ray super sophistiqué, bourré d’électronique et d’algorithmes coûte moins de 50 euros quand un saladier en céramique, utilisant des technologies très anciennes, peut en valoir des milliers. La valeur tient bien dans la réalisation par un humain. Les machines participent à la création de valeur, à l’augmentation de la productivité. Cela pose le problème du partage de toute cette valeur générée.

Serge Abiteboul, Inria et École Normale Supérieure, Paris

Du site web personnel de Yann LeCun

 

Au sujet de l’école 42 et de la publicité dont elle bénéficie

L’école 42 forme des développeurs en informatique, ce qui répond à un besoin de notre économie. Un article de Binaire avait souligné des aspects intéressants de ses méthodes éducatives, d’autres plus discutables. Il soulignait que 42 n’adressait pas des problèmes pressants comme de toucher les publics défavorisés (voir par exemple Simplon), ou les femmes (voir par exemple un article de Valérie Schafer), pas plus que la formation des maitres (voir par exemple Class Code). Le marketing agressif de 42 s’est spécialisé dans le trashing de l’enseignement supérieur français en informatique. Dans ce sens, une dernière chronique sur France Inter a atteint des sommets. Nous reprenons une réponse du blog de David Monniaux. Serge Abiteboul

Dominique Seux, chroniqueur aux Échos, a le lundi 6 novembre choisi d’évoquer la fameuse école 42 de Xavier Niel sur l’antenne de France Inter. Il a notamment déclaré :

« Alors, évidemment, si on était caustique, on s’étonnerait que les milliers d’enseignants-chercheurs de nos grandes universités scientifiques n’aient pas eu l’idée de lancer des formations en développement informatique. »

Si on était caustique à l’égard M. Seux, on relèverait que, justement, les enseignants-chercheurs des universités scientifiques ont lancé de telles formations depuis des décennies. Pour prendre des exemples locaux, l’École nationale supérieure d’informatique et de mathématiques appliquées de Grenoble (ENSIMAG) fut fondée en… 1960, le département informatique de l’institut universitaire de technologie (IUT) de Grenoble en 1966 ; les MIAGE (formations aux Méthodes informatiques appliquées à la gestion des entreprises) existent depuis 1969. Bref, rien de nouveau sous le soleil.

Puisque M. Seux évoque les « milliers d’enseignants-chercheurs de nos grandes universités scientifiques », rappelons qu’il y a de l’ordre de 3400 enseignants-chercheurs de statut universitaire en informatique. Je ne sais pas ce que M. Seux s’imagine qu’ils enseignent, peut-être de la théorie de haute volée ou de l’histoire de l’informatique ? Ce n’est pas le cas ! (Ou du moins, c’est très rarement le cas, évidemment à Normale Sup on peut se permettre de faire de la théorie de haute volée…) La grande majorité des enseignements portent sur ce que les étudiants doivent savoir pour occuper, plus tard, des emplois de développeur, administrateur système, etc.

Revenons sur 42, M. Seux indique (j’ignore si ces chiffres sont exacts) que cette école reçoit 50000 candidatures par an et n’en accepte que 900. C’est donc une école extrêmement sélective à l’entrée. Ensuite, si l’on en croit les informations diffusées par les médias, il y a une très forte pression de sélection interne (les étudiants qui n’arrivent pas à se débrouiller sont exclus). En résumé, il s’agit d’un enseignement (ou d’une absence d’enseignement) qui s’adresse à une très petite minorité.

Les universités, quant à elles, ont une mission d’enseignement très générale — on a beaucoup rappelé récemment qu’elles sont censées accepter tout bachelier (il existe également des voies d’accès sans baccalauréat). Il n’est pas clair que les méthodes « sans enseignants » qui conviennent à une infime minorité conviendraient au public de l’enseignement de masse. J’en doute même fortement. Je sais bien qu’il est tentant (on sent bien ce sous-entendu derrière le discours sur les milliers de fonctionnaires dont on se demande bien ce qu’ils font) de penser que l’on pourrait largement se passer de la masse salariale d’enseignants, mais tout ce qui est tentant n’est pas forcément possible.

Prenons un parallèle. Personne ne suggère que l’on supprime l’enseignement des mathématiques et qu’on le remplace par la mise à disposition de manuels et dispositifs informatiques. Pourtant, le grand mathématicien Srinivasa Ramanujan, lorsqu’il était adolescent, a en grande partie appris les mathématiques seul en s’aidant d’un ouvrage de synthèse. Imaginez les économies que l’on pourrait faire en se défaisant des professeurs de mathématiques de lycée !

Si j’évoque cette chronique, c’est parce que celle-ci s’inscrit dans tout un discours médiatique à l’égard de l’enseignement de l’informatique en France, où l’on oppose la modernité de l’école 42 aux pratiques supposées archaïques des universités, et où l’on vante l’enseignement privé. Pour ma part, j’ai un raisonnement simple : enseigner à une infime minorité sélectionnée est facile. La question difficile est celle de l’enseignement de masse, surtout si celui-ci doit déboucher sur des emplois (il me semble d’ailleurs que les diplômés d’informatique des universités n’ont en général aucun problème pour trouver un emploi). Pourquoi faut-il encore et encore rappeler pareilles évidences ?

David Monniaux, CNRS, Université de Grenoble
le mercredi, novembre 8 2017, 10:43 – EnseignementLien permanent

 

La naissance des robots

L’histoire du premier Robot, ou presque… Par Didier Roy, 3’38

Savez-vous d’où viennent les robots et ce qu’il a fallu pour en arriver là ? En bref, vous êtes vous déjà demandé quel fut le tout premier robot ? Par qui et quand a-t-il été inventé ? Pourquoi faire ? Pour le savoir, remontons un peu dans le temps…

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

Vision artificielle, Saison 2 : reconnaître un objet spécifique

On reconnait automatiquement nos visages sur le Web, on comprend sans intervention humaine le contenu d’une image, on reconstruit une partie occultée d’une scène, on … Mais qui « on » ? Des algorithmes de vision artificielle. Et comment ça marche ? Nous avons posé la question à  Jean Ponce, chercheur chez Inria et au Département d’informatique de l’ENS, et spécialiste de la reconnaissance de formes dans des photos et des vidéos.  Il nous emmène à la découverte de ce demi-siècle d’histoire de la vision artificielle. Voici le 2ème épisode où l’on apprend à identifier automatiquement des objets spécifiques. Thierry Viéville, Serge Abiteboul.

Commencer par le premier épisode en cliquant ici.

Jean Ponce, responsable de l’équipe de recherche WILLOW (Modèles de la reconnaissance visuelle d’objets et de scènes).

Ma montre (ou celle de James Bond si vous préférez, mais une montre précise, pas n’importe laquelle) est-elle présente dans la photo du premier épisode ?  Qu’en est-il de mon chat Nietzsche ? Il s’agit ici de reconnaître un objet spécifique, bien particulier, unique ; c’est a priori la version la plus simple du problème de la reconnaissance visuelle, puisqu’on peut faire abstraction de la variabilité liée aux divers marques et modèles de montres et de leurs usure, ainsi que de l’apparence changeante des chats (couleur, embonpoint, pelage, taille, yeux, etc.). Le problème reste très difficile, avec des facteurs « de nuisance » liés à la position et l’orientation des objets observés et aux changements d’illumination. Attention cher lecteur, aujourd’hui nous plongeons un peu dans la technique…

Utiliser la géométrie. Le niveau de gris (pour des images en noir et blanc, ou plus généralement la couleur) associé à chaque pixel d’une image numérique dépend de manière complexe des propriétés physiques du capteur, de la scène, et de l’illumination. Ceci suggère d’accorder plus de confiance aux caractéristiques géométriques d’une scène qu’à son apparence. En particulier, supposons qu’on observe une pièce mécanique plate reposant dans un plan depuis un point de vue fixe (cf. image ci-dessous).

Source : « Hyper : a new approach for the recognition and positionning of 2D objects », N. Ayache, O. Faugeras, IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986.

Les seules variables dans ce cas sont la position  et l’orientation de cette pièce dans le plan. Supposons de surcroît qu’on connaisse a priori la forme de la pièce, approximée par un ensemble de segments de droites, et qu’on soit capable d’extraire automatiquement une description similaire des contours des objets présents dans une photo. Trouver la pièce dans une image revient alors à apparier les deux familles de segments de droite correspondants, sous la contrainte qu’il existe une transformation rigide (rotation + translation) unique permettant de passer de l’une à l’autre.  Bien que le coût (temps de calcul) du meilleur appariement global semble a priori prohibitif (techniquement, exponentiel dans le nombre de segments), il n’en est rien car la contrainte de rigidité permet de calculer la transformation entre les deux formes dès que deux segments ont été appariés, pour un coût (essentiellement) quadratique, tout à fait raisonnable pour des pièces telles que celles montrées ci-dessus.

Cette technique a été développée en 1982 chez Inria dans l’équipe d’Olivier Faugeras, un des pionniers de la vision artificielle moderne, par son doctorant Nicholas Ayache. Elle a été ensuite étendue au cas plus difficile de pièces tridimensionnelles par Martial Hebert, un autre doctorant de Faugeras. Cette approche, dont les racines remontent à la thèse de Roberts évoquée dans le premier épisode, a dominé les années 80, avec des travaux menés en parallèle par des chercheurs tels que David Lowe au laboratoire de robotique de Stanford, ou Eric Grimson et Dan Huttenlocher au laboratoire d’intelligence artificielle du MIT. Il s’est malheureusement révélé difficile de la généraliser à des formes tridimensionnelles complexes et surtout à des images contenant du fouillis, c’est-à-dire plusieurs objets ou des textures complexes agissant comme distracteurs.

Invariants et apparence globale. Au lieu de calculer la position et l’orientation des objets à reconnaître, des chercheurs,  tels qu’Isaac Weiss de l’Université du Maryland, ont songé, au début des années 90, à modéliser leur forme par des caractéristiques indépendantes de ces paramètres, appelées des invariants : ainsi, l’aire d’une région plane est invariantes aux translations et aux rotations ; le rapport de l’aire au carré du périmètre est de plus indépendant des changements d’échelle, etc. On peut ainsi reconnaître un objet en comparant ces caractéristiques à celles de prototypes déjà observés. La vogue des invariants a été de courte durée, en partie parce que, en dehors du fait qu’ils ne résolvaient pas le problème du fouillis, on a rapidement démontré qu’une forme réellement tridimensionnelle n’admettait aucun invariant au déplacement de l’appareil photo qui l’observe. Les travaux sur les invariants menés par exemple à Oxford, par Andrew Zisserman et ses collègues, ou chez Inria, notamment dans les équipes d’Olivier Faugeras et de Roger Mohr, un autre pionnier français de la vision artificielle disparu trop tôt, voici quelques mois, ont en revanche eu le mérite de contribuer à l’adoption de concepts issus de la géométrie projective, qui ont eu un impact profond sur la reconstruction de scènes tridimensionnelles à partir de plusieurs photographies, avec de nombreuses applications à des domaines aussi variés que l’archéologie, les effets spéciaux, ou la réalité augmentée.

Il est devenu clair dès le milieu des années 90 que la géométrie seule n’était pas suffisante à la mise au point de méthodes de reconnaissance visuelle robustes. Fallait-il donc en revenir au signal lui-même, aux niveaux de gris ? Matthew Turk et Sandy Pentland au MIT ont popularisé cette idée en l’appliquant à la reconnaissance de visages. Chaque image est vue comme un tableau de nombres (les niveaux de gris à chaque pixel), ou de manière équivalente, comme un point dans un espace de très grande dimension, les niveaux de gris des pixels successifs donnant les coordonnées du point. On se dote donc d’une collection de photos de personnes de référence. Toute nouvelle photo est ensuite appariée à la photo de référence la plus proche (dans le sens de la distance euclidienne entre les points associés aux deux images ou leurs projections dans des espaces de dimension plus petite), la personne correspondante étant déclarée reconnue. Ceci suppose bien entendu que les images soient cadrées sur le visage, qu’il soit vu de face, etc. Ces travaux ont été par la suite généralisés à des contextes plus difficiles, en particulier par Hiroshi Murase et Shree Nayar à l’Université de Columbia, qui ont démontré la reconnaissance en temps réel d’objets tridimensionnels de tous les jours (fruits, voitures jouets) observés dans des positions et orientations arbitraires. Mais ces modèles globaux (dans le sens où c’est l’image entière, ou une imagette détourée par seuillage sur un fond noir, qui est représentée) ne permettent pas de résoudre le problème du fouillis, des occultations partielles, ou des ombres par exemple.

Apparence locale. En 1996, la thèse de Cordelia Schmid au sein de l’équipe Inria de Roger Mohr a été (enfin !) l’occasion d’une percée significative : l’idée est (a posteriori) simple : représenter l’apparence locale et non plus globale, c’est-à-dire modéliser un objet par une série d’imagettes de taille réduite (quelques pixels) centrées, soit en chaque point de l’image, soit en des points jugés « intéressants » selon un critère approprié.  On cherche alors à apparier les imagettes trouvées dans deux images sous des contraintes géométriques similaires à celle utilisées plus haut, tout en exploitant cette fois la similarité des motifs de couleur (ou de niveaux de gris) correspondants. Pour cela on remplace l’imagette brute par un « descripteur » qui doit permettre de distinguer des différences subtiles entre des motifs différents tout en étant peu sensible aux facteurs de nuisance liés aux variations de pose et d’illumination. Le descripteur « SIFT » de David Lowe (arrivé entretemps à l’Université de Colombie Brittanique)  a rapidement supplanté les « jets » moins robustes d’abord utilisés par Cordelia Schmid et Roger Mohr, qui étaient inspirés des travaux de Jan Koenderink à l’Université d’Utrecht. Tous deux utilisent le gradient des imagettes, peu sensible aux changement d’illumination, et des invariants locaux, qui contrairement aux invariants globaux évoqués plus haut, existent pour toute forme bornée par une surface lisse. La paire d’images ci-dessous illustre le processus.

Source : Inconnue alors que cette image est utilisee depuis des années dans divers cours de vision autour du globe … merci de nous signaler sa source si vous la connaissez. !

On se donne donc une image « requête » (à gauche), et on cherche à trouver dans une base de données l’image contenant le même objet parmi des milliers d’autres où il ne figure pas.  L’image « retrouvée » par le système est affichée à droite. Notez les différences importantes  entre l’illumination et la configuration géométrique du jouet entre les deux photos. Le processus de recherche examine les images candidates de la base l’une après l’autre, et cherche à apparier chaque candidate a la requête. On commence par trouver les points « intéressants » (en rouge) présents dans les deux images. On construit ensuite des hypothèses raisonnables d’appariement entre ces points (les flèches vertes)1 en comparant leurs descripteurs. Certaines d’entre elles, parfois une majorité, sont bien sûr incorrectes. Pour en éliminer une partie, on impose alors des contraintes géométriques locales (les traits rouges, symbolisant le fait que des appariements entre points voisins devraient être disposés de manière similaire dans les deux images). Enfin on compte le nombre d’appariements restants et l’image retrouvée est celle qui réunit le plus de votes.

Cette approche a en grande partie contribué à sortir la vision artificielle de sa tour d’ivoire. Nous verrons dans le prochain épisode comment aborder la reconnaissance de catégorie d’objets, avec des méthodes pas si différentes en fait, avant d’examiner les contributions incontestables de l’apprentissage statistique moderne à notre domaine, qui ont ensuite permis l’explosion industrielle de la vision artificielle.

 Jean Ponce, Inria et École normale supérieure, CNRS, PSL Research University

1 Cet exemple « jouet » ne montre qu’un petit nombre d’appariements potentiels, l’auteur les ayant dessiné a la main, il n’a pas eu l’énergie d’en représenter d’avantage. J’espère que vous ne lui en voudrez pas. Dans la réalité il y aurait des milliers de flèches vertes, dont un grand nombre seraient incorrectes.

Ecriture inclusive et académie

La sortie de l’Académie française contre l’écriture inclusive était sexiste et pathétique, profondément irritante de par son archaïsme.

Un article de Langue sauce piquante raconte assez bien avec des références utiles, et dit :

L’Académie est un astre mort, elle n’a heureusement plus de pouvoir de nuisance. Rappelons que la Révolution l’avait dissoute à juste titre, et que Napoléon l’a ressuscitée, comme beaucoup d’oripeaux de l’Ancien Régime. Rappelons aussi que son rôle prescrit par la monarchie était de publier une grammaire, ce qu’elle n’a jamais été capable de faire, et de renouveler son dictionnaire périodiquement, ce dont elle se montre incapable. La « Compagnie », c’est surtout celle des bras cassés.

A titre personnel, je ne suis pas un grand fan de l’écriture inclusive que je trouve un peu lourde. (C’est peut-être juste une question d’habitude ; on s’y fait). Mais il existe plein d’autres pistes que l’Académie française se garde bien de considérer comme la féminisation des noms de métiers. J’aime  ce qui commence à se faire dans le monde anglo-saxon. Par exemple, quand vous parlez d’un.e utilisateur.rice, un coup vous le conjuguez au masculin, un coup au féminin. Et j’adore la règle de proximité que l’académie a remplacée par la règle absurde « le masculin l’emporte sur le féminin » : Sarah et Jean sont des étudiants mais Jean et Sarah sont des étudiantes.

L’académie des Sciences, dont je fais partie, mérite aussi son lot de critiques :

  • peu de femmes, et incapacité à affronter ce problème. Êtes-vous sexistes messieurs les académicien.ne.s ?
  • peu de scientifiques des nouvelles sciences, comme l’informatique, les différentes disciplines défendant leur pré-carré.
  • peu de jeunes scientifiques à cause de la règle absurde que vous devenez académicien.ne à vie.

Serge Abiteboul, Inria et ENS, Paris

Le monde numérique a vraiment besoin d’être inclusif à plusieurs titres (voir https://cnnumerique.fr/inclusion toujours d’actualité), y compris de permettre à chacune et chacun de s’y sentir bien, avec fraternité, à égalité, en liberté.

L’équipe de binaire


Chiffre, sécurité et liberté

Serge Abiteboul et Pierre Paradinas interviewent le Général Desvignes, spécialiste de sécurité et ancien Directeur du Service Central de la Sécurité des Systèmes d’Information (SCSSI) devenu aujourd’hui l’Agence Nationale de la Sécurité des Systèmes d’Information (ANSSI) et aussi appelé à l’époque les services du Chiffre. La sécurité informatique est un sujet de plus en plus essentiel quand l’informatique prend de plus en plus de place dans nos vies. Nous abordons ici avec Jean-Louis Desvignes un aspect essentiel, celui de la libération du chiffrement.

Quand des voix au plus haut niveau parlent d’interdire le chiffrement, il nous parait important d’ouvrir la question. Les propos relayés ici ne reflètent pas nécessairement l’opinion de l’équipe du blog Binaire. Parlons-en !

Photo : La Myosotis, Archives de l’ARCSI

B : Jean-Louis, comment devient-on Directeur du Chiffre ?

JLD : j’étais simple lieutenant dans les transmissions et le chef de corps m’a trouvé en train de changer un fusible d’une machine à chiffrer en panne (c’était une Myosotis). Personne ne s’intéressait au chiffre, en tous cas pas moi. Je me suis retrouvé dans un stage de chiffrement et j’ai aimé le coté matheux. Plus tard, j’ai découvert l’histoire du chiffre pendant la première guerre mondiale. Tout le monde a entendu parler de Turing mais beaucoup moins de Painvin. Et je me suis passionné pour le sujet.

Le lieutenant Georges Painvin

Photo : Annales des Mines

Pendant la guerre de 14-18, la maîtrise cryptographique de l’armée française l’aide considérablement à décrypter les messages ennemis, lui procurant un avantage très important sur l’ennemi. En 1914, le premier décryptage est fait par le commandant Louis Thévenin qui donne aux alliés un avantage important dès le début du conflit. Le décryptage d’un radio télégramme allemand par le lieutenant Georges Painvin s’est ainsi révélé déterminant pour contrer une des dernières offensives allemandes. Évoquant ce lieutenant, Georges Clemenceau aurait prétendu qu’à lui tout seul il valait un corps d’armée. [Wikipedia 2017]

J’ai fait une école d’ingénieur, Supelec et je me suis retrouvé responsable de réseau de communications. Je me suis pris au jeu de protéger le réseau. C’est comme cela que je suis arrivé au chiffre. Je suis devenu chef de projet pour réaliser le réseau de transmissions de données de l’armée de terre. J’ai alors mis la sécurité du réseau au centre de mes préoccupations allant jusqu’à imposer le chiffrement de tous les échanges entre le centre de gestion et les commutateurs. J’avais au demeurant choisi le protocole X25 utilisé par le réseau public Transpac ; à l’époque, c’était le réseau le plus développé au niveau mondial et il me paraissait plus sérieux que celui du balbutiant Internet dont les paquets se perdaient ou tournaient en rond.

Internet n’est ni fait ni à faire

B : Tu as vu les débuts d’Internet.

JLD : Effectivement. J’ai d’ailleurs hésité à le prendre pour modèle car il était censé résister à la destruction de nœuds suite à un bombardement nucléaire ! J’ai considéré qu’il valait mieux se prémunir d’un dysfonctionnement probable que d’une vitrification non certaine…   15 à 20 ans après mon choix pour X25, l’IP l’a malheureusement emporté, et  c’est la source des nombreux déboires aujourd’hui.  Il nous faut vivre avec, bien qu’il soit structurellement peu sécurisé.

Un autre point me semble important. Le réseau tactique Rita, en matière de sécurité, fut pour moi un exemple à éviter. Il avait été conçu comme une forteresse, un réseau fermé.  D’abord le chiffrement d’artère retenu laissait en clair les communications dans les nœuds et dans les extensions. Et puis fatalement il fallut l’ouvrir pour accéder à d’autres ressources et alors : plus de protection ! Je reste  convaincu  qu’il vaut mieux concevoir des réseaux ouverts d’emblée, que l’on sécurise de différentes façons, que des réseaux fermés vulnérables dès lors que vous êtes arrivés à les pénétrer.

B : Que peut-on faire maintenant avec Internet ?

JLD : On ne peut évidemment pas faire table rase de l’existant. On peut par exemple ajouter des couches de protection pour obtenir une sécurité de bout en bout. J’ai d’ailleurs à l’époque milité pour des systèmes de chiffrement  protégeant les « tuyaux » en créant ces fameux tunnels à travers ce dangereux no mans land. Mais pour ce qui est d’une refonte radicale ce n’est pas pour demain.

Photo : J-L Desvignes, La une de Le Monde Informatique

B : Nous arrivons à la question principale que nous voulions te poser. Tu penses qu’il ne fallait pas libérer le chiffrement comme Lionel Jospin l’a fait en 1999 ?

JLD : Tel que cela a été fait, je pense que c’était une grave erreur. Nous avons bradé un avantage que beaucoup d’autres États nous enviaient : une législation qui avait pris en compte très tôt que le recours aux techniques cryptographiques allait poser un problème de sécurité intérieure et non plus seulement un problème de sécurité extérieure traité par des services de renseignement richement dotés et équipés pour y faire face. Nous étions dans cette situation confortable où nous pouvions nous permettre d’assouplir notre position pour répondre au besoin de protection lié au développement des NTIC tandis que les autres pays devaient au contraire durcir la leur. Or notre police s’était mise en tête de maintenir le régime de quasi prohibition du chiffre utilisant déjà le funeste  slogan : « ceux qui n’ont rien à cacher n’ont pas besoin de chiffrer ! »

Pour tenter de concilier les deux objectifs éternellement contradictoires – liberté versus sécurité – j’ai proposé d’étudier la mise en œuvre du concept du « séquestre des clefs » parfois appelé des « tierces parties de confiance ». Une bataille de décrets s’en suivit, avec des manœuvres visant à limiter la viabilité  des tiers de confiance qui ne réussirent pas à décourager les candidats. Cette nouvelle législation française était examinée avec la plus grande attention  par la communauté internationale : l’OCDE, l’UE, nos Alliés mais aussi des pays asiatiques et même la Russie…

Hélas! Un changement politique vint mettre un terme à cette tentative d’instituer un contrôle démocratique et transparent des moyens cryptologiques. La libéralisation « du 128  bits » en janvier 1999 tua dans l’œuf l’initiative et conduisit naturellement les services de renseignement à recourir à la connivence avec les firmes informatiques.  Le patron de la NSA vit certainement dans ce renoncement français le prétexte qu’il attendait pour lancer sa maison dans la plus incroyable opération d’espionnage technologique qui sera révélée par Snowden. Le gouvernement français qui croyait par son audace « booster » son industrie cryptologique ne fit que favoriser l’industrie et l’édition de logiciels américaines.

On a libéré le chiffrement. Avec notamment la montée du terrorisme, les voix se sont élevées pour dire alors que les terroristes utilisaient le chiffrement. Ils le faisaient probablement. Comme tout le monde peut le faire… Avec le terrorisme, l’opinion publique a changé : la sécurité est devenue plus importante que la liberté. Alors, aujourd’hui, le climat sécuritaire ambiant amène encore certains responsables politiques notamment en France, à prôner le recours à ces logiciels affaiblis voire l’interdiction du chiffrement comme au bon vieux temps où le chiffre était considéré comme une arme de guerre de deuxième catégorie.

B : Aujourd’hui la plupart des outils avec du chiffrement que nous utilisons sont américains. N’est-ce pas ?

JLD : oui et ils contiennent probablement des « backdoors (*) » qui sont au service du gouvernement américain, tout comme les matériels chinois ont probablement des « backdoors » au service de leur gouvernement. On ne peut plus faire confiance ni à l’un ni à l’autre. Tout cela était terriblement prévisible. Si on autorise le chiffrement pour tous, les états qui le peuvent vont essayer de garder une longueur d’avance en installant des « backdoors ». Le système encourage les arrangements occultes entre industriels et services de renseignement. Au siècle dernier, les « backdoors » existaient. Elles sont passées au mode industriel.

B : Les systèmes d’information en France sont-ils bien sécurisés ?

JLD : on a en gros deux types de méthodes. Les méthodes préventives qui essaient d’empêcher les attaques, et comme on sait qu’on en laissera sans doute quand même passer, des méthodes curatives qui permettent de réagir quand on est attaqué, de gérer la crise. On est peut-être allé trop loin dans le curatif. Il faut plus de prévention.

Quand on conçoit des systèmes informatiques, on se doit de les sécuriser. Évidemment, le même niveau de sécurité n’est pas nécessaire pour un produit grand public et un logiciel utilisé, par exemple, par la défense nationale. On peut obtenir des « certificats » de sécurité. (Voir encadré : La certification de produit informatique.) Malheureusement, on a baissé les exigences sur ces certificats.

Avec la carte à puce, la France est devenue un des champions de la vérification de la sécurité. Au début, par exemple dans des cartes comme Moneo, le niveau de sécurité était assez bas. De vraies compétences se sont développées pour aboutir à d’excellents laboratoires d’évaluation agréés par l’ANSSI (+).

Serge Abiteboul et Pierre Paradinas

(*) Une backdoor (littéralement porte de derrière) d’un logiciel, ou « porte dérobée » en français, est une partie d’un logiciel, un trou de sécurité, qui n’est pas connue de son utilisateur et qui permet à d’autres de surveiller secrètement ce que fait le programme, voire d’avoir accès à ses données.

(+) L’ « Agence nationale de la sécurité des systèmes d’information » (ou ANSSI) est un service français rattaché au Secrétaire général de la défense et de la sécurité nationale, qui assiste le Premier ministre en matière de défense et de sécurité nationale. Cette agence, en plus de la sécurité des systèmes d’informations de l’État, a une mission de conseil et de soutien aux administrations et aux opérateurs d’importance vitale, ainsi que celle de contribuer à la sécurité de la société de l’information, notamment en participant à la recherche et au développement des technologies de sécurité et à leur promotion.

La certification de produit informatique

La certification permet d’attester qu’un produit atteint un niveau de sécurité parce qu’il peut résister à un niveau d’attaque donné. Cette certification repose sur la vérification de la conformité du produit et sur des tests d’intrusion.

L’ANSSI propose deux types de certifications.

Le premier appelé Certification de Sécurité de Premier niveau est réalisé à partir de tests d’intrusion, il requiert un investissement limité en terme de coût du développement du produit.

Le second appelé Critères Communs permet de certifier un produit selon 7 sept niveaux d’assurance de sécurité (Evaluation Assurance Level). Le niveau 1 ou EAL1 correspond à un niveau d’attaque faible. À partir du niveau 4-5, la sécurité du développement lui même est pris en compte, enfin au niveau EAL7, niveau d’attaque le plus élevé, le développement doit faire appel à des techniques formelles pour réaliser le produit.

Les évaluations des produits sont faites vis-à-vis d’un objectif de sécurité. Les évaluations sont réalisées par des CESTI qui sont des entreprises indépendantes des développeurs des produits et des commanditaires des évaluations. Ces évaluations conduisent à l’émission d’un certificat.

La reconnaissance internationale de ces certificats est à l’origine des Critères Communs, dont l’objectif est de structurer cette reconnaissance croisée à travers un accord de entre 25 pays. Cet accord permet la reconnaissance jusqu’au niveau 2. Il y a un accord plus restreint en terme de nombre de pays qui reconnait des certificats jusqu’à EAL4, et même pour certains domaines techniques particuliers jusqu’à EAL7.

L’intérêt de ces reconnaissances mutuelles, si vous êtes un industriel est que vous pouvez faire un produit dans un pays et obtenir un certificat qui sera valide dans plusieurs pays sans devoir refaire d’évaluations. De même pour un client d’un produit vous pouvez avoir une meilleure confiance dans le produit que vous achetez.

Photo : J-L Desvignes

Rendons à César ce qui lui appartient

Des codes pas si secrets … par Marie Duflot-Kremer 4’07

Parmi les méthodes de chiffrement pour transmettre un message secret, il en existe une qui date de Jules César ! Elle est assez simple à mettre en œuvre… mais également à attaquer par cryptanalyse, bien que certaines armées l’utilisaient encore jusqu’au 19ème siècle. Mais comment craquer ce code ? Trêve de suspense…

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.

Jouez avec les neurones de la machine

Le canard artificiel de Vaucanson (1738), qui « boit, mange, cancane, barbote et digère comme un vrai canard »

« L’intelligence artificielle est la science de faire faire à des machines des choses qui demanderaient de l’intelligence si elles étaient faites par des humains». Tout est dit par le fondateur de l’intelligence artificielleMarvin Minsky. Exit les fantasmes du genre* de celui d’une «servante-robot, qui sert [le] café [au lit] le matin ».  Et comme le mentionne Cédric Villani au lancement de sa mission de réflexion sur ces sujets, notre meilleure arme est «une grande qualité de formation» sur ce sujet qui est «l’affaire de [toutes et] tous». Soit. Et si on commençait, là, maintenant ? Ça vous dirait de soulever le capot de l’intelligence artificielle ? Thierry Viéville.

Un réseau de neurones est un mécanisme générique composé de petites unités (des pseudo-neurones) connectées les unes aux autres. Chaque unité fait une opération très simple : elle prend des valeurs en entrée, les combine très simplement (un simple calcul de moyenne avec des coefficients comme les notes du bac) et applique une transformation sur le résultat (par exemple ne garde que les valeurs positives). Les coefficients utilisés pour pondérer la moyenne sont les paramètres de cet algorithme. C’est la combinaison d’un très, très grand nombre de ces unités qui permet de réaliser des opérations très complexes. Un réseau de telles « neurones » s’obtient en accumulant plusieurs couches de telles unités. En entrée il y a les données que l’on veut traiter. Elles se transforment à travers toutes les couches et la dernière couche donne en sortie une prédiction sur ces données, par exemple détecter s’il y a un visage dans une image. Le réseau de neurone constitue ainsi une fonction paramétrée par ces nombreux coefficients (on parle de « poids ») et c’est le choix de ces poids qui définit le traitement effectué.

Chaque « neurone » mélange les entrées X de manière proportionnelle à ses poids W et rectifie le résultat pour donner la sortie y. C’est la combinaison de miriades de tels calculs élémentaires qui genère un système complexe. Issu de Interstices.

Sur l’interface web de TensorFlow, on constitue facilement un réseau d’une douzaine de neurones possédant chacun entre 3 et 10 paramètres. La sortie calculée dépend donc d’une centaines de paramètres en plus des deux coordonnées (x,y) du point d’entrée. Sur l’interface, chaque carré représente un neurone et la couleur du pixel de coordonnées (x,y) dans le carré représente la sortie du neurone quand on met (x,y) en entrée du réseau. Il y a un seul neurone en sortie, il est représenté avec un carré plus grand sur la droite du réseau. Les paramètres du réseau sont initialisés au départ avec des valeurs aléatoires.

Mais comment apprendre ces poids ? L’apprentissage supervisé consiste à fournir des exemples de données accompagnés de la solution à trouver, pour entrainer le réseau à ajuster ces poids comme il faut. Ici, il s’agit d’une série de points dans un carré avec pour chacun une couleur attendue (bleu ou orange), avec comme but de prédire la couleur du point à un endroit donné. C’est un algorithme classique d’ajustement progressif des poids (on parle de « descente de gradient ») qui permet de trouver les paramètres en question. Le bouton « play » en haut à gauche de l’interface permet de lancer cet algorithme, on voit alors la sortie du réseau de neurones évoluer au cours de l’ « apprentissage » : la couleur du fond du neurone de sortie tend à prendre la couleur des points d’entrainement qui sont dessinés par-dessus. Une autre partie du jeu de données est ensuite utilisée pour tester la qualité de la fonction obtenue par le réseau. Une courbe en haut à droite affiche le taux d’erreurs liées aux données utilisées pour apprendre (pour vérifier que les poids se sont bien ajustés) et le taux d’erreurs liées aux autres données de test (pour vérifier que ce qui a été appris se généralise bien à de nouvelles données). Des boutons sur la gauche permettent de régler la répartition des données entre le jeu d’apprentissage et celui de test et aussi  d’ajouter des erreurs aux données (les bruiter) pour voir si le mécanisme est robuste face à ces erreurs.

© Casterman

En pratique, on arrive à trouver des paramètres satisfaisants, mais il n’y a pas vraiment de cadre théorique pour formaliser tout cela, c’est affaire d’expérience : choisir le bon nombre de neurones, le bon nombre de couches de neurones, quels calculs préliminaires ajouter en entrée (par exemple multiplier les entrées pour augmenter les degrés de liberté permettant de faire le calcul). Ce genre de techniques permet d’obtenir des résultats impressionnants en pratique, comme en reconnaissance de la voix ou d’objets dans une image (voir les vidéos du cours de Yann Le Cun au Collège de France). Cependant, comprendre pourquoi (et comment) on obtient de si bons résultats reste une question scientifique encore assez ouverte. En attendant voulez-vous essayer une application réelle sur des données réelles ? C’est par ici https://www.clarifai.com/demo (il suffit de jouer avec les options).

A vous de tester votre petite cuisine neuronale ! Arriverez-vous à mettre les bonnes couleurs sur le jeu de données en spirale ?


Quelques exemples

Si on choisit de simplement classer deux populations, ici orange et bleue, qui sont déjà groupées en deux blocs facilement séparés par un ligne, alors c’est très facile : il suffit de trois neurones. En cliquant sur l’image on peut lancer la solution et observer l’ajustement des paramètres de chaque unités de calcul, ces pseudo neurones.
Les deux premiers neurones de la couche d’entrée calculent pour la position horizontale et verticale et le neurone de sortie combine ses informations pour faire une sortie oblique.
On parle de problème linéaire pour décrire un tel problème de classification dont la solution est une simple séparation par une surface plate.
Mais si les données sont complètement intermélées comme dans le cas de ces données en spirale alors il faut beaucoup plus de couches de calcul avec plus de neurones.
On voit alors comment au fil du calcul dans les couches de l’architecture, chaque neurone code pour un aspect de la forme à trouver, basique dans les couches basses, plus sophistiqué dans les couches plus hautes. Beaucoup de calculs pour une simple paire de spirales ! Mais ce qui est remarquable c’est que cette foule de calculs élémentaires a pu coder approximativement un objet non trivial, en s’adaptant aux données, sans avoir eu à donner des informations à priori sur ces formes spiralées.
Faut-il tous ces neurones pour résoudre ce problème de classification de données ? Pas forcément : lors d’un atelier lycéen où des jeunes expérimentaient ce logiciel à travers l’interface Web, en expérimentant numériquement les solution possibles, deux d’entre eux Akmal et Amandine ont obtenu une solution plus longue à obtenir et moins stable qu’une solution gourmande en nombre de neurones, mais qui marche plutôt bien.
Et vous avez vous une solution encore plus astucieuse à proposer ?

 


Thalita Firmo-Drumond à partir d’une proposition de Laurent Viennot éditée par Valérie François et publiée conjointement sur pixees.fr.

(*) On trouve hélas cette métaphore sexiste et anti-pédagogique au possible (sans aucune explicitation du propos qui serait au deuxième degré), en introduction du livre blanc sur l’intelligence artificielle produit par un institut de recherche de référence sur ces sujets.

En savoir plus :

 

Donnez moi des données ordonnées

L’histoire des bases de données, ou presque.. … par Marie Duflot-Kremer 5’25

Il a fallu attendre les années 1960 pour voir l’apparition des bases de données informatiques (et surtout des programmes qui permettaient de les gérer !) et même les années 1970 pour que les bases de données relationnelles, fournissent cet outil super puissant qui permet de gérer toutes nos données aujourd’hui…

En savoir plus :

Class´Code est une formation complète pour initier les jeunes à la pensée informatique.  Mais, vous voulez peut-être juste avoir un aperçu de cette formation ? Simplement  connaître l’histoire de cette histoire ? Installer vous confortablement. En quelques minutes, ces vidéos vont vous donner quelques grains de culture scientifique et technique sur ces sujets.

Note: les vidéos des cours d’OpenClassrooms comme toutes les ressources de Class´Code sont librement accessibles, sous licence Creative-Commons, comme on le voit ici.