Pompes funèbres, neutralité des réseaux et RGPD

Hommage à Strowger (photo en bas à gauche), par Serge Abiteboul, Creative Commons

Penchons-nous sur les origines de la neutralité des réseaux. Dans les débuts d’Internet, l’absence d’enjeux commerciaux faisait que la neutralité allait de soi. Mais remontons encore plus loin jusqu’aux réseaux téléphoniques du 19ème siècle.

Quand le Capitaine Haddock appelait la boucherie Sanzot à Moulinsart, les correspondants étaient mis en relation par l’établissement d’une connexion physique (une ligne téléphonique) entre les deux. C’est le réseau téléphonique commuté (RTC) qui a été peu à peu remplacé en France par la technologie plus moderne de la voix sur IP (et disparaitra à partir de 2023).

A l’époque, la connexion entre le Capitaine Haddock et la boucherie Sanzot était réalisée par des opérateurs humains, comme la dame du 22 à Asnières. En 1891, un états-unien, Almon Strowger, invente le premier commutateur automatique. Les impulsions numérotées au cadran par le Capitaine Haddock vont pas à pas télécommander des sélecteurs de lignes jusqu’à établir la connexion entre les deux téléphones.

Almon Strowger était entrepreneur de pompes funèbres à Kansas City. L’épouse de son principal concurrent était opératrice du téléphone au central téléphonique manuel de la société de téléphone locale. Almon Strowger était persuadé que la dame en question détournait le trafic des clients en deuil au profit de l’entreprise concurrente. C’est pour cela qu’il a inventé le premier commutateur automatique Strowger.

Si on est encore bien loin de la fibre optique et des centraux numériques actuels, on voit bien les apports des pompes funèbres au domaine. La machine de Strowger s’attaque à deux sujets tellement actuels :

  1. la neutralité du réseau : en ne passant pas la communication aux Pompes Funèbres Strowger (ou en trainant pour la passer), l’opératrice violerait la neutralité du réseau dont elle est un élément clé.
  2. la protection des données privées : en passant la communication aux concurrents, l’opératrice violerait la confidentialité d’une information très personnelle, la mort de quelqu’un.

Et pour conclure, observons qu’un des arguments contre la neutralité des réseaux est que ce serait un frein à l’innovation. Pourtant, sans elle et Monsieur Strowger, peut-être serions-nous à demander à un opérateur ou une opératrice de nous envoyer la page http://binaire.blog.lemonde.fr/. Qui sait…

Serge Abiteboul, Inria et ENS Paris

Remerciements : P. Legend D. pour avoir attiré mon attention sur cette partie aussi édifiante que surprenante de l’histoire des télécoms.

Références  

Les déclinaisons de la neutralité, Serge Abiteboul, Enjeux numériques, N°4, déc. 2018, Annales des Mines

L’arrêt progressif du réseau téléphonique commuté, Arcep

http://www.almonbrownstrowger.com/ Le site d’Almond Brown Strowger

Rendez-vous dans 10 ans ?

Réalité virtuelle, réalité augmentée, deux expressions que nous entendons et lisons de plus en plus autour de nous. Afin de nous aider à mieux comprendre de quoi il s’agit, nous vous proposons d’utiliser un ouvrage [1] paru récemment sur ces sujets ; rédigé de façon collective par une trentaine de spécialistes tant du monde académique que du monde de l’entreprise, il détaille les principales évolutions de ces dix dernières années et décrit les principales évolutions attendues pour les dix ans à venir. Nous en avons extrait la post-face qui raconte, sous la forme d’une nouvelle, une journée de Marie, étudiante en 2028. Serge Abiteboul

Il est 7h du matin en ce lundi 6 septembre 2028, Marie, 21 ans, se lève. Son premier geste dès le lever consiste à poser ses lentilles de contact. Munies d’un système de capteurs (caméras, centrale inertielle…) et d’un système d’affichage avec opacité paramétrable, elles permettent d’afficher des informations 2D ou 3D. Elle enfile ensuite ses vêtements dits « techniques » qui sont équipés de nombreux capteurs qui renseignent en temps réel le micro-calculateur corporel. De la taille d’un grain de riz, il est implanté sous la peau de sa main entre le pouce et l’index. Ces capteurs mesurent un ensemble de données physiologiques et l’ensemble des données du mouvement du porteur.

Comme tous les matins, Marie se prépare ensuite pour faire son footing. Avec son groupe d’amis, ils ont décidé de courir sur le bord de la falaise d’un fjord norvégien très célèbre. Elle se déplace jusqu’à la zone d’exercice de son appartement équipée d’un tapis roulant multi-directionnel qui est intégré dans le sol de ces nouvelles résidences. Grâce à une commande vocale, elle lance la simulation de course et rejoint virtuellement son groupe. Les lentilles de contact masquent la vue de l’appartement et affichent le paysage du fjord norvégien. Marie retrouve 3 de ses amis qui sont prêts à s’élancer. Plusieurs caméras à très haute définition sont placées sur les murs devant elle et captent en permanence son visage afin de reconstruire en temps réel et en 3D ses expressions faciales, pour ensuite les reporter fidèlement sur son avatar dont les mouvements sont alimentés par les positions mesurées par les capteurs de ses vêtements. Bien entendu, tous les coureurs dialoguent de vive voix, souvent pour se chambrer, et les microphones/hauts-parleurs disposés dans chacun des appartements leur permettent également de percevoir les souffles plus ou moins courts. La technique actuelle permet de courir à plusieurs sur un site géographique choisi au préalable avec une excellente qualité de restitution des expressions faciales des différents participants et par exemple de voir qui est en forme aujourd’hui, ou au contraire, qui souffre du rythme adopté. Cependant, Marie et ses amis ne possèdent pas encore l’équipement dernier cri qui permettrait de reproduire les dénivellations du sol, ils ne peuvent courir que sur un terrain plat, limitant de facto les sites sur lesquels ils peuvent s’entraîner.

Après cette mise en jambe matinale, Marie ressent un sentiment mélangé d’appréhension et d’excitation. En effet, c’est le jour de sa rentrée à l’université où elle étudie la psychologie avec une spécialité  » Psychologie des IA ». Dans cette formation, deux aspects complémentaires sont pris en compte : la psychologie vue de l’usager humain face à l’IA et son dual, la « psychologie » de l’IA face à l’humain. Afin de se préparer pour arriver à l’heure dans ces locaux qu’elle ne connait pas encore, hier soir, elle a étudié l’accès à la flotte de véhicules connectés que la municipalité a mise en place pour augmenter la sécurité des usagers et diminuer les embouteillages sources notamment de pollutions. Comme elle n’a pas encore acheté la mise à jour qui lui permettrait d’utiliser ses lentilles de contact avec ce service, elle a chaussé un « vieux » casque de réalité virtuelle pour explorer la ville virtuelle. Elle sourit en pensant au premier visiocasque que son père avait rapporté à la maison quand elle avait 10 ans. Lourd, moche, avec un champ de vision ridicule, elle n’avait pas compris comment des gens pouvaient l’utiliser pendant des heures même pour jouer. Intérieurement, elle se dit que les chercheurs et les ingénieurs ont bien travaillé pendant cette décennie pour lui proposer un produit léger, esthétiquement réussi et qui ne permet pas d’atteindre les limites de la vision humaine. De la même façon, elle s’est connectée sur le serveur de l’université pour visualiser le chemin depuis l’entrée principale jusqu’à la salle de cours en adoptant le point de vue d’un piéton. Elle a terminé la soirée en parcourant les espaces virtuels ouverts sur les réseaux sociaux par des étudiants qui vont suivre la même formation qu’elle.

Cette photo montre une jeune femme qui porte un casque de réalité virtuelle
Casque de réalité virtuelle. Crédit : Tim Savage from Pexels.

Grâce à cette préparation, elle arrive sans encombre, et à l’heure, jusque dans l’amphithéâtre où elle s’installe à coté de Pierre qu’elle a rencontré hier soir sur son espace virtuel et avec lequel elle a aimé discuter. Comme entrée en matière, le prof assurant le premier cours leur propose de dérouler les écrans souples se trouvant dans les accoudoirs de leurs sièges et de les façonner en forme de demi-cylindre face à leurs visages pour s’immerger dans l’environnement virtuel qu’il utilisera comme support à son enseignement. Comme il est possible de rendre translucides ces écrans, les étudiants pourront ainsi alterner entre vision directe – naturelle – de l’enseignant et des autres étudiants et immersion dans l’environnement virtuel pédagogique pour mieux comprendre certaines parties complexes.

Après ce repas, place à la première séance de travaux pratiques dédiés à la découverte du fonctionnement du cerveau humain. Marie se retrouve dans une salle où sont installées des grandes tables blanches surmontées d’une structure métallique supportant de nombreux appareils dont elle ne connait pas la fonction mais qui lui font penser à la machinerie que l’on devine dans les salles de spectacle au-dessus de la scène pour l’éclairer et la sonoriser. Quand l’enseignante arrive, elle demande aux étudiants de se regrouper par deux autour des tables et de mettre en route les systèmes. Marie voit alors apparaitre une tête humaine qu’elle perçoit parfaitement grâce à la une vision en relief bien entendu mais aussi grâce au toucher. Elle comprend que la structure métallique comporte des projecteurs qui affichent les images et des capteurs qui détectent la position de ses mains et envoient à son micro-calculateur corporel des informations transmises aux récepteurs tactiles de ses doigts pour simuler le contact avec la tête. L’enseignante leur demande de réaliser une dissection virtuelle pour accéder au cerveau. Pour les guider pas à pas, s’affiche alors sur la table, une animation virtuelle montrant précisément les gestes à réaliser. Les étudiants peuvent la visualiser depuis n’importe quel point de vue, la rejouer autant de fois qu’ils le souhaitent, passer en accéléré, en ralenti… Il est loin le temps des MOOC qu’elle a découvert à l’école primaire et où tous les élèves regardaient la même vidéo. Comme les manipulations sont complexes, il est parfois nécessaire de travailler à quatre mains et c’est avec celles de Pierre qu’elle interagit en utilisant des instruments réels – elle connait depuis le collège la notion d’interface tangible introduite dans les cours d’informatique que tout le monde a suivi – pour travailler sur la tête étudiée. Leurs gestes parfois maladroits conduisent à des « dégâts » anatomiques qu’il est facile de corriger en revenant en arrière.

Cette photo montre un cerveau sur lequel sont visaulisées des zones colorées représentant l'(activité électrique mesurés pendant la réalisation de tâches cognitives
Zones cérébrales activées lors de tâches cognitives. Equipe Parietal © Inria / Photo H. Raguet

Au bout de plusieurs tentatives, ils finissent par faire apparaitre le cerveau et commencent la seconde partie du TP où ils doivent observer quelles structures internes sont mises en oeuvre pendant un exercice de mémorisation à court terme. Pierre se moque gentiment de Marie quand elle place autour de son oreille l’écouteur muni d’électrodes miniaturisées destinées à recueillir sa propre activité électrique cérébrale ; ils sont pourtant beaucoup moins ridicules que les premiers casques EEG que les pionniers des BCI utilisaient une vingtaine d’années plus tôt. Après plusieurs essais infructueux, Marie arrive à visualiser son activité sur le cerveau projeté sur la table et en pénétrant à l’intérieur, voit quelles structures cérébrales internes sont activées. L’enseignante les félicite pour ce résultat et les libère.

Cette photo montre une personne qui porte un casque ICO en face d'un écran sur lequel est affiché un feedback visuel
Feedback visuel classique d’une Interface cerveau-ordinateur. Equipe Potioc © Inria / Photo C. Morel

Marie se dirige vers le service des sports et décide de « réviser » un geste très technique de tennis où elle doit faire quelques progrès selon son entraineur. En effet, son service n’est pas des plus performants et un entraînement est nécessaire avant son prochain match. La technique d’entraînement préconisée par son coach consiste en une stimulation galvanique passive. Cette technique permet, grâce à un ensemble d’électrodes judicieusement réparties sur l’ensemble du corps, de stimuler la chaîne de commande des muscles sans pour autant les solliciter. Dans la pratique, les données relatives au services du numéro un mondial de tennis ont été acquises et traitées au préalable ; elles vont ensuite servir de modèle à la sollicitation de la chaîne de commande musculaire de Marie. Elle s’installe sur le banc d’entraînement en ayant au préalable revêtu la combinaison contenant les électrodes. Son calculateur personnel dialogue avec celui de la combinaison afin de faire l’adaptation morphologique nécessaire et la séance peut alors commencer. Le principe de cet entraînement où le corps ne « bouge pas » est de reproduire des gestes afin que la chaîne de commande mémorise la synchronisation et l’enchaînement technique. En 2023, des chercheurs ont démontré que l’apprentissage des gestes est ainsi accéléré d’un facteur 4. Marie effectue une vingtaine de services avec ce système, ses lentilles de contact lui affichant les images de son service, de la trajectoire de la balle, des éventuelles collisions avec le filet, ce qui lui permet d’être totalement immergée dans la situation d’entrainement. Une fois cet entraînement passif réalisé, il est temps de passer à la mise en oeuvre active avec une vraie raquette et une vraie balle où elle constate avec plaisir ses progrès.

Cette photo montre un posrtif réagissant à des signaux visuels affichés sur un grand écran. Il est équippé de cibles réfléchissantes qui permettent de suivre avec précision ses déplacements et sa posteur de façon à pouvoir les améliorer.
Entrainement au geste sportif avec capture du mouvement. Equipe Mimetic © Inria / Photo C. Morel

Il est temps pour Marie de rentrer chez elle. Après avoir diné, elle s’immerge dans sa série préférée ; on ne parle plus de série TV depuis que le spectateur est devenu actif. En effet, les scénaristes ont imaginé non plus une histoire mais une série d’histoires que chacun choisit, mélange à sa guise. Par ailleurs, il n’existe plus un point de vue unique qui était autrefois celui de la caméra qui avait filmé les acteurs mais chaque spectateur peut choisir celui qu’il souhaite. Marie a entendu parler d’une innovation récente, encore hors de prix, qui permet de devenir réellement acteur en insérant son avatar virtuel dans certaines séquences de la série. Elle se dit que même si elle en disposait, elle serait trop fatiguée ce soir pour se battre contre les méchants.

Elle s’endort en pensant à Pierre.

Bruno Arnaldi (Professeur INSA Rennes), Pascal Guitton (Professeur Université de Bordeaux) et Guillaume Moreau (Professeur Centrale Nantes)

[1] Réalité virtuelle et réalité augmentée, mythes et réalités, ISTE Editions, août 2018.

L’automatique, de la machine à vapeur à l’A380

L’automatique est une science qui traite de la commande de systèmes dynamiques tels qu’un barrage, une machine outil, un robot… Grâce à l’informatique, les commandes se sont énormément sophistiquées et permettent aujourd’hui de piloter des systèmes d’une très grande complexité. Pour en parler, nous reprenons cet article de qui dialogue avec Dragan Nesic. Thierry Viéville.

Cet article a d’abord été publié sur le site The Conversation.

Dragan Nesic est professeur d’automatique à l’université de Melbourne en Australie. Ses recherches portent sur la commande des systèmes dynamiques et ses applications dans divers domaines de l’ingénierie et des sciences en général.

Romain Postoyan : Le grand public l’ignore souvent, mais l’automatique est au cœur de nombre d’avancées technologiques majeures au cours des derniers siècles.

Dragan Nesic : En effet, l’automatique a joué un rôle clef dans la plupart des grandes innovations technologiques et ce dès la révolution industrielle de la fin du XVIIIe siècle. Il est de notoriété publique que la machine à vapeur ouvrit la voie à la production de masse dans les usines tout en révolutionnant les transports terrestre et maritime.

Locomotive à vapeur. hpgruesen/pixnio.com, CC BY

On ignore souvent en revanche qu’un dispositif de commande, qui régulait la vitesse de rotation des machines (le régulateur à boules de Watt), fut essentiel pour leur mise en œuvre.

Le premier vol habité effectué par les frères Wright un siècle plus tard aurait été impossible sans un système de commande approprié. Des centaines de réussites similaires de l’automatique jalonnent l’histoire de nos avancées technologiques. De nos jours, nous vivons dans un monde où les organes de régulation sont omniprésents, ce qui est rendu possible par des millions de contrôleurs conçus à l’aide des techniques de l’automatique.

Le tout automatique. Rémy Malingrëy,

R.P. : Qu’est-ce que l’automatique ?

D.N. : L’automatique est une branche de l’ingénierie qui développe des techniques de commande pour des systèmes conçus par l’homme ou naturels, afin que ceux-ci se comportent de la manière souhaitée sans intervention humaine.

Prenons l’exemple d’un pilote automatique dans un Airbus A380. Celui-ci peut maintenir la vitesse, l’altitude et le cap désirés sans intervention du pilote. Un autre exemple est un drone qui peut identifier une fuite de gaz dans une usine et envoyer son emplacement exact à un centre d’expédition. Dans les deux cas, ce qui permet à l’avion et au drone de voler de la façon désirée est un algorithme appelé contrôleur ou régulateur, généralement implémenté sur un microprocesseur.

La couverture de Time réalisée avec des drones.

Cet algorithme connaît le comportement souhaité du système. Il collecte ensuite des mesures provenant des divers capteurs, puis traite ces données afin d’orchestrer les actionneurs qui agissent sur le système à piloter, à l’instar des moteurs électriques des drones et des moteurs à réaction de l’avion. Ainsi le système répond aux attentes, et ce malgré d’éventuelles perturbations imprévues.

R.P. : De nos jours, les données sont souvent transmises via des réseaux de communication numériques, comment cela impacte-t-il les contrôleurs ?

D.N. : Une grande partie de mon activité de recherche actuelle concerne les systèmes de commande dits en réseau dans lesquels le contrôleur communique avec les capteurs et les actionneurs via un réseau de télécommunication.

En raison du réseau, les signaux ne sont pas toujours transmis de manière fiable, ce qui peut fortement dégrader le fonctionnement du contrôleur.

Alors que nous nous dirigeons vers des systèmes hautement interconnectés et complexes, ce type d’architectures deviendra de plus en plus commun. Un exemple est celui des pelotons de véhicules sans conducteur, qui doivent se déplacer de manière autonome sur une route très fréquentée. Ceux-ci sont équipés de capteurs qui mesurent leur vitesse mais aussi leurs actions de contrôle. Ces signaux doivent être communiqués via un réseau de communication sans fil aux autres véhicules pour que le peloton conserve sa distance inter-véhicules dans des marges acceptables tout en roulant à la vitesse voulue.

Dans mes recherches, j’étudie l’interaction de l’algorithme de contrôle, des protocoles de communication et du calcul distribué au sein du système. C’est aussi le motif principal de ma collaboration avec le Centre de recherche en automatique de Nancy.

R.P. : Quels sont vos travaux actuels ?

D.N. : Nous travaillons sur de nouveaux modèles basés sur le réseau appelé FlexRay, qui est de plus en plus utilisé dans l’automobile. Il permet aux dizaines de contrôleurs présents dans une voiture de communiquer, à l’instar des systèmes de contrôle moteur et de direction ou d’arrêt. Cette avancée a ainsi permis de diminuer le poids des véhicules (réduisant ainsi la consommation de carburant) tout en offrant de meilleures performances.

En collaboration avec des chercheurs du CRAN, nous avons d’abord développé des modèles mathématiques fidèles aux systèmes pilotés via un réseau FlexRay.

Le modèle obtenu nous a permis d’analyser mathématiquement le comportement du système, ce qui a conduit au développement de techniques de conception de contrôleurs adaptés. Pour ce faire, nous utilisons des outils mathématiques de systèmes dits hybrides et de la théorie de la stabilité de Lyapunov afin de respecter les contraintes de communication imposées par le réseau tout en exploitant les flexibilités de conception offertes par le réseau FlexRay.

R.P. : Comment envisagez-vous le futur de l’automatique ?

D.N. : L’automatique permettra le développement d’avancées technologiques que l’on ne peut envisager que dans les films de science-fiction aujourd’hui. La recherche en automatique est tout à fait passionnante pour cela car de tels rêves nous forcent à aborder des questions de plus en plus complexes et, point important, multidisciplinaires.

Par exemple, la vie privée et la sécurité contre les attaques de logiciels malveillants et l’éthique commencent à influencer la recherche en automatique. Les voitures sans conducteur communiquant sans fil entre elles et avec leur environnement sont ainsi vulnérables aux attaques malveillantes qui peuvent corrompre les données échangées et provoquer des accidents.

La conception d’algorithmes de contrôle qui garantissent tous les objectifs fixés malgré de telles attaques attire actuellement l’attention de la communauté et requiert une collaboration étroite avec les informaticiens, les ingénieurs en télécommunication et les mathématiciens. Ceci n’est qu’un exemple de la nécessité d’une recherche multidisciplinaire. Les interactions avec la biologie et la médecine, avec la physique et la chimie, la finance et l’économie fourniront des idées nouvelles et de nouvelles problématiques permettant à terme le développement de sciences et de technologies fascinantes.

, Chargé de recherche CNRS, Université de Lorraine.

The Conversation

Le prix du numérique

Tout est gratuit avec le numérique ! Ou pas.  Nous savons bien que « quand c’est gratuit, c’est nous le produit ». Mais au delà de ce constat, prenons le temps de lire ces quelques lignes pour comprendre plus profondément quel est le prix de ce numérique qui envahit notre quotidien, grâce à Serge Abiteboul. Thierry Viéville.
©wikimédia

Quand on cherche à établir le « prix du numérique », c’est vite la confusion. Les services du Web sont souvent gratuits, mais le coût d’une usine moderne de microprocesseurs peut être astronomique. Le fabricant taïwanais TSMC vient notamment de lancer la construction d’une usine de fabrication de puces de 5 nanomètres – une miniaturisation extrême des circuits – prévue pour 2020, pour près de 20 milliards de dollars ! Pour prendre un autre exemple, quel est le point commun entre la céramique d’une amie, Nathalie Domingo, et un smartphone sophistiqué ? Le prix. D’un côté, quelques heures de labeur d’une grande artiste ; de l’autre, les résultats de mois de travail d’une armée de chercheurs brillants et d’ingénieurs de talent. D’un côté, le luxe d’une pièce unique ; de l’autre, des fonctionnalités extraordinaires. La conception d’un smartphone revient très cher mais, comme il est fabriqué massivement dans des usines hyper-automatisées, son coût marginal de production très bas fait qu’il y en a plus de 30 millions en France aujourd’hui.

©casden.fr

Nous nous sommes également habitués à des services gratuits sur Internet, que ce soient des moteurs de recherche, comme Google ou Qwant, des réseaux sociaux, par exemple Facebook, ou des services de musique, tel Deezer. Accessibles quel que soit le niveau de revenu de l’utilisateur, ces services géniaux sont principalement financés par la publicité ou éventuellement par des abonnements. Leurs coûts d’exploitation sont modestes, du fait de la baisse des prix des ordinateurs et du relativement faible nombre d’employés. En avril 2013, l’application de messagerie instantanée WhatsApp comptabilisait 200 millions d’utilisateurs dans le monde, avec seulement 50 employés. Le logiciel d’un service du Web peut, lui, être reproduit à l’infini à un coût nul. C’est un bien non rival – que j’utilise WhatsApp n’empêche personne de faire de même. Reste à construire des fermes de serveurs pour accueillir les données, mais elles sont mutualisées entre tous les utilisateurs. Pour Facebook, en 2011, le coût d’exploitation n’était que d’environ 1 dollar par utilisateur mensuel actif. Chaque utilisateur supplémentaire apporte plus de profit et, effet réseau oblige, accroît l’attractivité du service. Avec la publicité, les géants d’Internet sont assis sur des mines d’or.

cette image sur le logiciel libre est libre de droit 🙂

Dans ce contexte, il faut citer le cas des logiciels libres ou ouverts. Mis à disposition de tous, ils deviennent en quelque sorte des « biens communs ». Ce modèle se développe réellement : les serveurs du Web sont souvent des logiciels ouverts, comme nombre d’outils de programmation utilisés en apprentissage automatique.

Malgré tout, n’allez surtout pas expliquer aux cadres d’une grande banque que l’informatique ne coûte rien (j’ai essayé). Vous les verrez grimper au rideau : « On voit bien que ce n’est pas vous qui payez les machines et les salaires des informaticiens. » Mesdames et messieurs qui dirigez de grandes entreprises, relativisez ! Si des ordinateurs font une part importante du travail, – disons 80 %, pour 20 % des coûts -, ce n’est pas cher, même si cela représente une grosse somme d’argent.

Vous pouvez néanmoins poser la question de savoir pourquoi ce coût. Une première explication tient aux exigences de qualité. Quand un service de votre téléphone dysfonctionne, c’est souvent embêtant, mais acceptable. Quand, dans une transaction bancaire, le bénéficiaire est crédité, mais que le logiciel oublie de débiter le payeur, ça l’est moins. Les entreprises exigent, à juste titre, un haut niveau de sûreté et de sécurité de fonctionnement. La résilience aux pannes (sûreté) et aux attaques (sécurité) se paie. Une autre explication vient de la complexité des grandes entreprises. De fait, chacune est unique. Ainsi, une grande banque exige la conception, le développement, le déploiement, la maintenance de logiciels complexes « sur mesure » de grande qualité. Comme tout cela est unique, pas question de mutualiser les coûts. La combinaison « qualité et sur-mesure », cela ne vous rappelle pas la haute couture ? Quand le directeur des systèmes d’information vous présentera une note un peu salée, pensez que vous vous offrez du Dior ou du Chanel…

Serge Abiteboul, Inria et ENS, Paris

Cet article est paru dans Le magazine La Recherche, N°534 • Avril 2018

Sécurité dans les labos, l’équation impossible ?

Jean-Marc Jézéquel est directeur de l’IRISA, l’un des plus grands laboratoires publics de recherche en informatique de France, depuis 6 ans. Il a récemment publié une lettre ouverte critiquant les dispositifs actuels de protection des recherches des laboratoires publics, dont les travaux, qu’ils soient financés par l’État ou par des entreprises, peuvent avoir un intérêt économique ou stratégique. A cette occasion, il confie à Binaire ses inquiétudes sur le sujet. Charlotte Truchet

Binaire : Vous êtes directeur d’un grand laboratoire d’informatique. Dans quels domaines vos équipes développent-elles des travaux que vous considérez comme sensibles ?

Jean-Marc Jézéquel, directeur de l’IRISA à Rennes. Crédits : UR1/Dircom/Cyril Gabbero

Il est difficile de le dire : à la fois aucun, et tous ! Le principe général, quand on fait de la recherche, est qu’on ne sait pas à l’avance ce qui va déboucher et ce qui n’aboutira pas. On peut très bien travailler sur un sujet pas spécialement secret, et obtenir des résultats sensibles que l’on n’avait pas prévus au départ. Dans le cas de l’IRISA, un très gros laboratoire dont les thématiques couvrent tous les champs de l’informatique jusqu’à l’image ou la robotique, identifier les risques est une mission impossible.

Il y a un exemple célèbre : la technologie des processeurs ARM, qui équipent la vaste majorité des téléphones mobiles dans le monde. Autant dire, un succès industriel d’une ampleur peu commune, une technologie (européenne d’ailleurs) qui vaut des milliards. Le point fort de ces processeurs est d’être très peu consommateurs en énergie. Et pourtant, ce n’est pas du tout dans ce but qu’ils ont été initialement conçus ! Le futur inventeur des ARMs travaillait sur tout autre chose, il avait simplement besoin de processeurs pour ses travaux. Intel ayant refusé de lui en fournir, il a conçu un processeur qu’il voulait le plus simple possible. Ce n’est qu’au moment de tester ces nouveaux processeurs qu’on a constaté qu’ils consommaient très peu d’énergie. Voilà un exemple, entre mille, de technologie ultra sensible, pas du tout imaginée comme telle. Bref, dans un laboratoire, il faut être prêt à tout.

B : Quels sont les risques qui vous inquiètent le plus ?

On pense facilement au piratage informatique, mais en réalité, ce qui me semble le plus délicat est le pillage des cerveaux. C’est particulièrement vrai pour un laboratoire d’informatique. Dans notre cas, ce qui compte, ce sont les idées. Les artefacts que sont les logiciels, articles ou brevets n’ont pas une si grande importance. Les logiciels conçus par nos chercheuses et chercheurs sont souvent open source, c’est-à-dire que leur code est accessible en clair sur internet. Rien de plus facile que de les récupérer : il suffit de copier coller ! Le concept de vol pour un logiciel open source est donc tout-à-fait singulier.

S’en servir intelligemment est en revanche une toute autre affaire, qui peut requérir un très fort investissement. La difficulté est de modifier le code pour lui faire faire ce que l’ont veut. Pour cela, il faut en pratique avoir sous la main les gens qui ont conçu le logiciel.

B : Ce pillage des cerveaux, vous l’estimez de quelle ampleur dans le cas de l’IRISA ?

By Jens MausOwn work, Public Domain

Nous avons environ 850 membres du laboratoire, dont 350 doctorants et post-doctorants. Chaque année, les départs représentent 1 à 3 fonctionnaires et environ 200 contractuels (ingénieurs, post-doctorants et doctorants). Certains sont embauchés dans des multinationales de l’informatique comme Google ou Facebook ; c’est à la fois une reconnaissance de la qualité de nos personnels, et une frustration.

Il y a là une vraie difficulté. Naturellement, parce que c’est bien une des voies privilégiées du transfert de la recherche vers la société, nos anciens doctorants et post-docs vont irriguer d’autres labos en France ou à l’étranger, ou le monde économique. Tout à fait légalement, une entreprise ou une agence non européenne peut donc recruter ces experts de haut niveau, et achètent en réalité leurs compétences.

B : Peut-on aussi voler les idées, sans même embaucher le cerveau qui les a eues ou développées ?

Oui, c’est possible. La recherche se fait de nos jours sous une forme contractuelle et compétitive. Les chercheurs doivent soumettre leurs meilleurs projets de recherche, donc des idées pas encore développées, à des jurys souvent internationaux. Cela représente un problème potentiel : on peut imaginer que sur des sujets de recherche appliqués à la défense par exemple, certains membres de ces jurys internationaux ne soient pas totalement neutres.

Et sans même aller jusque là, le principe reste de donner ses meilleures idées à des équipes concurrentes. Il y a bien sûr des règles de déontologie. Malgré tout, les membres du jury ont accès au projet. S’ils sont malhonnêtes, ils peuvent assez facilement démolir le projet et s’en approprier les idées. Même s’ils sont honnêtes, dans la mesure où ils sont du même domaine, ils repartent forcément influencés par les projets auxquels ils ont eu accès : on ne peut pas oublier des idées ! Parfois, on peut identifier des cas litigieux, mais souvent on ne le voit même pas.

B : Alors finalement, le piratage informatique n’est pas le souci d’un laboratoire d’informatique ?

Fortifications est, Belfort.
CC BY-SA 2.0 fr

Pas tant que ça. Il y a parfois des tentatives d’intrusions sur nos systèmes, mais peu réussissent – d’ailleurs, même quand elles réussissent, elles ne touchent que des choses périphériques, un site web défiguré par exemple : les dégâts sont franchement anecdotiques. Nous avons quelques cas chaque année. En quelques dizaines d’années, nous n’avons jamais eu d’intrusion directe de notre réseau, jamais. Nous avons des équipes compétentes, très vigilantes sur ce sujet.

Dans une autre catégorie, nous avons aussi chaque année une dizaine de cas de vols d’ordinateurs, souvent dans une gare ou un train, ce qui fait penser que ces vols ne sont pas forcément ciblés. Malgré tout, quand ces ordinateurs contiennent des données sensibles du laboratoire, il est important que celles-ci aient été chiffrées !

B : Vous hébergez des données particulièrement sensibles ? Comment les protégez-vous ?

Nous avons quelques bases de données sensibles, oui : par exemple, une base de données de virus informatiques particulièrement virulents. Nous les protégeons avec des procédures spéciales, mais je ne vais pas vous les décrire ! Nos partenaires comprennent qu’ils peuvent nous faire confiance.

B : Dans votre lettre, vous protestez contre les dispositifs de protection des recherches dans les laboratoires publics. Pourquoi les estimez-vous inadaptés ?

Plan des fortifications du Château de Dijon.
By Arnaud 25 – Own work, CC BY-SA 3.0

D’abord, elles reposent sur une échelle de dangers, déclinée en fonction des risques économiques, en matière de défense ou de terrorisme. Mais comme je vous disais, il est extrêmement difficile de caractériser objectivement le niveau de risque d’une recherche donnée à un moment donné.

En outre, les protections mises en place sont complètement inadaptées au fonctionnement d’un laboratoire moderne. Si je m’en tenais aux dispositifs de protection recommandés, nous pourrions quasiment laisser notre base de virus en clair sur le réseau, à condition de mettre une étiquette sur la porte de la salle du serveur ! C’est totalement inadapté.

Par ailleurs, ces dispositifs induisent des contraintes qui grèvent notre fonctionnement. Un exemple très concret : lorsque nous recrutons quelqu’un, son dossier doit être approuvé par un fonctionnaire extérieur au laboratoire. Cela ajoute un délai pouvant aller jusqu’à deux mois à toute embauche. Or, le marché de l’emploi scientifique est très tendu, en particulier dans le domaine de l’informatique. Les candidats attendent une réponse ferme et rapide, faute de quoi ils vont voir ailleurs. A cause de ces délais imprévisibles, nous ne pouvons jamais nous engager directement auprès des candidats et nous perdons d’excellentes candidatures.

Dans un labo d’informatique, le besoin de protection est très spécifique, car notre objet de recherche est numérique, donc immatériel. On comprend bien que des mesures de protection calibrées sur l’idée d’une usine d’explosifs ne s’appliquent pas directement.

B : Mais est-ce que vous n’auriez pas protesté, quel que soit le dispositif de protection mis en place ?

Il y a une contradiction intrinsèque à vouloir protéger des travaux de recherche, c’est certain. La recherche fonctionne par échanges. Les idées émergent toujours entre les personnes, si possible venant d’horizons différents. Les cerveaux géniaux ne sont d’ailleurs ni nécessaires ni suffisants – l’échange des idées l’est. La liberté de mouvement est donc constitutive de la recherche. Mais nous ne vivons pas dans un monde de bisounours ! Nous sommes bien conscients d’avoir besoin de protection, d’ailleurs, nous avons de nous-mêmes pris des mesures en ce sens. Simplement, les dispositifs qui nous sont imposés par l’État ne sont pas adaptés dans leur forme actuelle. Non seulement ils ne nous protègent pas réellement comme il le faudrait, mais ils nous empêchent de fonctionner efficacement dans le monde extrêmement compétitif de la recherche internationale. Ce serait pour les laboratoires français comme d’essayer de courir le 100m avec un boulet face à des concurrents internationaux sans entrave.

L’informatique rentre en scène

Après avoir évoqué les bénéfices croisés entre Art et Science dans un texte précédent, nous vous proposons de nous focaliser sur l’apport de l’informatique au théâtre. Pour cela, nous nous sommes adressés à Rémi Ronfard, informaticien, et Julie Valéro, dramaturge et chercheuse en arts de la scène, qui ont suivi ensemble les répétitions du spectacle « La fabrique des monstres » de J.-F. Peyret (Théâtre Vidy-Lausanne, Janvier 2018) pour les documenter en direct. Ecoutons les 3 coups et laissons leur la parole ! Pascal Guitton

 

Chercher à étudier la représentation théâtrale, c’est tenter de saisir l’éphémère : tous les pédagogues et chercheur.e.s en arts de la scène en ont fait l’expérience, analyser une représentation qui a déjà eu lieu s’apparente nécessairement à un processus de reconstruction subjectif et fragmentaire. Le recours à la captation vidéo ne permet pas de résoudre l’ensemble des difficultés posées par l’étude d’un objet qui n’existe plus : selon l’angle choisi, une partie du spectacle peut échapper à l’oeil de la caméra, le son est souvent médiocre et l’expérience face à l’écran rend peu compte de celle du spectateur en salle.

Cette difficulté est d’autant plus grande lorsqu’on choisit de s’intéresser aux processus de création, c’est-à-dire à la façon dont émerge l’acte théâtral en répétitions, dans la lignée des rehearsal studies (1). Si de très nombreuses compagnies théâtrales utilisent depuis longtemps la vidéo pour filmer leurs répétitions, le plus souvent dans le but de créer une « mémoire » de la compagnie, d’enregistrer ces moments fugaces et souvent décrits comme « magiques » que sont les répétitions, force est de constater que ces heures de captations sont rarement « traitées » et s’entassaient hier dans des cartons (en format dv) ou s’accumulent aujourd’hui sur des disques durs externes.

C’est à partir de ce constat que nous avons proposé à Jean-François Peyret, metteur en scène, de tester en direct, dans le temps même de ces répétitions, un procédé de traitement informatique des images enregistrées, Kino Ai (2), qui permet de profiter d’un dispositif de prises de vues en caméra fixe, peu invasif et peu coûteux (pas de technicien supplémentaire), souvent déjà présent dans les salles de répétitions, comme base à la réalisation de documentaires décrivant les différentes étapes des répétitions.

Cette photo montre 2 acteurs en train de répéter sous le regard du metteur en scène.
Crédit : Kino AI

Une question de point de vue

Reprenant un dispositif qui avait déjà été expérimenté au cours d’un projet précédent, Spectacle en ligne (3), nous avons placé une unique caméra au milieu de l’orchestre, une position qui est également privilégiée par le metteur en scène pour observer les répétitions. Nous avons suivi en cela une proposition ingénieuse de Jean-Luc Godard (4) : « Pourquoi les gens de théâtre n’ont-ils jamais envie de filmer leurs spectacles pour les garder comme archives ? (…) Ce serait très simple : la caméra au milieu de l’orchestre avec un objectif moyen – mais pas le zoom, qui donnerait déjà lieu à une interprétation ».

Ce « point de vue du metteur en scène » présente plusieurs avantages théoriques et pratiques. D’une part, c’est le point de vue le plus adapté à la projection des films des spectacles dans la même salle. D’autre part, c’est le point de vue le plus proche des acteurs, et le seul qui permette de saisir le jeu des regards entre les acteurs et la salle. Enfin, c’est également le point de vue pour lequel les éclairages sont mis au point, ce qui nous permet de filmer sans modifier ces éclairages. Ce dernier point reste difficile à réaliser en pratique, surtout lorsque les éclairages varient brusquement, mais cela nous paraît important de respecter les choix de mise en scène, ce qui n’est possible que de ce seul point de vue.

Théâtre et cinématographie

Comme le souligne justement Pascal Bouchez (5), une problématique particulière à la captation vidéo, c’est l’opposition entre le traitement parallèle de l’information au théâtre (le spectateur voit l’ensemble des acteurs et perçoit globalement la scène), et le traitement séquentiel de cette même information au cinéma ou à la télévision (le spectateur ne voit que les acteurs choisis par le réalisateur et perçoit donc de façon séquentielle la scène à travers une suite d’images). Ainsi, le suivi séquentiel des dialogues peut être problématique lorsque ceux-ci font intervenir trois acteurs éloignés. Un plan fixe des trois acteurs ne permet pas facilement au spectateur de se repérer à l’écran comme il le ferait face à la scène. Une série de gros plans peut être utilisée pour diriger l’attention du spectateur. Il faut donc bien comprendre le système cognitif de l’attention et son fonctionnement dans les deux situations différentes de la scène et de l’écran.

Les techniques classiques du cinéma permettent en principe de résoudre ces différents problèmes, par une transposition entre les langages dramatique et cinématographique. Mais dans les conditions du direct, le réalisateur est de plus en plus démuni au fur et à mesure que croît le volume spatial de la scène. Comme l’écrit Pascal Bouchez, “tout se joue en direct, si vite que les plans dont la création nécessiteraient de nombreuses répétitions et une longue préparation au cinéma – sont impossibles au théâtre”.

Théâtre et informatique

Le projet de recherche Kino Ai aborde précisément cette question grâce à des techniques d’intelligence artificielle qui proposent automatiquement des solutions de cadrage et de montage montrant les actions scéniques et leur enchainement : les données extraites des heures filmées peuvent ainsi s’adapter aux besoins exprimés soit par les professionnels du spectacle, soit par les enseignants et les chercheurs (archivage pour la compagnie, communication auprès des diffuseurs, documentation pour la pédagogie et/ou la recherche).

On peut remarquer que cette méthode de recadrage en post-production est une option technique et artistique nouvelle, décrite par Walter Murch sous le nom de montage vertical (6), et qui permet de contrôler le « zoom de l’interprétation » dont parlait Jean-Luc Godard en post-production. Cette technique est particulière fastidieuse pour les monteurs, mais se prête en revanche très bien au traitement informatique.

A partir d’une captation unique, nous proposons ainsi des solutions de montage multiples, destinés à visualiser la captation selon plusieurs lectures possibles. Notre approche tire parti du fait que tous les rushes peuvent être virtuellement disponibles. Dans un autre contexte, Francis Ford Coppola a utilisé cette possibilité pour intervenir en direct sur le montage de son film Twixt lors de projections en festivals (7).

En suivant ce principe, nous calculons plusieurs cadres mettant en avant les différents aspects de la représentation théâtrale : décors et mouvements d’acteurs en plan large ; codes de proximités entre les acteurs en plan moyen ; langage verbal et non verbal en plan rapproché. Chaque série de plans ainsi recadrés peut être organisée en temps réel en un montage dédié au point de vue choisi. Cette technique permet l’exploration de la représentation sous ses différents aspects.

Kino AI

Ces techniques ont été développées au cours d’une thèse menée dans l’équipe IMAGINE d’Inria (8) et expérimentées en vraie grandeur pendant trois semaines de répétitions du spectacle de Jean-François Peyret, La fabrique des monstres. Les prises de vues ont été réalisée par le logiciel Kino Ai de façon entièrement automatique, et ont fourni le matériau de base de trois courts métrages documentaires montrant trois étapes du travail de création de la pièce (9). La lecture suivie de ces trois courts documentaires traduit la progressivité de la création et de ses étapes successives. Le choix de confier, à ce stade de l’expérience, le montage des court-métrages à trois monteur et monteuses professionnel.le.s était dicté par l’envie d’affirmer le récit de répétitions comme une narration nécessairement subjective : la confrontation des pratiques professionnelles des vidéastes avec les potentialités et les contraintes du logiciel fut aussi riche d’enseignements.

Notre procédé de captation se prête bien aussi aux techniques d’affichage en “split-screen” qui décomposent l’écran dynamiquement et permettent par exemple de zoomer sur plusieurs acteurs simultanément (10). Ce type de présentation est particulièrement bien adapté à la consultation sur le web. Par rapport au montage classique, le montage en split-screen demande des efforts importants, et il est d’autant plus important d’automatiser autant que possible le choix des cadres. Nous avons développé pour cela des algorithmes spécifiques qui permettent de pré-calculer toutes les combinaisons possibles des acteurs et de choisir à chaque instant la composition spatiale la plus pertinente pour montrer simultanément l’ensemble des actions scéniques. Ainsi l’informatique permet dans une certaine mesure de préserver le traitement parallèle de l’information au théâtre en la traduisant directement à l’écran. Ceci pose de nouveaux problèmes de recherche intéressants, par exemple la généralisation de cette approche à des dispositifs à plusieurs écrans, ou à des dispositifs interactifs permettant aux chercheurs de zoomer à leur guise sur les actions scéniques de leur choix.

Exemple de split-screen. Image extraite de (10)

Conclusion

Dans ce billet, nous avons souligné le rôle que peut jouer l’informatique pour faciliter la prise en main des outils audiovisuels par les chercheurs en arts de la scène. Qu’il s’agisse d’explorer une représentation enregistrée en vidéo ultra haute définition, ou de naviguer dans une collection d’enregistrements des différentes étapes des répétitions, la recherche théâtrale a besoin d’outils d’analyse d’images, d’indexation et d’annotation spécifiques et innovants. Au-delà de la seule recherche en arts de la scène, il en va aussi de la survie d’une mémoire des compagnies : toutes n’ont pas les moyens de réaliser des captations attractives et commercialisables, ce qui crée une inégalité forte dans la constitution d’une mémoire du théâtre aux XXe et XXIe siècles : ne reste que les travaux des artistes les mieux dotés financièrement et les plus visibles institutionnellement. Mettre des outils informatiques simples d’utilisation et peu coûteux au service des professionnels c’est aussi assurer non seulement la production des traces mais leur plus grande accessibilité et visibilité. Nous entrons dans l’ère de l’informatique théâtrale.

Rémi Ronfard (Directeur de recherches Inria, Responsable de l’équipe-projet Imagine) et Julie Valéro (Maître de conférences Arts de la scène, Université Grenoble Alpes).

Ils animent un groupe de recherche sur les  « dramaturgies numériques » dans le cadre du projet Performance Lab de l’Université Grenoble Alpes : https://performance.univ-grenoble-alpes.fr

Références

1 MacAuley Gay : Not magic but work, An ethnographic account of a rehearsal process. Manchester University Press, 2012

2 Ronfard, Rémi et Valéro, Julie. Kino Ai: La fabrique de la fabrique des monstres, Colloque Attention Machines, Univ. Grenoble Alpes, février 2018.

3 Ronfard, Rémi et al. Capturing and Indexing Rehearsals: The Design and Usage of a Digital Archive of Performing Arts. International Conference on Digital Heritage, Grenade, Sep 2015.

4 Godard, Jean-Luc. Conversation avec R. Allio et A. Bourseiller. Cahiers du cinéma n°177. Avril 1966.

5 Bouchez, Pascal: Filmer l’éphémère. Presses Universitaires du Septentrion, 2007.

6 Murch, Walter. En un clin d’oeil. Capricci Editions, 2011.

7 Murch, Walter. Sur le montage digital. Cahiers du Cinéma, novembre 2011.

8 Gandhi, Vineet, Automatic Rush Generation with Application to Theatre Performances, Thèse de Dotorat, Univ. Grenoble Alpes, Décembre 2014.

9 Répétitions en cours, Episode 1, Episode 2, Episode 3

10 Moneish Kumar, Vineet Gandhi, Rémi Ronfard, Michael Gleicher Zooming On All Actors: Automatic Focus+Context Split Screen Video Generation, Proceedings of Eurographics, Computer Graphics Forum, Wiley, 2017, 36 (2), pp.455-465.

Un écoulement de Pokémons

Crédits : Lonni Besançon.

Il était une fois… la thèse de Lonni Besançon, effectuée à l’Université Paris Sud à l’INRIA et au laboratoire LIMSI-CNRS. Lonni s’est inspiré du système interactif du célèbre jeu Pokémon GO pour améliorer la visualisation de données, par exemple pour la mécanique des fluides. Non seulement le mécanicien manipule ses données comme on attrape un Pokémon, mais il peut même courir dedans, encore plus vite qu’un joueur ! Charlotte Truchet

Connaissez-vous Pokémon GO ? Mais si ! Ce jeu sur smartphone pour capturer des créatures virtuelles. Le jeu utilise les capteurs du téléphone pour savoir où vous êtes localisé et vous demande ensuite d’utiliser l’écran tactile pour capturer les petits monstres. Il est donc possible d’interagir de façon ludique et efficace avec du contenu virtuel dans notre monde 3D grâce à la combinaison des mouvements d’un appareil et des interactions tactiles.

Les scientifiques doivent souvent visualiser et analyser des données 3D. Pendant ma thèse, j’ai tenté d’appliquer le principe de Pokémon GO à ces visualisations de données pour en faciliter la compréhension.

Sélection de données en 3D. Crédits : Lonni Besançon

Je me suis d’abord concentré sur la mécanique des fluides, domaine dans lequel les experts manipulent leurs données en 3D et en explorent la structure grâce à des plans de coupe. Comme pour la capture de Pokémons, ils doivent interagir avec certains paramètres, ce qui est plus facile avec un écran tactile. Mon approche associe donc l’interaction tactile en plus des mouvements d’une tablette. Pour cela, il s’agit de combiner d’une part l’écran tactile et d’autre part les données recueillies par l’appareil photo et les capteurs de la tablette. Comme l’a démontré Pokémon GO, cela permet de revenir à une façon très naturelle, pour nous humains, d’interagir avec le monde : avec nos mains. Les mécaniciens ont testé mon système et l’ont trouvé plus flexible et plus intuitif que leurs actuels souris et claviers.

De la 2D à la 3D. Crédits : Lonni Besançon.

En visualisation, une tâche essentielle et difficile est la possibilité de sélectionner, dans un univers 3D, une partie des données afin d’en faire une analyse plus ciblée. Cela devient possible avec mon approche combinée. L’utilisateur trace d’abord une forme 2D sur l’écran tactile. Il la prolonge ensuite en 3D en utilisant les mouvements de la tablette. Cette technique permet aux scientifiques de sélectionner des volumes arbitraires de données.

Dans Pokémon GO, si une créature apparaît à 1km de votre position, il faut marcher 1km pour la capturer. Les scientifiques ont le même soucis quand ils manipulent des données extrêmement petites/grandes. Mais pourrait-on faire correspondre un pas à plusieurs centaines de mètres pour s’y rendre instantanément, avant de revenir à une vitesse normale ? Pour ce faire, j’utilise un autre type d’information donnée par l’interaction tactile : la pression, combinée à la détection de mouvement d’une tablette. J’ai placé des capteurs de pression à l’arrière de la tablette : plus on appuie fort, plus on se déplace loin. Cela permet à l’utilisateur d’affiner la rapidité et la précision des mouvements de son appareil.

Finalement, ce que j’ai montré dans ma thèse, c’est que des combinaisons d’interactions via des appareils mobiles permettent d’interagir avec des données scientifiques de façon efficace et naturelle, avec des outils qu’on a l’habitude de manipuler au quotidien.

Lonni Besançon

Twitter : @lonnibesancon

Youtube : https://www.youtube.com/channel/UCj_hPBp9iFcJhzN_j5Dpiwg?view_as=subscriber

Comment ne jamais perdre au loto ?

Connaissez-vous )i(nterstices ?

Oui ?  Alors vous avez de la chance parce que c’est une revue de  culture scientifique en sciences du numérique avec des articles écrits par les chercheuses et les chercheurs eux-mêmes,  un vrai contact direct entre la recherche et le public.

Non ? Alors, allez vite le visiter et dégustez !

Aujourd’hui, nous avions envie de partager avec vous un article d’Interstices qui aborde la notion de choix en partant du très célèbre jeu du Loto. Savez-vous ce que peut penser un scientifique du fait de jouer au loto ? Que cela permet de payer les impôts supplémentaires ?  Certes, mais c’est un tout petit peu plus drôle que ça … Laissons la parole à Gérard Berry et Jean-Paul Delahaye qui nous racontent une histoire presque vraie : jouer-ou-ne-pas-jouer-au-loto-telle-est-la-strategie

Bonne lecture !

Tamara Rezk et Thierry Viéville.

Art et Informatique : fertilisation croisée

Musique, photographie, cinéma, danse, théâtre, autant de domaines artistiques dont les pratiques ont évolué sous l’impulsion du numérique, mais qu’en est-il de la question symétrique : les arts font-ils progresser les Sciences du numérique ? Pour nous éclairer sur ces questions et les illustrer avec quelques exemples, nous avons interrogé Martin Hachet (chercheur Inria à Bordeaux) qui s’y intéresse depuis longtemps. Pascal Guitton

Le numérique au service de l’Art

Les sciences du numérique ont d’abord permis un accès rapide et efficace à des œuvres artistiques. En particulier, les méthodes de compression audio et vidéo (par exemple JPEG, MPEG), issues de travaux de recherche en informatique et en traitement du signal, ont favorisé une diffusion large de créations artistiques, qui elles même ont inspiré de nouvelles créations. Au-delà du support de l’œuvre artistique, l’outil numérique a permis aux artistes d’explorer de nouvelles dimensions qui viennent compléter les supports d’expressions traditionnels. On peut notamment citer la musique électro (qui est aujourd’hui beaucoup plus informatique qu’électronique) ou l’animation 3D. Dans sa thèse, Florent Berthaut a par exemple exploré comment la réalité virtuelle pouvait offrir à des musicien·ne·s de nouveaux outils de création, et comment ces outils pouvaient offrir au public de nouvelles expériences audio-visuelles immersives.

Drile, instrument de musique virtuel développé dans le cadre de la thèse de Florent Berthaut.

[Photo Florent RV – Music]

 

 

Le numérique permet aussi de faciliter l’accès à un processus de création artistique à des non-experts. Aujourd’hui, avec des logiciels de musique, de dessin, ou de traitement vidéo,  des utilisateurs novices arrivent à s’exprimer rapidement, alors que ces pratiques ont longtemps été réservées à des initiés. Bien-sûr, l’artiste en herbe ne rivalisera pas avec les artistes confirmés, ce n’est pas le but, mais en brisant la barrière du long apprentissage technique (par exemple solfège, puis doigté sur un manche de guitare) on lui offre un premier accès à la création artistique, plus rapide et plus large.

Art numérique vs. Art physique

Le numérique a fait évoluer les supports physiques dans de nombreux domaines artistiques. C’est notamment le cas de la photographie où les utilisatrices de l’argentique sont aujourd’hui de moins en moins nombreuses. Mais le numérique n’a bien sûr pas vocation à s’immiscer dans tous les domaines artistiques. Ressentir le son d’un souffle dans un basson, ou contempler un coup de pinceau sur une toile de maître, se fera toujours en laissant le numérique de côté. Si Art numérique et Art physique ont souvent évolué de façon séparée, ils ne doivent pas être opposés. Plusieurs expériences ont montré qu’il était intéressant de mélanger les approches numériques et les approches plus traditionnelles dans des même espaces hybrides. C’est notamment le cas des créations du Cirque Inachevé avec lequel nous avons collaboré[1], qui mélangent les Arts du cirque avec les Arts numériques (projection, contrôle de drones). Dans l’équipe Potioc, nous explorons également des approches basées sur la réalité augmentée spatiale et l’interaction tangible pour créer des environnements hybrides qui visent à favoriser la création artistique, ou à offrir de nouvelles expériences sensorielles et cognitives aux spectateur·trice·s. Par exemple, dans le cadre de notre travail1 avec la scénographe et plasticienne Cécile Léna, nous cherchons à enrichir ses maquettes physiques avec de la projection de contenus numériques interactifs. Les maquettes permettent de s’immerger dans l’univers de l’artiste au travers de spectacles miniatures. De son côté, la projection numérique vient augmenter, de façon subtile, des supports physiques (par exemple un billet de train dans La Table de Shanghaï illustrée ci-dessous)  et va permettre aux spectateur·trice·s de tenir un rôle actif dans la découverte de cet univers. Cela ouvre la voie à de nouvelles formes de narrations. On peut trouver de tels exemples dans les actes de conférences scientifiques telles que NIME – New interfaces for Musical Expression.

Projection d’une vidéo sur un ticket de train dans la Table de Shanghaï.

Photo ©Fréderic Desmesure

 

 

Mais quid de l’Art au service du numérique ?

Au travers de quelques exemples, nous avons pu voir comment le numérique pouvait servir aux pratiques artistiques. Les arts peuvent-ils rendre la politesse en servant le numérique ? Tout d’abord, de nombreux résultats de recherche en informatique ont été motivés par le domaine artistique. C’est notamment le cas de la compression audio/vidéo. A partir d’applications concrètes et directes, les chercheur·e·s sont invités à imaginer et à mettre au point des algorithmes de plus en plus performants. Ensuite, l’exploration de nouveaux espaces d’expression conduit les chercheurs à se confronter à des questions qui n’avaient jusque-là pas été posées. Pourtant, on entend parfois dire que les approches Art et sciences ne sont pas très rigoureuses, et les chercheu·r·e·s sont parfois invité·e·s à se concentrer sur des problèmes industriels « complexes et plus sérieux ». Je pense au contraire que la recherche numérique dans le domaine de l’Art est très exigeante, et non moins « utile ». Par exemple, dans le cas de la performance artistique live basée sur des technologies numériques, les scientifiques vont chercher à dépasser les limites des approches existantes malgré de fortes contraintes de temps réel. Ainsi, il n’est pas acceptable d’avoir le moindre délai entre le geste d’une musicienne et la génération du son associé, ce qui demande de concevoir des systèmes interactifs complexes (cf. l’interview d’Arshia Cont dans Binaire). A l’inverse, un léger délai dans de nombreux autres logiciels n’a en général que peu d’impact. La composante humaine est primordiale dans tout processus artistique, à la fois du point de vue de l’artiste et du point de vue du public. Or, qu’y a-t-il de plus complexe que la composante humaine dans tout processus interactif ? Les efforts de recherche dans les domaines artistiques, et les résultats obtenus sur ce sujet, peuvent servir dans d’autres contextes, et percoler largement dans la société.

La place  des émotions 

A priori, l’Art va viser la création d’émotions, alors que la science va se concentrer sur la création de connaissances. Mais cette dualité n’est pas si binaire. L’émotion qui est recherchée en Art peut aussi être un ingrédient fondamental dans des problèmes de recherche. Par exemple, dans le domaine de l’éducation, de nombreuses recherches s’intéressent à améliorer les processus d’apprentissage des élèves grâce à l’introduction du numérique. Or, nous savons que l’engagement et les émotions positives jouent un rôle important dans les mécanismes d’apprentissage.  Pour optimiser les questions d’apprentissage, le ou la scientifique a donc tout intérêt à s’intéresser de près à la question de l’esthétique qui servira de levier pour stimuler les émotions favorables aux objectifs visés. Cette dimension artistique pourra ainsi favoriser la construction de connaissances scientifiques fondamentales. Scientifiques et artistes ont donc beaucoup à gagner à travailler ensemble.

Martin Hachet (Directeur de recherche Inria, responsable de l’équipe-projet Potioc)

[1] Collaboration soutenue par le programme Art et Sciences de l’Idex – Université de Bordeaux

À la recherche du logiciel parfait

Le Collège de France accueille la nouvelle chaire « Sciences du logiciel » avec Xavier Leroy, Directeur de recherche chez Inria. Xavier Leroy est un spécialiste des nouveaux langages et outils de programmation, ainsi que de la vérification formelle de logiciels critiques afin de garantir leur sûreté et leur sécurité. Une des réalisations de Xavier Leroy et de son équipe est le compilateur CompCert qui possède une preuve mathématique de bon fonctionnement.  C’est un véritable tour de force qu’il était même difficile à imaginer avant qu’ils ne le réalisent. La leçon inaugurale aura lieu le 15 novembre à 18:00. Je ne peux que vous encourager à y assister et à podcaster les autres leçons d’informatique sur le site du collège. Serge Abiteboul
Xavier Leroy © Inria / Photo G. Scagnelli

Le logiciel, entre l’esprit et la matière

C’est une évidence, l’informatique est aujourd’hui partout : au bureau, à la maison, dans nos téléphones ; au cœur des réseaux de communication, de distribution, d’échanges financiers ; mais aussi, de manière plus discrète car enfouie dans les objets du quotidien, dans les véhicules, les cartes de paiement, les équipements médicaux, les appareils photo, les téléviseurs, l’électroménager et jusqu’aux ampoules électriques, qui elles aussi deviennent « connectées » et « intelligentes ».

Grace Hopper en contribuant à la création de compilateurs qui traduisent le logiciel en langage machine a permis l’explosion du logiciel. ©wikicommon

Cette explosion de l’informatique doit beaucoup aux immenses progrès de la micro-électronique, qui débouche sur la production en masse d’ordinateurs et de systèmes sur puce toujours plus puissants à coût constant, mais aussi à l’incroyable flexibilité du logiciel qui s’exécute sur ces systèmes. Reprogrammable à l’infini, duplicable à coût zéro, libéré de presque toute contrainte physique, le logiciel peut atteindre une complexité hallucinante. Un navigateur Web représente environ 10 millions de lignes de code ; le logiciel embarqué dans une voiture moderne, 100 millions ; l’ensemble des services Internet de Google, 2 milliards.  Qu’un assemblage de 2 milliards de choses toutes différentes, conçues par des milliers  de personnes, fonctionne à peu près, est sans précédent dans l’histoire de la technologie.

Revers de cette flexibilité, le logiciel est aussi extrêmement vulnérable aux erreurs de programmation : les bugs tant redoutés et leur cortège de comportements étranges, de plantages occasionnels, et de mises à jour incessantes. Les failles de sécurité produisent des dégâts considérables, de la demande de rançon à la fuite massive d’informations personnelles. Les libertés fondamentales sont menacées par la généralisation de la surveillance informatique et la manipulation d’élections.

Sur ces problématiques, les sciences du logiciel apportent un regard objectif, rigoureux, et fondé autant que possible sur les mathématiques. Quels algorithmes utiliser ? Comment garantir qu’ils sont corrects et efficaces ? Comment les combiner sous forme de programmes ? Dans quels langages exprimer le programme ? Comment compiler ou interpréter ces langages pour les rendre exécutables par la machine ? Se prémunir contre les erreurs de programmation ? Vérifier que le programme final est conforme aux attentes ? Qu’il n’a pas de comportements indésirables menant à une faille de sécurité ? Voilà des questions élémentaires, qui se posent à tout développement logiciel, et auxquelles les sciences du logiciel cherchent à apporter des éléments de réponse mathématiquement rigoureux, de l’analyse d’algorithmes à la sémantique des langages de programmation, des spécifications formelles à la vérification des programmes.

Concevoir des logiciels corrects

Les sciences du logiciel nous enseignent qu’un fois donnée une sémantique aux langages de programmation utilisés, tout programme correspond à une définition mathématique : on peut raisonner sur le comportement du programme en démontrant des théorèmes à partir de cette définition ; on peut aussi s’efforcer de synthétiser un programme « correct par construction » à partir des propriétés qu’il doit vérifier. Voilà qui peut surprendre tant ces approches, connues sous le nom de « méthodes formelles », diffèrent de l’approche expérimentale utilisée le plus souvent : on écrit d’abord le programme puis on le teste longuement pour le valider.

Un environnement générique de preuve de programmes permettant d’engendrer des obligations de preuves pouvant être ensuite déléguées à des démonstrateurs automatiques ou interactifs. Sur cet outil sont construits des environnements dédiés pour prouver des programmes C et Java annotés par des formules décrivant le comportement attendu. © Inria / Photo C. Lebedinsky

Bien qu’efficace pour le logiciel ordinaire, le test devient extrêmement coûteux pour des logiciels complexes avec de hauts niveaux d’exigence de qualité. Le test ne parvient plus à montrer l’absence de bugs. Les méthodes formelles ne souffrent pas de ces limitations et dessinent un chemin vers le logiciel zéro défaut. Cependant, elles sont longtemps restées à l’état de curiosités académiques, tant les objets mathématiques correspondant à un programme réaliste sont énormes (bien loin des tailles des preuves que des humains savent maîtriser) et difficiles à manier. Il a fallu développer des outils de vérification formelle qui automatisent une grande partie des raisonnements pour permettre les premières utilisations systématiques de méthodes formelles pour des logiciels critiques, dans le ferroviaire, l’avionique, et le nucléaire. C’est un des résultats les plus spectaculaires et importants de la science informatique des 20 dernières années. Ma contribution à cet édifice est d’étendre la vérification formelle du logiciel critique lui-même aux outils informatiques, tels que les compilateurs, générateurs de code, ou analyseurs statiques, qui participent à sa production et sa vérification. Il s’agit de vérifier, donc de solidifier, le socle sur lequel sont bâtis ces logiciels critiques.

Après ces premiers succès de la vérification formelle, beaucoup reste à faire pour étendre ses utilisations. Il faut mieux prendre en compte les impératifs de sécurité, le parallélisme massif des nouvelles machines, la distribution des applications. Au centre de l’intelligence artificielle d’aujourd’hui, les techniques d’apprentissage statistique produisent des logiciels qui ne sont plus complètement écrits mais en partie appris à partir d’exemples, nécessitant de nouvelles approches de vérification formelle. Beaucoup de travaux de recherche en perspective, mais nous n’avons pas le choix : il nous faut, avec la rigueur des mathématiques et la puissance des outils informatiques, apprendre à maîtriser le logiciel dans toute sa complexité.

Xavier Leroy, Professeur au Collège de France

Cours 2018-2019 : Programmer = démontrer ? La correspondance de Curry-Howard aujourd’hui

L’isomorphisme Curry-Howard permet d’établir des ponts entre le « niveau logique » et le « niveau algorithmique » du langage informatique. ©aromaths.wordpress.com

Informatique et logique mathématique sont historiquement liées : Alan Turing, John von Neumann, Alonzo Church et bien d’autres fondateurs de l’informatique étaient logiciens, professionnels ou de formation. Le cours 2018-2019 de la chaire de Sciences du logiciel étudie un autre lien, de nature mathématique celui-là (il s’agit d’un isomorphisme), entre langages de programmation et logiques mathématiques. Dans cette approche, démontrer un théorème, c’est la même chose que d’écrire un programme ; énoncer le théorème, c’est la même chose que de spécifier partiellement un programme en donnant le type qu’il doit avoir.

http://coq.inria.fr un assistant de preuve de programme.

Cette correspondance entre démonstration et programmation a d’abord été observée dans un cas très simple par deux logiciens : Haskell Curry en 1958 puis William Howard en 1969. Le résultat semblait tellement anecdotique qu’Howard ne l’a jamais soumis à une revue, se contentant de faire circuler des photocopies de ses notes manuscrites. Rarement photocopie a eu un tel impact scientifique, tant cette correspondance de Curry-Howard est entrée en résonance avec le renouveau de la logique et l’explosion de l’informatique théorique des années 1970 pour s’imposer dès 1980 comme un lien structurel profond entre langages et logiques, entre programmation et démonstration. Aujourd’hui, il est naturel de se demander quelle est la signification «logique» de tel ou tel trait de langages de programmation, ou encore quel est le «contenu calculatoire» de tel ou tel théorème mathématique (c’est-à-dire, quels algorithmes se cachent dans ses démonstrations ?). Plus important encore, la correspondance de Curry-Howard a débouché sur des outils informatiques comme Coq et Agda qui sont en même temps des langages de programmation et des logiques mathématiques, et s’utilisent aussi bien pour écrire et vérifier des programmes que pour énoncer et aider à démontrer des théories mathématiques.

Le cours retracera ce bouillonnement d’idées à la frontière entre logique et informatique, et mettra l’accent sur les résultats récents et les problèmes ouverts dans ce domaine. Le séminaire donnera la parole à 7 experts du domaine pour des approfondissements et des points de vue complémentaires.

 

 

Vers une cybersécurité européenne pour les PME ?

Il n’y a plus de jours où nous n’apprenons l’existence d’une cyberattaque touchant une entreprise (et il ne s’agit que de la partie émergée de l’iceberg). Données volées, comptes détournés sont devenues leur quotidien. Face à ce problème devenu crucial, il n’existe pas de réponse unique et de nombreuses actions sont mises en oeuvre : depuis les scientifiques qui analysent les attaques et imaginent de nouvelles parades jusqu’aux structures comme l’ANSSI chargées de lutter contre la cybercriminalité en passant par les ingénieur·e·s chargé·e·s de protéger les systèmes informatiques de leur entreprise. Moins informées, sans doute moins « équipées » que les grandes structures, les PME sont pourtant elles aussi touchées. Dans cet article, Jérôme Tarting revient sur une décision récente du Conseil européen qui les concerne directement. Pascal Guitton

L’apparition des outils informatiques (mobiles, réseaux, réseaux sociaux, Cloud…) ont fait entrer les PME dans un écosystème numérique. La convergence de toutes ces nouvelles technologies les place désormais à un carrefour névralgique où transitent les données des clients, des partenaires, des fournisseurs, des salariés et des citoyens.

Toute structure économique est donc devenue pourvoyeuse d’informations en quantité importante, d’où les réglementations qui ont pu surgir, le fameux RGPD entré en vigueur en mai 2018 étant la dernière en date. L’adage “Qui a l’information a le pouvoir” explique en grande partie les cyberattaques dont les PME sont victimes en France. Pourquoi sont-elles aussi vulnérables ? Jusqu’à très récemment, l’usage du numérique par les entreprises venait classer notre pays légèrement en-deçà de la moyenne européenne, loin derrière la Finlande ou l’Allemagne[1].

En 2013, seuls 2 salariés sur 3 utilisaient un ordinateur et dans les 5 dernières années, 62% des actifs ont suivi une formation continue en informatique pour combler leurs lacunes[2]. Dans cette marche en avant, les PME ont rattrapé leur retard, sans pour autant tenir compte du niveau de sécurité qui a évolué très vite, et qui est désormais ATAWAD : Anytime, Anywhere, Any Device.

L’entreprise ne doit plus se contenter de multiplier les outils numériques et les usages, son rôle est maintenant de savoir où sont ses données, d’être en mesure de les protéger, de se protéger elle-même tant contre les cyberattaques qu’en matière de  responsabilité si ses données venaient à être dérobées.

La France, pays le plus visé

Analyse de malware ou ransomware. © Inria / Photo C. Morel

À qui s’attaquent les hackers ? La finance, le commerce, l’énergie et l’industrie du numérique sont les secteurs les plus touchés. Dans les deux dernières années, une société sur deux a été victime d’une attaque informatique. Les violations ont augmenté de 62% en 5 ans[3]. ¼ des attaques provenait de logiciels malveillants, une autre partie du web. 12% en interne. Et 10% par phishing.
Au total, toutes ces malveillances ont coûté plus de 6 milliards aux entreprises françaises[4]. Enfin, notons que si les chiffres ne sont pas réellement connus, le secteur public connaît lui aussi de nombreuses malveillances.

Solution européenne ?

Différents aspects de l’Internet des objets.  © Wikipédia

Un récent rapport remis aux institutions européennes a démontré l’utilité d’une lutte efficace contre la malveillance numérique, représentant 400 milliards d’euros par an à l’échelle de l’économie mondiale. L’Union, consciente que “l’internet des objets” comptera, d’ici 2020, des dizaines de milliards de dispositifs numériques, a pris le dossier très au sérieux. En effet, elle a estimé que nombreuses sont les entreprises et les administrations au sein de l’UE dont les principaux services dépendent des réseaux et des infrastructures informatiques. Les incidents concernant la sécurité des réseaux et de l’information (SRI traitée notamment par l’ENISA en Europe) peuvent avoir un impact considérable, empêchant leur fonctionnement. En outre, un incident SRI dans un pays peut se répercuter dans d’autres, voire dans l’ensemble de l’UE, sapant la confiance des consommateurs dans les systèmes de paiement en ligne et les réseaux informatiques. C’est pourquoi, le 8 juin 2018, le Conseil européen a décidé de s’attaquer aux menaces en demandant aux états membres d’identifier les acteurs essentiels en matière de SRI avant décembre 2018, d’aider les petites et moyennes entreprises à être compétitives dans l’économie numérique et à investir dans le recours à l’intelligence artificielle et aux super-ordinateurs [5].

Agir au plus vite

Présentation sur la cybersécurité lors de la fête de la science à un large public. © Photographie Clotilde Verdenal / LoeilCreatif (pour Inria)

Bien entendu, si la Directive SRI est contraignante pour la France en termes de transposition et de moyens, les hackers ne vont pas s’arrêter si facilement car les données sont devenues pour eux la principale source de revenus de « l’économie malveillante ». Il est urgent d’apporter une réponse pénale plus efficace face à la cybercriminalité contre la fraude, le vol des données, la contrefaçon des moyens de paiement. Il faut donc conseiller à nos PME françaises de bâtir une cybersécurité sur des fondements solides, en misant sur le renseignement et la gestion avancée des accès, les encourager à effectuer des tests de résistance qui permettront d’identifier les champs de leur vulnérabilité, les accompagner et les encourager à investir dans les innovations de rupture (analyse et intelligence artificielle). Il en va de la pertinence du marché unique numérique mais aussi de la crédibilité de la France, qui si elle veut réellement être une start-up nation, ne peut négliger plus longtemps cette faille dangereuse pour le devenir de sa nouvelle économie.

Jérôme Tarting (fondateur du Groupe Up’n BIZ)


[1] Observatoire du numérique – janvier 2016.
[2] Baromètre du numérique 2017
[3] Enquête 2017  Accenture.
[4] France 2 – Enquête sur les cyberattaques.
[5] Conseil de l’europe – Réforme de la cybersécurité en Europe – Juillet 2018

Big Data et innovation : c’est pour aujourd’hui ou pour demain ?

Avner Bar-Hen, Crédits TheConversation
Avner Bar-Hen est professeur au Conservatoire national des arts et métiers (CNAM) à Paris. Spécialiste de statistiques dans les domaines de la fouille de données et des méthodes d’apprentissage, il est également membre du conseil scientifique du Haut Conseil des Biotechnologies.
Gilles Garel est professeur titulaire de la chaire de gestion de l’innovation du Cnam depuis 2011 et professeur à l’Ecole polytechnique depuis 2006. Il a été directeur du Lirsa 2012 à 2015 et est en charge aujourd’hui de l’équipe pédagogique « Innovation » du Cnam.

Gilles Carel, Crédits CNAM

Pour Binaire, ils évoquent le travail qu’il reste à accomplir en matière d’innovation mais aussi d’éducation, pour que les Big Data apportent de nouvelles ruptures technologiques. Antoine Rousseau. Cet article est publié en collaboration avec The Conversation.

 

Dans le maelstrom du « Big Data-numérique-digital-IA » qui mélange buzz superficiel et réelles ruptures, il est important de s’interroger sur le caractère innovant des Données Massives ? En effet, Innovation et Big Data (Données Massives) sont deux termes à la mode, souvent associés et parés de nombreuses promesses, mais il ne suffit pas de parler d’innovation pour être innovant. Quelle(s) innovation(s) se cache(nt) réellement derrière les Données Massives ?

En mobilisant des tera, peta, exa, zetta ou des yotta données, les ordres de grandeur de la capture, du stockage, de la recherche, du partage, de l’analyse ou la visualisation des données sont bouleversés. De nouveaux outils se développent avec l’avènement de dimensions inconnues jusque-là, mais ceci ne dit que peu de choses des usages, des transformations positives dans la vie des citoyens ou des acteurs économiques. Le secteur des services a été fortement transformé par l’arrivée des Données Massives. On peut penser à des services comme Uber, Deliveroo, aux recommandations d’Amazon, à l’assistance diagnostic médical, à l’identification d’images, aux messages et échanges automatiques… La valeur ajoutée, la pertinence du service ou l’utilité sociale de ces nouveaux outils n’est pas nulle, mais il y a longtemps que l’on peut prendre un taxi, acheter un livre, cibler une campagne marketing ou identifier une personne. L’arrivée d’un ordinateur champion du monde de Go ne change pas vraiment la vie ou la motivation des joueurs de go, ni même des non-joueurs. Les outils de traitement des Données Massives optimisent des paramètres connus : plus rapide, plus de variables, plus de variété, moins coûteux, plus de personnes, sans personne… Dans cette « compétition paramétrique », on accélère le connu, on remonte à la surface une abondance de données existantes, pas forcément connectées jusque-là. L’enjeu est aussi de tirer les Données Massives vers l’innovation, c’est-à-dire de passer de l’optimisation de propriétés connues à la conception de propriétés nouvelles dans une perspective de partage de la valeur et non de sa captation par quelques acteurs de la « nouvelle économie ».

Si le traitement des Données Massives peut être tiré par des start-ups très dynamiques, seuls les grands groupes peuvent aujourd’hui valider un prototype de voiture autonome ou développer des programmes de traitement contre le cancer. Les traces numériques massivement disséminées modifient la manière d’appréhender nos individualités. La course à l’appropriation des données est lancée. Les directives européennes comme le RGPD (règlement général pour la protection des données européen) poussent vers un statut privé. Le rapport de Cédric Villani revendique clairement une Intelligence Artificielle pour l’humanité. Nos modes de consommation et nos interactions sociales se transforment grâce à l’omniprésence des ordinateurs et plus largement des machines. Il est temps que les Big Data produisent un Big Bang. Il ne s’agit pas juste d’ouvrir les données, mais de s’en libérer pour leur associer des propriétés innovantes et ne pas rester fixés sur des améliorations, des accélérations et des approches strictement marchandes. Il faut que les citoyens s’approprient les Données Massives afin de donner ensemble un sens à cette avalanche d’informations mais aussi pour faciliter leur intégration au processus d’innovation et de décision au sein des organisations et des entreprises. Seule l’innovation permettra d’imaginer le citoyen de demain. Cet enjeu stratégique passe par une éducation et une formation aux outils numériques et à leurs usages.

Les Big Data peuvent-ils faire la pluie et le beau temps ?

Éric Blayo est professeur à l’Université de Grenoble Alpes où il est membre du Laboratoire Jean Kuntzmann. Il est membre de l’équipe AIRSEA après avoir dirigé pendant 10 ans l’équipe-projet commune MOISE (Inria-CNRS-UGA) Il s’intéresse à la modélisation mathématique et numérique des sciences de l’environnement (météo, système océan-atmosphère, climat). Ces processus complexes doivent selon lui faire l’objet de modélisation (éventuellement à plusieurs échelles de temps et d’espace) et d’assimilation de données qui permettent de corriger des modèles par essence toujours imparfaits. Pour Binaire, il nous parle ici de l’apport des Big Data dans son domaine de recherche. Antoine Rousseau. Cet article est publié en collaboration avec The Conversation.
Éric Blayo, Crédit Photo Inria

La prévision météorologique fut un des tout premiers domaines scientifiques à faire usage de la simulation numérique : dès la fin des années 40 (première prévision numérique du temps par une équipe pilotée par Jule Charney et John Von Neumann en 1950), et même virtuellement 30 ans plus tôt dans les travaux visionnaires de Lewis Fry Richardson, qui en posait les bases et décrivait même ce que pourrait être une forecast factory (usine à prévision) météorologique. Depuis lors, des systèmes de prévision ont été développés progressivement pour toutes les sciences environnementales : météorologie, océanographie, pollution de l’air, hydraulique fluviale, climat… Mais alors, forts de décennies de travail et d’expérience, bénéficiant de la progression exponentielle de la puissance de calcul, alimentés par des quantités de données (notamment satellitaires) colossales, et maintenant baignés dans la révolution de l’intelligence artificielle, pourquoi ces systèmes numériques ne fournissent-ils pas encore des prévisions quasi parfaites ?

Un système de prévision, qu’est-ce que c’est ?

Pour tenter de comprendre cela, commençons par décrire ce qu’est un système de prévision dans ces domaines applicatifs. Avant tout, il est basé sur la connaissance de la physique des phénomènes mis en jeu. Ces lois physiques, qui traduisent en général des principes simples comme la conservation de la masse ou de l’énergie, sont exprimées sous forme d’équations mathématiques. Beaucoup sont d’ailleurs connues depuis les travaux de grands scientifiques comme Euler, Fourier, Navier, Stokes, Coriolis ou Boussinesq il y a deux siècles. Ces équations, qui mettent en jeu vitesse, pression, température, sont toutefois trop complexes pour être résolues exactement, et l’on va construire un modèle numérique afin de les résoudre de façon approchée (mais pas approximative !). Autrement dit, on remplace l’équation mathématique exacte par une expression approchée calculable par un ordinateur.

Mais, comme l’a dit Niels Bohr, physicien de génie et grand pourvoyeur de citations restées à la postérité : « Prévoir est très difficile, surtout lorsque cela concerne l’avenir ». Ainsi notre modèle numérique ne nous sera que de peu d’utilité pour prédire la situation de demain s’il n’est pas bien « calé », c’est-à-dire renseigné aussi précisément que possible sur la situation d’aujourd’hui : votre état de santé à l’issue d’une chute sera loin d’être le même suivant que vous trébuchez sur une plage de sable fin ou du haut d’une falaise de 30 mètres, et une connaissance parfaite de la loi de la gravitation n’y changera rien. Concrètement, cela signifie qu’il faut fixer les valeurs de toutes les variables du modèle à un instant donné, et donc utiliser pour cela les observations disponibles au même moment. Des techniques mathématiques très sophistiquées ont été développées pour cela, qu’on englobe sous le terme d’ « assimilation de données ».

A ce stade, on dispose donc d’un système qui, utilisant les données sur l’état actuel, est capable de prédire un état futur. Pour parfaire le tout, on essaie même le plus souvent d’évaluer la fiabilité de cette prévision : c’est par exemple l’« indice de confiance » associé aux prévisions météo. Le montagnard, le marin, ou plus simplement le cycliste, connait son importance, et fera des choix prudents si l’incertitude est grande. Cette incertitude est évaluée généralement par des techniques de « prévisions d’ensemble », consistant à réaliser de nombreuses prévisions en perturbant légèrement à chaque fois un paramètre du système, comme son état initial. Si les prévisions demeurent très cohérentes entre elles, alors on dira que la prévision est fiable ; si au contraire elles présentent des disparités fortes, on considérera que la prévision est incertaine.

Des erreurs, un papillon, et pourtant elle tourne !

Un système de prévision très précis serait synonyme d’une incertitude très faible dans toutes les situations possibles. Or, dans ce domaine des fluides géophysiques, il y a des erreurs significatives à tous les stades :
dès les équations, déjà : on ne comprend pas toute la physique, et on la représente donc imparfaitement. La physique à l’intérieur des nuages par exemple est encore bien loin d’être parfaitement comprise.
dans la partie numérique ensuite, qui par essence est une approximation. Incapable, même avec le meilleur ordinateur du monde, de calculer la solution approchée en tout lieu et à chaque instant, on va se contenter de le faire sur un maillage (figure), c’est-à-dire en des points répartis géographiquement (les modèles numériques actuels en considèrent tout de même fréquemment la bagatelle de plusieurs dizaines ou centaines de millions). Ce faisant, on ne peut donc pas représenter ce qui se passe à des échelles plus petites que celle du maillage, et l’on va, soit choisir de l’ignorer totalement, soit tenter de simuler l’effet de ces petites échelles non représentées sur la solution : c’est ce que l’on appelle une « paramétrisation sous-maille », art extrêmement difficile.
dans la description de l’existant enfin : on ne connait évidemment pas parfaitement la température actuelle en tout point de l’océan, ni la perméabilité du sol partout sur terre. Et si l’assimilation de données expliquée plus haut permet de remédier partiellement à cela, elle est basée sur l’utilisation de mesures qui par essence comportent des erreurs, instrumentales d’une part et de représentativité d’autre part (pour faire court : on ne mesure pas forcément directement la quantité représentée dans le modèle, et en plus cette mesure n’est ni à un endroit ni à un instant correspondant au maillage du modèle).
Si l’on ajoute à cela le fameux effet papillon popularisé par Ed Lorenz, c’est-à-dire le fait que, pour certains écoulements ou certaines échelles, une légère différence initiale puisse amener à une situation totalement différente après quelque temps, il y a finalement de quoi être pessimiste quant à la capacité à prévoir de façon fiable. Et pourtant, quoiqu’on en dise dans la file d’attente à la boulangerie ou à la boucherie, la qualité des prévisions est maintenant bien meilleure qu’il y a quelques années, et a fortiori décennies. Soyons honnêtes : si nous râlons aujourd’hui contre une prévision météo, ce n’est pas parce qu’il a plu toute la journée alors que celle-ci était annoncée ensoleillée, mais plus vraisemblablement parce que la pluie est arrivée deux heures plus tôt qu’annoncée, ou que le front de nuages était décalé de 40 kms.

La puissance de calcul et l’IA à la rescousse ?

La précédente litanie des erreurs montre qu’il reste de la marge pour de futures améliorations. Les progrès de l’informatique et le boom de l’intelligence artificielle doivent-ils nous rendre optimistes et nous faire miroiter des lendemains qui, à défaut de chanter, verraient leur météo parfaitement anticipée ? C’est en fait plus compliqué qu’on ne pourrait le croire.

À quoi servent des ordinateurs plus puissants ?

  • A utiliser des méthodes numériques plus coûteuses, car plus précises : la solution numérique est alors plus proche de la solution exacte des équations mathématiques. C’est bien, mais comme on l’a vu, ces équations sont incomplètes et cette erreur d’approximation numérique n’est qu’une petite partie du problème.
  • A augmenter la « résolution », c’est-à-dire la finesse du maillage. On pourrait alors se dire qu’on va là encore, mécaniquement, diminuer l’erreur d’approximation numérique. C’est vrai… mais le diable se niche dans les détails. En augmentant la résolution, on représente une physique plus riche, de nouveaux phénomènes sont présents, dont certains peut-être mal compris, des rétroactions apparaissent dont on ne soupçonnait pas forcément l’ampleur. Et il faut in fine comprendre tout cela, et peaufiner un nouveau réglage de ce que nous avons appelé la « paramétrisation sous-maille ». Bref, augmenter la résolution est en général encore absolument nécessaire pour les applications dont nous parlons, mais s’accompagne d’un lourd travail de compréhension physique et de réglage avant d’aboutir à un réel gain en précision.
  • A mieux quantifier l’incertitude (améliorer l’indice de confiance), en rendant possible de plus nombreuses simulations.

Et l’intelligence artificielle dans tout ça ? On nous explique que l’IA est capable de tout analyser et de tout prédire. Alors, peut-elle aider ici ? A vrai dire, l’apport de l’IA est particulièrement spectaculaire sur des données disparates et/ou concernant des sujets dont le comportement repose sur des lois mal connues, voire inexistantes. Or, pour les fluides géophysiques, les équations mathématiques utilisées actuellement sont d’ores et déjà une bonne représentation de la vraie physique, et l’assimilation de données permet souvent de combiner mesures et modèles de façon quasi optimale. On est donc dans un contexte où l’IA ne doit donc pas être attendue comme le messie. Par contre, elle peut très certainement s’avérer extrêmement utile pour tout ce qui se situe « hors cadre ». Par exemple tout ce qui relève d’une physique encore mal comprise dans ces systèmes de prévision : les interactions complexes entre l’océan et l’atmosphère, la micro-physique, les paramétrisations sous-mailles… Les scientifiques saisissent en ce moment tous ces sujets à bras le corps.

Et l’humain dans tout ça ?

N’oublions toutefois pas, dans ce large panorama, un facteur essentiel : le savoir-faire humain, le tour de main du scientifique modélisateur. Les systèmes de prévision sont des mécaniques complexes, et celui-ci les règle minutieusement, et réalise en fait de la « compensation d’erreur ».  De la même façon que, pour obtenir une meilleure tarte, on compensera sur le moment la trop grande acidité des fruits à notre disposition en dépassant la quantité de sucre prescrite par la recette, le modélisateur sait adapter son système pour qu’il fournisse les meilleurs résultats possibles. Une conséquence directe en est qu’apporter au système ce qui devrait être une amélioration (une meilleure méthode, une nouvelle paramétrisation…) s’avère souvent décevant au premier abord, voire même détériore la qualité des prévisions. En effet, l’introduction de cette nouveauté met à terre le subtil équilibre des réglages du modèle. Ainsi, quand on pense pouvoir améliorer un élément d’un système de modélisation, le chemin est souvent encore long avant que cela n’améliore les prévisions elles-mêmes, car cela passe par une nouvelle phase de réglages.

En guise de conclusion

Plus que par bonds spectaculaires de lièvre sous EPO, comme ça peut être le cas dans dans certains domaines scientifiques où l’invention d’un nouvel instrument ou d’une nouvelle théorie engendre une véritable révolution, la connaissance et la prévision des milieux géophysiques comme l’atmosphère ou l’océan progressent à petits pas réguliers de tortue : moins romanesque, mais tout aussi efficace sur la durée. A cet égard, l’IA est une nouvelle ressource venant enrichir le panel des outils disponibles. Sans révolutionner la discipline, elle permettra sans nul doute de nouvelles avancées. La tortue poursuit son chemin.

Éric Blayo, professeur à l’Université de Grenoble Alpes

Algorithmes : à la recherche de l’universalité perdue

Rachid Guerraoui est professeur à l’École Polytechnique Fédérale de Lausanne où il dirige le Laboratoire de Calcul Distribué. Il est le tout nouveau titulaire de la Chaire « Informatique et sciences numériques » du Collège de France où il présente un cours intitulé « Algorithmes : à la recherche de l’universalité perdue » (leçon inaugurale le 24 octobre 2018). L’informatique est efficace et robuste parce qu’on sait « répartir » un calcul entre plein de processeurs. Rachid Guerraoui est un des meilleurs spécialistes mondiaux en informatique répartie, le sujet de son cours. Rachid a aussi participé aux lancements des plateformes d’enseignement en ligne Wandida et Zetabytes, et il écrit régulièrement pour Binaire.  Serge Abiteboul. Cet article est publié en collaboration avec The Conversation.
Rachid Guerraoui Crédit photo R.G

Nous sommes en 2018. Les humains sont contrôlés par des algorithmes. Tous les humains ? Tous. Aucun village d’irréductibles ne résiste encore et toujours aux algorithmes ?  Aucun.

Est-ce grave ? Question de perspective. Les algorithmes ne boivent pas, ne s’énervent pas et s’endorment pas. Pourquoi ne pas les laisser conduire nos voitures ? Nous accusons la voiture d’être le moyen de transport le plus dangereux quand nous devrions plutôt accuser le chauffard, lui qui boit, s’énerve ou s’endort. Et si nous avions pu envoyer des algorithmes pilotant des robots au fond d’une mine, nous aurions raté de grands livres, certes, mais nous aurions sauvé nombre de vies humaines. A ce propos justement, des algorithmes sont souvent plus efficaces que les médecins lorsqu’il s’agit de détecter certaines maladies à partir d’une radiographie.

Les algorithmes sont efficaces car ils s’exécutent sur des systèmes informatiques extrêmement robustes et rapides. La robustesse vient de la répartition globale du système informatique sur plusieurs sites, parfois disposés aux quatre coins du monde et tolérant donc la panne de certains de ces sites. La rapidité vient de la répartition locale du calcul car, au cœur même de chaque ordinateur, cohabitent aujourd’hui un grand nombre de processeurs.

Faire transcrire par des informaticiens chevronnés les savoirs d’une équipe médicale dans un algorithme ne peut être intrinsèquement mauvais, puisque l’on décuplera la force des médecins. Vive donc les algorithmes et nous avec !

Nous pourrions nous arrêter sur cette note positive.  Seulement voilà, les algorithmes peuvent aussi parfois dire n’importe quoi. Nous le constatons régulièrement. Ils peuvent même raconter des bêtises énormes. Et certaines bêtises peuvent être dangereuses car amplifiées par la puissance du système informatique exécutant l’algorithme.

Le grand danger n’est pas l’intelligence artificielle des algorithmes, mais leur bêtise naturelle. Ce danger est concret, réel, palpable. Il n’est pas du registre de la science-fiction comme la prétendue super intelligence des algorithmes, trop souvent médiatisée. Plus nous dépendons des algorithmes, plus nous sommes vulnérables à leur bêtise.

Mais ne pouvons-nous rien contre cette bêtise ? Les informaticiens n’ont-ils pas développé, depuis près d’un siècle, des techniques de preuves théoriques et de tests empiriques qui devraient nous permettre de réduire la probabilité de mauvaises surprises ? Oui. Mais ces techniques reposent sur une hypothèse fondamentale : l’universalité de Turing.

En effet, Alan Turing a fait de l’informatique une science en créant un modèle d’ordinateur universel, la machine de Turing. Tout ce qui peut être calculé par un algorithme le peut par cette machine. Depuis un demi-siècle, les ordinateurs sont construits suivant ce modèle universel. Cela permet, tout en profitant de la puissance d’un ordinateur, de s’affranchir des détails technologiques de son architecture pour apprivoiser les algorithmes. Ces algorithmes peuvent ainsi être conçus et analysés à partir de principes abstraits rigoureux, puis testés concrètement sur n’importe quelle machine universelle donnée, avant d’être déployés sur une autre. Cette universalité nous a permis d’espérer un monde algorithmique sans erreurs.

Malheureusement, cette universalité a été perdue dans une large mesure. Elle a été perdue sans parfois qu’on ne le réalise, lorsque l’on a voulu répartir les systèmes informatiques pour en faire des machines super-robustes et super-efficaces. En cherchant la robustesse et l’efficacité, nous avons perdu l’universalité.   Alors qu’une seule machine de Turing permet d’exécuter n’importe quel algorithme, un réseau de machines ne le peut plus.

La perte de l’universalité de Turing implique que l’on ne peut pas déployer sur un réseau de machines, un algorithme conçu à partir de principes abstraits issus de l’algorithmique classique, centralisée, ou testé sur d’autres machines, et s’attendre à ce que l’algorithme fonctionne de la même manière. Les détails technologiques du réseau entrent en jeu : l’abstraction et la rigueur en pâtissent.

La discipline scientifique qui étudie les algorithmes déployés sur des systèmes informatiques répartis s’appelle l’algorithmique répartie. Elle étudie aussi bien les algorithmes déployés sur un ensemble d’ordinateurs géographiquement distants et communiquant par envois de messages, que les algorithmes déployés sur plusieurs processeurs au cœur du même ordinateur. On parle aussi parfois dans ce dernier cas d’algorithmes concurrents car partageant la même mémoire.

L’un des objectifs principaux de l’algorithmique répartie est d’identifier les conditions nécessaires et suffisantes sur les réseaux, grands ou petits, permettant de retrouver l’universalité de Turing. Lorsque ces conditions ne sont pas satisfaites, il s’agît de définir les formes d’universalités restreintes que l’on peut réaliser.

Un résultat fondamental en algorithmique répartie stipule que la perte de l’universalité de Turing est intimement liée à l’impossibilité pour des machines connectée par un réseau asynchrone (dans lequel on ne fait pas d’hypothèse sur les temps de communication) d’atteindre un consensus. Intuitivement, cette impossibilité signifie que lorsque l’on déploie un algorithme sur un réseaux de machines, elles ne peuvent pas se mettre d’accord sur l’ordre d’exécution des instructions de l’algorithme. D’autres résultats d’algorithmique répartie, plus positifs, définissent des conditions permettant de contourner l’impossibilité du consensus et d’obtenir une nouvelle forme d’universalité, certes restreinte, mais suffisante pour de nombreuses applications et réseaux.

En informatique répartie, les algorithmes sont constitués, en plus des instructions élémentaires des algorithmes classiques centralisés, d’instructions permettant de faire communiquer plusieurs machines, comme des envois de messages ou des accès à des variables partagées. Ces instructions de communication ont un impact fondamental sur la nature des algorithmes. Leur complexité s’en trouve profondément affectée et de nouvelles métriques sont nécessaires pour mesurer leur efficacité, basées par exemple sur le nombre de messages envoyés en fonction du nombre d’ordinateurs connectés. Ces métriques permettent d’étudier le compromis entre les super pouvoirs de la machine répartie obtenue : robustesse et efficacité. Les algorithmes d’apprentissage sous-jacents à l’intelligence artificielle moderne illustrent ce compromis. Du fait de la grande quantité de données disponible, l’apprentissage est réparti sur plusieurs machines. Une moyenne des analyses obtenues est alors effectuée. Mais une seule machine donnant des valeurs extravagantes conduit à la défaillance du tout.

Au-delà des considérations technologiques qui motivent l’étude de l’algorithmique répartie pour mieux appréhender les inventions humaines que sont les ordinateurs et les réseaux, cette étude est tout aussi fondamentale à la compréhension de phénomènes naturels. Lorsque l’on s’intéresse à modéliser la synchronisation du clignotement des lucioles, les mouvements coordonnés d’un banc de poissons, les formes géométriques dessinées par une nuée d’oiseaux, ou le comportement collaboratif d’un réseau de neurones, on retrouve des algorithmes répartis.

L’informatique est désormais fondamentalement répartie sur des réseaux, grands ou petits. Cette répartition décuple la puissance des ordinateurs et les rend souvent plus forts et plus efficaces. Mais elle les rend parfois incontrôlables. Apprivoiser cette informatique passe par l’étude de la discipline scientifique sous-jacente : l’algorithmique répartie. Cette discipline est tout aussi nécessaire à la compréhension de nombreux phénomènes naturels. La leçon inaugurale du cours du Collège de France racontera l’histoire de la quête d’universalité dans le contexte réparti en soulignant quelques résultats clés et quelques problèmes ouverts.

Rachid Guerraoui, Professeur au Collège de France

Enseignement au Collège de France

L’objectif de la série de cours donnée par Rachid Guerraoui au Collège de France à partir d’octobre 2018 est de présenter les fondements de l’algorithmique répartie. Les cours présenteront les résultats les plus importants obtenus dans ce domaine depuis près d’un demi-siècle et souligneront les nombreux problèmes encore ouverts.  Les cours couvriront en particulier les notions d’exécution d’un algorithme répartie et revisiteront les notions de calculabilité, d’universalité et de complexité dans le contexte réparti. Les théorèmes d’universalité et d’impossibilité du consensus seront détaillés, tout comme les hypothèses permettant de contourner cette impossibilité ainsi que les algorithmes associés. Les cours feront aussi le lien avec les architectures actuelles utilisatrices d’algorithmes répartis comme le Blockchain, et les multi-processeurs.

L’informatique en stream

Concours de vidéos : #ScienceInfoStream
« L’informatique en stream »

  • Vous êtes passionné(e)s de science informatique ?
  • Vous aimez les défis ?
  • Vous vous sentez l’âme d’un ou d’une vidéaste ?


N’attendez plus ! Prenez votre smartphone, webcam, ou caméra : vous avez moins de 256 secondes pour partager ces pépites de science qui vous fascinent.

La Société informatique de France vous invite à participer à la deuxième édition de son concours.

Votre vidéo, tournée en français, aura une durée comprise entre 27 (128) et 28 (256) secondes. Elle sera au format de votre choix (les formats libres, comme ogv, sont encouragés) et mise à disposition sur le web (via votre page personnelle ou via un site de streaming). La soumission se fera par email à l’adresse, une déclaration d’intention est attendue avant le 1er décembre 2018, la soumission finale devra arriver avant le 7 janvier 2019. Le mail contiendra, outre le lien, le titre de la vidéo et les noms et prénoms de son ou de ses auteur(s) avec une présentation succincte (âge, rôles respectifs dans le projet…).

“Ressources humaines” 1er prix du concours 2018

Un jury composé notamment d’informaticien(ne)s et de spécialistes de la médiation scientifique réalisera une première sélection de vidéos dont la diffusion et la promotion seront assurées par la SIF et ses partenaires. Trois d’entre elles seront ensuite choisies et recevront des récompenses allant de 500 à 1500 euros.  Les vidéos seront mises en ligne aussi par la SIF, de manière ouverte avec une licence Creative Commons choisie par l’auteur(e).  La remise des prix se déroulera lors du congrès de la SIF qui se déroulera les 6 et 7 février 2019 à Bordeaux en présence de nombreux intervenants prestigieux.

Faire parler une machine à café” accessit ex aequo du concours 2018

Le jury appréciera particulièrement les vidéos qui satisfont un ou plusieurs des critères suivants :

– Originalité du sujet ou du point de vue utilisé pour le traiter,

– Aptitude à susciter une vocation pour la science informatique,

– Sensibilisation aux enjeux sociétaux de la science informatique,

– Capacité à expliquer en langage simple un point de science informatique.

Qui peut participer ?

“Un ordinateur en lego pour votre salon” accessit ex aequo du concours 2018

Toutes et tous, en individuel ou en équipe, de 5 à 105 ans

Règlement et informations accessibles ici

N’hésitez pas à regarder les vidéos primées lors de l’édition 2018

Mémoires Vives

Et si on se laissait compter l’histoire de l’informatique par le doyen des ordinateurs, l’ENIAC ? Entre création artistique et médiation scientifique, Léonard Faugeron nous propose de jeter ici un regard alternatif sur ces machines qui nous ont fait basculer de l’ère industrielle à l’âge numérique. Pierre Paradinas et Thierry Viéville.

Le projet Mémoires Vives est un travail expérimental mené à l’école Boulle, dans le cadre d’études en design. (Et oui ! Boulle ça n’est pas que le bois !)

Je suis parti du constat suivant : l’informatique change nos rapports au monde d’une manière bouleversante, mais la médiation de l’informatique est peu présente en France. (expositions, valorisation du patrimoine technique, dispositifs pédagogiques…). J’ai alors cherché à parler de l’informatique différemment, d’une manière touchante, impliquante et poétique. De là est né une histoire, proche de la science-fiction, dans laquelle un vieux bougre d’ordinateur nous plonge dans sa mémoire pour y croiser ses ancêtres, sa descendance, et ainsi, mieux comprendre d’où viennent nos laptops, retracer des généalogies d’objets oubliés.
Cette histoire a été initialement conçue comme une installation, une balade dans l’espace virtuel des souvenirs d’une machine.

Voici un extrait vidéo d’une vue à la première personne :

Mémoires Vives a été réalisé en vidéo volumétrique grâce à un capteur Kinect. Il a été soutenu par Pierre Paradinas. Je remercie Isabelle Astic et Eric Gressier Soudan pour leurs conseils, Irène Stehr, Franck Calis, Michel Kolb, Lorette Collard, Baptiste Carin, Phillipe Duparchy, mes professeurs Eric Dubois et Caroline Bougourd, et enfin, Stanislas de la Tousche qui nous a prêté sa voix.

Léonard Faugeron.

Voici quelques images d’archives des machines croisées dans la vidéo :

Un abaque chinois pour « poser´´ le calcul et utiliser un mécanisme pour le réaliser. Abaque_(calcul)
  Une carte perforée pour mémoriser des données binaires, nombres, textes ou symboles. Carte_perforée
  Le premier ordinateur électronique, ENIAC, des débuts de l’informatique. ENIAC
  Le métier à tisser de Vaucanson est une machine programmable, parmi les premiers exemples d’automate industriel. Jacques_Vaucanson
  Un des premiers mini-ordinateurs dont les descendants sont nos ordinateurs, tablettes et smartphones actuels. Olivetti_Elea

Pour en savoir plus :

Champion européen du numérique

On peut passer son temps à se plaindre de l’impérialisme de grandes entreprises du Web ou, comme Qwant, on peut essayer de changer cela. Binaire a parlé de cette start-up l’an dernier : Qwant, aux armes citoyens ! Depuis, l’entreprise a fait un bout de chemin. En juin 2018, elle était créditée plus de 2% du marché français des recherches Web, contre près de 90% pour Google. Il s’agit bien d’une concurrence féroce et de souveraineté. Un historien, Pierre Mounier-Kuhn confronte la situation de Qwant à celle du Plan Calcul, un plan gouvernemental français lancé en 1966 par Charles De Gaulle  en favorisant le développement d’une industrie mais aussi d’une recherche françaises de haut niveau. Il est de bon ton de considérer que ce plan fut un échec, mais il ne l’a sans doute pas été pour la recherche et pour ceux qui ont découvert l’informatique grâce à lui. Pour Qwant, on espère que le succès de son appropriation par les citoyens sera au rendez-vous de l’histoire. Serge Abiteboul

Lancé en 2013, Qwant est un moteur de recherches développé en France, dans le but déclaré d’offrir une solution alternative à Google. Une solution européenne pour réduire la dépendance des internautes au géant américain. Une alternative qui offre un avantage comparatif : contrairement à Google, Qwant n’enregistre pas nos données personnelles ou les traces de nos requêtes sur l’internet – et ne les transmet pas aux services secrets d’une grande puissance étrangère. Qwant est donc un instrument à la fois de concurrence et de souveraineté[1].

Rappelons au passage que Google jouit en Europe d’une position encore plus dominante (environ 90 %) qu’aux États-Unis (78 %), tandis qu’elle n’a que des parts mineures de marché en Chine et en Russie, où dominent respectivement Baidu et Yandex. Google est hégémonique en Inde (94 % des requêtes) [2].

Sur le créneau des moteurs de recherche et des logiciels associés, Google domine nettement plus que ne le faisait IBM entre les années 1930 et la fin du XXe siècle, dans la « grande informatique » où IBM détenait environ deux tiers des parts du marché – si l’on en croit les statistiques de l’époque qui mesurent surtout le marché américain. Le reste du marché se partageait pour l’essentiel entre d’autres constructeurs américains d’ordinateurs.

C’est pour contrer cette domination états-unienne que plusieurs pays d’Europe occidentale avaient initié, dans la seconde moitié des années 1960, des politiques visant à reprendre une autonomie technique en soutenant des entreprises qui développaient des ordinateurs et des systèmes d’exploitation[3]. Ces « champions nationaux » étaient principalement l’anglais ICL, les allemands Siemens et Telefunken, le hollandais Philips, tandis qu’en France un « Plan Calcul » gouvernemental avait poussé trois petits constructeurs à fusionner pour former la Compagnie internationale pour l’informatique (CII). En 1973 la CII, Siemens et Philips avaient uni leurs forces en créant un constructeur informatique européen : Unidata. Simultanément démarrait, dans le cadre du Plan Calcul, le réseau d’ordinateurs « Cyclades », considéré aujourd’hui comme l’un des ancêtres de l’internet.

Le Plan Calcul fut abandonné en 1975 après l’élection de Giscard d’Estaing, et avec lui Unidata quand la CII fut absorbée par Honeywell-Bull (le réseau numérique Cyclades fut tué deux ans plus tard). Mais la logique qui l’avait inspiré a perduré sous diverses formes, évoluant avec les défis et les problèmes posés à la fois par les changements techniques et par les nouveaux acteurs qui les incarnent : GAFAM et industries du SE asiatique notamment. Si le terme Plan Calcul inspire des réactions pavloviennes de rejet, tant il a été assimilé à un échec[4] – alors que sa fin résulta d’une décision politique d’abandon –, on ne compte plus les nombreuses tentatives pour rendre à l’Europe une autonomie dans les technologies numériques, une souveraineté sur l’usage des données de ses citoyens, une maîtrise des flux économiques et une stratégie cohérente en ce domaine[5]. La tâche est encore plus difficile qu’au temps du Plan Calcul, ne serait-ce qu’à cause des faiblesses inhérentes à une coalition de 27 pays aux intérêts divergents.

Tentons une comparaison entre ces deux épisodes de l’histoire de l’informatique, distants d’un demi-siècle. Peut-être pourra-t-on en tirer des enseignements, tant pour l’histoire que pour la politique du numérique. On doit évidemment tenir compte de la différence des métiers : Qwant ne produit pas de matériels, n’a pas d’usines ou de laboratoires et ne forme pas ses clients à la programmation ; elle emploie 160 personnes, soit cinquante fois moins que la CII, et son modèle économique est autre. C’est surtout de la motivation politique que découlent les similitudes, et de quelques traits permanents du monde numérique depuis l’invention de l’ordinateur[6].

Si la majorité du capital de Qwant reste détenu par ses trois fondateurs, son financement repose en partie sur des capitaux apportés par des acteurs publics français. La Caisse des dépôts a acquis 20 % du capital, suivie par la Banque européenne d’investissement (10 % sous forme de prêt). Un apport décisif, peu après le démarrage de l’entreprise, a été celui du groupe de presse privé allemand Axel Springer qui a pris 20 % du capital, motivé par les conditions de référencement léonines que lui imposait Google : on retrouve ici une motivation très comparable à celle des clients qui soutenaient Bull ou la CII/Unidata dans les années 1930 ou 1970, pour échapper à l’emprise arrogante d’IBM. Dans les deux cas, les investissements doivent suivre une croissance rapide du chiffre d’affaires, de l’ordre de 20% par an.

La grande différence avec le Plan Calcul, sur le plan financier, est que l’État ne participait nullement au capital de la CII, filiale de sociétés privées… et ennemies. L’État intervenait de deux façons : il finançait l’essentiel de la R&D ; il incitait vivement le secteur public à s’équiper en ordinateurs français. On ne voit pas aujourd’hui que l’État s’active beaucoup pour éjecter Google et sa filiale YouTube, pas plus que Facebook, des pratiques de ses administrations… au contraire.

Des chocs politiques ont dans les deux cas joué un rôle stimulant. En 1966 le gouvernement gaulliste a utilisé l’embargo américain sur des supercalculateurs commandés par le Commissariat à l’énergie atomique, pour justifier une politique d’autonomie informatique – c’est le mythe d’origine du Plan Calcul, répété en boucle depuis cinquante ans. Début 2018, tandis que l’Union européenne commençait enfin à demander aux GAFA de se plier aux règles communes, le scandale Cambridge Analytica a boosté l’utilisation de Qwant : le trafic du moteur de recherche est passé de 48 à 70 millions de visiteurs par mois au premier semestre 2018. Prise de conscience très tardive, et encore très partielle, des dangers de la perte d’autonomie technique et de ses conséquences stratégiques.

La comparaison fonctionne bien si l’on considère la stratégie de développement technique. La CII avait démarré dans une forte dépendance aux technologies américaines, puis avait fait les efforts de R&D nécessaires pour maîtriser son autonomie technique. Qwant a commencé par utiliser des algorithmes et des bases de données acquis auprès d’autres firmes, notamment américaines, avant d’intégrer le navigateur Liberty développé par la société anglo-polonaise LibertyVaults ; elle s’équipe de supercalculateurs californiens Nvidia plutôt que de processeurs Bull (seul constructeur européen survivant au XXIe siècle). Dans les deux cas la priorité est d’occuper rapidement une place sur le marché, quitte à essuyer des critiques pointant la dépendance technique sous les proclamations de souveraineté. L’expérience acquise dans l’interaction avec les utilisateurs permet ensuite d’orienter la R&D. De fait, Qwant a bien progressé en rapidité et en pertinence, soutenant la comparaison avec les principaux moteurs de recherche.

En novembre 2017, l’Inria et Qwant se sont associés dans un partenariat quadriennal, fondant un laboratoire commun qui étudie les problèmes d’usage des données personnelles et la technique des moteurs de recherche. Ici la ressemblance avec le Plan Calcul est frappante : la CII a mis cinq ans à se rapprocher de l’IRIA, pourtant créé pour être le pôle Recherche du Plan Calcul. Dans les deux cas, contrairement au schéma linéaire où la recherche engendre l’innovation qui fonde l’entreprise, c’est seulement après avoir maîtrisé les bases techniques et commercialisé des produits que l’industriel se tourne vers la recherche, pour mieux comprendre les principes sous-jacents et explorer des pistes d’innovation de rupture.

À 50 ans de distance, les deux entreprises ont diversifié leurs applications et se sont internationalisées, toujours pour gagner à la fois des parts de marchés et une crédibilité, des références devant renforcer l’action commerciale et amorcer une dynamique cumulative d’expansion. Les recherches sur Qwant sont maintenant possibles en 28 langues et l’entreprise a ouvert des bureaux en Allemagne, en Italie et en Chine. La CII, six ans après sa création, vendait des ordinateurs dans toute l’Europe continentale, y compris dans les pays communistes, ainsi qu’en Amérique latine et en Chine. Mais la grande majorité de ses clients était en France, tout comme Qwant dont 80% des requêtes proviennent encore de l’Hexagone (200 000 utilisateurs fin 2017). À ce stade il est vital de se faire connaître et apprécier, sur un marché où googler est pour beaucoup synonyme de « chercher sur l’internet », comme IBM était naguère synonyme d’ « informatique ».

Pour passer à un niveau supérieur, faut-il concentrer l’investissement sur le développement interne en s’alliant avec des partenaires (Control Data pour la CII, Firefox et Liberty pour Qwant, par exemple) ? Ou bien fusionner avec d’autres acteurs minoritaires, dans un de ces meccanos industriels qui ont la faveur de politiques et des financiers, mais absorbent beaucoup de ressources au sein de l’entreprise ? Sur ce plan stratégique, les compromis sont aussi difficiles que le soutien politique à long terme est vital. La différence avec l’époque des mainframes est que, dans le cas de Qwant, citoyens et consommateurs ont la possibilité d’agir et de participer directement en pesant dans le rapport des forces.

Pierre Mounier-Kuhn, CNRS & Sorbonne Université
@MounierKuhn

[1] Sur la géopolitique du numérique, on lira avec plaisir et profit Laurent Bloch, Révolution cyberindustrielle en France, Economica, coll. Cyberstratégie, 2015..

[2] Chiffres 2017, https://www.statista.com/statistics/220534/googles-share-of-search-market-in-selected-countries/.

[3] P. Mounier-Kuhn
, « 50e anniversaire du Plan Calcul. Un demi-siècle de politique française en informatique », Le Monde-Binaire, 12 avril 2017, http://binaire.blog.lemonde.fr/2017/04/12/50e-anniversaire-du-plan-calcul/#comment-1438.

[4] Rédigeant ces lignes, je reçois un article qui tombe à pic en reprenant ce cliché : https://fr.irefeurope.org/Publications/Articles/article/Madame-le-ministre-de-la-Culture-je-suis-un-reactionnaire.

[5] Voir par exemple Jean-Noël Jeanneney, Quand Google défie l’Europe: plaidoyer pour un sursaut, Mille et une Nuits, 2005 ; et le manifeste de Pierre Bellanger, La Souveraineté numérique, Éditions Stock, 2014.

[6] Emmanuel Lazard et Pierre Mounier-Kuhn, Histoire illustrée de l’informatique, (préface de Gérard Berry), EDP Sciences, 2016.

Nouvelles mises à jour disponibles

Régulièrement, nous sommes informé.e.s des mises à jour que nous devons apporter à nos ordinateurs. Principal support des correctifs aux failles de sécurité apportés par les éditeurs de logiciels, leur utilité n’est pas discutable. Cependant, selon l’environnement de notre machine, leur mise en œuvre n’est pas toujours simple . Dans cet article, Charles Cuveliez et Jean-Jacques Quisquater nous apportent un éclairage sur ce sujet important en passant en revue les différents équipements concernés : les systèmes d’exploitations, les machines virtuelles, les téléphones portables, les micro-processeurs et enfin, plus complexe encore, l’arrivée de l’internet des objets qui pose des questions sans véritable réponse à ce jour. Pascal Guitton

On le sait, un des meilleurs moyens de se prémunir contre les cyberattaques est de mettre à jour sa machine, le plus vite possible, PC, laptop ou smartphone. Mais a-t-on déjà songé à la complexité du mécanisme de mise à jour pour le fabricant ou pour le concepteur du système d’exploitation ou du logiciel ? Il doit y veiller au niveau mondial et pour des centaines de millions d’utilisateurs. Dans le cas de systèmes d’exploitation très utilisés, la mise à jour, suite à un bug ou une vulnérabilité, doit parfois couvrir l’ensemble des versions, qui ont été produites avec cette vulnérabilité. Que faut-il faire ? Privilégier la version la plus récente et ainsi protéger la grande majorité des clients (mais en rendant vulnérables les utilisateurs de versions antérieures) ou attendre que la correction soit prête pour toutes les versions (un délai supplémentaire mis à profit par les hackers) ?

Puis se pose la question de savoir qui est responsable pour faire la mise à jour ? L’utilisateur final ? Le fabricant ? C’est là que la lecture des conditions imprimées en petits caractères du contrat de licence, que seuls des gens payés pour le faire lisent (en général quand il est trop tard), importe. Les mises à jour ne concernent pas que les systèmes d’exploitation mais aussi les logiciels, des appareils électroniques….

Les systèmes propriétaires : Windows 10

© wikicommons

C’est Microsoft qui le premier n’a plus laissé le choix aux utilisateurs sur les mises à jour à installer. Désormais avec Windows 10, l’utilisateur reçoit un paquet de mise à jour que l’utilisateur doit installer dans sa globalité. C’était indispensable : les mises à jour sont conçues en partant de l’hypothèse que le PC sur lequel elles seront installées est déjà protégé des vulnérabilités précédentes ! Il y a les mises à jour qui résolvent des problèmes de sécurité et, de façon séparée, celles qui apportent de nouvelles fonctionnalités. Ces dernières sont optionnelles car elles peuvent créer des instabilités ou même des vulnérabilités dans d’autres logiciels installés sur la machine.

Les utilisateurs peuvent d’ailleurs décider, avec Windows 10, de  rester avec les mêmes fonctionnalités pendant 10 ans, le temps de support garanti des OS. Ceci dit, on l’a vu avec Windows XP ou avec Windows Server 2003 : ces 10 ans sont rarement suffisants. Les demandes d’extension restent fréquentes.

Ce n’est pas tout de déployer et distribuer la mise à jour. Encore faut-il s’assurer que la mise à jour est installée, ce qui peut prendre du temps, par exemple pour des machines sur lesquelles Windows et un autre système d’exploitation fonctionnent simultanément.

Les logiciels open source : Linux

© Larry Ewing

Les logiciels open source ne sont pas moins sûrs que les logiciels commerciaux mais la conception des mises à jour y est forcément différente. Les logiciels open source sont de nature collaborative. Il n’y aucune décision centralisée possible qui décidera du jour pour pousser la mise à jour. C’est à l’utilisateur de s’en préoccuper : une manière de l’aider est d’être transparent au niveau des composants utilisés (souvent des logiciels ou bibliothèques libres d’accès eux-mêmes). Car si, dans l’idéal, ce serait au développeur du logiciel open source de le faire lui-même, comment s’assurer que ce soit bien le cas ? Ceux qui choisiront une version commerciale Linux attendront légitimement ce service de la part de la société qui a fait d’une version libre une version payante. La nature collaborative des logiciels libres peut avoir comme conséquence un temps plus long avant de découvrir une vulnérabilité. Ensuite, lorsqu’une mise à jour est disponible, il y a beaucoup de canaux via lesquels le déployer : GitHub, RedHat…  Et ne vous croyez pas à l’abri  des logiciels libres si vous vous en méfiez (vous auriez tort) car des logiciels commerciaux ne rechignent pas à les utiliser comme briques pour leurs propres produits. Cisco a ainsi eu de grandes difficultés pour les mises à jour de ses logiciels après la découverte de Heartbleed.

Chaque logiciel open source est un projet à part entière et sa manière de réaliser les mises à jour lui est propre. Quand les développeurs qui maintiennent Open SSL déploient une mise à jour, elle est toujours qualifiée de mise à jour de sécurité et est très détaillée. Il n’en est rien pour les mises à jour des noyaux Linux. Elles ne sont jamais qualifiées de sécurité car la communauté Linux a pour philosophie de considérer que tout bug peut affecter la sécurité. Les utilisateurs de Linux doivent-ils alors installer les mises à jour du noyau, parfois hebdomadaires, au risque de rendre leur machine instable ? Ceci dit, les distributions de Linux prévoient une marche arrière possible en cas de comportement instable (i.e.: retour à une version antérieure). Dans d’autres cas, on interdit aux utilisateurs de revenir à une version antérieure, via une protection matérielle, pour les empêcher de revenir à un état vulnérable. Et puis, de toute façon, il n’y a entre développeurs et utilisateurs de logiciel libre, par définition, aucune obligation sur les mises à jour.

Les  machines virtuelles et codes éphémères

Schéma de machines virtuelles ©wikipédia

Vous avez peut-être déjà entendu parler de machine virtuelle ? Il s’agit d’installer sur un ordinateur un logiciel qui vous donne l’impression d’utiliser un « autre » environnement. Par exemple, vous pouvez installer une machine virtuelle proposant Windows sur un ordinateur Linux de façon à pouvoir utiliser des logiciels fonctionnant sur l’un quelconque des deux environnements sans manipulation compliquée.

Cette approche entraine que des mises à jour de sécurité doivent non seulement concerner le système d’exploitation natif mais aussi les logiciels s’exécutant grâce à la machine virtuelle. Les codes éphémères, souvent utilisés par des services Web que nous utilisons tous les jours engendrent un autre souci. Les versions de Javascript, le langage de programmation le plus utilisé pour offrir ces services, évoluent tellement vite qu’on ne sait parfois pas sur quelle version vulnérable ou non, un logiciel a été conçu.

Les mobiles

© wikicommons

Passons maintenant aux téléphones mobiles qui sont partout mais dont les politiques de mise à jour du système d’exploitation ne sont pas reluisantes au point que les USA ont ouvert une enquête en 2016 à l’encontre du secteur pour manquement à la sécurité des consommateurs. Le problème, dans ce secteur, vient de la diversité des modèles de smartphones et des fabricants sur le marché sans compter les opérateurs mobiles, qui demanderont des customisations sur les modèles de tiers qu’ils vendent. Un système d’exploitation va donc exister sous des centaines de  variantes et il ne faut pas demander aux opérateurs aux capacités limitées de tester dans leurs laboratoires, quand ils le font, la sécurité de tous les appareils qu’ils proposent.

Au prix où sont vendus les smartphones et à la vitesse à laquelle de nouveaux modèles remplacent les anciens, il est intenable, économiquement parlant, pour un fabricant de gérer les mises à jours de tous les modèles qu’il met sur le marché. C’est triste à dire mais c’est bien le prix et la popularité du modèle qui justifiera la durée pendant laquelle des mises à jour de sécurité seront proposées. Oui, il y a de fortes chances que votre mobile ne soit plus supporté depuis longtemps pour les mises à jour de sécurité. Oui, il y a de fortes chances que vous ne le sachiez pas en lisant ces lignes. Oui, vous n’avez pas été prévenus au moment où ce support  a été arrêté et le vendeur ne vous a rien dit au moment où vous l’avez acheté ! Plus étonnant encore est que la plupart des fabricants n’ont pas de politique établie sur la durée du support qu’ils fournissent. C’est au cas par cas, ce qui a rendu nerveux les autorités américaines. Tout dépend des conditions du marché mais pourquoi donc les fabricants établis depuis longtemps ne veulent-ils pas exploiter et partager leurs bonnes pratiques en la matière avec tout le recul qu’ils ont acquis ? Pire, les fabricants ne semblent même pas documenter tout ce qu’ils ont fait par le passé avec leurs anciens modèles : combien de mises à jour ils ont déployées, le temps pour les développer, la durée de la phase de test et le taux d’adoption d’installation parmi les clients, un retour d’expérience qui serait pourtant si utile à la sécurité et une pratique qui laisse un peu sans voix.

On se trouve avec les mobiles dans la situation contradictoire où la richesse et la diversité de l’écosystème mobile rend, en contrepartie, la gestion de la sécurité des mobiles aléatoire en durée et en fréquence : la période de support ne semble pas dépasser 1 ou  2 ans ! Les fabricants préfèrent se focaliser sur les nouveaux modèles ou les plus chers ou les plus populaires.

Les microprocesseurs

© wikicommons

Si les failles de sécurité Spectre, Meltdown et plus récemment Foreshadow ont montré que les microprocesseurs pouvaient être vulnérables, une situation pas suffisamment prise en compte en cybersécurité et par les concepteurs de logiciels, il ne faut pas aller si loin pour s’en méfier. Les fabricants de processeurs prévoient une couche logicielle (microcode), donc une couche intermédiaire entre le niveau logiciel le plus profond d’un système d’exploitation (par ex. le noyau linux) et le processeur ! C’est un outil de différentiation possible entre les clients qui équipent leurs appareils avec le processeur mais c’est une source de vulnérabilité possible de par la personnalisation autorisée. Il est aberrant qu’on ne puisse plus disposer de ce processeur sans cette couche logicielle même en le payant, ce qui signifie qu’on ne peut plus payer pour plus de sécurité !

L’internet des objets

© wikicommons

La mise à jour des objets qui constitueront l’internet des objets (IoT) de demain est une toute autre histoire encore à écrire. Beaucoup d’entreprises ne s’en préoccupent même pas car elles considèrent que la durée de vie de ce qu’elles fabriquent est si courte que cela n’en vaut pas la peine. De plus, la diffusion et l’installation de mises à jour sur un très grand ensemble d’objets connectés est infiniment plus complexe que pour un ordinateur « simple ». C’est une erreur. Parfois ce sont les entreprises elles-mêmes  qui sont éphémères et il n’y a alors plus personne pour réaliser les mises à jour. Une solution pourrait être de forcer les sociétés en questions à confier leur code à des tiers de confiance. Ainsi, en cas de faillite ou de disparition, d’autres pourraient reprendre le flambeau au moins pour les mises à jour de sécurité. Le cycle de développement de l’internet des objets va être beaucoup plus rapide que celui d’un système d’exploitation. Beaucoup de développeurs ne prendront pas le temps de se préoccuper de la politique de mise à jour. Certains songent à une piste inspirée d’Alexa ou des autres enceintes intelligentes à la Google qui ont aussi pour vocation de gérer les objets intelligents. On aurait des hubs qui gèrent la sécurité de tous les objets dans la maison. Ils sauraient quels sont leurs composants logiciels. Utilisent-ils les dernières versions ? Car si les utilisateurs finaux sont désormais conscients que leurs PC sont vulnérables, doivent être mis à jour, comment les convaincre que le moindre petit objet qui a l’air si inoffensif communique avec d’autres machines via Internet et peut donc être contrôlé par un hacker !

Pis, les objets de l’IoT n’auront ni l’autonomie ni la puissance de calcul suffisantes pour leur permettre d’héberger des cyberprotections dernier cri ou pour s’autoriser des mises à jour fréquentes, forcément consommatrices d’énergie.

Pour finir

Il ne faut donc pas croire que la messe est dite avec les mises à jour logicielles. Si elles sont désormais plutôt bien faites pour des systèmes très répandus comme Windows 10, ce panorama montre le chemin à parcourir presque partout ailleurs. La diversité dans les politiques de mise à jour met en évidence un pan de recherche à développer : quel type de gestion des mises à jour est-elle la plus efficace ? La réponse ne tient pas qu’au seul critère de la sécurisation : le taux d’adhésion des utilisateurs est important, la durée du support est primordiale (des mises à jour au top niveau qui s’arrêtent au bout d’un an laisse l’appareil plus vulnérable qu’avant en fin de compte), l’information au consommateur importe aussi pour qu’il puisse faire un choix raisonné pour son mobile. La sécurité n’est pas juste une question de technologie mais aussi d’usage, de comportement et de sensibilisation.

Charles Cuvelliez (École Polytechnique de Bruxelles, Université de Bruxelles) et Jean-Jacques Quisquater (École Polytechnique de Louvain, Université de Louvain) 

Pour en savoir plus :

Software Update as a Mechanism for Resilience and Security:   Proceedings of a Workshop, Committee on Cyber Resilience Workshop Series; Forum on Cyber  Resilience; Computer Science and Telecommunications Board;  Division on Engineering and Physical Sciences; National Academies of Sciences, Engineering, and Medicine, 2017

Mobile Security Updates: Understanding the Issues, Federal Trade Commission, Februari 2018

 

Dissident , la révolte du slow web

Un fil rouge :  l’autonomisation

Tariq Krim a eu la chance de découvrir l’informatique très jeune, au début des années 80, et les modems deux ans plus tard. Un fil conducteur relie ses (multiples) aventures entrepreneuriales, Netvibes, créé en 2005, Jolicloud, lancé en 2008, et Dissident.ai, son dernier projet débuté fin 2017 : donner aux utilisateurs les moyens de prendre en main leur vie numérique, comme les pionniers de l’informatique personnelle le faisaient.

Netvibes cherchait à faciliter l’accès à l’information via une page personnelle faite de widgets et s’appuyant sur les flux RSS, particulièrement en vogue dans le Web 2.0 alors naissant.

Jolicloud était lui un système d’exploitation indépendant, précurseur du Chromebook de Google, et qui a compté 1 million d’utilisateurs. L’innovation de l’OS était de mettre en avant les services cloud qui commençaient à se développer, à l’image de Box ou de Spotify. Cette vision de l’informatique reposant sur des services à distance s’est retrouvée dans nos smartphones… mais sous le contrôle de 2 acteurs, Apple avec iOS et Google avec Android.

Jolicloud proposait des alternatives aux GAFA, mais paradoxalement, les pouvoirs publics commençaient dans le même temps à faire appel aux géants établis pour moderniser leur équipement – dans l’Éducation nationale, par exemple. La vision avait beau être la bonne, et le produit apprécié, il s’est vite révélé difficile de rivaliser avec les mastodontes du numérique, et malgré son succès, Jolicloud s’est arrêté en 2015. Pour mieux renaître, tel le phénix, sous la forme de Dissident. Mais n’allons pas trop vite.

Les désillusions du numérique

Si Tariq s’est bien forgé une conviction, c’est que l’interface (logicielle) définit l’accès au monde, spécifie ce qu’on peut ou ne pas faire, et que ce n’est pas toujours pour le mieux. Tariq aimerait apporter des réponses à ce qu’il voit comme trois problèmes de nos vies numériques.

Premièrement, l’uniformisation des services. « Tout le monde possède les 10 mêmes applications sur son smartphone » se désole Tariq. Par l’intégration verticale des fonctionnalités (OS, paiement, identité, communication, commerce…) au sein de leurs produits, les GAFA en sont arrivés à leurs positions dominantes, et font tout pour nous inciter à rester enfermé.e.s dans leurs écosystèmes.

Ensuite, la mise en silos des données. Si Steve Jobs avait mis son navigateur Safari au centre de l’expérience du premier iPhone, et qu’il réfléchissait à laisser les données accessibles par n’importe quelle application, la structure de l’OS s’est rapidement réorientée vers des applications séparées formant autant de silos. Car chacune gère ses propres données, accessibles via sa seule interface. Android aurait pu prendre le contrepied, mais il n’en a rien été… Bref, les fichiers partagés par une variété de logiciels, ça fleure bon l’ordinateur, pas le smartphone. Et l’argument lié à la sécurité ne convainc pas Tariq, le stockage des données sur des serveurs et leurs fuites régulières ne présente pas l’allure d’une panacée.

Enfin, la tyrannie de la facilité. Les algorithmes choisissent pour nous. On ouvre l’application et on n’a plus qu’à se laisser faire. Pour Tariq, « on nous impose de nous comporter comme des ados attardé.e.s ». On nous promettait des services simples ; nous nous retrouvons avec des outils qui nous infantilisent. Face à un internet qui, de son point de vue, a rétréci notre champ de vision plutôt qu’élargi les horizons, Tariq veut nous ramener à l’internet existant juste avant l’avènement des smartphones. Ce qu’il défend, c’est l’idée d’un slow web – inspiré du mouvement slow food – qui donne aux utilisateurs les moyens de quitter la superficialité. Il s’agit de prendre son temps, de s’imposer plus d’exigence, ce qui nous conduit à Dissident.

La plateforme du slow web

L’ambition de la plateforme est de nous aider à reprendre le contrôle de notre vie numérique. Grâce à l’utilisation des API des différents services que nous utilisons tou.te.s au quotidien, ainsi qu’aux possibilités de contrôle rendues aux utilisateurs par le RPGD, chacun peut organiser l’information comme il le souhaite. Le mot “dissident” renvoie à ces dissidents qui en URSS voulaient réfléchir par eux mêmes et s’échangeaient les livres interdits. Dans cette optique, Dissident.ai propose pour le moment 3 produits : Desktop, Reader et Library :

Desktop est un… bureau web. Il agrège tous les fichiers disséminés dans différents services (Dropbox, Box, Google Drive, Slack…) et permet donc une recherche unifiée. Le tout vous permet d’en profiter où que vous soyez, grâce à des lecteurs vidéo, musical et de documents capables de lire de nombreux formats de fichiers.

Reader, quant à lui, est une réinvention du lecteur de flux RSS, à un âge où le texte n’est plus le médium dominant. On y retrouve ainsi, à la façon de Desktop, une agrégation de services qui forment autant de sources d’information et de contenus : YouTube, Soundcloud, Facebook, Medium… Au delà de la commodité d’avoir tout sous la main, le grand avantage pour l’utilisateur réside dans la possibilité de définir ses propres classements de l’information, donc de ne plus dépendre de ceux imposés par les différents acteurs.

Enfin, The Library rassemble une vaste somme d’œuvres et de documents du domaine public, des livres aux films en passant par des pièces numérisées de la Réunion des Musées Nationaux ou encore les archives de la NASA.

Ces trois services partagent les mêmes principes de design : des interfaces neutres, sans logo, qui mettent l’utilisateur au centre, en servant ses seuls intérêts. Aucun souci par exemple pour transférer un fichier depuis Google Drive vers Dropbox, quand leur intérêt respectif est de vous enfermer dans leur usage. L’ambition de remettre le pouvoir dans les mains des utilisateurs fait donc de Dissident un acteur agnostique des entreprises qui proposent les services sur lesquels il s’appuie. Comme l’explique Tariq, « mon problème n’est pas de savoir si mes données sont chez Facebook ou Google, mais si on m’en limite les accès et les usages ».

Quand on vise l’empowerment (l’autonomisation) de ses utilisateurs, le modèle économique est le meilleur révélateur de la sincérité de la démarche. Chez Dissident, le choix est limpide : un seul modèle, celui de l’abonnement, à 5 euros par mois. Point de flicage, ni de données stockées, ils jouent seulement les orchestrateurs d’API. Pour le moment, les utilisateurs de Dissident sont plutôt des travailleurs de la connaissance, qui ont besoin des contenus du Web pour leur travail. La plateforme est à leur créativité ce que Slack est à leurs communications. « On a jamais eu autant de moyens de créer des liens que des frontières ». Prenant le contre-pied de la morosité ambiante, Tariq et Dissident nous invitent à soutenir les premiers plutôt qu’à stérilement déplorer les secondes.

Serge Abiteboul, Inria et ENS, Paris, Tom Morisse, Fabernovel

Blockchain publique : la fin des tiers juridiques de confiance ?

Les blockchains constituent un sujet au cœur de l’actualité des technologies numériques. Sur le plan juridique, elles suscitent également de nombreuses interrogations dont celle de la disparition annoncée des tiers de confiance, spécialement des tiers juridiques de confiance. Lêmy Godefroy, spécialiste du droit du numérique à l’Université Côte d’Azur, nous livre ici son point de vue sur le possible devenir des tiers juridiques de confiance dans l’univers des blockchains publiques. Thierry Vieville

Lire, écrire, exécuter, trois mots qui résument les fonctionnalités des blockchains. Cette technologie s’apparente à un registre recevant des données lues par tous les participants si la blockchain est publique ou par quelques personnes si elle est privée. Associée aux smart contracts qui recèlent un potentiel varié d’usages (paiement d’intérêts, versement d’indemnités, blocage d’un objet connecté, etc.), elle sert de support à l’exécution automatisée d’instructions si certaines conditions prédéterminées sont remplies. La particularité de la blockchain publique réside dans son caractère ouvert et décentralisé. Aucun intermédiaire n’est nécessaire pour valider des informations préalablement à leur enregistrement sur le réseau1. C’est en cela que cette technologie conduirait à se passer des tiers juridiques de confiance (agents de l’état-civil, huissiers de justice, notaires, juges, etc.) dont la caution est remplacée par la transparence du processus, la visibilité des opérations et la détention d’une copie du registre par l’ensemble des membres. Toutefois, cette décentralisation montrerait des limites qui amènent à s’interroger sur la nécessité d’en appeler in fine à ces tiers pour jouer le rôle d’interface entre l’extérieur et l’intérieur de la blockchain ou de régulateur des systèmes blockchain.

La confiance par la démultiplication des contrôles internes à la blockchain

Les transferts de données (unités monétaires, informations personnelles, relations d’affaires, etc.) de pair à pair au moyen des blockchains reposent sur la démultiplication d’un contrôle décentralisé. Les utilisateurs adoptent le protocole qui établit les modalités de validation et d’enregistrement sur le réseau. Par le procédé du minage, ce sont encore eux, alors appelés mineurs, qui s’assurent que les opérations sont conformes.

Les mineurs se substituent aux tiers de confiance habituellement chargés par les parties de transcrire une pièce ou d’effectuer un ordre de transactions. Toutefois, si chaque usager de la blockchain peut théoriquement être mineur, tous n’ont pas les moyens de l’être et seuls ceux qui possèdent une force de calcul suffisamment importante – et, partant, une grande puissance économique – pour résoudre des problèmes mathématiques complexes sont capables de procéder aux opérations de vérification du respect du protocole. Autrement dit, ce pouvoir décentralisé est censitaire2, ce qui génère des doutes sur l’organisation démocratique des blockchains publiques et des craintes d’accaparement de leur gouvernance, les mineurs détournant à leur profit ce pouvoir originellement voulu collaboratif et participatif3.

Pour contrecarrer cette dérive vers une centralisation contrainte4, un nouveau protocole appelé « iota » a été imaginé dans le domaine des cryptomonnaies. Alors que les mineurs sont rémunérés pour chaque validation effectuée, « iota » repose sur la règle selon laquelle l’utilisateur qui demande l’inscription d’une transaction doit en valider deux réalisées par d’autres membres. Chaque utilisateur est donc réellement un validateur d’autant que la preuve de travail n’exige pas de puissance de calcul élevée et peut être accomplie par des terminaux comme l’ordinateur portable ou le téléphone.

Il n’en demeure pas moins que ce contrôle informatique du respect du protocole et de la validité formelle des transactions (identité certifiée, compte approvisionné, acte signé, etc.) n’atteste pas de leur conformité au droit. Les tiers juridiques de confiance seraient ainsi de retour à l’interface du monde réel et de la blockchain.

Les tiers juridiques de confiance à l’interface du monde réel et de la blockchain

Les smart contracts intégrés à une blockchain illustrent pleinement le besoin de contrôle juridique des cas qui déclenchent l’application programmée d’instructions. Or, celle-ci dépend de données provenant de l’extérieur de la blockchain : le bien n’a pas été livré, un dommage a été causé, le vol de telle compagnie a décollé avec retard, etc. Par construction, une blockchain ne peut pas récupérer ces informations par elle-même. Celles-ci doivent lui être apportées. C’est ainsi que le concept d’oracle a été créé. Un oracle fournit un service qui consiste à entrer une donnée extérieure dans la blockchain à un instant prédéfini. Ultérieurement, le smart contract va rechercher cette information stockée sur la blockchain pour lancer sa programmation.

Certains systèmes qui délèguent à la technologie la tâche de produire de la sécurité recourent à des oracles automatisés pour garantir que les données insérées dans la blockchain sont fidèles à la réalité. Ils fonctionnent selon le procédé de la « preuve d’honnêteté » (TLS Notary proof)5 ou du consensus (consensus-based oracle)6.

Mais leur intervention laisse en suspens le problème de la conformité juridique de l’information déposée sur la blockchain. La réintroduction d’un tiers de confiance humain dans un rouage pourtant trustless s’imposerait, par exemple, quand il s’agit de vérifier l’identité civile d’une personne, la légalité d’un titre de propriété ou encore l’existence d’une créance. Les traditionnels tiers juridiques de confiance se verraient sollicités comme validateurs d’un fait, d’un document, d’un état, etc.

Cette recentralisation questionne sur la régulation des systèmes blockchains et, notamment, sur leur gouvernance.

La régulation des blockchains : quelle gouvernance ?

Différents modes de régulation sont envisageables.

Une régulation souple par un mécanisme de normalisation à l’échelle internationale pourrait être mise en place. Cette normalisation, d’application volontaire, énoncerait les exigences minimales requises pour assurer la fiabilité des blockchains.

Des mesures typiquement techniques seraient également une piste. Par exemple, pour préserver le secret des données, l’idée a été émise de reporter sur la blockchain non pas l’information brute elle-même, mais son empreinte digitale. Celle-ci servirait de preuve du dépôt et sa lecture serait possible uniquement par des personnes autorisées7.

Enfin, un droit des systèmes blockchain pourrait reposer sur le triptyque législateur/juge/arbitre.

La loi organiserait les fonctionnalités de la blockchain. Les règles de preuve en vigueur pourraient y être transposées. La force probante des informations importées serait celle d’un acte sous seing privé (c’est à dire sois signature privée) ou authentique selon qu’un tiers juridique de confiance aurait attesté ou non de la réalité des données.

Quant au juge, il interviendrait sur saisine des parties pour apprécier la légalité de la formation et de l’exécution des smart contracts (par exemple en cas de codage de conditions illicites ou manifestement abusives) ou pour prononcer des sanctions (dommages-intérêts après l’annulation d’un accord invalidé). Cette intervention judiciaire aurait lieu dans le cadre d’un règlement contentieux du litige né après qu’un contrat automatisé eut causé un dommage ou soulevé une contestation.

Mais il est également possible que l’une des clauses d’un smart contract, dans un contexte de résolution amiable, prévoie une disposition qui bloque le programme et engendre un mécanisme de règlement alternatif des conflits par un arbitre dont la décision interférerait sur la blockchain par l’entrée de nouvelles variables.

Blockchain publique et tiers juridique de confiance se complémenteraient ainsi pour une sécurité accrue indispensable au développement de cette technologie.

Lêmy Godefroy, Maître de conférences spécialisée en droit du numérique, au GREDEG de l’Université de Nice Côte d’Azur.

Pour en savoir plus :

Notes :

1 Les blockchains privées recourent de manière privilégiée au minage par tiers de confiance.

2  Antoine Garapon, « La blockchain va-t-elle remplacer tous les tiers de confiance ? », interview de Primavera De Filippi, France Culture, 15 février 2018.

3 Voir par exemple la controverse entre le Bitcoin Core et le Bitcoin Unlimited.

4 D’autres techniques de minage ont été imaginées comme le « minage par consensus ». « Un algorithme permet à des nœuds maîtres du réseau de se mettre d’accord entre eux sur les opérations à accepter. L’identité des nœuds maîtres est connue ». Ou encore le « minage par preuve d’enjeu ». Dans ce cas de figure, « un des utilisateurs est désigné pseudo-aléatoirement avec une probabilité proportionnelle à sa fortune détenue sur la blockchain. Ce modèle fait donc porter la responsabilité du minage sur ceux qui ont le plus d’enjeu dans la blockchain [et] (…) qui ont le plus intérêt à maintenir la confiance dans le système » (Jean-Baptiste Pleynet, « Le minage expliqué aux non-initiés », https://medium.com/@JB_Pleynet/le-minage-expliqu%C3%A9-aux-non-initi%C3%A9s-b511b5a33117).

5 Cette preuve, publique et vérifiable, garantit que la donnée entrée sur la blockchain est identique à celle qui a été récupérée par l’oracle. Par conséquent, si l’oracle automatisé entre dans la blockchain une donnée non-conforme à la donnée réelle, cette information erronée sera repérée par les participants de la blockchain. https://www.ethereum-france.com/les-oracles-lien-entre-la-blockchain-et-le-monde/

6  https://www.ethereum-france.com/les-oracles-lien-entre-la-blockchain-et-le-monde/ Si tous les oracles automatisés transmettent la même information, alors celle-ci peut être considérée comme pertinente. https://www.mindfintech.fr/files/documents/Etudes/Landau_rapport_cryptomonnaies_2018.pdf

7 Primavera De Filippi, Aaron Wright, Blockchain and the law, Harvard University Press, 2018.