« Numérique et pandémie – Les enjeux d’éthique un an après »
organisé conjointement par le
Comité national pilote d’éthique du numérique et
l’Institut Covid-19 Ad Memoriam
le vendredi 11 juin 2021 de 9h à 16h15.
Systèmes d’information pour les professionnels de santé
Souveraineté numérique
Télé-enseignement
La pandémie Covid-19 est la première de l’ère numérique. Par cette dimension, elle ne ressemble pas aux crises sanitaires des époques précédentes : dès mars 2020, les activités économiques et sociales ont été partiellement maintenues grâce aux smartphones, ordinateurs et autres outils numériques. Mais les usages de ces outils ont eux aussi changé depuis le printemps 2020. La rapidité de ces évolutions n’a pas encore permis de dégager le sens qu’elles auront pour notre société, ni de saisir leurs effets à long terme. Ce colloque fera un premier pas dans cette direction. Qu’avons-nous appris ? Quelles sont les avancées que nous voudrions préserver après la fin de la crise ? À quelles limites se heurte la numérisation accélérée de notre quotidien ?
Laëtitia Atlani-Duault
Présidente de l’Institut Covid-19 Ad Memoriam, Université de Paris
Jean-Francois Delfraissy
Président du CCNE pour les sciences de la vie et de la santé
Président d’honneur de l’Institut Covid-19 Ad Memoriam
Claude Kirchner
Directeur du Comité National Pilote d’Éthique du Numérique
Nous avons rencontré pour Binaire, Lou Welgryn, la présidente de l’association Data for Good. Elle est aussi Carbon Data Analyst chez Carbone4 Finance, un cabinet de conseil qui aide les entreprises à réduire leurs émissions de gaz à effet de serre.
Data for Good est une association fondée en 2015, une communauté de data scientists principalement. Chaque membre a une autre activité qui lui apporte un salaire mais, pour Data for Good, il passe bénévolement quelques heures chaque semaine sur des projets sociaux ou environnementaux. On entend dire : « The best mind of our times are thinking about how to make people click on ads » (Les meilleurs esprits de notre temps réfléchissent à la manière de faire cliquer les internautes sur des pubs) et ce n’est pas faux. Lou Welgryn nous explique que l’esprit de l’asso, c’est au contraire de : « Mettre notre temps de cerveau disponible au service de causes utiles. » L’entraide est au cœur du dispositif. Par exemple, tout le code développé doit être en open source pour pouvoir aussi servir à d’autres.
L’association Data for Good apporte principalement des ressources humaines à des structures qu’elle choisit d’aider. À qui apporte-t-elle son soutien ? À des associations, des startups, des organisations plutôt artisanales qui n’ont pas les moyens d’embaucher les data scientists dont elles auraient besoin mais aussi des entreprises plus établies voulant mettre en place un projet à impact positif. L’association fonctionne avec chaque année deux « saisons d’accélération » de 3 mois. Pour une saison, une dizaine de projets est sélectionnée. Les membres de l’association choisissent alors le projet qui les intéresse. Ensuite, chaque semaine pendant 3 mois, ils travaillent sur le projet. Ils s’engagent à donner entre 4 à 12 h de leur temps par semaine. Le Covid a fait basculer le travail en distanciel mais ne l’a pas interrompu. Avec Data for Good, on ne produit pas des idées ou du papier. La règle est celle du minimum viable product, pas forcément un truc grandiose mais du code, une solution testable.
Chacun des 10 projets sélectionnés doit progresser. Il a un responsable qui l’accompagne pendant les trois mois pour s’assurer qu’il fonctionne bien, recadrer et réorganiser l’équipe si besoin. Suivant l’importance du projet, l’équipe est plus ou moins importante, une dizaine de membres de l’association en moyenne.
Le financement de l’asso ? Pas grand-chose. L’immobilier ? Des copains, Le Wagon et Liberté Living-Lab, prêtent des espaces. Alors, Data for Good, un petit truc dans un coin ? Non ! L’asso apporte la vraie richesse de ses 2 000 membres. Et ça dépote. La preuve : nous avons eu du mal à ne choisir que 2 projets parmi les 51 listés sur leur site en avril 2021. Nous aurions aimé parler de beaucoup d’autres.
1) OpenFoodFacts C’est le Wikipédia de la nourriture. Pour lutter contre la malbouffe, pour aider les citoyens à mieux manger, l’association OpenFoodFacts propose une base de données de produits alimentaires avec leur composition. Data for Good les a aidés à développer un éco-score, un indicateur de l’impact environnemental des produits. Pour reprendre une phrase sur le site d’OpenFoodFacts « On est ce que l’on mange. », ce travail est donc vraiment important.
Yuka, la célèbre application pour iOS et Android, permet de scanner les produits alimentaires et cosmétiques en vue d’obtenir des informations détaillées sur l’impact d’un produit sur la santé. Yuka a longtemps utilisé la base de données d’OpenFoodFacts et elle y contribue maintenant.
2) Pyroneer est un projet qui n’a pas encore atteint cette ampleur. Il développe un logiciel gratuit et open source de détection précoce des feux de forêt. Le logiciel de détection fonctionne avec des caméras économiques. Un algorithme de traitement d’images basé sur l’apprentissage profond détecte les indices visuels de départ de feu. Plus besoin d’avoir des pompiers en permanence dans une tour de guet, des caméras prennent leur place. Pyroneer est en phase de test dans l’Ardèche.
Il y a sûrement beaucoup d’organisations qui font des trucs bien et qui ont des besoins en tech et pas mal de data scientists qui aimeraient donner du sens à leur travail. Data for good a de l’espace pour grandir.
Serge Abiteboul, Inria & ENS Paris, et Jill-Jênn Vie, Inria
Oui binaire s’adresse aussi aux jeunes de tous âges que le numérique laisse parfois perplexes. Avec « Petit binaire », osons ici expliquer de manière simple et accessible cette notion de 5G. Marie-Agnès Enard etPascal Guitton.
– C’est vrai Mamie que de ton temps, avant Internet, les téléphones avaient des fils qui les reliaient au mur ?
– Oui mon grand. Et tout le monde n’avait pas le téléphone.
– Pourquoi ce fil ? Pour pas qu’on les vole ?
– Ne te moque pas ! La communication passait alors par les fils. Un jour, on est passé au téléphone cellulaire, au téléphone sans fil. La communication passe alors par les airs, en empruntant des ondes électromagnétiques.
– Comme un rayon lumineux ?
– Oui, sauf que les ondes du téléphone ne se voient pas.
Un téléphone cellulaire transforme la voix, un message audio, en une onde électromagnétique qui va jusqu’à une station radio. Pour la 1G, la station radio transforme ce message en un signal électrique analogique qui passe par un câble électrique pour aller rejoindre le correspondant. La représentation est analogique, c’est-à-dire qu’elle est proportionnelle à l’information du message initial, de la voix. Dans la 2G, la représentation consiste en une séquence de 0 et de 1, des nombres ; c’est pour ça qu’on dit que c’est numérique. C’est un message numérique qui est transporté dans le réseau de télécommunications. Avec la 2G, le réseau est devenu numérique.
– Alors, Mamie, avec la 2G, on passe au numérique. Et après, on a la 3G, la 4G, la 5G. On n’est pas arrivé !
– La patience n’est pas ton point fort, mon petit Jules. C’est bon, j’accélère. La 2G, c’est vers 1990. En gros, tous les dix ans, les gens qui développent les technos de téléphones cellulaires se mettent d’accord pour faire un gros paquet cadeau avec tous les progrès techniques des dix dernières années. Avec le nouveau millénaire et la 3G, le téléphone nous a fait passer dans le monde d’Internet. Et avec la 4G, on a pu voir des vidéos en bonne définition.
– Et ce coup là, qu’apporte la 5G ?
– Plus de débit, une meilleure latence, plus de densité.
Le débit, c’est la quantité de données qui peut passer dans une communication. Plus de débit, ça veut dire, par exemple, des films en plus haute définition.
La latence, c’est le temps que met un message pour aller de mon téléphone au serveur, et revenir. Une meilleure latence va faciliter les jeux en réseaux, ou des conversations avec des hologrammes.
La densité, c’est le nombre de connexions simultanées avec la station radio. On parle de millions d’objets au kilomètre carré.
– Je veux bien, mais concrètement, la 5G va changer quoi pour toi ? demande Jules.
– Euh… Pas grand chose. C’est l’arrivée de la 4G et de la fibre dans ma maison de la Creuse qui va me changer vraiment la vie. Bientôt !
– Et pour moi à Marseille ?
– Pas grand-chose non plus. Ça évitera que les réseaux soient saturés dans le centre ville.
– Alors pourquoi on cause tant de ce truc si ça change que dalle ?
– Parce que ça va transformer l’industrie, la gestion des villes et des régions, et peut-être la médecine, les transports collectifs. On ne sait pas encore à quel point, mais on s’attend à ce que ça change plein de trucs.
– Juste à cause du débit, de la latence, de la densité.
– Oui, parce que cela va permettre de développer de nouveaux services. Dans une usine par exemple, on n’aura plus besoin de tous ces câbles pour connecter les machines, les robots. Cela se fera en 5G. Et puis, il y a aussi d’autres innovations techniques dont je ne t’ai pas causé. Il y en a une que tu devrais aimer : le réseau en tranches de saucisson.
– Késaco ?
– On va pouvoir découper le réseau en tranches comme du saucisson. Ensuite, c’est comme si on avait plusieurs réseaux qu’on peut utiliser différemment. Une tranche pour des opérations médicales et une autre pour des jeux en réseau. Si tu t’éclates sur ton jeu, tu ne gênes pas le chirurgien du coin.
– Les jeux vidéo. Continue, Mamie, là tu m’intéresses.
– On se calme. Pour tes jeux, la 4G suffit bien.
– Alors, je n’ai pas vraiment besoin de te demander un téléphone 5G pour mon anniversaire ?
– Non, mon grand. La fabrication de téléphones, ce n’est pas bon pour la planète. Donc on essaie de ne pas en changer trop souvent. On reste sur le vélo pour ton anniversaire !
– OK, mais Mamie, le voisin dit qu’il faut pas la 5G, que c’est dangereux pour la santé, que ça pourrit la planète, la vie, et tout. C’est vrai ?
– Mon grand. Ce n’est pas parce que quelque-chose est nouveau qu’il faut en avoir peur. Ce n’est pas non plus parce qu’une nouvelle techno arrive qu’il faut se précipiter.
– Oui mais je lui dis quoi au voisin ? Que c’est un gros nul ?
– On ne parle pas comme ça. Il a le droit de poser des questions. Ses questions ne sont pas sottes. Qu’est-ce que je te répète toujours ?
– Je sais Mamie. Il n’y a pas de questions idiotes, ce sont les réponses qui le sont souvent.
– C’est ça mon grand. Allez, on va causer avec Monsieur Michu !
Après les salamalecs du bonjour, bonsoir, comment va Madame Michu, un café, non merci, pourquoi nous sommes venus vous voir, et tout…
– J’ai entendu dire que la 5G, c’était dangereux pour la santé ? démarre M. Michu.
– Aucune étude n’a permis d’établir un tel danger, ou alors à super haute dose, explique Mamie. Et pourtant, c’est un sujet qui a été hyper étudié par les scientifiques. On impose d’ailleurs des contraintes sévères sur les quantités d’ondes électromagnétiques autorisées, bien plus que ce que l’on sait dangereux pour la santé. Pour ce qui est des ondes électromagnétiques, on dit qu’il ne faut pas laisser les bébés jouer avec un téléphone cellulaire. Pour le reste, pas d’inquiétude.
– Il faut penser aux gens électro-sensibles. Non ?
– Ces personnes ont de vrais symptômes mais à chaque fois qu’on a essayé de lier cela aux ondes électromagnétiques, on n’y est pas arrivé. Comme elles souffrent bien, il faut plus de recherche pour comprendre ce qui cause leurs problèmes. Mais, cela semble bien ne rien à voir avec les ondes électromagnétiques.
– Bon, je veux bien, admet Monsieur Michu. Mais il y a aussi des impacts énormes sur l’environnement. La 4G suffisait.
– La 4G consomme beaucoup plus d’électricité pour la même quantité de données ? Et elle est moins efficace. Les réseaux 4G saturaient en centre-ville et cela conduisait à multiplier les stations 4G. En restant avec la 4G on allait dans le mur.
– Alors pourquoi, ils disent que la 5G va conduire à une explosion de la consommation d’électricité ?
– C’est à cause de l’effet de rebond, explique Mamie. J’en ai parlé avec Jules. Il va nous l’expliquer.
– La 5G, raconte Jules, fier de ramener sa récente science, permet beaucoup plus de débit. Alors les gens vont se mettre à faire n’importe quoi, regarder des vidéos en super résolution dans les couloirs du métro ou jouer à des jeux vidéos au marché, et la consommation de données sur les téléphones portables va exploser. Et…
– On ne veut pas de ça ! Coupe Monsieur Michu. Non ?
– Oui, la vraie question, ce n’est pas s’il faut la 5G ou pas, propose Mamie. A mon avis, il faut la 5G pour les usines, pour les réseaux de transports, pour les villes intelligentes, etc. La vraie question, c’est qu’il ne faut pas faire n’importe quoi avec.
– Bon alors je peux m’acheter un téléphone 5G ? interroge Monsieur Michu.
– Votre téléphone est cassé ? C’est un vieux truc ? questionne Mamie.
– Pas du tout. Madame Michu m’en a acheté un tout neuf pour mon anniversaire, l’an dernier. Je ne sais pas encore trop bien m’en servir…
Ce texte est publié dans le cadre de la chronique « Société numérique », proposée par les chercheuses et chercheurs du département Sciences économiques et sociales de Télécom ParisTech, membres de l’Institut interdisciplinaire de l’innovation (CNRS).
On a, au début des années 2000, beaucoup parlé de « fracture numérique » en s’intéressant à la fois aux inégalités d’accès et d’usages. Les rapports annuels du CREDOC montrent que les catégories populaires ont commencé à rattraper leur retard de connexion depuis une dizaine d’années : entre 2006 et 2017, en France, la proportion d’employés ayant une connexion Internet à domicile est passée de 51 % à 93 %, celle des ouvriers de 38 à 83 % (CREDOC 2017 : 48).
C’est désormais l’âge et non le revenu ou le niveau de diplôme qui est le facteur le plus clivant (parmi ceux qui ne se connectent jamais à Internet, huit personnes sur dix ont 60 ans ou plus). Si la question de l’accès est en passe d’être résolue, les usages des classes populaires restent moins variés et moins fréquents que ceux des classes moyennes et supérieures, nous apprennent ces mêmes rapports. Les individus non diplômés ont plus de mal à s’adapter à la dématérialisation des services administratifs, font moins de recherches, pratiquent moins les achats, se lancent très rarement dans la production de contenus. Bref, il y aurait en quelque sorte un « Internet du pauvre », moins créatif, moins audacieux, moins utile en quelque sorte…
Changer de focale
Peut-être faut-il adopter un autre regard ? Ces enquêtes statistiques reposent sur un comptage déploratif des manques par rapport aux pratiques les plus innovantes, celles des individus jeunes, diplômés, urbains. On peut partir d’un point de vue différent en posant a priori que les pratiques d’Internet privilégiées par les classes populaires font sens par rapport à leur besoins quotidiens et qu’elles sont des indicateurs pertinents de leur rapport au monde et des transformations possibles de ce rapport au monde.
Comme Jacques Rancière l’a analysé à propos des productions écrites d’ouvriers au XIXe siècle, il s’agit de poser l’égalité des intelligences comme point de départ de la réflexion pour comprendre comment « une langue commune appropriée par les autres » peut être réappropriée par ceux à qui elle n’était pas destinée. (Rancière 2009 : 152).
Un tel changement de focale permet d’entrevoir des usages qui n’ont rien de spectaculaire si ce n’est qu’ils ont profondément transformé le rapport au savoir et aux connaissances de ceux qui ne sont pas allés longtemps à l’école. Ce sont par exemple des recherches sur le sens des mots employés par les médecins ou celui des intitulés des devoirs scolaires des enfants. Pour des internautes avertis, elles pourraient paraître peu sophistiquées, mais, en attendant, elles opèrent une transformation majeure en réduisant l’asymétrie du rapport aux experts et en atténuant ces phénomènes de « déférence subie » des classes populaires face au monde des sachants – qu’Annette Lareau a analysée dans un beau livre, Unequal Childhoods (2011).
Recherche en ligne : s’informer et acheter
Des salariés qui exercent des emplois subalternes et n’ont aucun usage du numérique dans leur vie professionnelle passent aussi beaucoup de temps en ligne pour s’informer sur leur métier ou leurs droits : le succès des sites d’employés des services à la personne est là pour en témoigner. Des assistantes maternelles y parlent de leur conception de l’éducation des enfants, des aides-soignantes ou des agents de service hospitaliers de leur rapport aux patients. On pourrait aussi souligner tout ce que les tutoriels renouvellent au sein de savoir-faire traditionnellement investis par les classes populaires : ce sont des ingrédients jamais utilisés pour la cuisine, des manières de jardiner ou bricoler nouvelles, des modèles de tricot inconnus qui sont arrivés dans les foyers.
Apprendre donc, mais aussi acheter. Pour ceux qui vivent dans des zones rurales ou semi rurales, l’accès en quelques clics à des biens jusqu’alors introuvables dans leur environnement immédiat paraît a priori comme une immense opportunité. Mais en fait, les choses sont plus compliquées. La grande vitrine marchande en ligne est moins appréciée pour le choix qu’elle offre que pour les économies qu’elle permet de réaliser en surfant sur les promotions. C’est la recherche de la bonne affaire qui motive en priorité : c’est aussi qu’elle permet de pratiquer une gestion par les stocks en achetant par lots. En même temps, ces gains sont coupables puisqu’ils contribuent à fragiliser le commerce local, ou du moins ce qu’il en reste.
Dans une société d’interconnaissance forte où les commerçants sont aussi des voisins, et parfois des amis, la trahison laisse un goût amer des deux côtés. À l’inverse, les marchés de biens d’occasion entre particuliers, à commencer par Le Bon Coin qui recrute une importante clientèle rurale et populaire, sont décrits comme des marchés vertueux : ils offrent le plaisir d’une flânerie géolocalisée – c’est devenu une nouvelle source de commérage !-, évitent de jeter, et permettent de gagner quelques euros en sauvegardant la fierté de l’acheteur qui peut se meubler et se vêtir à moindre coût sans passer par des systèmes de dons. L’achat en ligne a donc opéré une transformation paradoxale du rapport au local, en détruisant certains liens et en en créant d’autres.
Lire et communiquer sur Internet
Enfin, Internet c’est une relation à l’écrit, marque de ceux qui en ont été les créateurs. Elle ne va pas de soi pour des individus qui ont un faible niveau de diplôme et très peu de pratiques scripturales sur leur lieu de travail. Le mail, qui demande une écriture normée, est largement délaissé dans ces familles populaires : il ne sert qu’aux échanges avec les sites d’achat et les administrations -le terme de démêlés serait en l’occurrence plus exact dans ce dernier cas.
C’est aussi qu’il s’inscrit dans une logique de communication interpersonnelle et asynchrone qui contrevient aux normes de relations en face à face et des échanges collectifs qui prévalent dans les milieux populaires. Facebook a bien mieux tiré son épingle du jeu : il permet l’échange de contenus sous forme de liens partagés, s’inscrit dans une dynamique d’échange de groupe et ne demande aucune écriture soignée. Ce réseau social apparaît être un moyen privilégié pour garder le contact avec les membres de sa famille large et les très proches, à la recherche d’un consensus sur les valeurs partagées. C’est un réseau de l’entre-soi, sans ouverture particulière sur d’autres mondes sociaux.
Car si l’Internet a finalement tenu de nombreuses promesses du côté du rapport au savoir, il n’a visiblement pas réussi à estomper les frontières entre les univers sociaux.
Suite à l’article dans Binaire, « L’informatique, quelques questions pour se fâcher entre amis », nous avons reçu une proposition d’article à propos de l’absence ou du manque de considération porté aux systèmes d’exploitation de Éric Sanchis. La pluralité des points de vue nous parait essentielle, c’est pourquoi vous retrouverez ici son point de vue, à vous de vous faire une idée, puis sans se fâcher, d’engager la discussion… Pierre Paradinas
Algorithme par-ci, algorithme par-là : des titres comme « Ma vie sous algorithmes », « A quoi rêvent les algorithmes », « Algorithmes : la bombe à retardement » ou bien « Le temps des algorithmes » font florès dans les librairies ! Dans le prolongement du billet « L’informatique, quelques questions pour se fâcher entre amis », on pourrait se demander si la place accordée au concept d’algorithme et aux notions connexes (langage, formalisation) n’est pas exagérée au sein même de la discipline informatique. En d’autres termes, est ce que la «pensée algorithmique » serait l’alpha et l’oméga de la « pensée informatique » ? Au risque de provoquer quelque agacement, je répondrais par la négative. Bien sûr, cette position doit être précisée.
Tout d’abord, insistons sur le fait que la notion d’algorithme était à la fois connue et utilisée bien avant la naissance de l’informatique. Il en est de même pour les aspect langages formels et calcul. Alors qu’est ce qui apporte ce supplément d’originalité à notre discipline ? Nul doute que chacun, suivant sa spécialité, pourrait apporter sa propre réponse. Quant à moi, pour expliciter mon point de vue, je mettrai de côté la définition de l’informatique définie par la SIF :
L’informatique est la science et la technique de la représentation de l’information d’origine artificielle ou naturelle, ainsi que des processus algorithmiques de collecte, stockage, analyse, transformation, communication et exploitation de cette information, exprimés dans des langages formels ou des langues naturelles et effectués par des machines ou des êtres humains, seuls ou collectivement.
au profit de celle-ci :
L’informatique est la discipline réunissant la science, la technique et la technologie relatives au traitement et à la gestion automatisés de l’information discrétisée.
Même s’il n’est pas possible de commenter dans ce billet les différents aspects contenus dans cette caractérisation, j’en relèverai deux utiles à mon propos. Tout d’abord, l’informatique est une discipline multiniveau. Ces niveaux étant fortement hétérogènes, il semble difficile qu’une « pensée unique » puisse les animer. Ensuite, selon mon point de vue, ce qui est porteur d’originalité dans la discipline informatique n’est pas la partie traitement automatisé (déjà effectué de manière sommaire par des dispositifs préexistants à l’informatique) mais plutôt la partie gestion automatisée. Celle-ci est mise en œuvre par le système d’exploitation de la machine. Mais que peut bien avoir d’original cette couche logicielle ? Ce sont ses fonctions d’exécution et de de partage optimal des ressources physiques et logiques.
On pourrait objecter qu’un système d’exploitation n’est qu’un (gros) programme écrit dans un langage de programmation classique. En fait, pas tout à fait : c’est plutôt un ensemble de programmes en interaction, interaction portée par le matériel. Il en résulte que bien des concepts et problèmes liés à cette couche ont peu à voir avec ceux traités par la « pensée algorithmique ». Abordons quelques-uns de ces concepts et problèmes. Tout d’abord, un système d’exploitation est un logiciel confronté à un matériel perpétuellement changeant (périphériques). Concevoir une interface qui sépare efficacement ce qui change de ce qui reste stable est bien plus complexe que la conception d’une interface uniquement confrontée à un environnement logiciel. Même si la décomposition en couches est la solution privilégiée, elle reste néanmoins limitée. Cette limitation est essentiellement due aux impératifs d’efficience. C’est la raison pour laquelle le nombre de couches présentes dans un système d’exploitation est relativement faible vis-à-vis du nombre de services qu’il réalise. Ce sont ces mêmes impératifs d’efficience qui ont conduit les concepteurs de systèmes d’exploitation à s’autoriser le court-circuitage de couches, écornant le principe théorique de décomposition en couches strictement ordonnées.
Illustrons cette « pensée système » à l’aide d’un deuxième et dernier exemple : l’allocation de ressources et le problème de l’interblocage. La littérature spécialisée regorge de propositions de solutions. Or il s’avère qu’une bonne partie d’entre elles sont inutilisables en pratique. Les concepteurs du système UNIX ont simplement décidé d’ignorer le problème. Pourquoi ? Parce que la fréquence d’apparition d’un interblocage dans un système est largement inférieure à la fréquence d’arrêt de ce système dû à d’autres causes (défaillances matérielles, bogues au sein du système d’exploitation ou autres). Pour des raisons de performances, il est alors plus judicieux d’ignorer la théorie et d’adopter une solution pragmatique.
En conclusion, réduire la « pensée informatique » à l’unique « pensée algorithmique » appauvrirait sérieusement notre discipline, la privant d’un savoir et savoir-faire qui ont largement contribué à son épanouissement. À l’heure où l’enseignement de l’informatique entre pleinement dans les lycées, il est primordial de redonner à la « pensée système » la place qui lui revient [1].
Eric Sanchis
Université Toulouse Capitole
[1] Le domaine des systèmes d’exploitation qui véhicule cette « pensée système » est quasiment absent des ouvrages destinés à l’enseignement de l’option ISN :
dans l’ouvrage « Introduction à la science informatique » (Repères pour agir), 2011 : environ 3 pages dans une section « Compléments » (sic)
dans l’ouvrage « Informatique et sciences du numérique » (Gilles Dowek), Eyrolles, 2012 : 2 pages
TIPE ? C’est cette épreuve des concours des écoles d’ingénieur·e·s où les élèves ne sont pas uniquement jugé de manière « scolaire´´ mais sur leur capacité à choisir un sujet, mener un projet, s’organiser … du vrai travail d’ingénieur·e quoi ! Oui … mais comment les aider pour que ce soit équitable ? C’est là que Pixees et Interstices, s’associent pour proposer des ressources et des pistes. En miroir de leur contenu, reprenons cela ici. Thierry Viéville et Pascal Guitton
TIPE ? Comme tous les ans, en lien avec sillages.info et l’UPS pour les CGPE, Interstices et Pixees vous proposent des ressources autour des sciences du numérique, de l’information et des mathématiques.
les textes ci-dessous pour aider à débroussailler le sujet (coordination Hugues Berry, Adjoint au directeur scientifique d’Inria pour la biologie et la santé numérique),
Comme probablement tous les secteurs de l’activité humaine, le numérique est en train de s’ancrer profondément en santé. Cette tendance a débuté il y a longtemps avec les premiers logiciels liés à l’imagerie médicale et la généralisation des outils numériques de gestion médico-administrative, comme les dossiers patients informatisés ou l’informatisation des données de remboursement de soins. Avec cette évolution, les données de santé sont devenues de plus en plus accessibles aux chercheurs et aux chercheuses dans des volumes importants, ce qui permet principalement d’envisager aujourd’hui la mise en place de systèmes capables d’assister les médecins lors des étapes de la décision médicale personnalisée: diagnostic, prédiction de l’évolution de la maladie ou choix de la meilleure thérapie.
Le domaine de la prévention des maladies est lui aussi impacté par cette évolution. Au niveau médical par exemple, l’émergence de données « de vie réelle » capturées hors des salles de soin proprement dites (caméras, smartphones, capteurs) promet un suivi automatisé et personnalisé de l’évolution de la pathologie des patients. Au niveau de la population, de nouveaux outils numériques permettent d’analyser les données des bases médico-administratives pour des objectifs issus de l’épidémiologie, c’est-à-dire l’étude de la fréquence, la distribution et les facteurs associés aux problèmes de santé de la population et la surveillance de leur évolution. Bien entendu, les crises actuelles liées aux maladies infectieuses fournissent elles aussi le cadre d’une implication accrue du numérique, par exemple pour optimiser les politiques d’intervention, concernant les stratégies de confinement, de test, de vaccination, ou de gestion des populations de vecteur animaux. Les exemples ci-dessous illustrent quelques-unes des nombreuses applications du numérique dans le domaine de la santé et de la prévention.
Hugues Berry, Adjoint au directeur scientifique d’Inria pour la biologie et la santé numérique
La reconnaissance vidéo d’activités pour le suivi personnalisé de patients atteints de troubles cognitifs
Les progrès récents de la vision artificielle permettent aujourd’hui d’observer et d’analyser nos comportements. On pense immédiatement à Big Brother, mais bien d’autres applications, tout à fait louables, sont envisagées. En particulier dans un domaine qui manque cruellement de réponses : le diagnostic, le suivi de patients présentant des déficits cognitifs liés au vieillissement et à l’apparition de maladies neurodégénératives comme la maladie d’Alzheimer, et le maintien à domicile de ces personnes âgées.
Les recherches de l’équipe Stars visent notamment à quantifier le déclin cognitif des patients Alzheimer. Il est important de détecter le plus tôt possible les premiers signes annonciateurs de difficultés à venir. Nous testons par exemple au CHU de Nice un dispositif visant à évaluer la situation d’un patient en lui proposant de passer cinq minutes dans une pièce équipée de capteurs vidéo, où il doit effectuer une liste de tâches comme préparer une boisson, téléphoner, lire, arroser des plantes… Nos logiciels permettent ainsi d’obtenir automatiquement une évaluation normalisée des éventuels déficits cognitifs de chaque patient et ainsi de leur proposer un traitement adapté.
A. König, C. Crispim, A. Covella, F. Bremond, A. Derreumaux, G. Bensadoum, R. David, F. Verhey, P. Aalten and P.H. Robert. Ecological Assessment of Autonomy in Instrumental Activities of Daily Living in Dementia Patients by the means of an Automatic Video Monitoring System, Frontiers in Aging Neuroscience – open access publication and the eBook – http://dx.doi.org/10.3389/fnagi.2015.00098, 02 June 2015
S. Das, S. Sharma, R. Dai, F. Bremond et M. Thonnat. VPN: Learning Video-Pose Embedding for Activities of Daily Living. ECCV 2020. ⟨hal-02973787⟩ https://hal.archives-ouvertes.fr/hal-02973787
D. Yang, R. Dai, Y. Wang, R. Mallick, L. Minciullo, G. Francesca et F. Bremond. Selective Spatio-Temporal Aggregation Based Pose Refinement System: Towards Understanding Human Activities in Real-World Videos. WACV 2021. ⟨hal-03121883⟩https://hal.archives-ouvertes.fr/hal-03121883
Nouvelles approches d’optimisation pour définir les tests groupés – ou « group testing »
Afin de dépister une population, on peut soit tester l’ensemble des individus un par un, ce qui implique un nombre important de tests, ou bien tester des groupes d’individus. Dans ce cas, toutes les personnes subissent un prélèvement, et l’on réalise un seul test dans le groupe : s’il s’avère négatif, cela signifie que tout le groupe est négatif ; s’il est positif, on procède alors à des tests individuels complémentaires. Cette approche permet ainsi de réduire nettement le nombre d’analyses à réaliser, tout en restant fiable.
D’autres approches basées sur le même principe mais plus complexes peuvent être considérées.
Les chercheurs de l’équipe projet Inocs (Integrated Optimization with Complex Structure) du centre Inria Lille-Nord Europe ont apporté une réponse à la question suivante dans le cadre de la Covid 19: Comment former ces groupes – et selon quels critères – afin de garantir l’efficacité de la procédure ?
Plus précisément des modèles d’optimisation basés sur la théorie des graphes ont été définis. Des méthodes de résolutions exactes ont été développées afin de déterminer la taille optimale des groupes ainsi que leurs constitution de façon à atteindre différents objectifs en tenant compte de contraintes spécifiques des tests. Les objectifs peuvent être la minimisation du nombre de tests, la minimisation du nombre de faux négatifs, la minimisation du nombre de faux positifs ou une combinaison de ces critères.
L’efficacité des méthodes de résolutions est prouvéepar des tests sur des données publiques ou des données issues du CHU de Lille.
Pour aller plus loin :
Références scientifiques :
T. Almeftah 1 L. Brotcorne 1 D. Cattaruzza B. Fortz 1 K. Keita 1 M. Labbé 1 M. Ogier 1 F. Semet, « Group design in group testing for COVID-19 : A French case-study », https://hal.archives-ouvertes.fr/hal-03000715/
H. Aprahamian, D. R. Bish, E. K. Bish, Optimal risk-based group testing, Management Science 65 (9) (2018) 4365–4384, https://doi.org/10.1287/mnsc.2018.3138
Épidémiologie numérique : améliorer l’efficacité des soins et prévenir les risques grâce aux données
L’épidémiomogie est révolutionnée par l’utilisation des outils numériques [1,2]. L’épidémiologie s’intéresse à faire des corrélations entre des facteurs (génétiques, démographiques, traitements) et la survenue d’événements médicaux. Des questions usuelles sont par exemple: un traitement est-il réellement efficace ou non ? dans quelles circonstances un traitement à des effets indésirables ?
L’utilisation de méthodes d’analyse statistique, d’analyse de données ou d’intelligence artificielle appliquées à de grandes bases de données médicales offre de nouvelles perspectives à l’épidémiologie : elles permettent de répondre rapidement aux questions de santé publique, et elles permettent d’identifier des corrélations à propos des situations rares grâce à leur capacité à traiter de très grands volumes de données.
Mais quelles bases de données peuvent être utilisées ? Ce peut être des bases constituées spécifiquement pour répondre à une question mais les épidémiologistes disposent également de base de données collectées auprès des patients dans les hôpitaux [3] ou par l’asurrance maladie [4]. Ces dernières permettent de reconstruire nos parcours de soins.
Dans un cadre réglementaire strict, ces données peuvent servir à répondre à certaines questions épidémiologiques. L’épidéliologiste devient alors un analyste : face à ces bases de données, il doit les faire « parler » et mobiliser pour cela toute une
panoplie d’outils numériques qui vont l’aider à sélectionner des cohortes de patients, détecter des facteurs/événements médicaux
d’intérêt, identifier les corrélations et les relier à des connaissances médicales. Et pour faire face à la complexité et à la volumétrie des données, il utilise les techniques numériques les plus avancées en analyse de données et intelligence artificielle.
De la dengue à la lutte antivectorielle biologique
Le virus de la dengue, mais aussi ceux du chikungunya, de la fièvre zika, de la fièvre jaune, sont transmis aux humains par plusieurs espèces de moustiques du genre Aedes. La fièvre jaune est la plus grave de ces maladies. Elle touche 200.000 personnes par an dans le monde entier, dont 30.000 décèdent. Aucun remède n’est connu, mais un vaccin préventif existe, sûr et efficace (obligatoire par exemple pour voyager en Guyane…).
Pour les autres maladies, il n’existe actuellement aucun vaccin satisfaisant, et aucun remède. La plus répandue est la dengue, avec près de 400 millions de cas annuels, dont 500.000 prennent une forme hémorragique grave, mortelle dans 2,5% des cas. Ainsi, la mortalité de la dengue est bien inférieure à celle de la fièvre jaune, mais l’ordre de grandeur des décès qu’elles provoquent est le même.
Près de 4 milliards de personnes vivent dans des zones où elles risquent d’attraper la dengue. Initialement présente dans les régions tropicales et subtropicales du monde, cette maladie s’étend aux zones tempérées des deux hémisphères, en suivant la lente invasion de ces régions (probablement favorisée par le réchauffement climatique) par l’espèce Aedes albopictus — le fameux moustique tigre, plus résistant au froid que le vecteur « historique » qui peuple les régions tropicales, Aedes ægypti. Non détecté en France métropolitaine avant 2004, le moustique tigre est maintenant considéré comme installé dans 64 de ses départements.
La dengue a touché l’Europe dans le prolongement de cet essor, apportée de zones endémiques par des voyageurs infectés, puis transmise lors d’une piqûre à des moustiques locaux. En 2020, 834 cas de dengue importés ont été confirmés en France métropolitaine, mais aussi 13 cas autochtones.
En l’absence de vaccin, la prévention individuelle contre ces maladies consiste essentiellement en des mesures de protection contre les piqûres. La prévention collective repose sur divers moyens de lutte antivectorielle. Il s’agit en premier lieu de mesures d’éducation sanitaire et de mobilisation sociale destinées à réduire les gîtes de ponte. Par ailleurs, l’usage d’insecticides tend actuellement à diminuer: non seulement l’absence de spécificité de ces produits les rend dangereux à d’autres espèces, mais ils induisent un phénomène de résistance qui réduit leur efficacité.
Des méthodes de lutte biologique, plus spécifiques, sont maintenant étudiées. La plus ancienne est la technique de l’insecte stérile, consistant à lâcher dans la nature de grandes quantités de moustiques mâles élevés en laboratoire, et stérilisés par irradiation dans des installations spécialisées: leur accouplement avec les femelles en liberté a pour effet de réduire la taille de la population sauvage, et de diminuer ainsi la propagation des virus. Une autre méthode, plus récemment conçue, consiste à inoculer ces moustiques avec une bactérie appelée Wolbachia, naturellement présente chez la plupart des arthropodes. Cette bactérie a la propriété remarquable de réduire leur capacité de transmettre la dengue, le zika et le chikungunya à ceux qu’ils piquent. Elle passe de la mère à la progéniture, et c’est en lâchant des moustiques intentionnellement infectés en laboratoire par Wolbachia que l’on compte réaliser sa mise en œuvre. Des essais correspondants commencent à avoir lieu en plusieurs points du globe, y compris en Nouvelle-Calédonie. Les mathématiques appliquées participent à l’analyse qualitative et quantitative de la faisabilité de ces méthodes de lutte contre des infections graves émergeant en Europe.
Avez-vous déjà jeté un ordinateur car la carte mère était cassée ou jeté un téléphone car l’écran était brisé ? Si oui, vous vous êtes peut-être demandé si on ne pouvait pas réutiliser des composants plutôt que de tout jeter. La réponse est que c’est possible, mais difficile. Mickaël Bettinelli effectue sa thèse au laboratoire LCIS de l’Université Grenoble Alpes, il vient nous expliquer dans binaire pourquoi la réutilisation des composants électroniques est un processus compliqué, et comment l’intelligence artificielle peut faciliter ce processus. Pauline Bolignano
Les produits jetés au quotidien sont des produits qui ne remplissent plus leur rôle, souvent parce qu’une pièce cassée mais aussi parce que nous décidons de renouveler notre matériel électronique au profit de nouveaux produits plus performants. Certains composants de ces produits sont pourtant toujours fonctionnels. Par exemple, la batterie d’un téléphone âgé peut être la seule cause de la panne mais nous jetons l’ensemble du téléphone.
Le recyclage répond partiellement au problème puisqu’il permet de récupérer les matériaux des produits que l’on jette. Malheureusement, tous les matériaux et tous les produits ne sont pas recyclés. Pire, en plus d’être un procédé coûteux, le recyclage ne permet pas toujours de récupérer tous les matériaux des produits que nous recyclons. Prenons l’exemple des batteries de véhicules électriques, on estime pouvoir n’en recycler qu’environ 65% à 93% [1] et cette récupération est complexe à mettre en œuvre. De plus, une batterie de véhicule électrique ne peut plus être utilisée dans l’automobile après 20% de perte de ses capacités. Nous nous retrouvons donc avec un grand nombre de batteries en bon état qui ne peuvent plus être utilisées dans leur application initiale et dont le recyclage est coûteux.
C’est pourquoi de nombreuses études proposent de réutiliser ces batteries pour stocker les énergies renouvelables irrégulières comme l’énergie éolienne ou solaire [2]. Leur réutilisation nous permet à la fois de remplir un besoin et de maximiser l’utilisation des batteries. De manière plus générale, ce procédé est appelé le remanufacturing. C’est une pratique récente et encore peu développée qui consiste à démonter des produits jetés pour remettre à neuf et réintégrer leurs composants fonctionnels dans de nouvelles applications. Il s’agit par exemple de téléphones neufs qui ont été produits à l’aide de composants récupérés sur d’autres modèles défectueux. Puisque les produits remanufacturés n’utilisent pas que des composants neufs, ils ont l’avantage de coûter moins cher à la fabrication et à la vente, mais surtout, ils permettent d’économiser de l’énergie et des matériaux.
Face à la grande quantité et la diversité de composants dont nous disposons, il n’est pas évident pour un humain de les réutiliser au mieux durant le processus de remanufacturing. Aujourd’hui, les entreprises qui pratiquent le remanufacturing utilisent souvent un nombre de composants limité. Les employés peuvent donc les mémoriser et les réutiliser au besoin. Mais avec le développement du remanufacturing, le nombre de composants pourrait vite exploser, rendant l’expertise humaine inefficace à gérer autant de stock.
Pour répondre à ce besoin, ma thèse se concentre sur la conception d’un système d’aide à la décision permettant d’élaborer de nouveaux produits à partir d’un inventaire de composants réutilisables. Un opérateur humain peut interagir avec le système pour lui demander de concevoir des produits possédant certaines caractéristiques physiques spécifiques. Une fois l’objectif entré dans le système, celui-ci cherche parmi les composants disponibles ceux qui sont utilisables pour répondre au besoin de l’utilisateur. Mais attention, les composants nécessaires à l’utilisateur ne sont pas forcément tous disponibles dans l’inventaire ! Il doit donc être capable de faire un compromis entre ce que veut l’utilisateur et ce qu’il peut réaliser.
Pour réaliser ce système d’aide à la décision, nous nous aidons des systèmes multi-agents, un sous domaine de l’intelligence artificielle. Un système multi-agent est composé d’une multitude de programmes autonomes, appelés agents, capables de réfléchir par eux même et de communiquer ensemble. Comme chez les humains, leur capacité de communication leur permet de s’entraider et de résoudre des problèmes complexes. Dans le cadre de notre système d’aide à la décision, chaque composant de l’inventaire est représenté comme un agent. Leur problème va être de former des groupes dont l’ensemble des membres doit représenter un produit le plus proche possible de la demande utilisateur. Par exemple, si un utilisateur demande au système de lui concevoir un tout nouveau téléphone portable avec 64Go de mémoire, les agents qui représentent des composants mémoire vont former un groupe ensemble jusqu’à être le plus proche possible des 64Go. Ils peuvent ensuite s’assembler avec un écran, une batterie, un boîtier, etc. Une fois tous les composants du téléphone présents dans le groupe, le système d’aide à la décision peut proposer à l’utilisateur ceux qui ressemblent le plus à sa demande. Si l’utilisateur est satisfait, il peut alors acheter les composants proposés. Ces derniers iront ensuite à l’assemblage pour construire le produit physique.
Avec le développement du remanufacturing, nous pouvons espérer que les produits soient conçus de manière à être réparés et leurs composants réutilisés. Dans ce cas, l’avantage de ce système d’aide à la décision sera sa capacité à gérer une grande quantité de composants issus d’une grande diversité de produits. On pourrait alors imaginer concevoir des produits en mêlant des composants issus d’objets très différents comme dans le cas de la réutilisation des batteries de véhicules électriques pour le stockage des énergies renouvelables, et ainsi réduire de plus en plus notre impact environnemental.
Mickaël Bettinelli, doctorant au laboratoire LCIS de l’Université Grenoble Alpes, Grenoble INP.
[2] DeRousseau, M., Gully, B., Taylor, C., Apelian, D., & Wang, Y. (2017). Repurposing used electric car batteries: a review of options. Jom, 69(9), 1575-1582.