Dites les filles : c’est quoi l’informatique au lycée ?

Cet entretien avec deux lycéennes de Haute-Savoie réalisé par David Roche, nous donne une vision sur ce nouvel enseignement de spécialité des fondements du numérique et des sciences informatiques au lycée en première et en terminale : il est tellement important que notre jeunesse, les deux moitiés de notre jeunesse, maîtrisent le numérique au delà de l’utiliser. Laissons leur la parole, grâce à la revue 1024 de la Société Informatique de France, d’où ce contenu est repris. Thierry Viéville.

Cet article est repris de le revue 1024 de la Société Informatique de France.

Alors que les statistiques nationales indiquent que les filles sont peu nombreuses à choisir la spécialité « Numérique et sciences informatiques », elles représentent 40 % de l’effectif de la classe de terminale de David Roche au lycée Guillaume Fichet à Bonneville en Haute-Savoie. 1024 a donc demandé à David de recueillir les témoignages de quelques unes de ses élèves pour tenter une explication. Mélisse Clivez et Émeline Chollet ont accepté de jouer le jeu.

Pour en savoir plus sur cet enseignement on pourra, par exemple, consulter cet article de l’etudiant.fr.

Un classe NSI © letudiant.fr.

Si vous suivez ce qu’il s’est passé depuis 2012 au lycée, mise en place de la spécialité « informatique et sciences du numérique » puis récemment de « numérique et sciences informatiques » (NSI), vous avez sûrement déjà croisé la route de David Roche. Initialement professeur de physique, reconverti en professeur d’informatique, il a produit pour ses enseignements d’informatique de nombreux supports de qualité qu’il met à la disposition de la communauté sous forme de ressources éducatives libres sur https://pixees.fr/informatiquelycee.

Ces ressources accompagnent toujours bon nombre d’enseignants et leur ont parfois évité quelques nuits blanches. N’oubliez pas de le citer si vous utilisez sa production (sous licence Creative Commons).

David Roche, D. R. : « Pourquoi avez-vous choisi NSI en première ? »

Mélisse Clivaz, M. C. : À ce stade de ma scolarité et de mon parcours avenir, je n’étais pas encore décidée entre mes deux choix d’orientation qui étaient le social et l’informatique. Mes trois choix de spécialité se sont donc porté sur SES (pour le social), NSI (pour l’informatique) et AMC puisque l’anglais est, pour moi, toujours utile.

Émeline Chollet, É. C. : J’ai choisi NSI en première car j’avais pris informatique aussi en seconde. Pour le choix de mes spécialités, j’ai pris maths, physique-chimie, et après j’avais le choix entre SVT et informatique. Puis, au fur et à mesure de l’année j’ai préféré l’informatique aux sciences de la vie et de la terre.

D. R. : « Pourquoi avez-vous choisi de continuer NSI en terminale ? »

– M. C. : Mon choix de spécialité fait en classe de première fut, en réalité, un choix stratégique. Il avait pour objectif de me laisser le plus de liberté possible pour mon orientation future. Le choix de terminale fut en totale cohérence avec mon parcours avenir qui s’est affiné au fil du temps. La spécialité NSI est un moyen de garder un lien avec les mathématiques même si vous ne vous considérez pas comme quelqu’un de « matheux ». De plus, les cours de NSI sont totalement différents des cours magistraux dans la plupart des autres matières ; ce sont des cours qui mélangent théorie et pratique. Ceci permet de se rendre compte en temps réel de l’utilité de ce qu’on apprend.

– É. C. : En terminale, nous devons enlever une de nos trois spécialités. Je devais garder obligatoirement maths, mais ensuite, j’avais le choix entre physique et informatique. D’un côté, je voulais garder une plus grande diversité en termes de connaissances, pour éviter de me fermer des portes dès la classe de terminale et avoir moins de difficultés ensuite dans le supérieur si je choisis une classe préparatoire. D’un autre coté, j’avais de très bonnes notes en informatique ce qui n’était pas le cas en physique et j’aimais cette matière. Alors, je me suis décidée à garder NSI aussi en terminale et j’ai bien fait. En NSI, les cours sont totalement différents d’un autre cours, ce ne sont pas des cours magistraux, et notre professeur a fait un site dans lequel il y a tout le cours bien organisé et bien expliqué ; ce qui nous permet d’avan- cer à notre rythme. Quand tout le monde a fini un point du cours, il nous fait un résumé au tableau. Une fois par mois environ, nous faisons des projets où l’on doit programmer quelque chose ; ces projets sont très enrichissants et nous entraînent à programmer. J’apprécie cette manière de travailler car on a pas mal d’autonomie et on est assez libre, tout en avançant sur le programme rapidement.

– D. R. : « Est-ce que NSI a un rapport avec votre orientation ? »

– M. C. : Comme dit précédemment, mon parcours avenir s’est créé au fil du temps ; notamment grâce au cours d’informatique mais également grâce à des stages en en- treprise. Je souhaite travailler dans le domaine du Web Design, et mes deux années d’informatique constitueront un point positif sur mon CV lorsque je candidaterai à des écoles formant à ces métiers (ces écoles accordant une valeur importante à la connaissance technique lorsqu’elle vient en plus des aspects créatifs).Il est certain que le domaine de l’informatique est très peu fréquenté par les filles car le stéréotype des filles littéraires et des garçons scientifiques persiste. De plus, l’image que l’on a d’un cours d’informatique et des personnes qui le suivent est celle de garçons scotchés devant leur ordinateur depuis la naissance alors, qu’en réalité, n’importe qui ayant un minimum de curiosité pour la technologie et l’informatique peut suivre ce cours, le comprendre et y prendre goût.

– É. C. : L’année prochaine, je veux suivre un cursus master en ingénierie en informa- tique à Chambéry. Je pense que mes trois années d’informatique au lycée m’aideront bien. Par ailleurs, cette année, j’ai aussi pris maths expertes dans le but d’avoir un bon niveau en maths.

– D. R. : « Une fille pour une classe de garçons ? »

– É. C. : Je n’ai pas peur d’être dans une classe de garçons. D’un côté, je préfère être dans une classe formée que de garçons plutôt que dans une classe composée uniquement de filles. Et puis, leur compagnie ne me dérange pas. Souvent, ils savent plus de choses que moi alors ils m’apprennent des choses et inversement.

1024 raisons de comprendre l’informatique

© Société Informatique de France
1024, c’est aussi le bulletin de la Société informatique de France (SIF). Il est imprimé et distribué gratuitement deux fois par an à tous ses adhérents et partenaires et  consultable en accès libre sur le site de la SIF. Pour Binaire, 1024, ce sont des copains avec qui nous échangeons sur les sujets que nous voulons traiter, avec qui nous partageons parfois des articles. Serge Abiteboul & Thierry Viéville

À qui s’adresse-il et que partage-t-il ?

Il s’adresse à toute personne pour qui l’informatique est un métier, une passion, toute personne désireuse de se tenir au courant de nouvelles expériences pédagogiques ou d’approfondir les thématiques scientifiques du domaine. 1024 propose aussi des articles à connotation scientifique ou historique, des dossiers thématiques; il met en lumière les actualités des associations partenaires et propose aux jeunes docteurs de résumer leurs travaux de recherche en 1024 caractères exactement. À chaque numéro, une partie récréative présente une énigme algorithmique résolue dans le numéro suivant. Les femmes y sont également à l’honneur avec une rubrique qui leur est dédiée.

L’informatique s’enseigne aussi au lycée désormais ?

Le dernier numéro d’avril 2021 publie un dossier spécial dédié au tsunami numérique nommé « Numérique et sciences informatiques », et enseignement de spécialité d’informatique au lycée qui permet enfin de former vraiment nos jeunes à l’informatique pour qu’elles et ils deviennent créateurs ou développeuses de la société numérique d’aujourd’hui et demain.

On y donne la parole à plusieurs personnes impliquées dans ce changement : Jean-Marie Chesneaux, inspecteur général de mathématiques en charge de NSI nous éclaire sur ce que signifie concrètement l’introduction d’une nouvelle discipline au lycée ; Isabelle Guérin Lassous, présidente du jury du nouveau CAPES NSI, accompagnée de Fabien Tarissan et Marie Duflot-Kremer, nous présente le concours et nous propose un retour sur la première édition ; Charles Poulmaire, professeur de mathématiques et informatique, formateur dans l’académie des Yvelines, partage avec nous son regard sur l’introduction de l’informatique au lycée; Marc de Falco et Yann Salmon, professeurs d’informatique en classes préparatoires nous expliquent comment ces dernières s’adaptent à l’arrivée des nouveaux bacheliers, en modifiant leurs programme mais aussi en créant une nouvelle filière spécifique MPI (mathématiques, physique, informatique) pour l’accueil des bacheliers NSI. Enfin, grâce à David Roche, professeur de physique et d’informatique, nous recueillons le témoignage de deux lycéennes de Haute-Savoie qui ont choisi de suivre la spécialité NSI en première et terminale. Nous le savions déjà, l’informatique est aussi une affaire de femmes ! Pour ce numéro, nous aurions également souhaité avoir le point de vue des IUT (instituts universitaires de technologie) qui sont actuellement obligés de réviser leur programme pédagogique national suite à la mise en place du BUT (bachelors universitaires de technologie) et des universités qui accueillent des bacheliers avec des profils différents .

Nous vous invitons à suivre la sortie du prochain bulletin en novembre 2021 pour en savoir davantage, et n’hésitez pas à nous faire parvenir vos témoignages ou expériences sur l’accueil de ces nouveaux bacheliers ou sur tout autre sujet à cette adresse 1024@societe-informatique-de-france.fr.

Merci beaucoup … mais pourquoi 1024 ?

Tout le monde sait que
        => 1024 = 10^3 + (4 + 6 + 8) +( 7 + 9) – (2 * 5)

où on retrouve chaque chiffre entre 0 et 9 une fois et une seule …

Plus sérieusement, comme 1024 = 210, c’est aussi une mesure de stockage, le kilobyte, la taille mémoire adressable avec une adresse de 10 octets. Mais, comme c’est presque 1000 = 10^3, on passe vite à un système décimal. Il fallait être un peu geek pour choisir cela comme titre d’un magazine.
Et même certain de ressentir la poésie de 2^10, la beauté de 2x2x2x2x2x2x2x2x2x2.

D’ailleurs … et à votre avis ? N’hésitez pas à proposer vos réponses dans les commentaires.

Denis Pallez, Chercheur en Informatique à l’Université Côte d’Azur.

Mon cerveau et ses biais dans la prise de décision

Les systèmes d’Intelligence Artificielle sont souvent vus comme des systèmes d’aide à la décision. Est-ce que cela veut dire que l’on sait modéliser la décision ? Que l’on sait faire ou veut faire des machines qui décident comme des humains ? C’est en tout cas un sujet qui intéresse l’équipe Inria Mnemosyne de Fréderic Alexandre, spécialisée dans l’étude des fonctions cognitives supérieures par l’étude du cerveau, qui modélise les circuits cérébraux de la décision. Marie-Agnès Enard et Thierry Viéville.

Expliquons tout d’abord comment cette fonction cognitive qu’est la décision, est décrite en langage mathématique et comment nous la transcrivons et l’adaptons en circuits neuronaux. Nous tâcherons d’indiquer comment, pour un sujet de décision éco-responsable, ce point de vue est associé à celui d’autres disciplines pour innover dans l’aide à la décision. Nous évoquerons aussi la prise en compte de nos biais cognitifs, et comment les expliquer.

Mieux comprendre comment s’opèrent les choix dans notre cerveau et son fonctionnement, c’est ce que propose d’expliquer le neurobiologiste bordelais Thomas Boraud dans son dernier ouvrage

Définir la décision sous l’angle des mathématiques

Décider de la validité d’une proposition, c’est recueillir des indices en faveur ou contre cette proposition, observer que l’accumulation de ces indices fait pencher la balance d’un coté ou de l’autre et, à un certain moment, trancher, c’est à dire penser qu’on a une vue assez représentative de la situation pour transformer cette oscillation entre deux pôles en une décision catégorique : oui ou non ou bien encore cette proposition est vraie ou fausse. Cet énoncé suggère plusieurs types de difficultés liées à la décision. Commençons par les plus évidentes. Premièrement, il faut avoir entendu, de façon équitable, les deux parties (le pour et le contre) et savoir évaluer chacun des arguments présentés pour les mettre sur une échelle commune et savoir les comparer. Deuxièmement, il faut avoir entendu assez longtemps les deux parties pour se faire un avis non biaisé, mais aussi, à la fin, il faut décider ; on ne peut pas rester tout le temps dans l’indécision. Il y a à trouver ici un compromis entre la vitesse et la justesse de la décision.

Pour ces deux types de difficultés, les mathématiques développent des outils intéressants. Certains sont proposés pour coder et comparer l’information de la façon la plus objective (la moins biaisée) possible. D’autres permettent de définir, pour un niveau de précision souhaité, le seuil optimal de différence entre les avis « Pour » et « Contre » qu’il faut atteindre avant de décider. Ces modèles mathématiques ont été mis en œuvre pour des tâches de décision perceptive élémentaires : vous voyez un nuage de points en mouvement et vous devez décider si, globalement, ces points vont plutôt à droite ou à gauche. Il est possible de rendre cette tâche très difficile en programmant le mouvement de chacun des points avec des fonctions en grande partie aléatoires, ce qui rend une décision locale impossible. Or on peut montrer que ces modèles mathématiques parviennent à reproduire très fidèlement la décision humaine, aussi bien dans ses performances que dans ses caractéristiques temporelles.

Décider est souvent peser le pour et le contre, de manière non biaisée, c’est ce que l’on représente au niveau de l’allégorie de la justice avec le bandeau et la balance à fléau. ©Joseolgon – Own work, wikicommon

Ces modèles mathématiques sont également intéressants car, en les analysant, on peut observer les grandeurs et les phénomènes critiques au cours de la décision. Bien sûr, on trouve dans cette liste la détection de chaque indice, mais aussi leur accumulation, la différence entre les solutions alternatives, leur comparaison au seuil de décision, etc. Des études d’imagerie cérébrale permettent d’identifier les différentes régions du cerveau impliquées dans l’évaluation de chacun de ces critères et, au cours de la décision, l’ordre dans lequel ces régions sont activées. Notre équipe de recherche travaille dans la réalisation de réseaux de neurones artificiels qui, d’une part, calculent de façon similaire à ces modèles mathématiques et d’autre part, sont organisés selon une architecture globale reproduisant la circuiterie observée par imagerie et reproduisant également la dynamique d’évaluation. C’est à ce stade que nous pouvons constater que les modèles mathématiques évoqués plus haut ont un certain nombre de limitations et que nous pouvons modifier et adapter nos réseaux de neurones pour considérer des cas plus réalistes.

Quand les mathématiques ne suffisent plus

Au-delà, il nous faut considérer plus que des sciences formelles : des sciences humaines. Nous nous intéressons en particulier à trois types de limitation des modèles mathématiques.

– Premièrement, nous pouvons aller au-delà de ces modèles qui considèrent uniquement des décisions binaires (droite/gauche) en introduisant, dans les calculs neuronaux, des étapes de codage supplémentaires et des non-linéarités permettant de pouvoir considérer plusieurs catégories.

– Deuxièmement, les modèles mathématiques sont le plus souvent appliqués à des indices perceptifs alors que des arguments de nature différente peuvent être présentés pour emporter une décision (l’évocation de souvenirs ou de valeurs émotionnelles par exemple). Nous cherchons à bénéficier du fait que nos réseaux de neurones sont inscrits dans la circuiterie de l’architecture cérébrale et à étudier comment ajouter d’autres indices (mnésiques ou émotionnels) provenant d’autres aires cérébrales.

– Troisièmement, alors que nous avons parlé jusqu’à présent de décisions mathématiquement fondées (certains disent logiques ou rationnelles), il est connu que les humains sont soumis à différents types de biais quand ils font des jugements, ce qui laisse souvent penser que nous ne sommes pas rationnels.

En collaboration avec les sciences humaines et sociales qui étudient et décrivent ces biais, nous cherchons à montrer que nous pouvons les expliquer et les reproduire en manipulant certains paramètres de nos modèles. Nous prétendons aussi que ces biais ne montrent pas une faiblesse de notre jugement mais plutôt une orientation de ce jugement tout à fait pertinente pour un être vivant évoluant dans des conditions écologiques. Donnons quelques exemples. Au lieu d’intégrer tous les arguments de la même manière dans notre jugement, nous pouvons être soumis à un biais de récence ou de primauté, selon que les indices les plus récents ou les plus anciens vont jouer un rôle plus important dans la décision. Ce type de jugement, qu’on peut reproduire en modifiant certains paramètres internes du calcul neuronal, peut paraître plus adapté pour certaines situations avec des conditions changeantes (récence) ou stables (primauté). On sait par ailleurs que détecter ce type de conditions nous fait émettre des neurohormones qui modifient la nature du calcul neuronal en modifiant certains de leurs paramètres. Nous essayons de reproduire ces mécanismes dans nos modèles.

Un autre biais, appelé aversion au risque, fait que nous surestimons les indices défavorables par rapport aux indices favorables. Il a été montré expérimentalement en économie que les neurones qui codent les pertes et les gains ne sont pas soumis aux mêmes non-linéarités dans leurs calculs, ce que l’on sait simplement reproduire dans nos modèles. Ici aussi, on peut comprendre que, pour un être vivant qui ne fait pas que calculer des bilans financiers, il est judicieux d’accorder plus d’importance à ce qui peut nous nuire (et potentiellement nous blesser) qu’à ce qui est positif (et qu’on aura d’autres occasions de retrouver). De façon similaire, d’autres types de biais, appelés de référence ou de préférence, font que nous allons accorder plus d’importance à des indices faisant référence à un événement récent ou à une préférence personnelle. Ici aussi, introduire des mécanismes cérébraux connus de types mnésiques permet de reproduire ces phénomènes, dont l’intérêt adaptatif semble aussi clair. Enfin un dernier type de biais concerne la différence entre les valeurs que nous donnons à des situations et les valeurs que nous donnons aux actions pour les atteindre ou les éviter et que l’on connaît bien en addictologie : alors que l’on sait très bien que alcool, tabac et autres drogues sont mauvais pour nous, diminuer nos actions de consommation n’est pas forcément simple. On sait que dans le cerveau ces valeurs sont dissociées, autrement dit que nos actions ne reflètent pas toujours nos pensées.

L’équipe-projet Mnemosyne d’Inria commune avec le Labri et  l’IMN à Bordeaux travaille sur la modélisation des fonctions cognitives du cerveau, de manière pluri-disciplinaire. (Crédit : Inria / Photo H.Raguet).

Une application concrète : aider à avoir un comportement plus éco-responsable

Avec l’aide de la Région Nouvelle Aquitaine, d’Inria et des universités de Bordeaux et de La Rochelle, nous sommes actuellement impliqués dans un projet visant à mieux comprendre les décisions humaines relatives au changement climatique et à la transition écologique. Il s’agit d’un sujet de décision visant à changer nos comportements. On peut constater que la plupart des biais mentionnés plus haut s’appliquent : est-on prêts à changer d’habitude maintenant (prendre le bus plutôt que la voiture) pour des résultats à long terme (modifier la température moyenne dans 30 ans) ? Quitter des comportements faciles et observés autour de soi (prendre sa voiture comme tout le monde) et mettre en œuvre nos convictions citoyennes (différence entre ce qu’on pense et ce qu’on fait) ? Etc.

Ce projet va nous permettre à la fois de recueillir des informations pour affiner nos modèles et de tester leurs prédictions en interagissant avec les utilisateurs. Pour cela, nous utilisons une application que des personnes volontaires auront installée sur leurs smartphones. Cette application les aide à choisir leur mode de transport pour aller travailler et les informe sur les caractéristiques éco-responsables de leurs choix. Nous aurons ainsi accès aux décisions qui auront été prises, en fonction des situations mais aussi des informations données. Nous avons l’espoir que cette approche nous permettra d’évaluer la pertinence et le poids de différents types d’arguments que nous aurons préparés en amont avec nos collègues des sciences humaines et sociales, reposant en particulier sur des hypothèses issues de nos modèles et sur des mécanismes supposés de la prise de décision.

Dans ce projet, nous avons orienté notre approche selon les convictions suivantes :

– D’une part, si nous savons bien décrire les caractéristiques de cette prise de décision et en particulier pourquoi et quand elle est difficile, nous pouvons proposer des mises en situations qui seront plus favorables à des prises de décision responsables.

– D’autre part, nous faisons également le pari du citoyen informé et proactif. Si nous décrivons ces mécanismes de décision, leurs biais et leur inscription cérébrale, cela peut permettre de déculpabiliser (ce sont des mécanismes biologiques à la base de ces biais) et de donner des leviers pour travailler sur nos processus mentaux et réviser nos modes de pensée.

Frédéric Alexandre, Directeur de Recherche Inria.

Henri Potier à l’école de la complexité

Quand on conçoit un algorithme, une question est : « est-ce qu’il fait bien le boulot ? » Une autre est : « combien de temps il va prendre ?» Si ça met deux plombes pour me dire où trouver une pizza, ça m’intéresse moins. Le domaine qui traite du temps que va prendre un algorithme (ou de la quantité de mémoire dont il va avoir besoin) s’appelle « la complexité algorithmique ». Une série d’articles va aborder ce sujet, avec pour commencer une introduction à ce domaine de l’informatique. Allez ! Enfourchez votre balai pour rejoindre avec nous le fameux sorcier Henri Potier et ses amis. Serge Abiteboul

L’école Poudlard a été envahie par le-méchant-dont-on-ne-doit-pas-prononcer-le-nom. Henri a été capturé, et ses amis Hermine et Renaud vont devoir mettre en œuvre tout leur savoir magique pour le délivrer, car le château est protégé par des sorts puissants pour empêcher nos héros d’accéder au donjon où vous-savez-qui séquestre Henri. Vont-ils parvenir à sauver leur ami des griffes du seigneur des ténèbres ?

Première difficulté, il leur faut d’abord parvenir à franchir le pont-levis ultra-sécurisé.

– Dépêchons-nous Renaud, derrière cette porte il va falloir trouver les horcruxes ! Mais il y a d’abord ce maudit Pavétactile dont le code change toutes les cinq minutes…

Illustration Pierre Perifel

À ce moment précis, le pigeon d’Hermine lui apporte un indice crucial arraché de mains malfaisantes : les 5 chiffres du code secret à entrer sont aux positions 2, 4, 8, 16 et 32 dans le produit des deux nombres

45332114286503538748298493013368940560645810452563 et 18501921802355806067839342577359599275135595217788.

– Facile, il suffit de calculer le produit et on a le code, propose Renaud. Passe-moi un stylo Hermine. Je me souviens de mes cours de primaire, je vais te le calculer ce produit.

– Cette méthode est bien trop lente, Renaud. Tu n’y arriveras jamais, on n’a que 5 minutes ! Laisse-moi faire.

Hermine écrit à toute vitesse des symboles incompréhensibles sur son carnet. Ses efforts finissent par payer : le pont-levis s’abaisse enfin. Il était temps, le code allait de nouveau changer. Renaud en reste bouche bée.

– Ta méthode naïve nécessitait trop d’opérations pour le temps qu’on avait, lui explique Hermine. J’ai appliqué une autre méthode bien plus rapide. Elle est plus compliquée, c’est pour ça que tu ne la connais pas. La tienne aurait nécessité environ 2500 opérations simples, alors que j’en ai eu besoin de moins de 200, sans compter que je calcule plus vite que toi.

– Mais comment est-ce que tu sais tout ça, encore ?

– En informatique, une méthode pour résoudre un problème, ça s’appelle un algorithme. C’est une succession d’opérations qu’on peut programmer sur un ordinateur. Pour un même problème, il existe en général plein d’algorithmes pour le résoudre, des simples et des compliqués, des beaux et des laids, continue Hermine. Tu voulais utiliser la méthode de l’école primaire pour multiplier deux nombres : c’est un algorithme. Moi, j’ai utilisé un autre algorithme, plus astucieux, pour résoudre le même problème. La différence, c’est que le tien nécessite plus de n2 opérations pour multiplier deux nombres de n chiffres (Hermine écrit sur son ardoise magique ci-dessous), alors que le mien n’en utilise que n*ln(n) environ (voir l’encadré du prof de magie mathématique). Mon algo était juste plus rapide que ton truc d’escargot.

– Frimeuse !

Hermine : On veut multiplier deux entiers x et y de n chiffres chacun. La méthode de l’école primaire multiplie x par chaque chiffre de y et additionne les résultats obtenus (après décalage). La multiplication de x par un chiffre de y nécessite de parcourir tous les chiffres de x, soit n opérations. On répète n fois ce processus, ce qui fait n2 opérations, plus les additions pour obtenir le résultat final.

Al-Khwârizmî (professeur de magie mathématique) : ln(n) désigne la fonction logarithme. Tout ce que vous avez besoin de savoir est que ln(n) est beaucoup plus petit que n, donc n*ln(n) bien plus petit que n*n.

Exercice à réaliser sans utilisation de magie : montrer comment multiplier deux nombres avec n*ln(n) opérations élémentaires. Indication : voir Harvey et van der Hoeven, https://hal.archives-ouvertes.fr/hal-02070778v2

Ignorant l’interruption de Renaud, Hermine poursuit :

– La complexité algorithmique est un domaine de l’informatique qui essaie de classer les problèmes en fonction de leur difficulté. Par exemple, résoudre le problème de la multiplication revient à donner un algorithme pour calculer le produit de deux entiers quelconques x et y. Deux entiers particuliers (par exemple, x = 43 et y = 47) forment ce qu’on appelle une instance du problème, que l’on donne ensuite à l’algorithme pour obtenir la solution correspondante (ici, 2021 = 43*47). Et comme on l’a fait pour la multiplication, on mesure le nombre d’opérations d’un algorithme pour un problème en fonction de la taille de l’instance, que l’on note n. En effet, plus la taille n de l’instance est grande (comme les deux entiers de 50 chiffres pour le Pavétactile) et plus le nombre f(n) d’opérations à effectuer (plus de 2500 avec ta méthode, Renaud) sera important.

– Donc plus les nombres à multiplier sont grands, plus il faudra d’opérations.

– C’est comme ça avec presque tous les algorithmes, explique Hermine. Par exemple, tu comprends bien qu’il faudra plus de temps pour trier une liste de n = 100.000 nombres par exemple, que pour trier une liste de n = 5 nombres. Le nombre d’opérations dépend de la taille du problème.

– Mais on peut tout faire avec n*ln(n) opérations avec ton astuce, non ?

– Rêve Renaud ! « Mon » astuce n’est valable que pour la multiplication. On sait depuis 1965 grâce au théorème de hiérarchie de Hartmanis et Stearns que lorsqu’on se permet plus d’opérations, on peut résoudre plus de problèmes.

Hermine griffonne quelque chose sur son ardoise magique.

Théorème – Pour « tout » nombre d’opérations f(n), il existe des problèmes résolubles par un algorithme effectuant f(n)2 opérations, mais par aucun algorithme effectuant moins de f(n) opérations.

Par exemple, on connaît des problèmes résolubles en n6 opérations, mais qu’on ne peut pas résoudre en n3 opérations ou moins.

Idée de la démonstration : à Pré-au-Lard (comme à Séville) il y a un barbier. Ce barbier a un but dans la vie : raser exactement ceux qui ne se rasent pas eux-mêmes et qui ont moins de 40 ans. Peut-il avoir moins de 40 ans ? Si c’était le cas, alors on obtiendrait une contradiction. En effet, s’il ne se rase pas lui-même alors il devrait se raser d’après sa raison d’être. Mais à l’inverse, s’il se rase lui-même, il ne devrait pas se raser. On en conclut que le barbier a plus de 40 ans.

On démontre le théorème de manière similaire où le rôle du barbier est joué par un algorithme, et où son âge est remplacé par f(n)2 et celui des clients par f(n).

Illustration Pierre Perifel

Renaud reste perplexe face à tant de science.

– Mais on ne va quand même pas s’amuser à connaître la fonction f(n) exacte pour chaque problème ?

– Héhé bien vu. On regroupe les problèmes en « classes de complexité ». Par exemple, la classe P est celle des problèmes résolubles en un nombre polynomial d’opérations, n, ou n2, ou n3, etc. Ils sont généralement considérés comme « faciles » par opposition à des problèmes nécessitant un nombre exponentiel d’opérations comme 2n car ces nombres sont vraiment gigantesques même quand la taille de l’instance est petite, regarde !

Hermione griffonne à nouveau sur son ardoise magique.

– Ah oui, c’est clair, quand on est pressé il vaut mieux un algorithme qui fait n2 opérations plutôt que 2n , ou encore pire ! s’exclame Renaud. Mais à quoi ça sert de savoir qu’un problème nécessite beaucoup d’opérations ? Moi ce que je veux c’est juste le résoudre.

– Déjà ça permet de comprendre un peu mieux le problème, poursuit Hermine. Ça pousse à trouver des algorithmes plus efficaces pour résoudre un problème particulier. Et puis si on a prouvé qu’un problème est hyper complexe, ça t’évite de chercher inutilement un algorithme efficace qui n’existe pas. En plus, cette théorie est aussi utilisée en cryptographie. On chiffre un message de telle façon qu’il est facile de le déchiffrer quand on connaît la clé secrète, mais hyper complexe de le faire si on ne l’a pas.

– Genre sans la clé, je pourrais peut-être déchiffrer ton message secret avec l’ordinateur le plus rapide au monde, mais il me faudrait cent ans.

– Exactement ! Mais assez parlé Renaud, Henri a besoin de nous et il nous faut trouver la carte des horcruxes

Sylvain Perifel, maître de conférences, Université de Paris » et Guillaume Lagarde, postdoctorant, Université de Bordeaux »

La cryptanalyse : la base de la confiance – 2

Acheter en ligne, réaliser des transactions bancaires, communiquer de façon sécurisée, autant d’opérations qui nécessitent d’être protégées par des fonctions (ou primitives) cryptographiques. Notre confiance envers ces briques de base repose sur la cryptanalyse, c’est à dire l’analyse de la sécurité par des experts, qui essayent de “casser” les primitives cryptographiques proposées, et ainsi déterminer celles qui semblent robustes et qu’on pourra recommander, ou celles qui semblent dangereuses et qu’il ne faut pas utiliser. C’est ce que nous explique Maria Naya-Plasencia dans deux articles qui terminent la série entamée à l’occasion de la publication par Inria du livre blanc sur la cybersécurité. Dans ce second article, Maria nous décrit la situation actuelle et les évolutions envisagées dans ce domaine. Pascal Guitton .

D’où  peuvent venir les faiblesses ?     

L’expérience nous montre que des attaques sur les primitives cryptographiques sont basées sur différents types de faiblesse. Dans le cas de la cryptographie asymétrique, la faille vient parfois d’un assouplissement dans la preuve pour lier le problème cryptographique au problème mathématique associé. Dans d’autres  cas, le problème mathématique considéré s’avère plus facile à résoudre que prévu. Des faiblesses peuvent aussi venir d’une configuration ou de paramètres spécifiques d’une certaine instance, parfois non apparents, qui rendent le problème moins difficile que l’original.

Dans le cas des primitives symétriques, les preuves formelles de sécurité  reposent sur des suppositions irréalistes, mais cela ne les rend pas faciles à attaquer pour autant. Si jamais une attaque est trouvée (rappelons qu’elle doit être plus efficace que l’attaque générique), la primitive correspondante est considérée comme cassée. Ce fut le cas par exemple du chiffrement Gost.

Le besoin de la transparence

Nous avons vu que même les primitives cryptographiques les plus robustes ne possèdent pas de véritable preuve de sécurité – tout au plus des indices qui semblent garantir leur sûreté, mais sans qu’on en soit absolument certain.

La mesure de sécurité la plus tangible et la plus acceptée par la communauté cryptographique est en fin de compte la résistance avérée à  la cryptanalyse : si une fonction cryptographique a résisté aux attaques de dizaines d’experts pendant des décennies, on est en droit de se sentir en bonne sécurité (malgré le manque de preuve formelle).

C’est en fait le rôle principal de la cryptanalyse : la mesure empirique de la sécurité. Elle est donc la base de la confiance que nous portons aux algorithmes cryptographiques. C’est une tâche essentielle qui n’a pas de fin.

Il est important de réaliser que cette sécurité ne peut s’obtenir que grâce à une transparence totale : si on conçoit un algorithme cryptographique, il faut le rendre complètement public dans ses moindres détails pour le soumettre à l’analyse des cryptographes, car seuls leurs efforts continus pour casser cet algorithme pourront être un gage tangible de sa sécurité (s’ils échouent, bien sûr). Ce principe est paradoxalement dû à un militaire et connu depuis plus de 100 ans sous le nom de principe de Kerkhoffs.

Le symétrique est également vrai : les cryptanalystes doivent publier leur travaux et leurs avancées pour permettre à la communauté scientifique de réutiliser leurs idées, et ainsi disposer des meilleures techniques pour analyser les crypto-systèmes existants.

Cette  première  transparence  –  celle  des  algorithmes  cryptographiques  –  est assez communément appliquée, même si certains acteurs s’entêtent à concevoir des crypto-systèmes “cachés” en espérant que cela augmentera leur sécurité. Par contre, il reste  assez  commun,  pour  des  hackers  isolés  comme  pour  de  grosses  organisations, privées ou publiques (comme la NSA américaine), de conserver leurs progrès pour eux, en espérant peut-être obtenir un avantage stratégique s’ils parvenaient à cryptanalyser avec succès un algorithme que le reste du monde considère sûr. Nous avons donc un réel besoin de cryptanalystes bienveillants, travaillant dans la transparence et ayant pour but de faire progresser la cryptographie en général.

Forces et faiblesses

Un aspect préoccupant  vient du fait que la sécurité  n’est jamais prouvée. Quelle que soit la fonction cryptographique, on ne pourra jamais écarter complètement la possibilité d’une cryptanalyse, même très tardive.

Un aspect rassurant est que le modus operandi est très bien établi, depuis des décennies. La communauté des cryptographes adopte par défaut une attitude qu’on pourrait qualifier de paranoïaque quand il s’agit d’évaluer si tel ou tel algorithme pourrait se faire attaquer. En effet, la cryptanalyse moderne parvient très rarement à véritablement “casser” un crypto-système, et la plupart des résultats sont en fait des attaques partielles, c’est-à-dire sur une version réduite du système. Par exemple, en cryptographie symétrique, de nombreuses primitives sont formées en appliquant R fois une même fonction interne : on parle de R tours. Très souvent, les cryptanalystes s’attaquent à une version réduite, avec un nombre de tours r inférieur à R. On peut alors jauger la “marge” de sécurité grâce à la différence entre le plus grand r d’une attaque et le nombre de tours R (si r = R, la fonction est véritablement cassée). Pour éviter tout risque, de nombreuses primitives sont abandonnées tout en restant loin d’avoir été  cassées : on a besoin de peu de primitives cryptographiques, au final, et les plus sûres ont une marge de sécurité très importante. Pour que ce système reste valide, il est important que la cryptanalyse bienveillante reste très active et dynamique.

L’exemple d’AES   

AES est le standard actuel de chiffrement à clé secrète. Nous allons analyser l’effet de la cryptanalyse sur la version de l’AES qui utilise une clé de 128 bits. Cette version utilise 10 tours, c’est à dire qu’on applique 10 fois la même fonction interne.

En 1998, lors de sa conception, la meilleure attaque connue, trouvée par les auteurs, s’appliquait sur 6 tours du chiffrement : il existait donc une attaque, meilleure que l’attaque générique, mais seulement sur une version affaiblie qui n’applique que 6 fois la fonction interne. La marge de sécurité était donc de 4 tours sur 10. En 2001, une attaque sur 7 tours fut découverte. Bien que la marge fut donc réduite de 4 à 3 tours, AES était loin d’être cassé.

Depuis 2001, plus de 20 nouvelles attaques sur des versions réduites de l’AES ont été publiées, améliorant la complexité, c’est-à dire diminuant la quantité de calcul nécessaire. Aujourd’hui, la meilleure attaque connue est toujours sur 7 tours : pendant 18 ans, la marge de sécurité en nombre de tours n’a pas bougé. Plusieurs compromis sur le temps de calcul, la quantité de données et de mémoire nécessaire à l’attaque sont possibles, mais celle qui optimise le temps de calcul a tout de même besoin de 299  opérations, et d’une quantité de données et de mémoire équivalente. Ce nombre énorme (à 30 chiffres) est bien au delà de la capacité de calcul de l’ensemble des ordinateurs de la planète, même pendant des centaines d’années. Et la comparaison avec l’attaque générique, qui a besoin de 2128  opérations mais d’une quantité  de données et de mémoire négligeable, n’est pas si évidente en termes d’implémentation.

De toute évidence, en prenant en compte tous les efforts fournis par la communauté cryptographique pendant tant d’années, il semble très peu probable que des attaques sur la version complète apparaissent en l’état actuel. On laisse peu de place aux surprises ! AES reste encore un des chiffrements les plus analysés au monde, et de nouveaux résultats pour mieux comprendre sa sécurité et son fonctionnement apparaissent tous les ans.

Et dans un monde post-quantique ?    

Imaginons des attaquants ayant accès à un ordinateur quantique, qui utilise les propriétés quantiques des particules élémentaires pour effectuer certains types de calculs de manière beaucoup plus performante que les ordinateurs classiques (cf ces articles [1], [2] récent de binaire). De tels attaquants pourraient casser la plupart des crypto-systèmes  asymétriques  utilisés  actuellement.  C’est  d’ailleurs  une  des  applications les plus prégnantes de l’ordinateur quantique tel qu’on l’imagine.

Les crypto-systèmes dit “post-quantiques” sont en plein essor pour répondre à ce besoin. En ce moment même, le NIST américain organise une compétition pour trouver des nouveaux standards de chiffrement post-quantique. Ces  crypto-systèmes se basent sur des problèmes difficiles qui – contrairement à la factorisation des entiers, base de RSA – résisteraient, dans l’état actuel des connaissances, à l’arrivée de l’ordinateur quantique. Ces primitives post-quantiques, asymétriques et symétriques, ont besoin, de la même façon que dans le cas classique, d’avoir leur sécurité analysée face à un attaquant quantique, et la cryptanalyse quantique est donc d’une importance primordiale.

Mentionnons que la cryptographie doit parfois pouvoir résister dans le temps : on voudrait pouvoir garder certains documents confidentiels à long terme, malgré les progrès scientifiques en matière de cryptanalyse (incluant donc l’arrivée possible de l’ordinateur quantique). Il serait donc opportun de commencer dès aujourd’hui à utiliser des crypto-systèmes qu’on pense résistants même dans un contexte post-quantique.

L’importance  des recommandations.

Il ne faut pas sous-estimer l’importance de suivre les recommandations de la communauté scientifique cryptographique. Notamment, seule la poignée de primitives recommandées par cette communauté doit être utilisée, car ce sont celles qui focalisent la cryptanalyse et dont la marge de sécurité est de loin la meilleure. Heureusement, ce principe est de mieux en mieux respecté par la communauté informatique dans son ensemble, comme vous pourrez le constater avec légèreté en effectuant une recherche sur le Web d’images contenant les termes “roll your own crypto”. Une notion également importante et parfois plus négligée est de rester à  jour, et de réagir rapidement quand la communauté cryptographique recommande d’abandonner un crypto-système précédemment recommandé, mais jugé insuffisamment sûr à l’aune de progrès récents.

Cette image affiche le slogan "Don't roll your own crypto"

Les grandes failles de sécurité informatique sont souvent le cas de mauvaises implémentations, mais la faute incombe parfois à  l’usage de crypto-systèmes non recommandés. Citons par exemple une attaque parue en 2013 sur le protocole TLS (qui protège les connexions https sur nos navigateurs), utilisant des failles du stream cipher RC4 dont on connaissait l’existence depuis 2001 ! Pire : en 2015, l’attaque FREAK exploitait la petite taille des clés RSA-512, qu’on savait trop faible depuis les années 90.

Ces brèches de sécurité et beaucoup d’autres auraient pu et dû être évitées !

Conclusion

Ces illustrations montrent que la cryptanalyse demande des efforts soutenus et continus, par des chercheurs bienveillants travaillant  dans un contexte transparent, et publiant leurs résultats.

Que ce soit dans un contexte classique ou post-quantique, la cryptanalyse doit rester une thématique en constante évolution, afin d’assurer la maintenance des algorithmes utilisés, ainsi que pour évaluer les nouveaux types d’algorithmes cryptographiques. Mieux vaut prévenir que guérir et garder une longueur d’avance sur les adversaires malveillants !

Maria Naya-Plasencia (Directrice de recherche Inria, Equipe Cosmiq, Paris)

La cryptanalyse : la base de la confiance – 1

Acheter en ligne, réaliser des transactions bancaires, communiquer de façon sécurisée, autant d’opérations qui nécessitent d’être protégées par des fonctions (ou primitives) cryptographiques. Notre confiance envers ces briques de base repose sur la cryptanalyse, c’est à dire l’analyse de la sécurité par des experts, qui essayent de “casser” les primitives cryptographiques proposées, et ainsi déterminer celles qui semblent robustes et qu’on pourra recommander, ou celles qui semblent dangereuses et qu’il ne faut pas utiliser. C’est ce que nous explique Maria Naya-Plasencia dans deux articles qui terminent la série entamée à l’occasion de la publication par Inria du livre blanc sur la cybersécurité. Dans ce premier article, Maria pose les bases des mécanismes de la cryptanalyse. Pascal Guitton .

Nos communications doivent être protégées pour assurer leur confidentialité et intégrité, et pour les authentifier. Des protocoles de sécurité bien réfléchis sont utilisés dans ce but, et les briques de base de tous ces protocoles sont les primitives cryptographiques. Ces primitives cryptographiques peuvent être divisées en deux grandes familles.

La cryptographie symétrique (parfois dite “à clé secrète”) est la plus ancienne. Si Alice et Bob veulent communiquer à distance de façon confidentielle, malgré les risques d’interception de leurs messages, ils vont d’abord se réunir et se mettre d’accord sur une clé secrète, que tous les deux (et personne d’autre) connaissent. Quand Alice veut envoyer un message à Bob, il lui suffit alors de cacher l’information à l’aide de la clé secrète, avant de l’envoyer. Quand Bob recevra le message chiffré, il peut le déchiffrer à l’aide de la même clé secrète pour récupérer le message original : la clé secrète sert à chiffrer et à déchiffrer. Bob peut lui aussi envoyer un message à Alice avec la même clé, qui est utilisable dans les deux sens.

Cette méthode présente l’inconvénient de devoir se réunir (en secret, sans risque d’interception ou espionnage) avant de pouvoir établir des communications éloignées et sécurisées. Comment pourraient faire Alice et Bob pour communiquer confidentiellement sans se réunir avant ?

Ils peuvent utiliser la cryptographie asymétrique (dite ”à clé publique”), introduite dans les années 70. Les détails sur ce types de primitives sont présentés dans l’article “De la nécessité des problèmes que l’on ne sait pas résoudre”.

La cryptographie asymétrique permet d’éviter que les parties qui veulent communiquer se réunissent avant établir la communication sécurisée, mais elle est aussi lente et coûteuse, pouvant devenir impraticable pour des longs messages. De son côté, la cryptographie symétrique nécessite un échange de clés avant de pouvoir commencer la communication, mais une fois la clé secrète répartie, elle est considérablement plus efficace. Pour exemple, le standard symétrique actuel, AES, recommandé depuis 2002 et utilisé dans la plupart des navigateurs web, peut chiffrer plusieurs gigaoctets par seconde, là où les standards asymétriques actuels peinent à atteindre un mégaoctet par seconde (plus de 1000 fois plus lents). On utilise donc le plus souvent des systèmes mixtes : la cryptographie asymétrique pour échanger une clé secrète, normalement de petite taille (par exemple 128 bits), et ensuite la cryptographie symétrique (en utilisant la clé secrète échangée) pour chiffrer les messages.

Pour que les communications soient sûres, les primitives cryptographiques utilisées doivent répondre à un cahier des charges précis en matière de sécurité. La cryptanalyse constitue le moyen essentiel de s’assurer du respect prolongé de ce cahier des charges.

Quelles primitives utiliser ?

La sécurité des primitives asymétriques (à clé publique) repose en général sur la difficulté d’un problème mathématique bien établi et jugé difficile, c’est-à-dire à priori insoluble dans un laps de temps raisonnable. Par exemple, le chiffrement RSA repose sur le problème de la factorisation (étant donné un entier naturel non nul, trouver sa décomposition en produit de nombres). Déchiffrer RSA reviendrait donc à résoudre le problème de la factorisation de très grandes nombres entiers, ce qui constituerait une véritable bombe dans le milieu scientifique, car de très nombreux chercheurs étudient ce problème en vain depuis des décennies.

Du côté de la cryptographie symétrique, on peut prouver formellement de nombreuses propriétés de sécurité d’un chiffrement symétrique idéal si on suppose qu’il génère pour chaque message un chiffre aléatoire, ce qui ne nous permettrait pas de retrouver de l’information sur le message original. Mais il est par essence impossible de construire efficacement une telle fonction, et les primitives symétriques essaient d’imiter ce comportement avec des fonctions déterministes. Pour jauger la sécurité, on s’en remet donc à la résistance aux attaques des cryptanalystes.

Une attaque est jugée efficace (et la primitive attaquée est alors dite « cassée ») si elle peut se faire plus facilement (plus rapidement, ou en utilisant moins de ressources de calcul) que les meilleures attaques génériques, c’est à dire une attaque qu’on peut toujours appliquer, même sur les primitives idéales. Par exemple, une attaque générique sur un chiffrement symétrique est la recherche exhaustive de la clé secrète : en essayant toutes les clés possibles, on parviendra toujours à trouver la bonne. Comme on ne veut pas qu’une telle attaque soit réalisable, les clés secrètes ont des tailles variant entre 128 à 256 bits, selon la sécurité voulue : cela implique qu’il faudrait essayer respectivement 2128 ( environ à 340 milliards de milliards de milliards de milliards, soit un 3 suivi de 38 zéros) et 2256 clés différentes. Tester 2128 clés est à l’heure actuelle hors de portée mais il est difficile de prédire pendant combien de temps ce sera le cas ; pour des clés de 256 bits une recherche exhaustive est cependant totalement au-delà des capacités de l’ensemble des ressources de calcul de la planète.

L’existence de toute attaque plus performante que ces attaques génériques est considérée comme une faiblesse grave de la primitive.

Maria Naya-Plasencia (Directrice de recherche Inria, Equipe Cosmiq, Paris)

La cybersécurité : une affaire de physique ?

Thibaut Sohier est doctorant au sein du Laboratoire des Technologies d’Intégration 3D du CEA, rattaché à l’école doctorale des Mines de Saint-Etienne. Il est finaliste de la région Lyonnaise au concours « Ma thèse en 180 secondes« .  Thibaut vient nous expliquer dans binaire ce qu’est le piratage par voie physique, et la solution qu’il développe dans le cadre de sa thèse pour s’en prémunir.  Pauline Bolignano.
Thibaut Sohier
Thibaut Sohier

La mention d’une cyberattaque renvoie directement dans l’imaginaire collectif à un film de science-fiction mettant en scène des hackeurs de génie capables d’étudier du code défilant à toute vitesse sur des écrans. Quand d’un coup, le message « accès autorisé » leur ouvre les portes de systèmes ultra-sécurisés. Toutefois, dans le monde réel ce n’est pas aussi simple… Et heureusement ! Les protections algorithmiques évoluent sans cesse, compliquant grandement le piratage. Aujourd’hui, l’algorithme de chiffrement appelé AES (pour « Advanced Encryption Standard ») offre une protection efficace contre les cyberattaques ciblant les données (voir cet article). S’il fallait tester toutes les combinaisons permettant de trouver la clef secrète qui a permis ce chiffrement, il faudrait plus de 100 milliards d’années et la contribution de 7 milliards d’ordinateurs. Ce n’est évidemment pas réalisable… Les hackers se sont donc adaptés : ils peuvent s’en prendre directement à des systèmes physiques, y compris à des objets connectés dont ils exploitent des failles pour infiltrer le réseau auquel ils sont reliés. La méthode consiste à perturber physiquement (optiquement ou électromagnétiquement) les composants électroniques afin de générer une sorte de « bug » qui laissera échapper des informations permettant de déduire la clé de chiffrement et ainsi d’accéder aux informations convoitées. Dans notre monde hyper-connecté, cette technique est amenée à se développer, que ce soit dans le domaine militaire (acquisition des données archivées dans le drone) ou dans le domaine économique (piratage d’une entreprise via des objets connectés tels que des caméras de surveillance, voire la machine à café !).

Une cyber-attaque par voie physique ? et puis quoi encore ?!?

Pour bien comprendre ce nouveau mode de piratage, il faut se représenter ce qu’est réellement un dispositif électronique. Ce qui s’en rapproche le plus : c’est vous ! Ou plus précisément votre cerveau. Alors comment un hacker pourrait-il découvrir vos secrets les plus intimes?

La première solution, la plus évidente, consisterait à vous faire parler de tout et de rien, tout en étudiant l’activité de votre cerveau via la pose de sondes (comme pour un encéphalogramme). On découvrira ainsi où se situe votre zone mémoire, l’analyse et l’étude des signaux enregistrés permettra de savoir ce qui vous rend heureux, ce qui vous fait réfléchir, et même quand vous mentez… Et de fil en aiguille, en déduire vos petits secrets… Dans le jargon, on parle d’attaque par « canaux auxiliaires » ou « side channel » ; on recherche des pics de température, de courant, de champ électromagnétique… émanant du dispositif électronique en fonctionnement. Après de nombreuses analyses, toutes les informations récoltées permettent de reconstituer la clé de chiffrement en un temps record.

Equipement de test

Si cette première méthode échoue car vous êtes entrainé à ne pas parler sous la pression et à n’exprimer aucune émotion, il y a toujours un moyen plus direct d’obtenir ces informations… La torture ! Dans ce cas, l’attaquant va ouvrir votre boite crânienne afin d’accéder à votre cerveau. Il va ensuite soumettre vos neurones à des stimuli extrêmes tels que des radiations, des hausses de température ou encore de fortes impulsions lumineuses afin de générer des lapsus révélateurs.

Pour un composant électronique, c’est exactement la même chose, excepté que les neurones sont ce que l’on appelle des transistors et que la torture se nomme joliment « injection de fautes ». Mais comment s’en prémunir ?

Par analogie, on va chercher à reproduire les mécanismes de protection du cerveau ! Pour cela on réalise un boitier physique (boite crânienne) et on introduit des capteurs (récepteurs sensoriels/nerfs) qui transmettent un message d’alerte au cerveau en cas d’intrusion (douleur).

Toutefois, de même que les récepteurs sensoriels sont rendus insensibles lors d’une anesthésie, les capteurs peuvent être inhibés par une action physique ciblée.

Alors que faire ? C’est là que j’interviens !

Ma thèse

Mon travail de thèse consiste à étudier les mécanismes utilisés pour réaliser ces attaques afin de proposer une protection adéquate.

L’objectif de mon travail est de développer un boitier sécuritaire pour les composants électroniques, en intégrant des détecteurs « nouvelle génération » difficiles à « anesthésier » ! Pour ce faire, un phénomène magnétique extrêmement sensible appelé Magnéto Impédance Géante (GMI en Anglais) a été utilisé. Un maillage imitant un réseau nerveux a été généré. Il assure à la fois le rôle de barrière physique et de détecteur. Pourquoi ces détecteurs sont-ils si spéciaux ? Tout simplement car ils sont aussi émetteurs d’informations. Autrement dit, ils sont très bavards ! Chacun de ces détecteurs a l’étonnante capacité de « discuter » avec ses proches voisins via un couplage magnétique. Chaque détecteur envoie constamment à ses voisins un unique message d’origine magnétique dont le contenu dépend des messages qu’il reçoit de ses propres voisins. C’est une sorte d’équilibre. Tant que la structure du boitier est intègre, l’ensemble des messages reste constant. En cas de tentative de pénétration dans le boitier sécuritaire, un des capteurs sera nécessairement altéré, engendrant de ce fait un changement de l’information du message magnétique. L’équilibre est alors rompu, générant un effet boule de neige qui permet de repérer une modification même infime de la protection, et ainsi de prendre les mesures nécessaires pour empêcher l’accès aux données sensibles, quitte à les détruire….

Pour un humain, ce n’est pas l’idéal, mais pour de la protection de nos données, c’est rudement efficace !

Vue du dessus de la contremesure à base de matériaux magnétiques réalisée au cours de la thèse (Jaune)

Conclusion

Ma thèse peut donc se résumer au développement et à la mise en place d’un réseau de capteurs communiquant par effet magnétique. Il constitue un coffre-fort appelé « packaging sécurisé » pour les composants électroniques, afin que vos petits secrets restent bien à l’abri…

Une version allégée de ce discours est présente en ligne :  https://www.youtube.com/watch?v=Dhm9P1aJnls

Thibaut Sohier, doctorant aux Mines Saint-Etienne et au sein du Laboratoire des Technologies d’Intégration 3D du CEA.

Enseignement de l’informatique et informatique dans l’enseignement, 50 ans déjà !

Monique Grandbastien a consacré une grande part de son temps à enseigner l’informatique pour former des informaticiens, mais aussi à favoriser le développement de l’informatique dans le second degré en formant des professeurs, en animant diverses structures nationales et académiques et en développant des recherches sur la conception d’environnements numériques destinés aux professeurs et aux élèves. Elle évoque donc quelques souvenirs qui jalonnent cette longue aventure souvent commune avec l’EPI. Pascal Guitton et Thierry Viéville.

Dans ce bel article de la revue de la revue de l’Association Enseignement Public & Informatique qui fête ces 50 ans cette année, elle y évoque quelques souvenirs qui jalonnent cette longue aventure émaillée de nombreux « stop and go », pour reprendre une expression actuelle, pour nous aider  à se demander quelles leçons on peut retenir de ces 50 années pour accompagner élèves et professeurs dans le monde de demain.

On vous en recommande la lecture parce qu’il propose une vision dans la durée des nombreuses expériences vécues par Monique, et que loin d’être auto-centrée, elle nous fait découvrir le travail et l’engagement de tou·te·s ces collègues pour que nos enfants maîtrisent le numérique au lieu de simplement le subir ou le consommer.

Lire l’article

Smart-Shield : le masque qui vous veut du bien

On en parlait depuis longtemps dans les labos de recherche, une startup française l’a fait : le premier FFP2 intelligent. Il s’appelle le Smart-Shield.

Photo Engin Akyurt – Pexels

La jeune startup périgourdine « Plus qu’un masque » propose une nouvelle génération de masques avec des technologies alliant nouveaux matériaux, IA, reconnaissance faciale, capteurs sensoriels, réalité virtuelle, et blockchain. Le Smart-Shield est certifié FFP2. Son matériau révolutionnaire ne limite quasiment pas la respiration mais quand le masque détecte une personne à proximité, ses micros éléments se restructurent pour faire un barrage aussi sérieux au Covid que celui des meilleurs FFP2 classiques. Compatible IPV6 et 5G, le Smart-Shield est un véritable couteau-Suisse qui, en plus de protéger du Covid, répond à toute une gamme de besoins :

  • Le masque “Meet me” : vous n’avez pas encore rencontré l’âme sœur. Ce masque vibre dès que vous croisez une personne qui matche à plus de 80% avec vous.
  • Le masque “Faut que j’arrête » : vous êtes accroc au tabac, alcool, sucre. Ce masque analyse en permanence votre haleine et vous alerte discrètement sur vos consommations excessives.
  • Le masque “Masque” : vous choisissez parmi une centaine de personnages célèbres, et votre masque se reconfigure en masque de Dracula ou de Macron. Encore plus drôle, vous pouvez lui demander d’être le masque de votre conjoint.e ou celui de la personne que vous rencontrez.
  • Le masque “True me” : si vous le souhaitez, le masque change d’apparence suivant les situations. Il analyse vos sentiments et sourit si vous appréciez une plaisanterie, rougit si vous êtes embarrassé, se colore en bleu si vous avez le blues…

La librairie de modules du Smart-Shield est riche et vous pouvez encore l’enrichir en programmant en scratch de nouveaux modules.

Photo cottonbro -Pexels

Le Smart-Shield coûte quand même la bagatelle de 990 euros, et certains modules sont en supplément. Il est conseillé de le laver après quatre heures d’utilisation et il est garanti pour 50 lavages. On pourrait objecter que cela fait quand même cher mais Ada Maschera, la pédégère de “Plus qu’un masque”, nous a déclaré : si ça vous sauve de la Covid, du tabac, vous fait rencontrer votre âme sœur et tout le reste, moi je trouve ça tout à fait justifié, voire même bon marché…

A la question “Est-ce que la 5G était indispensable pour le Smart-Shield ?”, Ada Maschera a répondu que cela n’était pas forcément utile, voire carrément inutile, mais que son équipe marketing le lui avait fortement conseillé pour faire tendance et que personnellement elle trouvait cela très chic. Pour ce qui est de l’IPV6, elle a fini par admettre qu’elle ne savait pas bien ce que c’était mais que son CTO avait menacé de démissionner si le produit n’était pas compatible IPV6.  Il se murmure que la prochaine version intégrera un calculateur quantique. La pédégère n’a pas confirmé mais a juste commenté : on saura vous impressionner…

Elle a par ailleurs annoncé que leur prochain masque, aujourd’hui en bêta-test, sortira bientôt. Il est équipé d’une voix que vous sélectionnez ; Marion Cotillard ou Omar Sy.  Vous murmurez ou entrez du texte sur votre téléphone, et le masque parle avec la voix choisie.

Ses inventeurs ont équipé cette future version d’un module ’’humour”. Mais pas sûr que vous appréciez, par exemple, le bruit de prout qui se déclenche automatiquement quand une réunion devient lassante. Un prout ? Au secours ! Nous sommes sans doute très nombreuses et nombreux à détester ce genre d’humour potache. Mais rassurez-vous, on peut débrancher ce module, comme d’ailleurs tous les autres modules du Smart-Shield pour le transformer en un FFP2 classique.

Serge Abiteboul & Marie-Agnès Énard