Face à la foule, à travers les arts. Une entrevue avec
Paulo Cirio
raison-publique.fr/3446
Cristina Voto
22 juin 2024
Artiste conceptuel, hacktiviste et critique culturel, Paulo Cirio incarne les principes
éthiques associés aux hackeurs, promouvant le libre accès, la vie privée et l’examen
critique des cadres économiques, juridiques et politiques. Il s’entretient avec Critina
Voto. La traduction est de Solène Semichon.
Le 23 mars 2023, l’Assemblée nationale française a adopté une loi autorisant la
vidéosurveillance algorithmique pendant les Jeux olympiques et paralympiques de 20241.
Marquant un tournant significatif dans la Communauté européenne, la loi sanctionne le
déploiement de systèmes de surveillance fondés sur les algorithmes pendant les
événements sportifs, les concerts et les festivals présentant des risques élevés d’atteinte à
la sécurité ou de terrorisme. En vertu de cette loi, les données collectées par des systèmes
de vidéosurveillance pendant les Jeux peuvent subir un traitement algorithmique jusqu’au 31
mars 2026 afin d’assurer la sécurité des événements sportifs, de loisirs ou culturels
particulièrement susceptibles d’être visés par des menaces de terrorisme ou des menaces
sérieuses contre la sécurité des personnes à cause de leur ampleur ou des circonstances.
Ce traitement par IA a pour objectif d’identifier des événements prédéfinis en temps réel qui
pourraient indiquer de tels risques et d’en avertir rapidement les autorités. Une inquiétude
importante se manifeste cependant : malgré la présentation de la loi sur les Jeux comme
exigeante sur un plan éthique, l’accent mis sur l’exclusion des logiciels de reconnaissance
faciale et, par conséquent, des données biométriques, la mise en œuvre de cette
vidéosurveillance par IA présente encore des problèmes. Au-delà des déclarations
rhétoriques, ces technologies émergentes posent des défis technologiques : qu’est-ce qui
sera surveillé par cette nouvelle technologie ? Malgré des réglementations contre les
logiciels de reconnaissance faciale, certaines inquiétudes existent sur la nature
discriminatoire de la surveillance par algorithme à cause de son taux de prédiction et son
impact potentiel sur les communautés vulnérables.
1/12
Ce système de surveillance automatisé est conçu pour identifier certaines anomalies comme
des bagages abandonnés ou un comportement inhabituel, et pour alerter le personnel de
sécurité quand il y a détection d’un « événement suspect ». Cette avancée suscite
néanmoins des inquiétudes sur les conséquences potentiellement discriminantes de la
vidéosurveillance par algorithme, qui touche particulièrement des groupes marginalisés
comme les individus avec des handicaps, les communautés désavantagées, ou ceux qui
vivent dans la rue, et dont les schémas de comportement peuvent être interprétés comme
déviant de la norme. Cette législation manque de clarté concernant le comportement suspect
et la définition du traitement des données personnelles reste ambiguë. Si les logiciels de
reconnaissance faciale sont explicitement interdits, des inquiétudes persistent sur ceux qui
analysent la foule à cause de leurs fonctions d’analogie. Des questions se posent : comment
des modèles automatisés peuvent-ils effectivement représenter un comportement suspect
pour prévoir des risques ? Comment la technologie passe-t-elle de l’identification faciale à la
prédiction comportementale, et comment ce passage est-il incorporé dans sa conception ?
Ces questions soulignent la nécessité d’un examen approfondi et d’une réglementation
transparente des technologies de surveillance émergentes afin de garantir qu’elles soient
éthiquement saines et de protéger les droits individuels et la vie privée.
Afin de répondre à ces défis et d’explorer les implications de ce changement de paradigme
apporté par l’intégration des nouvelles technologies dans la surveillance de la foule, un effort
collaboratif a été initié par l’équipe interdisciplinaire de Law and Humanities de l’université
Paris-Panthéon-Assas en partenariat avec le groupe de recherche ETHICS de l’université
catholique de Lille et le projet FACETS – Face Aesthetics in Contemporary E-Technological
Societies – de l’université de Turin, subventionné par le Conseil européen de la recherche.
Cette initiative a culminé dans l’organisation du colloque « Visages dans la foule :
reconnaissance faciale, surveillance et événements publics » (« Faces in the Crowd: Facial
Recognition Technologies and Monitoring Crowds at Public Events »).
Ce colloque, qui a eu lieu les 7 et 8 décembre 2023 à l’université Paris-Panthéon-Assas, a
attiré des invités distingués dont l’artiste bien connu, Paulo Cirio. Renommé pour ses rôles
en tant qu’artiste conceptuel, hacktiviste et critique culturel, P. Cirio incarne les principes
éthiques associés aux hackeurs, promouvant le libre accès, la vie privée et l’examen critique
des cadres économiques, juridiques et politiques. Il a aussi travaillé sur de nombreux projets
et campagnes sur les abus de la technologie de surveillance et sa réglementation. Cristina
Voto, chercheuse post-doctorante affiliée au projet ERC FACETS, a réalisé une entrevue
très instructive de P. Cirio. Un dialogue et une pratique artistique interdisciplinaires
permettent de promouvoir des formes plus inclusives d’expression et de lien de la
communauté.
Les images et données numériques sont les matériaux premiers de votre pratique
artistique. Quand vous pensez au contexte historique et culturel qui entoure votre
travail, percevez-vous un changement des frontières entre les sphères publiques et
privées, dû à la numérisation croissante de nos vies au nom de la sécurité publique ?
2/12
Tout d’abord, j’aimerais commencer par dire clairement que j’essaie de différencier la vie
privée et la surveillance quand je travaille sur ces sujets. La surveillance se concentre sur les
masses, tandis que la vie privée est un aspect plus personnel, généralement associé à des
affaires privées. Ensuite, je crois qu’il est important de se rappeler que les réflexions sur les
problèmes critiques liés à la surveillance étaient déjà dominantes avant 2001, en particulier
dans les domaines du militantisme et des communautés de hackeurs. J’ai commencé à
explorer ce thème à la fin des années 1990, dans le contexte des premières réflexions sur
l’activisme en ligne, en particulier en me plongeant dans l’étude de PGP (Pretty Good
Privacy), ensemble de logiciels de cryptage conçus à des fins d’authentification et de
protection de la vie privée, essentiels pour la protection contre la surveillance en ligne.
Un autre facteur qu’il faut prendre en compte pendant cette période est que la majeure partie
du trafic sur les sites internet permettait de voir les historiques des consultations de sites, ou
au moins qu’on pouvait supposer qu’à peu près 70% des sites à cette époque n’utilisaient
aucune forme de cryptage. Cela facilitait grandement la surveillance en ligne et la rendait
poreuse, comme l’ont montré les révélations d’Edward Snowden2. Un rappel de ces faits
nous donne un contexte culturel : à cette époque, personne ne semblait se soucier de cette
situation, et, techniquement, aucune technologie n’était conçue dans ce but. Cela donne une
idée claire de la surveillance de masse par la technologie qui, jusque-là, n’était pas
considérée comme un problème.
Je me rappelle en outre très bien quand, avec les premières plateformes de réseaux
sociaux, internet a commencé à se remplir d’images. Ce fut un vrai choc pour ceux qui
travaillaient avec internet, parce qu’au départ ce dernier était principalement un média
textuel. C’est fondamental parce que ce n’est que quand un média devient de masse qu’il
peut vraiment transformer la société. Je me rappelle que c’est principalement Facebook qui
a changé internet en le faisant passer d’un média de niche à un média non seulement pour
les masses mais en particulier pour les images personnelles. Ça a été un choc
particulièrement significatif pour moi de voir internet se peupler rapidement de nombreuses
images individuelles et familiales montrant des situations privées. Même dans le monde du
militantisme, Facebook a complètement transformé la façon dont celui-ci opère et existe. En
2004 et 2005, alors que je participais à des actions collectives contre la mondialisation
pendant la période de l’après G8 à Gênes, je vivais dans un squat à Londres. Je me rappelle
que nous devions trouver des façons de rendre anonyme notre présence pour organiser des
actions ou avoir une carte des autres collectifs. Puis Facebook est arrivé, et il a
complètement changé le paradigme et notre façon d’être liés les uns aux autres. À un
moment, il est devenu essentiel d’être visible afin d’atteindre plus de personnes et de faciliter
les réunions. Ça a été une période très fertile et stimulante pour moi : une nouvelle frontière
s’avançait rapidement vers nous, et dans ce nouveau monde de la frontière, on pouvait faire
des expériences avec beaucoup de choses, même d’un point de vue esthétique.
3/12
En 2012, j’ai créé un projet intitulé Google Street Ghost, qui est lié de près aux nouveautés
introduites par l’expansion de Facebook. Dans ce projet, j’ai réfléchi au changement de
perception entre public et privé dans les réseaux sociaux du début. Cet exercice était simple
mais il a eu un impact : j’ai utilisé des images trouvées sur Google Street View, qui étaient
déjà publiques, et je les relocalisées dans les endroits d’où elles venaient, en matérialisant
ces images et en leur rendant leur dimension publique. Malgré le fait que cela ait été un
projet facile, il est rapidement devenu viral, et il a eu une résonance au niveau mondial
pendant des années. Il est peut-être moins visible maintenant, mais il garde assurément un
certain charme. Aujourd’hui, les gens pourraient aussi le percevoir comme scandaleux à
cause de la conscience que tout le monde a des problèmes de vie privée, mais à cette
époque-là, voir l’une de ses images volées sur internet, imprimée et placée dans un lieu
public était une idée puissante et provocatrice.
Il y a un autre projet, Persecuting US, de 2012. À cette époque-là, Twitter était au sommet
de sa popularité, mais plus que de popularité nous devrions parler de nouveauté. C’était
surtout la première année où il a été utilisé pendant les élections présidentielles pour de la
propagande et la promotion d’idées politiques. J’ai extrait un million de profils Twitter en
utilisant des hashtags particuliers liés aux débats entre Barack Obama et Mitt Romney. En
utilisant des algorithmes d’exploration de données, j’ai déterminé l’affiliation politique de ces
utilisateurs, en créant de la sorte une énorme base de données. À cette époque-là, l’idée
que les réseaux sociaux pouvaient avoir des algorithmes capables de manipuler les flux et
de filtrer ce qu’il y avait à voir n’était pas claire. On pouvait seulement acheter des hashtags,
même si l’étendue réelle de cet achat n’était pas évidente. Ce projet représentait déjà une
intuition de la façon dont ces outils seraient utilisés pour manipuler les sondages suivants,
mais il ne s’agissait pas seulement de manipulation, cela concernait aussi la persécution, et
le problème émergent était celui de la polarisation, que je voyais alors presque comme une
sorte de guerre civile. Une attaque dans l’espace numérique des réseaux sociaux pouvait
être encouragée en polarisant politiquement les masses. Cela semble trivial aujourd’hui,
mais, à cette époque-là, la polarisation n’avait pas encore atteint son niveau actuel. Sur le
site du projet, il y avait même une fonction qui permettait d’envoyer des menaces à un
militant démocrate ou républicain, une provocation à démontrer comment les réseaux
sociaux pouvaient devenir non seulement des outils de polarisation mais aussi d’agression.
Les deux projets reflètent le contexte historique de cette époque-là, et placent la réflexion
sur la surveillance, la vie privée et la manipulation par les réseaux sociaux au centre. Il est
en outre essentiel de noter que l’on ne discutait pas d’éthique à ce moment-là. C’est un
aspect historique pertinent parce qu’il n’y avait pas de débat sur l’éthique de la conception
d’un algorithme. C’était une sorte d’Ouest sauvage, où les entreprises d’internet pouvaient
tout faire, et les utilisateurs ne posaient pas trop de questions sur la façon dont ces outils
étaient utilisés. C’était l’Ouest sauvage dans le sens d’une nouvelle frontière, où je pouvais
4/12
réaliser ces projets qui seraient inacceptables aujourd’hui, à la fois pour les conservateurs
de musées, les musées eux-mêmes et pour le public qui les trouveraient discutables, et à
juste titre.
Avec ces projets, j’avais déjà commencé à étudier les problèmes qui continueraient à
m’intéresser et à m’accompagner tout au long des années suivantes. J’ai aussi commencé à
enquêter sur la reconnaissance faciale, en l’utilisant pour le projet Face to Facebook en
2012, qui était un peu en avance sur ce développement technologique. À cette époque-là, la
conscience sociale, culturelle et scientifique de ces problèmes était limitée. Les centres de
recherche n’avaient accès qu’à un ou deux algorithmes de détection des expressions
faciales, et nous n’aurions jamais pu imaginer une application pratique de cette technologie
ou son développement actuel. L’utilisation de Facebook, de Twitter et même de Google
représentait des opportunités formidables, et fertiles d’un point de vue artistique parce
qu’elles me permettaient de mener des opérations de renseignement réel en accès libre, une
sorte d’approche d’enquête s’appuyant sur des informations en ligne mais avec des outils
spécifiques offerts par les réseaux sociaux. Je répète cependant que les questions d’éthique
n’avaient pas encore été abordées dans ce contexte. Pendant ces années, le débat et les
formes d’éthique étaient encore en train de se développer autour de l’utilisation bonne et
mauvaise d’internet.
De mon point de vue, vos projets artistiques incarnent avec constance l’évolutivité et
la dimension performative des données. À cet égard, nous pouvons voir comment,
dans vos œuvres, la trajectoire de la technologie passe de l’individu à une échelle de
masse, tout en étudiant l’impact profond de la matérialité numérique. Votre pratique
artistique – qui tisse des éléments de vos expériences passées comme celle des
squats à vos rôles présents, en particulier l’enseignement universitaire – suggère que
vous vous consacrez à lier le potentiel actif de ces matériaux pour arriver à des
résultats à fort impact. Je souhaiterais que nous approfondissions cette dimension
davantage, en particulier en nous concentrant sur les images et les données.
Pourriez-vous nous dire la façon dont vous négocier et dont vous abordez les
entrelacs de l’évolutivité et de la dimension performative dans votre pratique
artistique ?
Adolescent, je passais mes nuits à lire des livres sur le situationnisme et les cyberpunks
dans les squats de Turin en Italie. Je connaissais le potentiel de l’art et des actions
artistiques, et c’est ce qui m’intéressait le plus. J’ai vécu un moment important de prise de
conscience quand j’ai commencé à lire les premiers livres sur le codage et les bases de
données. Ça a été une révélation créative pour moi de voir la base de données comme un
outil futur de l’art. Cette conscience s’est développée quand j’avais 17-18 ans. Je me suis
consacré à l’étude de l’utilisation des mégadonnées, en anticipant l’ère de celles-ci, et nous
parlons de la période 1998-1999, quand le concept de mégadonnées n’avait pas encore pris
forme. Cette approche n’était pas qu’artistique, car j’étais conscient que cela aurait un
impact politique important sur ma vie et sur le paysage environnant.
5/12
J’ai passé plusieurs années à apprendre cette technique, qui est finalement devenue une
compétence que je pouvais appliquer dans l’art et dans mes activités de militant. Le travail
sur les bases de données a été mon fil d’Ariane, à partir de Face to Facebook, y compris
pour l’œuvre Anti-NATO Day (2001-2006), site internet que j’ai conçu contre l’OTAN et que
l’on peut aussi considérer comme une base de données contenant des centaines d’articles
contre la guerre. Il a représenté une innovation dans le paysage des médias, car avant lui,
on avait recours aux livres, à la radio ou aux vidéos. Quand j’ai commencé à créer des
œuvres avec les mégadonnées, comme Face to Facebook et Persecuting US, j’ai finalement
pu mettre en pratique les études et les ambitions artistiques que je cultivais depuis des
années. Cette expérience a été accueillie avec beaucoup d’enthousiasme, ce qui a confirmé
mon intuition que cet art, avec cette immense quantité de données, représentait un territoire
inexploré, un nouveau matériau, numérique, mais un matériau quand même. L’utilisation de
ce matériau a eu non seulement des conséquences esthétiques qui n’avaient jamais été
expérimentées, mais qui reflétaient aussi profondément la dimension sociale. À un certain
moment, j’ai commencé à définir ces créations comme des « sculptures », parce que je
donnais de nouvelles formes à ces données et que créais une interface qui était liée au
monde naturel et au public.
Avec Face to Facebook, j’ai fait l’expérience du sommet des possibilités artistiques, en
apercevant une fusion unique entre la dimension performative et la participation de masse à
travers des bases de données. J’ai souvent répété que ça avait été la première fois qu’il
avait été possible de réaliser une performance impliquant des centaines de milliers de
personnes. Quand on regarde l’histoire de l’art et les nombreuses performances
participatives, les projets expérimentaux, et l’utilisation massive de photos, on n’avait jamais
atteint un public aussi étendu et varié. Même dans l’art cybernétique des années 1960-1970,
avec ses performances à distance, on n’avait jamais touché un public aussi large. D’un point
de vue esthétique, cette expérience a représenté une révolution complète, non seulement
idéalisée mais effectivement réalisée.
Immergé dans la masse des données, j’ai pu éprouver des impressions semblables à celles
des hackeurs, dans lesquelles le contrôle d’une masse de gens donne un pouvoir individuel
et personnel. En même temps, cependant, la capacité à zoomer sur un individu engendrait
un lien puissant, qui m’a permis d’explorer, d’une façon presque voyeuriste, mais pas
seulement externe, les vies de ces gens. Si je pouvais voir sans être vu, en même temps, je
me sentais impliqué dans l’existence de ces personnes, établissant une relation intime avec
leurs images et leurs histoires. Dans cette dynamique, la dimension de l’échelle était
fascinante, presque comme un minéral à facettes multiples. L’échelle de masse pose des
questions de pouvoir et de contrôle, avec une qualité intrinsèque de ce matériau composé
d’individus, de leurs vies privées, de leurs expériences et de leurs personnalités. Cette
relation intime avec le matériau est donc un aspect significatif. Ici, le visage entre en ligne de
6/12
compte, avec ses propriétés intrinsèques, comme un matériau esthétique particulièrement
évident à l’intérieur de ces bases de données. L’image faciale crée un lien plus humain,
intensifie l’intimité et la compréhension des relations.
En parlant des images faciales, j’aimerais que nous explorions les redéfinitions du
genre du portrait à la lumière de différentes pratiques, y compris des avancées
technologiques, en retraçant l’évolution esthétique depuis les photos d’identité
jusqu’aux visages recadrés. Obscurity, l’une de vos œuvres de 2016, est un prisme
puissant à travers lequel regarder le genre contemporain du portrait. Comment
interprétez-vous cette dynamique dans votre pratique artistique et vos réflexions
actuelles ?
Depuis qu’elles ont été inventées, les photos d’identité présentent des formes de portraits
pour le contrôle et l’identification mais aussi des outils de discrimination dans la société de
surveillance qui évolue depuis la Révolution française. Elles sont par conséquent utilisées
comme matériau pour développer les technologies de reconnaissance faciale, influençant
les algorithmes et les modèles d’intelligence artificielle. Ces algorithmes à leur tour
incorporent un biais particulier orienté vers les criminels qui s’appuie sur des détails faciaux
qui peuvent être utilisés pour identifier un individu. Cette dynamique, bien entendu, évolue
avec le progrès des modèles d’intelligence artificielle. Pendant de nombreuses années, de
tels algorithmes ont été utilisés par les autorités pour identifier et surveiller des criminels et
les photos d’identité sont à l’origine de la discrimination de masse. Cela étant dit, la question
personnelle se pose à propos de l’échelle individuelle par rapport à l’échelle de masse. Il est
essentiel de souligner que, au-delà de la technologie et des algorithmes utilisés pour la
surveillance, la prédiction ou la lecture des expressions faciales, les individus sur ces photos
d’identité ont un contexte personnel, social, et économique particulier, qui contribue à
générer ces images. La question se pose alors de savoir si c’est le contexte culturel ou le
délit qui génère ces images. J’ai toujours été très intéressé par cette question.
Le projet Obscurity a représenté un moment pivot dans ma vie, qui m’a conduit à explorer
ces problèmes en tant que militant en faveur de nouvelles politiques. Malgré son ampleur,
j’ai été surpris par le fait que ce phénomène reçoive très peu d’attention. Dans ces annéeslà, l’art et les médias commençaient à discuter de l’incarcération de masse. De façon
intéressante, jusqu’en 2015, le New York Times et d’autres médias n’ont pas accordé
suffisamment d’attention à cette question des données criminelles circulant en ligne. J’ai
collecté plus de dix millions de ces images, ce qui a établi un record de quantité par rapport
à mes autres projets précédents de mégadonnées. Mon intérêt s’en est trouvé accru, et ma
consternation aussi, car ces images tragiques sont profondément différentes d’autres
projets.
Mon approche a suivi une stratégie qui m’a permis de cloner six sites internet de photos
d’identité. J’ai recréé six plateformes pour traiter toutes les images, les rendre floues, et les
remettre en ligne, en attendant les conséquences. Dans ce cas, mes projets me réservent
7/12
souvent des surprises mais la réaction de choc a confirmé l’ampleur et la réalité du
phénomène. Ce projet a généré un trafic important, accompagné de messages de
personnes qui ont été profondément touchées par ce problème. Il est devenu un exemple
tangible du lien intime que chacun de nous a avec les données. En écrivant à propos de
leurs expériences douloureuses, ces individus ont créé un lien intime qui les a influencés et
m’a aussi influencé. Je ne m’y attendais pas non plus, mais ce projet m’a donné un peu de
stress post traumatique. Faisant face à ce problème tout seul, je suis devenu un point de
référence pour ceux qui cherchaient un soutien. Ce projet s’est développé et a mué en une
campagne, et un petit groupe d’individus, dont des journalistes, des universitaires et des
militants se sont penchés sur ces problèmes. Cette communauté a continué à vivre pendant
des années.
D’un point de vue esthétique, l’effet de flou a été réalisé grâce à un algorithme, qui a donné
des couleurs et des formes intrigantes. Sa pertinence conceptuelle atteint cependant
quelque chose de plus profond : le gradient qui obscurcit ces visages sur ces photos
d’identité a pour but de protéger la vie privée des gens, tout en indiquant le risque de juger
quelqu’un sur la base de ses traits visuels. L’image du visage devient presque illisible, non
seulement pour un algorithme de reconnaissance faciale automatisé, mais aussi pour ce qui
est de problèmes plus larges de reconnaissance, de vérification et de classification des
visages.
Étant donné les technologies contemporaines de surveillance, comment percevezvous la transformation de notre compréhension des événements à fort impact comme
les événements sportifs ? Pourriez-vous développer le rôle que la technologie a dans
la mise en forme de la conception et de la logistique à ces occasions ? Je trouve
également intrigant que les lieux désignés pour les travailleurs des Jeux soient
appelés « villages olympiques », ce qui évoque des parallèles avec le concept de
village mondial. Ils semblent tous les deux émerger de systèmes de surveillance et de
contrôle complexes, qui font porter la responsabilité du soin de la communauté –
autrefois géré par des membres de la communauté dans le royaume numérique – par
la technologie. Comment ce paysage en évolution influence-t-il vos considérations et
réflexions artistiques ?
Quand on réfléchit au problème du contrôle de masse d’un point de vue historique, on se
rend compte qu’un tel contrôle est constamment mis à jour sur l’époque, le contexte socioéconomique et les outils disponibles. Dans ce contexte, la religion ressort comme l’un des
premiers outils, sinon le seul, à avoir une pertinence élevée. Il est fascinant d’observer
comment l’idée des divinités omniprésentes observant et jugeant l’humanité se développe à
travers différents systèmes de croyance. Le contrôle symbolique est illustré par la présence
de fausses caméras de surveillance, qui encouragent les individus, pour des raisons de
sécurité, à se comporter comme s’ils étaient constamment surveillés, sous le regard d’une
divinité.
8/12
Avec l’avènement de la modernité cependant, et la Révolution industrielle, le contrôle de
masse a changé d’objectif, et il cible principalement les classes ouvrières. À l’ère industrielle,
l’architecture, les emplois du temps et les salaires sont devenus des outils essentiels pour
contrôler les ouvriers dans les villes importantes et les métropoles. Dans la seconde
modernité de l’après-guerre, une transformation se produit, alors que les travailleurs
deviennent des consommateurs, ce qui donne lieu à une nouvelle classe économique de
masse. Le contrôle s’étend au-delà de la consommation pour englober les habitudes et les
us et coutumes. Depuis la période de l’après-guerre, les habitudes et l’individualité sont
devenues des formes de contrôle, construisant des identités autour de schémas et de styles
de vie particuliers. Ce changement a donné lieu à une perte progressive du sens commun et
de la communauté, qui a été remplacée par une vague d’individualisme.
L’évolution du contrôle de masse a pris un autre tournant avec l’apparition de la technologie
qui souligne l’adaptation constante des stratégies de contrôle en réponse à la dynamique
sociale et aux innovations technologiques. Il est essentiel de prendre en compte un aspect
particulier : le contrôle de masse d’avant-guerre, enraciné dans des idéologies politiques
majeures, comme le communisme, le nazisme et le fascisme. Ces idéologies unissaient les
masses autours de chefs charismatiques et servaient d’outils pour les contrôler.
L’émergence de l’intelligence artificielle marque une nouvelle phase dans le contrôle et la
formation de la masse. Les outils semblent suivre le contexte dans lequel la masse se
développe, créant une incertitude à propos de la question de savoir si c’est la masse qui se
forme avant les outils ou bien l’inverse. Nous sommes les témoins d’une transformation
significative, influencée par le changement climatique, une nouvelle dynamique géopolitique
et économique, et une dépendance naissante à l’inégalité financière, qui engendre de
nouvelles dynamiques sociales comme des migrations à grande échelle. L’intelligence
artificielle devient indispensable dans cette nouvelle réalité des masses, comparable au
développement d’outils pour une auto-régulation. La dynamique évolue à des niveaux
différents, et l’intelligence artificielle s’intègre parfaitement dans ces contextes, fonctionnant
comme un système de contrôle adaptable.
La tendance est à un contrôle accru des mouvements des personnes et de leurs finances,
accompagné d’une discrimination toujours plus grande. La dépendance à un contenu
médiatisé et à des relations numériques est en constante augmentation, ce qui marque la fin
de la nature et conduit à une catégorisation plus importante des masses. L’intelligence
artificielle excelle à contrôler les individus à l’intérieur de la masse. Alors que les
mécanismes précédents de contrôle ciblaient les masses collectivement par le biais des
réseaux sociaux et de la reconnaissance faciale, l’intelligence artificielle fonctionne au
niveau granulaire et individuel, éliminant le besoin d’une figure humaine aux commandes.
Pour conclure, le contrôle autrefois aux mains de figures comme le prêtre, l’officier de police
ou l’ingénieur de Facebook, est maintenant exécutée par l’intelligence artificielle, ce qui
signifie un changement important dans la façon dont nous gérons et contrôlons les masses.
9/12
La figure dominante dans ce scénario devient une collection d’intelligence artificielle, pas
une simple entité mais des unités d’IA innombrables qui exercent un contrôle et une
manipulation détaillés. Cela représente une différence notable avec des développement à
venir et que nous ne connaissons pas encore. Cependant, si nous allons dans cette
direction, je crois qu’il existera certainement des façons de résister. Je ne souscris pas aux
récits qui décrivent l’extinction de l’humain, car l’IA, bien qu’outil plus puissant, n’a pas
l’élément humain qui est présent derrière chaque outil précieux. Ce changement va altérer le
paysage de façon importante.
La perspective d’un contrôle individuel plus précis se déploie, opérant à un niveau de
granularité impliquant personne après personne. Cet aspect représente une couche
supplémentaire de transformation et de défi par rapport au passé.
Vos idées soulèvent un point puissant. Le paradigme de la surveillance que vous avez
décrit peut potentiellement redéfinir notre relation aux données. Ce ne sont plus de
simples éléments qui ont de la valeur seulement pour leur apparence extérieure,
comme de capturer un moment particulier. À la place, tout transforme les données à
travers une série de logiques prédictives. Par conséquent, l’humanité et la perspective
humaine perdent leur position centrale, rendant le concept de panoptique non
pertinent. En termes foucaldiens, cette structure qui nous situe de façon constante
dans différentes formes de délégation – que ce soit d’un ingénieur de Facebook à un
prêtre de paroisse – devient un exemple de délégation divine ou de la Silicon Valley,
selon la perspective adoptée. Dans ce nouveau paysage mis en forme par la logique
prédictive, enraciné dans la croyance que des formes de résistance existent toujours,
un problème fondamental des données voit le jour : l’incertitude. Quand nous
débattons des données et de l’établissement d’un lien archéologique adéquat allant
du prêtre au système de surveillance pour les Jeux olympiques de 2024, nous devons
reconnaître que l’écart est maintenant indiciel, c’est-à-dire la relation dans le contexte.
Selon moi, l’absence d’un moi particulier à un moment donné crée une occasion
supplémentaire de résistance, une affirmation plus large de résistance. Cette
résistance est incarnée dans l’incertitude intrinsèque aux données elles-mêmes. Alors
que notre perception des données change, à partir de quelque chose de spécifique,
comme le suggèrent les statistiques, un monde se déploie, dans lequel l’image
incertaine peut nous guider pour une réflexion sur de nouvelles perspectives. Que
pensez-vous de cette perspective potentielle de résistance à l’époque des données ?
Pour ce qui est des défis contemporains de la surveillance de masse, en particulier dans les
espaces publics où diverses formes de surveillance existent, le contexte entourant des
événements comme les Jeux olympiques est particulièrement intrigant. D’une certaine façon,
cela confirme ce dont nous sommes en train de parler. Il faut noter comment toutes ces
entreprises dédiées au développement d’outils de surveillance et les pouvoirs ont récupéré
notre langage, prétendant suivre des pratiques éthiques. Au même moment, cependant, ils
affirment qu’ils n’utiliseront pas techniquement les données biométriques, ce qui semblait
10/12
impossible il y a six mois. Maintenant, ils assurent également que les données biométriques
ne seront pas utilisées. Simultanément, ils introduisent de nouvelles technologies
prédictives, disant qu’elles ne sont pas aussi dangereuses que par le passé et garantissant
qu’ils garderont le contrôle sur les masses grâce à ces technologies.
Mes observations montrent que ces technologies prédictives émergentes affirment leur
supériorité sur les données biométriques. Si elles n’utilisent pas directement les traits du
visage, elles se concentrent sur des détails comme les vêtements, la taille ou d’autres
schémas de comportement. Même sans identification directe, des individus sont soumis à
une surveillance accrue. Jusqu’à ce qu’un prénom ou un nom soit lié aux données,
l’anonymat est préservé, mais le niveau de surveillance a augmenté par rapport aux
méthodes précédentes.
Entretien traduit par Solène Semichon
==================
NOTES
1. Toute l’information vient du site Algorithmic Watch, https://algorithmwatch.org/en/letthe-games-begin-frances-controversial-olympic-law-legitimizes-automatedsurveillance-testing-at-sporting-events/[↩]
2. Activiste et expert informatique américain. Après avoir travaillé dans la sécurité pour la
National Security Agency, il a été recruté par la CIA pour travailler dans la
cybersécurité. En 2013, il a été recruté par une entreprise technologique, Booz Allen
Hamilton, comme consultant pour la NSA. Cette même année, S. a fait fuiter des
milliers de documents classifiés de la NSA à des journalistes du Guardian qui
révélaient l’existence d’un programme de renseignement de surveillance de masse
mondial, et exposaient ainsi des violations de la vie privée et de la liberté d’expression
et des réseaux d’espionnage. Parmi les programmes de renseignement rendus publics
figurait l’interception des communications téléphoniques entre les États-Unis et l’Union
européenne incluant des métadonnées des communications et le contrôle d’internet
par des agences. Les États-Unis ont accusé l’expert informatique de délits comme le
vol de biens de l’État américain et d’espionnage, et ont révoqué son passeport. En
2013, la Russie a accordé l’asile à S et en 2015 l’Union européenne lui a donné le
statut de réfugié politique. Depuis 2016, il est le président de Freedom of the Press
Foundation, une organisation à but non lucratif fondée en 2012 et soutenant la liberté
d’expression et la liberté de la presse.[↩]
Cristina Voto
Cristina Voto est professeure assistante en philosophie et théorie des langues à l'université
de Turin, en Italie, et se spécialise dans l'intersection entre la sémiotique, la technologie et le
genre. Elle codirige le projet de recherche "The Performed Archive : The Construction and
11/12
Enactment" à l'université nationale de Tres de Febrero, en Argentine, et fait partie du comité
scientifique du programme doctoral en conception et création à l'université de Caldas, en
Colombie. Elle est également conservatrice pour la Biennale de l'image en mouvement à
Buenos Aires.
Culture
Entretiens
Société
12/12