SSRN Id3391272
SSRN Id3391272
SSRN Id3391272
journalisme ?
Céline Castets-Renard
Membre de l’Institut Universitaire de France (IUF)
Professeur de droit, Université Toulouse Capitole
Directrice du Master Droit du Numérique
Directrice adjointe de l’IRDEIC - Centre d’Excellence Jean Monnet
Résumé. L’intelligence artificielle influence de plus en plus nos vies, tant personnelles que
professionnelles. Si toutes les professions ont vocation à être concernées, les métiers du droit
et du journalisme se prêtent tout particulièrement à l’usage de ces technologies. Sont alors
révélés les avantages mais aussi les risques, en particulier liés aux potentiels biais et
discrimination des procédés algorithmiques, ainsi qu’aux questions de responsabilité.
Contexte. L’heure est à l’intelligence artificielle (IA). Ne pas s’y mettre reviendrait à se
condamner à l’obsolescence, voire à la disparition ! Il faut dire que ses promesses sont belles :
applications pour une agriculture plus soutenable, un système financier plus stable, une
meilleure médecine, des transports plus sûrs… Sans même évoquer les enjeux économiques1.
Le marché de l’intelligence artificielle avoisinerait les 664 millions USD et devrait
atteindre 38.8 milliards USD en 2025, d’après l’Opinion délivrée par le Comité économique
et social européen en mai 2017. La machine seconde l’humain désormais libéré des tâches
ingrates, pour se concentrer sur les tâches cognitives les plus valorisantes et augmenter son
bien-être. Les gouvernements ne sont pas en reste pour encourager un tel progrès. En France,
le rapport du mathématicien et député Villani affiche une volonté politique forte2, alors que le
Canada, sous l’impulsion de l’Université de Montréal, a lancé une « Déclaration de Montréal
pour une IA responsable »3. Ces deux initiatives ont en commun de vouloir considérer
l’impact social du déploiement de l’IA et privilégier une approche éthique respectueuse de
l’humain.
Enjeux. Des principes éthiques méritent en effet d’être affirmés et surtout défendus, alors que
les développements technologiques de l’IA, menés en particulier aux Etats-Unis, montrent un
certain nombre de risques, associés par exemple aux robots létaux. Mais sans aller jusqu’au
déploiement d’une IA sophistiquée dans des secteurs de pointe, on constate dès à présent
1
Artificial intelligence – The consequences of artificial intelligence on the (digital) single market, production,
consumption, employment and society (own-initiative opinion) INT/806.
2
« Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne », AIforHumanity,
Mars 2018 : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf. Mission
confiée par le premier ministre Edouard Philippe.
3
https://www.declarationmontreal-iaresponsable.com.
4
A. Supiot, La gouvernance par les nombres, Cours au Collège de France (2012-2014), Fayard, coll. Poids et
mesures du monde, 2015.
5
D. Pontille et D. Torny, La manufacture de l’évaluation scientifique : algorithmes, jeux de données et outils
bibliométriques et A. Rouvroy et Th. Berns, Gouvernementalité algorithmique et perspectives d'émancipation :
le disparate comme condition d'individuation par la relation ? in Politique des algorithmes : les métriques du
web, Réseaux, La Découverte, févr.-avr. 2013. A. Rouvroy, La « digitalisation de la vie même » : enjeux
épistémologiques et politiques de la mémoire digitale, Documentaliste – Sciences de l’information, 2010, vol. 47
n° 1, p. 63. C. Castets-Renard, Traitement algorithmique des activités humaines : le sempiternel face-à-face
homme/machine, Cahiers Droits, Sciences et Techniques, 2016, n° 6, p. 239-255 : https://cdst.revues.org/509.
6
D. Keats Citron and F. A. Pasquale, The Scored Society: due Process for Automated Predictions (2014).
Washington Law Review, Vol. 89, 2014, p. 1-; F. A. Pasquale, The Black Box Society: the Secret Algorithms
That Control Money and Information, Harvard University Press, 2015.
7
Rapport Villani, p. 9.
Des outils présentant des performances similaires peuvent aussi s’envisager pour les métiers
du droit. Les algorithmes de compilation et traitement des décisions de justice permettent de
prédire les chances de réussite d’un procès, ainsi que le montant probable des dommages et
intérêts alloués, à l’instar de ce que propose la logiciel COMPAS (Correctional Offender
Management Profiling for Alternative Sanctions)10. Ces capacités peuvent aussi être utilisées
pour aider le juge dans sa prise de décision (justice prédictive). Outre ces fonctions
prédictives, l’intelligence artificielle sert l’exécution automatique du droit, au travers des
smart contracts ou contrats intelligents11. Par ailleurs, le traitement automatique du langage
humain par la machine donne la possibilité à l’avocat d’interroger le système et de répondre à
des questions légales de manière succincte et précise, en fouillant dans les textes juridiques.
Telle est la principale mission de Ross, système Watson d’IBM. Les fonctions de
mémorisation de l’IA évitent aux professionnels de fastidieuses séances de recherches. La
rédaction d’un contrat et le conseil juridique sont en revanche des tâches cognitives plus
complexes.
Au-delà de la communication vantant les prouesses de l’IA, force est de constater que de
nombreux dispositifs utilisés aujourd’hui sont encore de simples aides à la décision, laquelle
continue d’être prise par des êtres humains.
Il est fréquemment dit qu’une technique est neutre et que ses effets, positifs ou négatifs,
dépendent de l’usage qui en est fait. La réalité est sans doute plus subtile, dans la mesure où
toute technologie d’IA peut présenter en soi des avantages et inconvénients. Afin d’illustrer
cette proposition, nous présenterons les intérêts (1) et risques d’utilisation des technologies de
l’IA (2) dans les métiers du droit et du journalisme. Ces deux métiers ont en commun d’exiger
8
P.-J. Ombelet, A. Kuczerawy et P. Valcke, Supervising Automated Journalists in the Newsroom : Liability for
Algorithmically Produced News Stories, Revue du droit des technologies de l’information, 2016.
9
https://narrativescience.com.
10
B. Barraud. Un algorithme capable de prédire les décisions des juges : vers une robotisation de la justice ?. Les
Cahiers de la justice, 2017, pp.121-139. <http://www.dalloz-revues.fr/revues/Les_cahiers_de_la_justice-
47.htm>. <hal-01404518v2>.
11
Les contrats intelligents sont des protocoles informatiques qui facilitent, vérifient et exécutent la négociation ou
l'exécution d'un contrat. Les contrats intelligents ont généralement une interface utilisateur et émulent la logique
des clauses contractuelles. Ils visent à assurer une sécurité supérieure à la mise en application de la loi sur les
contrats et de réduire les coûts de transaction associés à leur conclusion.
On le voit, les tâches de recherche, à la base de toute activité journalistique, risquent d’être
assumées à l’avenir par l’IA et non plus par des jeunes journalistes en début de carrière.
Ceux-ci devront donc apprendre à se servir de ces outils. Cette anticipation doit toutefois être
nuancée par le fait que de nombreux faits sont collectés par interview, dont la mise en œuvre
est plus difficilement substituable par la machine. L’humain ne va sans doute pas encore être
Parmi les nombreux rapports réalisés en France, voir celui du Conseil d'orientation pour l'emploi (COE) intitulé
12
Un constat identique peut être fait pour les métiers du droit. Il a déjà été relevé14 que le
machine learning appliqué au droit peut être utile pour établir, à partir des données, des
relations entre individus ou pour faire ressortir des informations non visibles autrement.
Egalement, les procédures de type discovery process15 supposent de gérer une très grande
quantité de documents entre lesquels il faut trier, en fonction de la preuve que l’on veut
apporter et de la stratégie à adopter. Ce travail délicat de tri requiert une grande vigilance pour
ne pas manquer un document essentiel. Dans ces hypothèses de classification documentaire,
l’IA révèle tout son intérêt. Au demeurant, l’espoir est ici de faire baisser les coûts de
procédure qui constituent une barrière à l’entrée élevée pour le justiciable et régulièrement
dénoncée16.
Appliqué au droit et poussée à l’extrême, l’IA permettrait une plus grande efficacité des
métiers du droit, par une analyse automatisée des règles. Le droit computationnel17 est une
branche de l’analyse informatique du droit qui vise l’automatisation de l’analyse juridique.
L’objectif est d’élaborer des systèmes informatiques capables de faire des calculs juridiques
sur des situations variées, tel que le contrôle de conformité ou l’analyse de la règlementation.
L’analyse juridique est alors faite par des machines plutôt que par des êtres humains.
Turbotax, système aidant à la déclaration fiscale aux Etats-Unis, est l’exemple d’un système
rudimentaire de droit computationnel. Basé sur les données fournies par les utilisateurs, il
compile automatiquement les obligations fiscales des usagers et les met dans la forme fiscale
appropriée. En cas de demande, il peut fournir les explications de ces résultats en les reliant
aux parties pertinentes du code fiscal. De telles technologies ont le potentiel de changer les
professions du droit, en augmentant la qualité et l’efficacité des services juridiques et en
perturbant le modèle d’affaire des cabinets d’avocats. Cet effet négatif ne doit pas dissimuler
un impact positif consistant à rendre le droit plus accessible à tous et non plus seulement aux
professionnels du droit. Un tel effet va améliorer l’accès à la justice et le système juridique
dans son ensemble. La prévisibilité du droit peut être améliorée également si un système
informatique rationnalise l’ensemble.
Cependant, force est bien de constater que la règle de droit n’est pas toujours réductible en
commandes claires et uniques. Un tel procédé d’encodage du droit ne peut être utile en
présence de concepts à texture ouverte, tels les notions floues ou standards juridiques. En
résumé, le droit computationnel trouve son pouvoir dans le raisonnement déductif, aussi ne
peut-il s’appliquer au raisonnement analogique ou inductif, pourtant fréquent en droit. Son
17
M. Genesereth, Computational Law: the Cop in the Backseat, CodeX: The Center for Legal Informatics,
Stanford University: http://logic.stanford.edu/complaw/complaw.html.
Même si l’utilisation de techniques d’IA dans les métiers du droit et journalisme peut
améliorer les processus et réduire les coûts, les risques associés ne doivent cependant pas être
négligés.
Par ailleurs, l’algorithme est souvent considéré comme non discriminant et plus objectif que
le jugement humain. Cependant, un algorithme n’est pas neutre par nature et peut perpétuer
des stéréotypes préexistants, de nature à renforcer des ségrégations sociales ou raciales20. Un
biais survient quand un système informatique discrimine systématiquement et de façon
déloyale un groupe ou des individus sur le fondement de critères sociaux ou ethniques par
exemple21. Des biais introduits par un procédé de machine learning peuvent l’être à des
étapes variables, y compris au cours de l’élaboration de l’algorithme. La nature et la qualité
des données utilisées à l’entrée du système d’apprentissage (inputs) constituent aussi un enjeu
essentiel, de nature à impacter la fiabilité des résultats en sortie (outputs). Les systèmes
d’intelligence artificielle sont entraînés avec des données en principe collectées à partir des
activités et décisions humaines et qui peuvent aussi refléter des biais cognitifs implicites de
ces dernières22. Conséquemment, de nombreux systèmes d’intelligence artificielle ont appris à
classifier les données à partir de jeux de données d’entraînement reflétant des biais socio-
culturels. Rien de surprenant alors de constater que les résultats produits par ces technologies
B. Friedman et H. Nissenbaum, Bias in Computer Systems, ACM Transactions on Information Systems, Vol.
21
La qualité de la donnée est donc un enjeu majeur, ce qui suppose qu’elle soit juste, variée,
suffisamment détaillée et non biaisée25. La difficulté aujourd’hui est de mesurer ces biais et de
mettre en œuvre des dispositifs pour « débiaiser » les systèmes, tout en améliorant l’efficacité
des résultats. Un exemple célèbre de ces risques de biais a été révélé par des chercheurs
américains26 sur le site ProPublica, concernant un dispositif de justice prédictive COMPAS27,
utilisé dans plusieurs Etats américains pour évaluer les risques de récidive. Si ce système a été
contesté dans plusieurs affaires, il n’a pour l’instant pas été remis en question à notre
connaissance. Dans l’affaire Loomis28, le requérant contesta l’utilisation de cet outil en
invoquant notamment la violation du due process, eu égard à l’impossibilité de comprendre
les décisions prises et donc à les contester, en violation du principe du contradictoire. La Cour
suprême du Wisconsin rejeta la requête en estimant que COMPAS avait seulement servi
d’aide à la décision et non à la prendre.
L’IA dans le journalisme révèle par ailleurs d’autres risques en cas d’usage ciblé de ces
technologies. Elle peut permettre de réaliser de nouvelles agrégations de données, par
exemple sur les réseaux sociaux, et de détourner les données de leur usage, comme l’a révélé
le scandale Cambridge Analytica. Elle peut aussi constituer des « bulles informationnelles »
au sein desquelles les individus reçoivent uniquement l’information qui les intéresse, basée
sur leur profilage, indépendamment des exigences d’objectivité et exhaustivité du journalisme
professionnel. Plus encore, le phénomène des "fake news" sur Twitter ou Facebook préoccupe
de nombreux législateurs29, spécialement à l’approche d’élections nationales. Des systèmes
d’IA (bots) ont pu être utilisés pour faire circuler des contenus propagandistes, en vue
23
Par exemple, le “White Guy problem” par lequel les biais algorithmiques sont difficiles à déceler : comment
une femme peut-elle répondre à une offre d’emploi si elle n’est pas ciblée pour recevoir cette information ?
Comment une communauté minoritaire peut-elle comprendre qu’elle est traitée différemment par des
algorithmes ? Kate Crawford, Artificial Intelligence’s White Guy Problem, June 25, 2016, New York Times.
24
C. O’Neil, Weapons of Maths Destruction: how big data increases inequality and threatens democracy, 2016,
Broadway Books.
Opinion du Comité Economique et social européen, op. cit.
25
J. Larson, S. Mattu, L. Kirchner, J. Angwin., How we Analyzed the compas Recividism Algorithm, ProPublica,
26
28
Supreme Court of Wisconsin, July 13th, 2016, State v. Loomis, 2016 WI 68:
https://www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690.
29
Voir les réflexions menées aux Etats-Unis autour du projet de loi Honest Ads Act présenté en octobre 2017 en
réaction aux interférences russes lors de la campagne présidentielle de 2016. Voir aussi les règles éthiques
présentées en réaction par Facebook et Twitter. En France, voir la proposition de loi relative à la lutte contre les
fausses informations, n° 799, présentée en mars 2018 et en cours de discussion devant le parlement.
Outre le problème de biais, l’opacité des modèles doit également être soulignée31, eu égard à
l’ignorance accompagnant le plus souvent la nature des données utilisées, ainsi que les
instructions mises en œuvre par les procédés algorithmiques. Les data scientists eux-mêmes
ne sont pas en mesure d’expliquer la plupart des processus algorithmiques et ne peuvent que
constater une meilleure efficacité des résultats obtenus. Les modèles les plus utilisés
aujourd’hui sont construits sur des corrélations et inférences plutôt que sur des causalités, ce
qui rend impossible toute explication humaine claire et compréhensible et peut mener à des
erreurs. Les données et systèmes utilisées dans le cadre des métiers du droit et du journalisme
sont particulièrement sensibles et méritent plus qu’ailleurs de respecter des principes de
transparence et d’imputabilité (ou de reddition de comptes).
Eu égard à l’émergence des risques associés aux procédés algorithmiques, s’est exprimé le
besoin d’une gouvernance rigoureuse du machine learning32, autrement appelé “éthique” des
algorithmes33, afin de garantir une meilleure transparence, loyauté34, ou encore
« explicabilité » ou rendre compte (accountability)35 des décisions prises sur le fondement de
telles méthodes. En Europe et en France, la prise de conscience de ces enjeux s’est traduite
par l’adoption de normes législatives. Le règlement n° 2016/679/UE relatif à la protection
des personnes physiques à l’égard du traitement des données à caractère personnel et à la
libre circulation de ces données (RGPD) adopté le 27 avril 2016 pose à l’article 22§1 un droit
à ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé, y
compris le profilage, produisant des effets juridiques concernant, ou affectant de manière
significative de façon similaire, la personne concernée par le traitement. En cas d’exception à
l’exercice de ce droit, le responsable du traitement doit au moins respecter le droit de la
personne concernée d'obtenir une intervention humaine de la part du responsable du
traitement, d'exprimer son point de vue et de contester la décision (§3). En France, la loi n°
1321 Pour une République Numérique (LRN) du 7 octobre 2016 prévoit des mesures
spécifiques codifiées à l’article L. 311-3-1 du Code des relations entre le public et
l’administration, afin d’imposer aux administrations de rendre compte des décisions prises sur
la base de procédés automatiques. L’entrée en application du RGPD implique une révision de
la loi n° 78-17 du 6 janvier 1978 dite « informatique et liberté », laquelle vient modifier les
dispositions de la LRN. L’adoption de ces textes, censés répondre aux exigences d’ “éthique”
algorithmique, pose la question de savoir si on aboutit véritablement à une transparence et
30
Nicholas W. Jankowski (2018) Researching Fake News: A Selective Examination of Empirical Studies:
https://www.tandfonline.com/doi/full/10.1080/13183222.2018.1418964.
31
F. A. Pasquale, The Black Box Society, op. cit.
32
Governing Machine Learning: Exploring the Intersection Between Machine Learning, Law and Regulation,
Yale Law School, Information Society Project (ISP), Jack Balkin et alii.
33
Voir B. Mittelstadt, P. Allo, M. Taddeo, S. Wachter, L. Floridi, The Ethics of Algorithms: Mapping the Debate
(November 1, 2016). Big Data & Society, Vol. 3(2), DOI: 10.1177/2053951716679679, 2016. Ces auteurs
identifient six types de problèmes éthiques avec les algorithmes : la preuve non conclusive, la preuve non
vérifiable, la preuve faussée, les résultats déloyaux, les effets transformatifs, la traçabilité.
34
La difficulté de cette notion est qu’elle reçoit de nombreuses définitions selon les disciplines et différentes
traductions. Elle est assimilée à la notion de « fairness ». Voir D. Kehl, P. Guo, and S. Kessler, Algorithms in the
Criminal Justice System: Assessing the Use of Risk Assessments in Sentencing. Responsive Communities
Initiative, Berkman Klein Center for Internet & Society, Harvard Law School, 2017.
35
J. A. Kroll, J. Huey, S. Barocas, E. W. Felten, J. R. Reidenberg, D. G. Robinson, H. Yu, Accountable
Algorithms (March 2, 2016). University of Pennsylvania Law Review, Vol. 165, 2017.
Par ailleurs, les systèmes, et parfois même les données, ne peuvent pas être facilement
audités, non seulement en raison de la complexité technique, mais aussi en présence de droits
de propriété intellectuelle et secrets d’affaire portant sur les systèmes ou sur les données elles-
mêmes, qui font obstacle à la transparence. Dans l’affaire Loomis précitée, le requérant s’est
également vu opposé les droits de propriété intellectuelle de la société Northpointe,
développeuse de la solution COMPAS, pour motiver le refus d’accès au dispositif. En
conséquence, ces obstacles légaux et techniques créent une asymétrie d’information entre,
d’une part, les concepteurs et utilisateurs des systèmes algorithmiques et, d’autre part, les
personnes affectées par les résultats générés. Pourtant, de tels obstacles ne sont pas
juridiquement justifiés et de tels droits de secret et propriété ne devraient pas faire obstacle à
la transparence36, a fortiori lorsqu’il s’agit d’auditer des systèmes ayant un fort impact social.
L’articulation des normes reste ici à mieux préciser.
Par ailleurs, les règles de responsabilité ne semblent pas encore adaptées à l’IA.
2.2. Responsabilité des résultats produits par IA pour les métiers du droit et du
journalisme
En droit français de la presse, le journalisme répond à des règles particulières de
responsabilité éditoriale en cascade, dans le souci de satisfaire un équilibre délicat entre
liberté d’expression et lutte contre l’injure, la diffamation et autre contenu illicite, à l’instar
des propos négationnistes ou racistes par exemple. Se pose alors la question de savoir qui sera
responsable d’un contenu informationnel illicite généré par IA. Si on peut penser en premier
lieu au concepteur, la solution est moins évidente dans l’hypothèse où le dommage serait dû à
un système d’IA auto-apprenant qui continue d’apprendre après son entrée en application.
Dans un tel contexte, l’utilisateur ou les utilisateurs jouent sans doute un rôle important dans
le processus et l’évolution des résultats générés. Quant à l’idée de responsabilité du système
lui-même, si le Parlement européen a pu paraître favorable à la reconnaissance d’une
personnalité juridique du robot37, cette hypothèse, fortement critiquée, semble écartée
aujourd’hui. Une telle approche aurait pour effet de déresponsabiliser les humains contribuant
à la création et mise en œuvre de l’IA, ce qui, sans même évoquer les débats éthiques sur la
place de l’humain et de la machine, ne semble ni justifié ni souhaitable pour des raisons de
justice sociale mais aussi de solvabilité du responsable du dommage. Il reste que, en France,
les règles classiques de responsabilité délictuelle du fait des choses ne s’appliquent pas aux
biens immatériels qui ne sont pas sous la « garde » d’un gardien (C.civ., art. 1242 al. 1er). De
même, la responsabilité du fait des produits défectueux visant un « produit », c’est-à-dire
« tout bien meuble » (C. civ., art. 1245-2), n’est pas plus adapté. Non seulement ces règles de
responsabilité ne tiennent pas compte de l’émergence des biens immatériels mais aussi de leur
« puissance » et des risques inhérents.
Sans doute faudra-t-il par ailleurs envisager un système d’assurance pour garantir la
réparation des dommages générés par IA, sans avoir à en rechercher les causes. L’obligation
de s’assurer pourrait être mise à la charge des concepteurs mais aussi des utilisateurs. La
R. Wexler Life, Liberty, and Trade Secrets: Intellectual Property in the Criminal Justice System, 70, Stan. L.
36
Review, 2018.
37
Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission
concernant des règles de droit civil sur la robotique (2015/2103(INL)).
La réflexion sur la régulation de l’IA ne fait que débuter. S’il faut se garder de trop se
précipiter, il convient d’être vigilant et de réagir dès la survenance des risques. La loi n’est
pas forcément le meilleur outil normatif et il faudra certainement accorder une attention aux
bonnes pratiques professionnelles. On constate une prise de conscience des techniciens,
amenés à travailler avec les éthiciens, philosophes et juristes, ce dont on ne peut que se
réjouir.
10