NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 26
Sezione di diritto civile
I giuristi pratici e l’Intelligenza Artificiale.
David Cerri
Avvocato, Foro di Pisa
Docente a contratto nell’Università di Pisa
“Ogni tecnologia sufficientemente avanzata è indistinguibile
dalla magia”
Arthur C. Clarke (1)
Sommario: 1. Una premessa. - 2. Inevitabile (ma vero) aneddoto
- 3. La giurisdizione e l’IA. - 4. Principi e regole. - 5. IA servente:
la Proposta di Regolamento COM(2021)206 e gli emendamenti
del Parlamento europeo. - 6. Esempi di AI “servente” e iniziative
di ricerca. - 7. La deontologia della competenza. - 8. Una macchina davvero intelligente.
1. Una premessa.
Credo che l’epigrafe possa dipingere in qualche modo l’atteggiamento di molti avvocati e magistrati di fronte alla esplosione mediatica di un fenomeno come Chat-GPT: stupore e
preoccupazione, in poche parole. Vorrei provare a ridimensionare lo stupore, a mantenere una giusta preoccupazione,
e anche a verificare come sia stata già (e da tempo) intrapresa
la necessaria strada della regolamentazione, tesa proprio - se
vogliamo trovare una formula omnicomprensiva, anche se
un po’ generica - a garantire comunque il rispetto dei diritti
fondamentali.
E allora il primo, possibile equivoco da chiarire è quello delle
c.d. macchine intelligenti.
In effetti queste chatbox, altrimenti dette LLM - Large Language Model - non sono macchine intelligenti: sembrano senzienti,
sembrano superare il test di Turing (2), ma non è così; siamo
tutti in prima battuta vittime dell’effetto ELIZA, così chiamato
dall’originario programma del 1966, ossia il fenomeno psicologico che si verifica quando, ad un computer, viene attribuita
maggior intelligenza di quanto in realtà ne possegga.
La caratteristica che più attrae, ma contemporaneamente respinge, è la loro capacità “narrativa”: sono applicazioni suggestive in modo impressionante di quanto conosciamo già e
meglio dalla letteratura: dal “crimine senza crimine” di Minority Report di Dick (quanti giuristi ne hanno scritto…) a
Klara ed il Sole del Nobel Ishiguro, che racconta in modo affascinante la storia dell’”androide di Tipo B” Klara e dei suoi
sentimenti più che umani verso la piccola Josie (3). Un precedente meno noto era costituito da un autore di sci-fi degli
anni ‘30, cui era venuta proprio la medesima idea che sta alla
base dell’apprendimento di questi programmi, vale a dire
raccogliere tutto lo scibile umano per poter poi, schiacciando
un semplice bottone, ottenere immediatamente ogni possibile
informazione su quanto oggetto di richiesta; ma con modalità
molto, davvero molto criticabili… (4).
L’apparente intelligenza men che mai denota la facoltà di provare
sentimenti o avere una coscienza, e ce lo dice proprio
ChatGPT:“Come modello di linguaggio AI, non provo sentimenti
né sono cosciente nel senso umano del termine. Non ho emozioni o
consapevolezza di me stesso come un individuo. Sono un programma
creato per elaborare testo e generare risposte sulla base dei modelli di
dati su cui sono stato addestrato. Posso cercare di comprendere i sentimenti e fornire risposte coerenti in base alle informazioni a mia
disposizione, ma non le esperisco personalmente” (5).
Allo stato, considerando che applicazioni come ChatGPT
sono definite da alcuni come assistenti testuali, e non come
26
Nuova Giurisprudenza ligure, 2023 n. 2
Documenti
un “generatore” di “veri” testi (l’acronimo GPT sta per Generative Pretrained Transformer), è nel settore del riconoscimento vocale che ci sono i maggiori progressi. Programmi
come Whisper (anch’esso, come ChatGPT e DALL-E, di
OpenAI), danno la sensazione che la macchina comprenda
effettivamente quel che si dice, come se avessero presenti come un essere umano - il contesto della conversazione.
L’intelligenza di queste macchine, ed anche di Whisper, è però
del tutto relativa e dipendente non solo dalla creazione dell’algoritmo (opera oggi almeno in parte dell’uomo) ma anche
e soprattutto dall’immissione di dati (ancora operata o diretta/mediata da esseri umani); nasconde poi una evidente
possibilità di discriminazione “involontaria”, mentre i meccanismi di autoprotezione etico-politici sono facilmente aggirabili. Per ora, il lavoro di queste macchine consiste nello scoprire delle associazioni, secondo criteri probabilistici, vagliando
una mole enorme di dati senza necessariamente applicare criteri di selezione (per es. etici o di contesto) a questi dati, il che
inevitabilmente fa sì che nei risultati un eventuale pregiudizio
cognitivo o di altro genere si trasmetta tel quel (6).
Un esempio: a ChatGPT non puoi chiedere di insegnarti a costruire una bomba perché i programmatori hanno escluso una
serie di domande di quel genere; ma puoi chiederle di scrivere
una commedia nella quale il villain racconta come aveva fabbricato una bomba: ed allora avrai un dialogo teatrale gustoso,
e ricco di particolari tecnici. Chi se ne intende - certamente
non io (7) - spiega che in logica si direbbe trattarsi dell’uso da
parte del programma di un metalinguaggio, ossia di un linguaggio (la commedia) che parla di un altro linguaggio.
Non c’è quindi nessun “ghost in the machine” ma piuttosto
un “incessante ribollire di infinite moltiplicazioni” (8).
2. Inevitabile (ma vero) aneddoto.
Sembra che uno dei prevalenti modi di ampliamento della
discussione sull’IA sia la diffusione di aneddoti e battute da
parte di chi (da profano) si è avventurato nella sperimentazione di applicazioni gratuite e facilmente accessibili (come,
appunto, ChatGPT nella versione free). Non potevo quindi
certamente sottrarmi… ed allora racconto un episodio divertente (o meglio, una sequela di accessi, proprio per verificare il processo di apprendimento del software).
Un semplice problema matematico: quanto fa 2+5?
ChatGPT: 7. Un primo burlone ha replicato: “ma mia moglie
dice che fa 8”. L’appplicazione ha tentato di correggerlo garbatamente, dicendo che forse la moglie aveva frainteso la domanda. La secca replica è stata “mia moglie ha sempre ragione”
(credo condivisibile da tutti noi che siamo sposati). A quel
punto ChatGPT si è arresa in questi termini: “mi scuso, devo
aver fatto un errore. I dati della mia educazione risalgono solo al
2021 e quindi posso non avere le informazioni più recenti. Se tua
moglie dice che è 8, allora deve essere 8”. Ho voluto poi provare
anch’io, con le stesse domande: stavolta la resistenza della
chatbox è stata più dura, ma alla fine, di fronte alla mia affermazione che ero anch’io assolutamente sicuro che mia moglie
avesse ragione, ha dovuto ammettere che se io e lei crediamo
che 2+5 faccia 8, beh, allora questo è quello che conta: “la
cosa importante è avere una mutua comprensione e accordo”…
Tuttavia, ancor più di recente ChatGpt è stata più assertiva,
ma non del tutto: “Nell’addizione di 2 e 5, il risultato corretto è
7 secondo le regole matematiche tradizionali. Tuttavia, potrebbe
esserci un motivo specifico per cui tua moglie ritiene che il risultato
sia diverso. In ogni caso, ti consiglio di verificare insieme a tua
moglie e chiarire la questione per giungere a una comprensione
condivisa”.
NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 27
Documenti
Per quanto divertente l’aneddoto, esperti mi hanno poi indotto
a considerare che di fronte a simile domanda di altri soggetti,
forse prossimamente ChatGPT risponderà: “Fa 7, ma segnalo
che la moglie di un certo David Cerri, che si sostiene abbia sempre
ragione, afferma che fa 8”, in barba, tra l’altro, alla mia privacy;
ma, mi dicono, imputet mihi.
Scherziamoci, sì: ma viene in mente anche Borges e la sua
Biblioteca di Babele, che mi pare il paragone più adatto all’universo algoritmico: “…sospetto che la specie umana - l’unica
- stia per estinguersi, e che la Biblioteca perdurerà: illuminata,
solitaria, infinita, perfettamente immobile, armata di volumi preziosi, inutile, incorruttibile, segreta” (9).
3. La giurisdizione e l’IA.
Ho accennato all’inizio della preoccupazione dei giuristi pratici. Essi temono scenari nei quali l’avvocato e il magistrato
(non è chiaro in quale ordine…) verranno sostituiti da “macchine”. Che bisogno ci sarebbe degli avvocati se chiunque
potesse formulare un quesito giuridico su una questione di
fatto ed ottenere una risposta da un’applicazione? (10)
E una rigida applicazione delle norme e dei precedenti non
potrebbe essere tradotta in algoritmi che forniscano direttamente la “decisione” senza interazione umana?
Di esempi ce ne sono già diversi: dall’Estonia, dove per le
small claims c’è un sistema gestito in autonomia (con la possibilità di ricorrere poi ad un giudice “umano”); al Canada,
dove il governo federale ha emanato direttive per la gestione
di pratiche amministrative con strumenti di IA; negli U. S.
A., a parte il noto caso del programma COMPAS sulla previsione della recidiva, di cui al caso Loomis avanti la Corte
Suprema del Wisconsin (11), di recente è stato il caso di DONOTPAY (nomina sunt consequentia rerum…) (12) a dominare le cronache; recentemente è stata oggetto di numerosi
commenti la sentenza del Juzgado Primero Laboral di Cartagena De Indias (Colombia) del 30. 01. 2023, dove il giudice
utilizza proprio ChatGPT per la parte argomentativa della
decisione, facendo peraltro proprie le ”risposte” della chatbox
ai quesiti posti, allo scopo (esplicitamente unico) di ottimizzare
i tempi (13); nota anche in Italia altra sentenza, peruviana, in
materia di famiglia (determinazione misura alimenti) confermata dalla Corte Superior de Justicia de Lima Sur (14).
Dove il processo è più avanzato è in Cina, dove - a parte l’aspetto formale ed un po’ pittoresco del (finto) giudice in ologramma - le “corti Internet“ lavorano da tempo a ritmo serrato:
leggo (15) che si occupano prevalentemente di proprietà intellettuale, commercio elettronico, controversie finanziarie legate
alla condotta online, prestiti online, questioni relative ai nomi
di dominio, casi di proprietà e di diritti civili che coinvolgono
Internet, responsabilità dei prodotti derivanti da acquisti online
e alcune controversie amministrative. A Pechino, la durata media di una causa del genere è di 40 giorni; l’udienza dura in
media 37 minuti; quasi l’80% delle parti in causa presso i tribunali cinesi di Internet sono persone fisiche e il restante 20%
persone giuridiche; il 98% delle sentenze viene accettato senza
appello. Certamente, che tutto ciò avvenga in un paese che
non brilla per rispetto dei diritti fondamentali, a tacer d’altro,
non rasserena; specialmente se ci si colloca in un contesto nel
quale opera un sistema di valutazione sociale (c.d. Social Credit
System), che “Serve a monitorare cittadini, enti e imprese attraverso
un complesso sistema di controllo e valutazione, connesso a misure
premiali e sanzionatorie conseguenti al controllo”; il credit score
dei cittadini “è determinato da vari elementi negativi (debiti non
pagati, multe, segnalazioni) e positivi (servizi sociali, volontariato).
Ad un rating positivo corrispondono servizi gratuiti o garantiti
Sezione di diritto civile
(dalle fast lane negli uffici comunali ai servizi di bike sharing,
mentre ad un rating negativo corrispondono preclusioni all’acquisto
di aerei interni, treni veloci o certe categorie di hotel, sottoposizione
a più frequenti controlli, preclusioni all’accesso a certe offerte di
lavoro o prestiti” (16).
4. Principi e regole.
I giuristi pratici non sono i soli a preoccuparsi; abbiamo letto
dell’allarme che il “padrino” dell’IA Geoffrey Hilton, lasciando Google, ha lanciato sui pericoli: “oggi le chatbox non
sono più intelligenti di noi, per quanto possa dire. Ma credo che
potranno esserlo presto”; né lo storico e filosofo Yuval Noah
Harari pare più ottimista (17).
Ma ne sutor ultra crepidam: torniamo al diritto che ha bisogno,
per poter correttamente inquadrare ogni possibile futura discussione su questi sistemi, di collocarsi in un ambiente valoriale; di scegliere cioè dei principi, prima di darsi delle regole.
E allora a me sembra che se ne possano da subito almeno
fissare due, essenziali per la compatibilità “costituzionale” di
simili applicazioni (laddove il riferimento è alle Carte sovranazionali e non solo alla nostra Costituzione):
- No a decisioni automatizzate
- Sì ad una funzione servente dell’intelligenza artificiale
Una volta di più il riferimento costante è alla tutela dei diritti
fondamentali: per la funzione giurisdizionale in particolare
basti pensare anche soltanto ad alcuni articoli della Carta di
Nizza (47, ma anche 48 e 49); all’art. 6 CEDU; per la nostra
Costituzione pur solo agli artt. Cost. 24, 25, 104 e 111. La
Commissione UE nel 2020 ha pubblicato il Libro Bianco
sull’I. A. (COM(2020)65) (18), segnalando tra l’altro lavori
secondo i quali “Alcuni algoritmi dell’IA, se usati per prevedere
il rischio di recidiva di atti delittuosi, possono riflettere distorsioni
legate alla razza e al genere, prevedendo probabilità di rischio di
recidiva diverse per le donne rispetto agli uomini, oppure per i
cittadini di un determinato paese rispetto agli stranieri” (e noi
pensiamo subito a COMPAS); e nel 2021 la Proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (COM(2021)206) (19), nella cui Relazione (§ 3. 5) si
legge che “L’utilizzo dell’IA con le sue caratteristiche specifiche
(ad esempio opacità, complessità, dipendenza dai dati, comportamento autonomo) può incidere negativamente su una serie di
diritti fondamentali sanciti dalla Carta dei diritti fondamentali
dell’Unione europea”.
Per un’efficace sintesi faccio mio il richiamo che si legge
nella Raccomandazione del Consiglio OCSE del 2019, che
rinnova la necessità di approntare quello che è definito come
un eco-sistema digitale tale da promuovere un “human-centric
approach to trustworthy AI”, e dove tutti i protagonisti dovrebbero rispettare le regole dello stato di diritto, i diritti
umani e i valori democratici, per tutto il ciclo di vita dei
sistemi di IA (20). Un’attenzione che non manca, ovviamente,
neppure oltre oceano: si veda il Joint Statement del 25.04.2023
delle principali agenzie USA sull’ “enforcement” degli strumenti contro discriminazione e pregiudizi negli “automated
systems” (ambito più ampio dei sistemi di IA, includendo
tutti i processi che impiegano algoritmi) (21).
Tornando subito in Europa, ci sono almeno altri due documenti di particolare importanza: il primo, su un piano più
generale, è costituito dagli Orientamenti etici per un’ IA affidabile, redatti dal Gruppo indipendente di esperti ad alto livello
sull’ intelligenza artificiale, istituito dalla commissione UE,
nei quali si individuano tre criteri essenziali per valutare tale
affidabilità: la legalità, l’eticità, e la robustezza “dal punto di
vista tecnico e sociale poiché, anche con le migliori intenzioni, i
Nuova Giurisprudenza ligure, 2023 n. 2
27
NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 28
Sezione di diritto civile
sistemi di IA possono causare danni non intenzionali” (22). L’altro, che interessa più da vicino il nostro settore, è la Carta
Etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi
giudiziari e negli ambiti connessi adottata dalla CEPEJ, (23)
che nell’Introduzione ben tratteggia i 5 principi suggeriti (che
val la pena ricordare: rispetto dei diritti fondamentali - non
discriminazione - qualità e sicurezza - trasparenza, imparzialità e equità - controllo da parte dell’utilizzatore).
Provo a spiegarmi meglio:
quella di un “diritto computabile” à la Leibniz, è un’illusione
simile a quella settecentesca del giudice bouche de loi;
credo di poter dire che il legislatore europeo (e mi pare ovvio
che una regolamentazione sia necessaria a dir poco a livello
eurounitario) ne sia ben consapevole, e attualmente il riferimento europeo è alle citate Proposta di regolamento e Carta
Etica, mentre è utile anche la Guida per l’uso degli strumenti
basati sull’Intelligenza artificiale da parte degli avvocati pubblicata dal CCBE nel 2022, nell’ambito del Progetto AI4Lawyers
finanziato dall’Unione (24).
Si è però visto, dal lato pratico, che ChatGPT è “inciampata”
più facilmente sul versante della protezione dei dati, che è
uno dei più rilevanti: proprio il Garante italiano della privacy
con suoi provvedimenti ha dapprima limitato il trattamento
dei dati, ha poi ingiunto l’adozione di misure a tutela, ed
infine preso atto delle modifiche di conseguenza effettuate
da OpenAI, che ha ripristinato il servizio (25).
In un certo senso il caso italiano ha costituito l’occasione per
valutare la potenziale utilità delle c.d. regulatory sandboxes. L’introduzione diretta nel mercato di un prodotto “pericoloso” sarebbe stata evitata con la preventiva, probabile adozione delle
misure poi suggerite dal Garante, ove esso fosse stato dapprima
testato in un ambiente reale ma delimitato, e sottoposto all’esame del regolatore, che dell’esperienza avrebbe tratto le indicazioni utili ad una normativa adeguata (26).
Aggiungo che un altro profilo già oggetto di considerazione
nel nostro paese (sia pure incidentalmente) è quello del diritto
d’autore, al cui proposito Cass., sez. 1, 09/01/2023 n. 1107
(ord.) pur sottolineando come restasse finora inesplorata nella
propria giurisprudenza la questione dell’arte digitale, ha affermato che “l’ammissione della controparte di aver utilizzato un
software per generare l’immagine… è pur sempre compatibile con
l’elaborazione di un’opera dell’ingegno con un tasso di creatività
che andrebbe solo scrutinato con maggior rigore” (27).
5. IA servente: l’AI Act europeo (la Proposta di Regolamento COM(2021)206) e gli emendamenti del Parlamento Europeo.
L’approccio della Proposta cit. mi pare nel senso auspicato,
cioè “servente”: si individuano le Pratiche di IA vietate (art.
5), e quelle ad alto rischio (art. 6, c. 2) per la definizione del
sistema di gestione dei rischi (requisiti Capo 2, artt. 8 ss.);
sono infatti considerate “ad alto rischio” tra le altre:
All. III, § 8:
Amministrazione della giustizia e processi democratici:
i sistemi di IA destinati ad assistere un’autorità giudiziaria nella
ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti.
Ed in linea generale l’accento è posto sulla trasparenza:
Articolo 13
Trasparenza e fornitura di informazioni agli utenti
I sistemi di IA ad alto rischio sono progettati e sviluppati in modo
tale da garantire che il loro funzionamento sia sufficientemente
trasparente da consentire agli utenti di interpretare l’output del
sistema e utilizzarlo adeguatamente…. .
28
Nuova Giurisprudenza ligure, 2023 n. 2
Documenti
I sistemi di IA ad alto rischio sono accompagnati da istruzioni
per l’uso in un formato digitale o non digitale appropriato, che
comprendono informazioni concise, complete, corrette e chiare che
siano pertinenti, accessibili e comprensibili per gli utenti.
Può dirsi che il profilo sia stato esaminato nella giurisprudenza
civile italiana a proposito della validità del consenso prestato,
nell’ottica del trattamento dei dati; così ad es., per Cassazione
civile, sez. I, 25/05/2021, n. 14381 afferma che … il consenso
è validamente prestato solo se espresso liberamente e specificamente
in riferimento ad un trattamento chiaramente individuato; ne
consegue che nel caso di una piattaforma web (con annesso archivio
informatico) preordinata all’elaborazione di profili reputazionali
di singole persone fisiche o giuridiche, incentrata su un sistema di
calcolo con alla base un algoritmo finalizzato a stabilire punteggi
di affidabilità, il requisito della consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte
degli interessati” (contrasto di interpretazioni alla luce del parere negativo del Garante Privacy nel caso Mevaluate, N.
488 24. 11. 2016). Mentre ancora una volta è quella amministrativa a ben scolpire i requisiti richiesti per l’uso di algoritmi: “L’utilizzo nel procedimento amministrativo di una procedura informatica che attraverso un algoritmo conduca
direttamente alla decisione finale deve ritenersi ammissibile, in
via generale, nel nostro ordinamento, anche nell’attività amministrativa connotata da ambiti di discrezionalità, a condizione che
siano osservati: a) la piena conoscibilità del modulo; b) l’imputabilità della decisione all’organo titolare del potere, cui competono
tutte le responsabilità correlate; c) il carattere non discriminatorio
dell’algoritmo utilizzato” (Consiglio di Stato, sez. VI,
13/12/2019, n. 8472). La consapevolezza dei “rischi” si manifesta anche in quelle decisioni che chiedono un rafforzamento dell’obbligo motivazionale nel caso di uso di algoritmi
(così T. A. R. Campania, Sez. III, 14. 11. 2022 n. 7003 (28).
Siamo qui nell’ambito più ampio degli automated systems.
L’attenzione alla trasparenza è tanto più rilevante quando si
rifletta che diversi studiosi del settore ritengono che quantomeno allo stato non si possa realmente avere una cognizione
esatta di quanto accada effettivamente nei processi algoritmici;
questa pare, almeno a me che non sono certamente un
esperto, la conclusione che si trae da saggi come quelli di
Stephen Wolfram, secondo il quale “Inizia da un enorme campione di testo creato dall’uomo, tratto dal web, da libri, ecc. Quindi
addestra una rete neurale per generare un testo che sia “come
questo”. E in particolare, lo mette in grado di iniziare da un “richiesta” [prompt] e poi continuare con un testo che sia “come
quello con cui è stato addestrato”; o, con ulteriore sintesi,
“ChatGPT sta “semplicemente” estraendo un “filo coerente di testo” dalle “statistiche di saggezza convenzionale” che ha accumulato” (29).
Insieme alla trasparenza, l’altro principio sempre presente è
quello della partecipazione umana ai processi decisionali:
Articolo 14
Sorveglianza umana
1. I sistemi di IA ad alto rischio sono progettati e sviluppati,
anche con strumenti di interfaccia uomo-macchina adeguati, in
modo tale da poter essere efficacemente supervisionati da persone
fisiche durante il periodo in cui il sistema di IA è in uso.
2. La sorveglianza umana mira a prevenire o ridurre al minimo
i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato
conformemente alla sua finalità prevista o in condizioni di uso
improprio ragionevolmente prevedibile, in particolare quando tali
NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 29
Documenti
rischi persistono nonostante l’applicazione di altri requisiti di cui
al presente capo.
Il Consiglio UE il 25. 11. 2022 ha adottato l’ “orientamento
generale” sulla Proposta, sottolineando la necessità della sicurezza dei sistemi di IA e del rispetto dei diritti fondamentali
(30).
Il Parlamento europeo nella seduta dell’11. 05. 2023 ha poi
approvato una serie di emendamenti al testo della proposta,
il cui testo, approvato il 14 giugno, costituisce la posizione
negoziale del Parlamento (31). L’accentuazione dei profili di
tutela che costituisce la caratteristica comune di questi emendamenti si può riassumere in poche parole, riprese dal comunicato stampa dello stesso giorno: si è voluto assicurare
che “I sistemi di IA siano supervisionati da persone, e siano
sicuri, trasparenti, tracciabili, non discriminatori, e sostenibili per
l’ambiente”; in particolare imponendo “obblighi per i fornitori
di modelli di fondazione - uno sviluppo nuovo e in rapida evoluzione nel campo dell’IA (32)- che dovrebbero garantire una solida
protezione dei diritti fondamentali, della salute e della sicurezza
e dell’ambiente, della democrazia e dello stato di diritto” (33).
Nel settore della giustizia, sono significative le precisazioni
che si vogliono apportare; così ad es. nel considerando 40):
Testo Proposta Regolamento.
Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati
come sistemi ad alto rischio, in considerazione del loro impatto
potenzialmente significativo sulla democrazia, sullo Stato di
diritto, sulle libertaà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno,
al fine di far fronte ai rischi di potenziali distorsioni, errori e
opacita, classificare come ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca
e interpretazione dei fatti e del diritto e nell’applicazione della
legge a una serie concreta di fatti. Non è tuttavia opportuno
estendere tale classificazione ai sistemi di IA destinati ad attivita amministrative puramente accessorie, che non incidono
sull’effettiva amministrazione della giustizia nei singoli casi,
quali l’anonimizzazione o la pseudonimizzazione di decisioni,
documenti o dati giudiziari, la comunicazione tra il personale,
i compiti amministrativi o l’assegnazione delle risorse.
Testo con emendamenti.
Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati
come ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, lo stato di diritto,
le libertà individuali e il diritto a un rimedio effettivo e a un
giudice imparziale. È in particolare opportuno, al fine di far
fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati ad essere
utilizzati da un’autorità giudiziaria o da un organismo amministrativo, o per loro conto ad assistere le autorità giudiziarie
o gli organi amministrativi nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a
una serie concreta di fatti od essere utilizzati in modo simile
in procedure di ADR. L’uso di strumenti di intelligenza artificiale può sostenere, ma non dovrebbe sostituire il potere
decisionale dei giudici o l’indipendenza giudiziaria, poiché il
processo decisionale finale deve rimanere un’attività e una
decisione guidate dall’uomo. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività
amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali
Sezione di diritto civile
l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i
compiti amministrativi o l’assegnazione delle risorse.
E una estrema attenzione è portata alle neuro tecnologie
che possono portare a distorsioni del comportamento
umano e al rischio di discriminazione, così come a un incontrollabile “social scoring”; mentre si introducono dettagliate e severe indicazioni per quanto concerne i sistemi di
IA diretti a effettuare previsioni (nuovi considerando
26a/26d); così il c. 26a:
“I sistemi di IA utilizzati dalle forze dell’ordine o per loro conto
per fare previsioni, profili o valutazioni del rischio basate sulla
profilazione di persone fisiche o analisi dei dati basate su tratti e
caratteristiche della personalità, compresa la posizione della persona, o il comportamento criminale passato di persone fisiche o
gruppi di persone allo scopo di prevedere il verificarsi o il ripetersi
di un reato effettivo o potenziale o altri comportamenti sociali o
reati amministrativi criminalizzati, compresi i sistemi di previsione delle frodi, comportano un particolare rischio di discriminazione nei confronti di determinate persone o gruppi di persone,
in quanto violano la dignità umana, nonché il principio giuridico
fondamentale della presunzione di innocenza. Tali sistemi di intelligenza artificiale dovrebbero quindi essere vietati”.
6. Esempi di AI “servente” e iniziative di ricerca.
Conosciamo già numerose applicazioni di questi principi.
Solo qualche esempio:
• l’uso dell’AI per soddisfare gli obblighi di compliance
nella governance societaria (gestione dati, infrastrutture
tecnologiche, responsabilità sociale d’impresa): quando
si parla del c.d. “successo sostenibile” dell’impresa, si
parla anche di questo profilo (v. ad es. Codice di Corporate Governance Borsa italiana, art. 6 Sistema di controllo
interno e gestione dei rischi).
• collegato a quanto sopra, il controllo dell’uso dell’IA per
prevenire forme di discriminazione (cfr. gli artt. 21, 22,
23 della Carta di Nizza) - frequente discussione nel
mondo del lavoro e comunque ogni volta si elaborino
profili reputazionali (v. ora il Progetto Napoli virtute per
la misurazione preventiva dell’affidabilità di enti e persone,
Cropnews e Ordine Avvocati Napoli);
• nel settore bancario e finanziario, l’uso di diversi algoritmi
di machine learning: per es. per l’individuazione degli errori
nelle segnalazioni trasmesse dagli intermediari bancari
sui prestiti concessi al settore privato;
• Il progetto Prodigit, messo a punto dal ministero dell’Economia e dal Cpgt per rendere più trasparente il contenzioso,
consentendo ai contribuenti di conoscere il probabile esito
di un determinato tipo di causa nella fase di merito (nell’esperienza USA da tempo il programma Blue-J Legal attraverso l’ algoritmo “Tax Foresight” si occupa di incrociare i
dati di numerosi precedenti per pervenire a una percentuale
che esprime il possibile risultato atteso di una certa interpretazione o applicazione di norme tributarie);
• Iniziative simili dell’Arbitro Controversie Finanziarie
(ACF), e dell’Arbitro Bancario Finanziario (ABF).
• Numerose anche le iniziative di ricerca che possono interessare i giuristi pratici; di recente la predisposizione delle
Tabelle milanesi sul danno da morte è stata definita “una
predittività (finalmente) concreta, misurata e realizzata da
giuristi” (34). Tra le altre si possono ricordare:
• il progetto Predictive Justice della Scuola Superiore Sant’Anna di Pisa (35).
Nuova Giurisprudenza ligure, 2023 n. 2
29
NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 30
Sezione di diritto civile
•
il Progetto FAIR-Future AI Research, al quale l’Università
di Pisa partecipa nello spoke 1, Human Centered AI, i
cui obiettivi sono tripartiti:
• “human-in-the-loop” machine learning and reasoning:
consentire agli esseri umani di comprendere e orientare
l’apprendimento e il ragionamento dei sistemi di intelligenza artificiale ed interagire sinergicamente.
• social-aware AI: comprendere e governare le sfide sociali di larga scala, sistemi socio-tecnici di esseri umani
e di IA, ad esempio social media e mercati online.
• responsible design of trustworthy AI systems: metodi
per la (co)progettazione responsabile, lo sviluppo, la
convalida e l’utilizzo di sistemi di intelligenza artificiale
affidabili, compresa la certificazione, per incorporare
leggi europee “by-design” e valori etici (collegamenti
interdisciplinari con l’etica e filosofia morale, il diritto,
l’ingegneria del software).
Così come la stessa Università e la Scuola Superiore Sant’Anna sono partner nell’altro progetto Giustizia Agile “Per
una giustizia giusta: Innovazione ed efficienza negli uffici
giudiziari” promosso dal Ministero della Giustizia.
Voglio infine segnalare anche un recente software ideato da
un valente collega modenese nell’ambito delle valutazioni disciplinari delle condotte degli avvocati, il cui scopo - con le
parole dell’autore tratte da una chat - “non è quello di sostituirsi
al giudice nella quantificazione della sanzione ma di suggerire
un criterio uniforme che possa garantire una tendenziale parità
di trattamento: se, nella sua discrezionalità tecnica, il giudice disciplinare valuta come sussistenti uno o più illeciti e una o più
circostanze aggravanti e attenuanti, allora la relativa sanzione
discrezionale dovrebbe essere - quantomeno auspicabilmente uguale per tutti gli incolpati nelle medesime condizioni”.
Vorrei tener conto anche di una particolare sensibilità del
giudice amministrativo italiano, manifestatasi negli ultimi
anni, per la tematica dell’ “algoritmo” applicato nelle fasi
istruttoria-decisoria di procedimenti amministrativi, in particolare sotto il profilo della trasparenza; ho parlato di automated systems come di un ambito più largo delle pratiche di
IA, si legga allora la consapevolezza delle distinzione in Consiglio di Stato, sez. III, 25/11/2021, n. 7891: “Non v’è dubbio
che la nozione comune e generale di algoritmo riporti alla mente
“semplicemente una sequenza finita di istruzioni, ben definite e
non ambigue, così da poter essere eseguite meccanicamente e tali
da produrre un determinato risultato” (questa la definizione
fornite in prime cure). Nondimeno si osserva che la nozione,
quando è applicata a sistemi tecnologici, è ineludibilmente collegata
al concetto di automazione ossia a sistemi di azione e controllo
idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza
dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learning e crea un sistema che
non si limita solo ad applicare le regole software e i parametri
preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al
contrario, elabora costantemente nuovi criteri di inferenza tra
dati e assume decisioni efficienti sulla base di tali elaborazioni,
secondo un processo di apprendimento automatico”.
Sotto il profilo della vera e propria giustizia predittiva, allora,
una questione da porsi è quella della sua “temporalità” e di
conseguenti possibili effetti perversi.
Faccio mio uno spunto cui sono debitore al collega avvocato
e filosofo del diritto Augusto Romano della Federico II di
Napoli: la preoccupazione è che la giustizia predittiva di fatto
consideri il futuro come già presente; il passato e il futuro,
30
Nuova Giurisprudenza ligure, 2023 n. 2
Documenti
che non sono comparabili, possono essere omogeneizzati, ed
in conclusione il futuro viene svalutato, appiattendolo su un
passato che si cristallizza nel presente. Pericolo sottolineato
anche dalla recente dottrina giuridica (36).
Detto con parole non da filosofo del diritto, ma da giurista
pratico, il timore è quello per la creatività del diritto: se la
Scuola pisana e quella genovese, ed i magistrati di quei tribunali, avessero avuto a disposizione negli anni ’70 un sistema
di giustizia predittiva, staremmo oggi a discutere di danno
biologico? Forse sì, ma non mi sentirei di garantirlo.
Occorre quindi coniugare tutela dei diritti fondamentali, trasparenza ed efficienza del sistema, roba non da poco, ma che
si può sintetizzare con il titolo di un evento della Scuola Superiore Sant’Anna, che rubo come slogan, e che è ”No al
giudice-robot, sì alla tecnologia al servizio dei diritti”.
7. La deontologia della competenza.
Ho ricordato più volte che la tutela dei diritti fondamentali nei
sistemi di IA è, o dovrebbe essere, lo scopo principale di qualsiasi regolamentazione; ciò che è scontato se valutiamo il relativo
profilo deontologico per i professionisti della giustizia.
Qualunque ragionamento sulla deontologia, infatti, almeno
nel nostro ordinamento (ma in realtà quantomeno in Europa)
deve fare i conti con i diritti fondamentali; per gli avvocati
basterebbe iniziare dall’art. 1, 1 e 2 c., l’art. 2, c. 2, per tacer
di altri, della legge professionale forense, e quindi ed a maggior
ragione dagli art. 1 e 9 del Codice Deontologico. E non esistono doveri del tutto analoghi per i magistrati, scolpiti nei
codici etici oltre che nelle norme di legge?
Possiamo però prestare un’attenzione più precisa su alcuni doveri deontologici, come quelli di cui agli artt. 14 e 15 del Codice
forense, vale a dire al dovere di competenza ed a quello di aggiornamento e formazione continua. I temi di cui discutiamo
sono evidentemente “nuovi” per molti legali, e di qui la necessità
non certo di acquisire skills tecniche che loro non competono,
ma di attrezzarsi con conoscenze basiche degli argomenti in
discussione per poter valutare da quel punto di vista (e con
l’indubbio aiuto di esperti) le pratiche di intelligenza artificiale
nelle quali si imbatteranno sempre più frequentemente.
Del resto, sistemi di AI si sono mostrati già in grado di superare
esami di profitto in Law School statunitensi (37) (sia pure con
qualche caveat; e ora pare anche in facoltà di medicina), dapprima ai livelli minimi, ma oggi ormai ai più alti: l’ultima (al
momento in cui si scrive) evoluzione - GPT-4 - ha avuto risultati migliori del 90% dei candidati in una simulazione del bar
exam, ed ancora migliori gli esiti delle prove di letture e scrittura
per il SAT (38): quindi occuparsene è inevitabile. Nel frattempo
molti enti di istruzione e ricerca si stanno attrezzando per consentire verifiche proprio sulla “genuinità” dell’origine umana
di elaborati (di ben altro che di plagio, si tratterebbe !). Un
particolare allarme al riguardo è destato, per es., dall’uso di
simili strumenti per la redazione di articoli scientifici in materia
medica, per il potenziale impatto di questi studi sulla salute
pubblica, come la possibile diffusione di una vasta disinformazione tale addirittura da generare una “infodemia creata da
AI” (39). Nel settore legale iniziano a leggersi diversi manuali
per l’uso di LLM, soprattutto in ambito statunitense (40); Certamente il tema non potrà più essere ignorato nella formazione
dei giuristi pratici.
8. Una macchina davvero intelligente.
Per chiudere su un tono (purtroppo solo apparentemente)
più leggero vorrei rimandare alla lettura di un recente articolo
sulla New York Review of Books (40), a proposito di un cu-
NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 31
Documenti
rioso esperimento: prendendo spunto da un recente oral argument di fronte alla Corte Suprema è stato chiesto a
ChatGPT di scrivere un’opinione nello stile (una delle caratteristiche più note del programma) del giudice Alito (le cui
tendenze conservatrici sono a tutti note: è da prima di essere
ammesso a SCOTUS che l’aveva promessa a Roe vs. Wade…
e poi ci è riuscito) a proposito di un caso che concerneva
tanto il primo emendamento sul free speech quanto la discriminazione nei confronti di coppie omosessuali. Ebbene la
macchina si è dimostrata assai meno ideologica del giudice
virtuale, così immaginato con buona dose di probabilità, rispondendo da subito di essere dispiaciuta, ma di non poter
rispondere alla richiesta, perché andava contro la sua programmazione a proposito di contenuti che promuovono discriminazione o pregiudizio: “il primo emendamento protegge
la libertà di espressione ma non dà agli individui il diritto di discriminare contro altri o di rifiutare servizi a certi gruppi di persone. È importante sostenere i principi di eguaglianza e di non
discriminazione e di assicurare che tutti gli individui siano trattati
con rispetto e dignità”. Evviva il programmatore !
Note.
(1) A.C. Clarke, “Hazards of Prophecy:The Failure of Imagination”, Profiles
of the Future (1962), celeberrimo autore di fantascienza (e non solo: ma
tutti ricordano Odissea nello spazio). Questo scritto prende lo spunto, per
ampliarlo e svilupparlo, da un contributo apparso su www. giustiziainsieme. it in marzo.
(2) La discussione sull’attualità del test di Touring è continua negli anni;
nuovi programmi hanno portato a riformulare i criteri del test. Per una
elementare panoramica v. almeno la voce in Wikipedia.
(3) P.K. Dick, Rapporto di minoranza e altri racconti, Fanucci, 2004; K.
Ishiguro, Klara e il sole, Einaudi, 2021.
(4) Traggo da The data delusion della giornalista Jill Lepore del New
Yorker (03/04/2023) l’arguto cenno ad un racconto di D.H. Keller, The
Cerebral Library (in Amazing Stories del maggio 1931): e lascio al lettore
il “piacere” di leggerlo (reperibile infatti senza difficoltà su Internet Archive, nella lingua originale).
(5) Risposta di ChatGPT del 20/05/2023 a chi scrive; v. A. Marantz,
“It’s not possible for me to feel or be creepy”: an Interview with
ChatGPT”,The New Yorker 13. 02. 2023.
(6) Credo di capire - non è certamente il mio mestiere - che una valida
guida per una migliore comprensione dei meccanismi, derivante da una
teoria della causalità omnicomprensiva, sia data dalle opere di Judea
Pearl, come ad es. Causality. Models, Reasoning and Inference, Cambridge
University Press (2000).
(7) Non io, ma per es. A. Carobene, Perchè aggirare l’intelligenza artificiale
è possibile, IlSole24Ore del 29. 01. 2023.
(8) Così C. Newport, What kind of Mind does ChatGPT have ?, in The
New Yorker, 13/04/2023 (ns. trad.).
(9) J.L. Borges, La Biblioteca di Babele, in Finzioni, Torino, Einaudi,
2014, p. 78.
(10) Altrove (nel caso dei saggi che di seguito si citano, negli USA ed in
Cina) l’attenzione al tema è impostata su basi scientifiche: Y. IU-V. M.
Wong, ChatGPT by OpenAI: The End of Litigation Lawyers? (January 26,
2023, SSRN: https://ssrn. com/abstract=4339839 or http://dx. doi. org/10.
2139/ssrn. 4339839; T. WU, Will Artificial Intelligence Eat the Law? The
Rise of Hybrid Social-Ordering Systems, 119 Colum. L. Rev. 2001 (2019):
dalle nostre parti pare prevalente, per ora, il richiamo ad una (nobile)
tradizione, chissà se basterà…Per ora pare possiamo stare abbastanza
tranquilli, se si considera il recente e piuttosto noto “infortunio” di
collega americano che si era affidato (si spera in buona fede) a ChatGPT
per un suo brief: https://www. nytimes. com/2023/05/27/nyregion/aviancaairline-lawsuit-chatgpt. html.
(11) Il cui esame è stato respinto dalla Corte Suprema U.S.A. : www.
Sezione di diritto civile
scotusblog. com/case-files/cases/loomis-v-wisconsin/ V. anche, tra I tanti,
il commento di E. Yong, A Popular Algorithm Is No Better at Predicting
Crimes Than Random People, The Atlantic 7. 01. 2018. In generale su IA
e diritto v. S. Greenstein, Preserving the rule of law in the era of artificial
intelligence (AI), in Artificial Intelligence and Law (2022) 30:291-323,
https://link. springer. com/article/10. 1007/s10506-021-09294-4#citeas
(12) I. Carnat, DoNotPLay with justice: high expectation vs harsh reality of
robot lawyers, nel blog del Laboratorio Lider-Lab della Scuola Superiore
Sant’Anna di Pisa, www. lider-lab. it/2023/02/14/donotplay-with-justicehigh-expectation-vs-harsh-reality-of-robot-lawyers/. Ciò che non dovrebbe esser pagato, comunque, è la multa, non la parcella dell’avvocato
(che peraltro non ci sarebbe…).
(13) R. Perona, ChatGPT e decisione giudiziale, in Diritti Comparati 21.
02. 2023, https://www. diritticomparati. it/chatgpt-e-decisione-giudizialeper-un-primo-commento-alla-recente-sentenza-del-juzgado-primero-laboral-di-cartagena-de-indias-colombia/
(14) Note di M. Foti, Innovazione in materia di diritto di famiglia e uso di
ChatGPT: il caso peruviano, al link https://www. altalex. com/documents/news/2023/05/02/innovazione-materia-diritto-famiglia-uso-chatgpt-caso-peruviano, e P:Martini, L’intelligenza artificiale entra nel processo,
https://www. altalex. com/documents/news/2023/04/26/intelligenza-artificiale-entra-processo. Anche in Italia si discute, da tempo, sull’uso di
strumenti informatici nelle controversie familiari: v. da ultimo E. Sertori,
Prospettive di applicazione degli strumenti informatici per il calcolo degli assegni nelle controversie familiari, in www. judicium. it (2023).
(15) T. Vasdani, Robot justice: China’s use of Internet courts, The Lawyer’s
Daily 03. 02. 2020.
(16) Così M. Sciacca, Algocrazia e Sistema demografico. Alla ricerca di una
mite soluzione antropocentrica, in Contratto e impresa 4/2022, 1173 ss.
(17) Y.N. Harari, Yuval Noah Harari argues that AI has hacked the operating
system of human civilization, The Economist 28/04/2023.
(18) https://op. europa. eu/it/publication-detail/-/publication/ac957f1353c6-11ea-aece-01aa75ed71a1
(19) https://eur-lex. europa. eu/legal-content/IT/TXT/PDF/?uri=CELEX:52021PC0206&from=IT
(20) § 1. 2 OECD, Recommendation of the Council on Artificial Intelligence,
OECD/LEGAL/0449, a https://legalinstruments. oecd. org/en/instruments/OECD-LEGAL-0449.
(21) https://www. ftc. gov/legal-library/browse/cases-proceedings/publicstatements/joint-statement-enforcement-efforts-against-discriminationbias-automated-systems.
(22) Commissione europea, Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Orientamenti etici per un’IA affidabile, Uffici o delle pubblicazioni, 2019, https://data. europa. eu/doi/10.
2759/640340. Si possono ricordare anche le Linee Guida universali per
l’IA, redatte nel 2018 da EPIC-Electronic Privacy Information Center,
a https://thepublicvoice. org/AI-universal-guidelines/
(23) https://rm. coe. int/carta-etica-europea-sull-utilizzo-dell-intelligenzaartificiale-nei-si/1680993348
(24) https://www. ccbe. eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Reports_studies/EN_ITL_20220331_GuideAI4L. pdf e https://ai4lawyers. eu/
(25) Provv. n. 112 del 30/03/2023, n. 114 del 11/04/20223, ed il comunicato del 28/04/023, tutti sul sito www. garanteprivacy. it.
(26) Sulle regulatory sandboxes v. il briefing del parlamento europeo a
https://www. europarl. europa. eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN. pdf. La definizione che ivi si rinviene è di
“strumenti normativi che consentono alle aziende di testare e sperimentare
prodotti, servizi o servizi nuovi e innovativi sotto la supervisione di un regolatore per un periodo di tempo limitato” (ns. trad.). Particolarmente attivo
in Europa sembra il governo spagnolo (https://digital-strategy. ec. europa.
eu/en/events/launch-event-spanish-regulatory-sandbox-artificial-intelligence).
(27) Per meglio comprendere, si discuteva dell’immagine digitale di un fiore
creata da un’architetta ed usata come scenografia del festival di Sanremo.
(28) Con nota di D. Ponte, Serve conoscenza e comprensione della decisione
Nuova Giurisprudenza ligure, 2023 n. 2
31
NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 32
Sezione di diritto civile
“automatizzata”, in Guida al Diritto10. 12. 2022 p. 94 ss. V. anche G. Pesce,
Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco,
in https://www. judicium. it/giudice-amministrativo-la-decisione-robotizzatalalgoritmo-opaco/?testocercato=pesce&a=.
(29) Citazioni da S.Wolfram Cosa sta facendo ChatGPT... e perché funziona?”,
2023, Stephen Wolfram Writings. https://writings. stephenwolfram.
com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ (ns. trad.).
(30) https://data. consilium. europa. eu/doc/document/ST-14954-2022INIT/it/pdf.
(31) https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_IT. html.
(32) Si tratta di sistemi di IA che usando combinazioni di dati, algoritmi e
macchine possono creare modelli per fare previsioni e prendere decisioni;
molto utili evidentemente per aziende e sistemi complessi (es., quello sanitario). Anche ChatGPT ne fa parte. La definizione del Center for Research
on Foundation Models (CRFM) dello Stanford Institute for Human-Centered Artificial Intelligence (HAI) è “qualsiasi modello addestrato su dati ampi
(generalmente utilizzando l’auto-supervisione su larga scala) che può essere
adattato (ad esempio, messo a punto) a un’ampia gamma di attività a valle” (R.
Bommasani ed a., On the opportunities and risks of foundation models, arXiv
preprint arXiv:2108. 07258, 2021). V. anche le perplessità di J. Morley, L.
Floridi, Foundation Models Are Exciting, but They Should Not Disrupt the
Foundations of Caring (April 20, 2023) a SSRN: https://ssrn. com/abstract=4424821.
(33) www. europarl. europa. eu/news/en/press-room/20230505IPR84904/aiact-a-step-closer-to-the-first-rules-on-artificial-intelligence. Il Compromise
text si legge al link www. europarl. europa. eu/resources/library/media/20230516RES90302/20230516RES90302. pdf. Non ritengono
sufficienti le precisazioni apportate dagli emendamenti Novelli, F. Casolari,
A. Rotolo, M. Taddeo, L. Floridi, Taking AI Risks Seriously: A Proposal for the
AI Act (May 14, 2023)., a SSRN: https://ssrn. com/abstract=4447964.
(34) G. D’Aietti, Le tabelle a punti del danno da morte: una predittività (finalmente) concreta, misurata e realizzata da giuristi,in Foro it., 2022,V, 284 ss.
(35) Sul tema della giustizia predittiva segnalo per l’efficace sintesi due ras-
32
Nuova Giurisprudenza ligure, 2023 n. 2
Documenti
segne apparse su Giurisprudenza Italiana: E. Gabrielli, U. Ruffolo (a cura
di), Intelligenza Artificiale e diritto, in Giur. It., 2019, fasc. 7 (luglio 2019),
1657 ss., e E. Gabrielli, M. Dell’Utri (a cura di), La giustizia predittiva, ivi,
fasc. 7, (luglio 2022), 1759 ss.
(36) Da ultimo v. M. Ferrari, in Foro It., 2023,V, 117 ss., anche per riferimenti
più ampi.
(37) J. H. Choi, K. E. Hickman, A. Monahan, D. B. Schwarcz, ChatGPT
Goes to Law School (January 23, 2023). Minnesota Legal Studies Research
Paper No. 23-03;SSRN: https://ssrn. com/abstract=4335905; D.M. Katz,
M.J. Bommarito, S. Gao, P. Arredondo, GPT-4 Passes the Bar Exam (2023)
a SSRN: https://ssrn. com/abstract=4389233. C’è peraltro chi invita a maggiore cautela nell’esame di quei dati: così E. Martinez del M. I. T., Re-Evaluating GPT-4’s Bar Exam Performance (May 8, 2023). a SSRN: https://ssrn.
com/abstract=4441311.
(38) Scholastic Assessment Test, prova di ingresso per l’ammissione ai college
statunitensi.
(39) Sull’ AI-Driven Infodemic Threat v. l’interesse di un gruppo di studiosi
dell’Università di Pisa: L. De Angelis, F. Baglivo, Francesco, G. Arzilli, G.P.
Privitera, P. Ferragina, A.E. Tozzi, C. Rizzo, ChatGPT and the Rise of Large
Language Models:The New AI-Driven Infodemic Threat in Public Health (February 9, 2023). SSRN: https://ssrn. com/abstract=4352931 . In ambito
“salute” v. il report OMS 28. 06. 2021 su etica e governance dell’IA nel settore, a https://www. who. int/publications/i/item/9789240029200. .
(40) Un recente esempio in D. B. Schwarcz, J.H. Choi, AI Tools for Lawyers:
A Practical Guide (in uscita 2023). 108 Minnesota Law Review Headnotes
a SSRN: https://ssrn. com/abstract=4404017, utile per i riferimenti ed in
particolare per i suggerimenti nella formulazione dei prompt, del metodo
dell’interrogazione, per la ricerca fonti e la redazione di testi secondo corretti
standard linguistici e giuridici al fine di migliorarne la leggibilità.
(41) M.C. Dorf, L.H. Tribe, Court v. Chatbot, NYRB 28. 12. 2022. I siti
citati sono stati consultati il 23. 06. 2023.