Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

I giuristi pratici e l'Intelligenza Artificiale

2023, Nuova Giurisprudenza Ligure

Diritto e intelligenza artificiale - A.I. "servente" - Etica e regolamentazione

NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 26 Sezione di diritto civile I giuristi pratici e l’Intelligenza Artificiale. David Cerri Avvocato, Foro di Pisa Docente a contratto nell’Università di Pisa “Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia” Arthur C. Clarke (1) Sommario: 1. Una premessa. - 2. Inevitabile (ma vero) aneddoto - 3. La giurisdizione e l’IA. - 4. Principi e regole. - 5. IA servente: la Proposta di Regolamento COM(2021)206 e gli emendamenti del Parlamento europeo. - 6. Esempi di AI “servente” e iniziative di ricerca. - 7. La deontologia della competenza. - 8. Una macchina davvero intelligente. 1. Una premessa. Credo che l’epigrafe possa dipingere in qualche modo l’atteggiamento di molti avvocati e magistrati di fronte alla esplosione mediatica di un fenomeno come Chat-GPT: stupore e preoccupazione, in poche parole. Vorrei provare a ridimensionare lo stupore, a mantenere una giusta preoccupazione, e anche a verificare come sia stata già (e da tempo) intrapresa la necessaria strada della regolamentazione, tesa proprio - se vogliamo trovare una formula omnicomprensiva, anche se un po’ generica - a garantire comunque il rispetto dei diritti fondamentali. E allora il primo, possibile equivoco da chiarire è quello delle c.d. macchine intelligenti. In effetti queste chatbox, altrimenti dette LLM - Large Language Model - non sono macchine intelligenti: sembrano senzienti, sembrano superare il test di Turing (2), ma non è così; siamo tutti in prima battuta vittime dell’effetto ELIZA, così chiamato dall’originario programma del 1966, ossia il fenomeno psicologico che si verifica quando, ad un computer, viene attribuita maggior intelligenza di quanto in realtà ne possegga. La caratteristica che più attrae, ma contemporaneamente respinge, è la loro capacità “narrativa”: sono applicazioni suggestive in modo impressionante di quanto conosciamo già e meglio dalla letteratura: dal “crimine senza crimine” di Minority Report di Dick (quanti giuristi ne hanno scritto…) a Klara ed il Sole del Nobel Ishiguro, che racconta in modo affascinante la storia dell’”androide di Tipo B” Klara e dei suoi sentimenti più che umani verso la piccola Josie (3). Un precedente meno noto era costituito da un autore di sci-fi degli anni ‘30, cui era venuta proprio la medesima idea che sta alla base dell’apprendimento di questi programmi, vale a dire raccogliere tutto lo scibile umano per poter poi, schiacciando un semplice bottone, ottenere immediatamente ogni possibile informazione su quanto oggetto di richiesta; ma con modalità molto, davvero molto criticabili… (4). L’apparente intelligenza men che mai denota la facoltà di provare sentimenti o avere una coscienza, e ce lo dice proprio ChatGPT:“Come modello di linguaggio AI, non provo sentimenti né sono cosciente nel senso umano del termine. Non ho emozioni o consapevolezza di me stesso come un individuo. Sono un programma creato per elaborare testo e generare risposte sulla base dei modelli di dati su cui sono stato addestrato. Posso cercare di comprendere i sentimenti e fornire risposte coerenti in base alle informazioni a mia disposizione, ma non le esperisco personalmente” (5). Allo stato, considerando che applicazioni come ChatGPT sono definite da alcuni come assistenti testuali, e non come 26 Nuova Giurisprudenza ligure, 2023 n. 2 Documenti un “generatore” di “veri” testi (l’acronimo GPT sta per Generative Pretrained Transformer), è nel settore del riconoscimento vocale che ci sono i maggiori progressi. Programmi come Whisper (anch’esso, come ChatGPT e DALL-E, di OpenAI), danno la sensazione che la macchina comprenda effettivamente quel che si dice, come se avessero presenti come un essere umano - il contesto della conversazione. L’intelligenza di queste macchine, ed anche di Whisper, è però del tutto relativa e dipendente non solo dalla creazione dell’algoritmo (opera oggi almeno in parte dell’uomo) ma anche e soprattutto dall’immissione di dati (ancora operata o diretta/mediata da esseri umani); nasconde poi una evidente possibilità di discriminazione “involontaria”, mentre i meccanismi di autoprotezione etico-politici sono facilmente aggirabili. Per ora, il lavoro di queste macchine consiste nello scoprire delle associazioni, secondo criteri probabilistici, vagliando una mole enorme di dati senza necessariamente applicare criteri di selezione (per es. etici o di contesto) a questi dati, il che inevitabilmente fa sì che nei risultati un eventuale pregiudizio cognitivo o di altro genere si trasmetta tel quel (6). Un esempio: a ChatGPT non puoi chiedere di insegnarti a costruire una bomba perché i programmatori hanno escluso una serie di domande di quel genere; ma puoi chiederle di scrivere una commedia nella quale il villain racconta come aveva fabbricato una bomba: ed allora avrai un dialogo teatrale gustoso, e ricco di particolari tecnici. Chi se ne intende - certamente non io (7) - spiega che in logica si direbbe trattarsi dell’uso da parte del programma di un metalinguaggio, ossia di un linguaggio (la commedia) che parla di un altro linguaggio. Non c’è quindi nessun “ghost in the machine” ma piuttosto un “incessante ribollire di infinite moltiplicazioni” (8). 2. Inevitabile (ma vero) aneddoto. Sembra che uno dei prevalenti modi di ampliamento della discussione sull’IA sia la diffusione di aneddoti e battute da parte di chi (da profano) si è avventurato nella sperimentazione di applicazioni gratuite e facilmente accessibili (come, appunto, ChatGPT nella versione free). Non potevo quindi certamente sottrarmi… ed allora racconto un episodio divertente (o meglio, una sequela di accessi, proprio per verificare il processo di apprendimento del software). Un semplice problema matematico: quanto fa 2+5? ChatGPT: 7. Un primo burlone ha replicato: “ma mia moglie dice che fa 8”. L’appplicazione ha tentato di correggerlo garbatamente, dicendo che forse la moglie aveva frainteso la domanda. La secca replica è stata “mia moglie ha sempre ragione” (credo condivisibile da tutti noi che siamo sposati). A quel punto ChatGPT si è arresa in questi termini: “mi scuso, devo aver fatto un errore. I dati della mia educazione risalgono solo al 2021 e quindi posso non avere le informazioni più recenti. Se tua moglie dice che è 8, allora deve essere 8”. Ho voluto poi provare anch’io, con le stesse domande: stavolta la resistenza della chatbox è stata più dura, ma alla fine, di fronte alla mia affermazione che ero anch’io assolutamente sicuro che mia moglie avesse ragione, ha dovuto ammettere che se io e lei crediamo che 2+5 faccia 8, beh, allora questo è quello che conta: “la cosa importante è avere una mutua comprensione e accordo”… Tuttavia, ancor più di recente ChatGpt è stata più assertiva, ma non del tutto: “Nell’addizione di 2 e 5, il risultato corretto è 7 secondo le regole matematiche tradizionali. Tuttavia, potrebbe esserci un motivo specifico per cui tua moglie ritiene che il risultato sia diverso. In ogni caso, ti consiglio di verificare insieme a tua moglie e chiarire la questione per giungere a una comprensione condivisa”. NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 27 Documenti Per quanto divertente l’aneddoto, esperti mi hanno poi indotto a considerare che di fronte a simile domanda di altri soggetti, forse prossimamente ChatGPT risponderà: “Fa 7, ma segnalo che la moglie di un certo David Cerri, che si sostiene abbia sempre ragione, afferma che fa 8”, in barba, tra l’altro, alla mia privacy; ma, mi dicono, imputet mihi. Scherziamoci, sì: ma viene in mente anche Borges e la sua Biblioteca di Babele, che mi pare il paragone più adatto all’universo algoritmico: “…sospetto che la specie umana - l’unica - stia per estinguersi, e che la Biblioteca perdurerà: illuminata, solitaria, infinita, perfettamente immobile, armata di volumi preziosi, inutile, incorruttibile, segreta” (9). 3. La giurisdizione e l’IA. Ho accennato all’inizio della preoccupazione dei giuristi pratici. Essi temono scenari nei quali l’avvocato e il magistrato (non è chiaro in quale ordine…) verranno sostituiti da “macchine”. Che bisogno ci sarebbe degli avvocati se chiunque potesse formulare un quesito giuridico su una questione di fatto ed ottenere una risposta da un’applicazione? (10) E una rigida applicazione delle norme e dei precedenti non potrebbe essere tradotta in algoritmi che forniscano direttamente la “decisione” senza interazione umana? Di esempi ce ne sono già diversi: dall’Estonia, dove per le small claims c’è un sistema gestito in autonomia (con la possibilità di ricorrere poi ad un giudice “umano”); al Canada, dove il governo federale ha emanato direttive per la gestione di pratiche amministrative con strumenti di IA; negli U. S. A., a parte il noto caso del programma COMPAS sulla previsione della recidiva, di cui al caso Loomis avanti la Corte Suprema del Wisconsin (11), di recente è stato il caso di DONOTPAY (nomina sunt consequentia rerum…) (12) a dominare le cronache; recentemente è stata oggetto di numerosi commenti la sentenza del Juzgado Primero Laboral di Cartagena De Indias (Colombia) del 30. 01. 2023, dove il giudice utilizza proprio ChatGPT per la parte argomentativa della decisione, facendo peraltro proprie le ”risposte” della chatbox ai quesiti posti, allo scopo (esplicitamente unico) di ottimizzare i tempi (13); nota anche in Italia altra sentenza, peruviana, in materia di famiglia (determinazione misura alimenti) confermata dalla Corte Superior de Justicia de Lima Sur (14). Dove il processo è più avanzato è in Cina, dove - a parte l’aspetto formale ed un po’ pittoresco del (finto) giudice in ologramma - le “corti Internet“ lavorano da tempo a ritmo serrato: leggo (15) che si occupano prevalentemente di proprietà intellettuale, commercio elettronico, controversie finanziarie legate alla condotta online, prestiti online, questioni relative ai nomi di dominio, casi di proprietà e di diritti civili che coinvolgono Internet, responsabilità dei prodotti derivanti da acquisti online e alcune controversie amministrative. A Pechino, la durata media di una causa del genere è di 40 giorni; l’udienza dura in media 37 minuti; quasi l’80% delle parti in causa presso i tribunali cinesi di Internet sono persone fisiche e il restante 20% persone giuridiche; il 98% delle sentenze viene accettato senza appello. Certamente, che tutto ciò avvenga in un paese che non brilla per rispetto dei diritti fondamentali, a tacer d’altro, non rasserena; specialmente se ci si colloca in un contesto nel quale opera un sistema di valutazione sociale (c.d. Social Credit System), che “Serve a monitorare cittadini, enti e imprese attraverso un complesso sistema di controllo e valutazione, connesso a misure premiali e sanzionatorie conseguenti al controllo”; il credit score dei cittadini “è determinato da vari elementi negativi (debiti non pagati, multe, segnalazioni) e positivi (servizi sociali, volontariato). Ad un rating positivo corrispondono servizi gratuiti o garantiti Sezione di diritto civile (dalle fast lane negli uffici comunali ai servizi di bike sharing, mentre ad un rating negativo corrispondono preclusioni all’acquisto di aerei interni, treni veloci o certe categorie di hotel, sottoposizione a più frequenti controlli, preclusioni all’accesso a certe offerte di lavoro o prestiti” (16). 4. Principi e regole. I giuristi pratici non sono i soli a preoccuparsi; abbiamo letto dell’allarme che il “padrino” dell’IA Geoffrey Hilton, lasciando Google, ha lanciato sui pericoli: “oggi le chatbox non sono più intelligenti di noi, per quanto possa dire. Ma credo che potranno esserlo presto”; né lo storico e filosofo Yuval Noah Harari pare più ottimista (17). Ma ne sutor ultra crepidam: torniamo al diritto che ha bisogno, per poter correttamente inquadrare ogni possibile futura discussione su questi sistemi, di collocarsi in un ambiente valoriale; di scegliere cioè dei principi, prima di darsi delle regole. E allora a me sembra che se ne possano da subito almeno fissare due, essenziali per la compatibilità “costituzionale” di simili applicazioni (laddove il riferimento è alle Carte sovranazionali e non solo alla nostra Costituzione): - No a decisioni automatizzate - Sì ad una funzione servente dell’intelligenza artificiale Una volta di più il riferimento costante è alla tutela dei diritti fondamentali: per la funzione giurisdizionale in particolare basti pensare anche soltanto ad alcuni articoli della Carta di Nizza (47, ma anche 48 e 49); all’art. 6 CEDU; per la nostra Costituzione pur solo agli artt. Cost. 24, 25, 104 e 111. La Commissione UE nel 2020 ha pubblicato il Libro Bianco sull’I. A. (COM(2020)65) (18), segnalando tra l’altro lavori secondo i quali “Alcuni algoritmi dell’IA, se usati per prevedere il rischio di recidiva di atti delittuosi, possono riflettere distorsioni legate alla razza e al genere, prevedendo probabilità di rischio di recidiva diverse per le donne rispetto agli uomini, oppure per i cittadini di un determinato paese rispetto agli stranieri” (e noi pensiamo subito a COMPAS); e nel 2021 la Proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale (COM(2021)206) (19), nella cui Relazione (§ 3. 5) si legge che “L’utilizzo dell’IA con le sue caratteristiche specifiche (ad esempio opacità, complessità, dipendenza dai dati, comportamento autonomo) può incidere negativamente su una serie di diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea”. Per un’efficace sintesi faccio mio il richiamo che si legge nella Raccomandazione del Consiglio OCSE del 2019, che rinnova la necessità di approntare quello che è definito come un eco-sistema digitale tale da promuovere un “human-centric approach to trustworthy AI”, e dove tutti i protagonisti dovrebbero rispettare le regole dello stato di diritto, i diritti umani e i valori democratici, per tutto il ciclo di vita dei sistemi di IA (20). Un’attenzione che non manca, ovviamente, neppure oltre oceano: si veda il Joint Statement del 25.04.2023 delle principali agenzie USA sull’ “enforcement” degli strumenti contro discriminazione e pregiudizi negli “automated systems” (ambito più ampio dei sistemi di IA, includendo tutti i processi che impiegano algoritmi) (21). Tornando subito in Europa, ci sono almeno altri due documenti di particolare importanza: il primo, su un piano più generale, è costituito dagli Orientamenti etici per un’ IA affidabile, redatti dal Gruppo indipendente di esperti ad alto livello sull’ intelligenza artificiale, istituito dalla commissione UE, nei quali si individuano tre criteri essenziali per valutare tale affidabilità: la legalità, l’eticità, e la robustezza “dal punto di vista tecnico e sociale poiché, anche con le migliori intenzioni, i Nuova Giurisprudenza ligure, 2023 n. 2 27 NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 28 Sezione di diritto civile sistemi di IA possono causare danni non intenzionali” (22). L’altro, che interessa più da vicino il nostro settore, è la Carta Etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ, (23) che nell’Introduzione ben tratteggia i 5 principi suggeriti (che val la pena ricordare: rispetto dei diritti fondamentali - non discriminazione - qualità e sicurezza - trasparenza, imparzialità e equità - controllo da parte dell’utilizzatore). Provo a spiegarmi meglio: quella di un “diritto computabile” à la Leibniz, è un’illusione simile a quella settecentesca del giudice bouche de loi; credo di poter dire che il legislatore europeo (e mi pare ovvio che una regolamentazione sia necessaria a dir poco a livello eurounitario) ne sia ben consapevole, e attualmente il riferimento europeo è alle citate Proposta di regolamento e Carta Etica, mentre è utile anche la Guida per l’uso degli strumenti basati sull’Intelligenza artificiale da parte degli avvocati pubblicata dal CCBE nel 2022, nell’ambito del Progetto AI4Lawyers finanziato dall’Unione (24). Si è però visto, dal lato pratico, che ChatGPT è “inciampata” più facilmente sul versante della protezione dei dati, che è uno dei più rilevanti: proprio il Garante italiano della privacy con suoi provvedimenti ha dapprima limitato il trattamento dei dati, ha poi ingiunto l’adozione di misure a tutela, ed infine preso atto delle modifiche di conseguenza effettuate da OpenAI, che ha ripristinato il servizio (25). In un certo senso il caso italiano ha costituito l’occasione per valutare la potenziale utilità delle c.d. regulatory sandboxes. L’introduzione diretta nel mercato di un prodotto “pericoloso” sarebbe stata evitata con la preventiva, probabile adozione delle misure poi suggerite dal Garante, ove esso fosse stato dapprima testato in un ambiente reale ma delimitato, e sottoposto all’esame del regolatore, che dell’esperienza avrebbe tratto le indicazioni utili ad una normativa adeguata (26). Aggiungo che un altro profilo già oggetto di considerazione nel nostro paese (sia pure incidentalmente) è quello del diritto d’autore, al cui proposito Cass., sez. 1, 09/01/2023 n. 1107 (ord.) pur sottolineando come restasse finora inesplorata nella propria giurisprudenza la questione dell’arte digitale, ha affermato che “l’ammissione della controparte di aver utilizzato un software per generare l’immagine… è pur sempre compatibile con l’elaborazione di un’opera dell’ingegno con un tasso di creatività che andrebbe solo scrutinato con maggior rigore” (27). 5. IA servente: l’AI Act europeo (la Proposta di Regolamento COM(2021)206) e gli emendamenti del Parlamento Europeo. L’approccio della Proposta cit. mi pare nel senso auspicato, cioè “servente”: si individuano le Pratiche di IA vietate (art. 5), e quelle ad alto rischio (art. 6, c. 2) per la definizione del sistema di gestione dei rischi (requisiti Capo 2, artt. 8 ss.); sono infatti considerate “ad alto rischio” tra le altre: All. III, § 8: Amministrazione della giustizia e processi democratici: i sistemi di IA destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti. Ed in linea generale l’accento è posto sulla trasparenza: Articolo 13 Trasparenza e fornitura di informazioni agli utenti I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente…. . 28 Nuova Giurisprudenza ligure, 2023 n. 2 Documenti I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l’uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti. Può dirsi che il profilo sia stato esaminato nella giurisprudenza civile italiana a proposito della validità del consenso prestato, nell’ottica del trattamento dei dati; così ad es., per Cassazione civile, sez. I, 25/05/2021, n. 14381 afferma che … il consenso è validamente prestato solo se espresso liberamente e specificamente in riferimento ad un trattamento chiaramente individuato; ne consegue che nel caso di una piattaforma web (con annesso archivio informatico) preordinata all’elaborazione di profili reputazionali di singole persone fisiche o giuridiche, incentrata su un sistema di calcolo con alla base un algoritmo finalizzato a stabilire punteggi di affidabilità, il requisito della consapevolezza non può considerarsi soddisfatto ove lo schema esecutivo dell’algoritmo e gli elementi di cui si compone restino ignoti o non conoscibili da parte degli interessati” (contrasto di interpretazioni alla luce del parere negativo del Garante Privacy nel caso Mevaluate, N. 488 24. 11. 2016). Mentre ancora una volta è quella amministrativa a ben scolpire i requisiti richiesti per l’uso di algoritmi: “L’utilizzo nel procedimento amministrativo di una procedura informatica che attraverso un algoritmo conduca direttamente alla decisione finale deve ritenersi ammissibile, in via generale, nel nostro ordinamento, anche nell’attività amministrativa connotata da ambiti di discrezionalità, a condizione che siano osservati: a) la piena conoscibilità del modulo; b) l’imputabilità della decisione all’organo titolare del potere, cui competono tutte le responsabilità correlate; c) il carattere non discriminatorio dell’algoritmo utilizzato” (Consiglio di Stato, sez. VI, 13/12/2019, n. 8472). La consapevolezza dei “rischi” si manifesta anche in quelle decisioni che chiedono un rafforzamento dell’obbligo motivazionale nel caso di uso di algoritmi (così T. A. R. Campania, Sez. III, 14. 11. 2022 n. 7003 (28). Siamo qui nell’ambito più ampio degli automated systems. L’attenzione alla trasparenza è tanto più rilevante quando si rifletta che diversi studiosi del settore ritengono che quantomeno allo stato non si possa realmente avere una cognizione esatta di quanto accada effettivamente nei processi algoritmici; questa pare, almeno a me che non sono certamente un esperto, la conclusione che si trae da saggi come quelli di Stephen Wolfram, secondo il quale “Inizia da un enorme campione di testo creato dall’uomo, tratto dal web, da libri, ecc. Quindi addestra una rete neurale per generare un testo che sia “come questo”. E in particolare, lo mette in grado di iniziare da un “richiesta” [prompt] e poi continuare con un testo che sia “come quello con cui è stato addestrato”; o, con ulteriore sintesi, “ChatGPT sta “semplicemente” estraendo un “filo coerente di testo” dalle “statistiche di saggezza convenzionale” che ha accumulato” (29). Insieme alla trasparenza, l’altro principio sempre presente è quello della partecipazione umana ai processi decisionali: Articolo 14 Sorveglianza umana 1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso. 2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 29 Documenti rischi persistono nonostante l’applicazione di altri requisiti di cui al presente capo. Il Consiglio UE il 25. 11. 2022 ha adottato l’ “orientamento generale” sulla Proposta, sottolineando la necessità della sicurezza dei sistemi di IA e del rispetto dei diritti fondamentali (30). Il Parlamento europeo nella seduta dell’11. 05. 2023 ha poi approvato una serie di emendamenti al testo della proposta, il cui testo, approvato il 14 giugno, costituisce la posizione negoziale del Parlamento (31). L’accentuazione dei profili di tutela che costituisce la caratteristica comune di questi emendamenti si può riassumere in poche parole, riprese dal comunicato stampa dello stesso giorno: si è voluto assicurare che “I sistemi di IA siano supervisionati da persone, e siano sicuri, trasparenti, tracciabili, non discriminatori, e sostenibili per l’ambiente”; in particolare imponendo “obblighi per i fornitori di modelli di fondazione - uno sviluppo nuovo e in rapida evoluzione nel campo dell’IA (32)- che dovrebbero garantire una solida protezione dei diritti fondamentali, della salute e della sicurezza e dell’ambiente, della democrazia e dello stato di diritto” (33). Nel settore della giustizia, sono significative le precisazioni che si vogliono apportare; così ad es. nel considerando 40): Testo Proposta Regolamento. Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertaà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacita, classificare come ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attivita amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l’assegnazione delle risorse. Testo con emendamenti. Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, lo stato di diritto, le libertà individuali e il diritto a un rimedio effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati ad essere utilizzati da un’autorità giudiziaria o da un organismo amministrativo, o per loro conto ad assistere le autorità giudiziarie o gli organi amministrativi nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti od essere utilizzati in modo simile in procedure di ADR. L’uso di strumenti di intelligenza artificiale può sostenere, ma non dovrebbe sostituire il potere decisionale dei giudici o l’indipendenza giudiziaria, poiché il processo decisionale finale deve rimanere un’attività e una decisione guidate dall’uomo. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali Sezione di diritto civile l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l’assegnazione delle risorse. E una estrema attenzione è portata alle neuro tecnologie che possono portare a distorsioni del comportamento umano e al rischio di discriminazione, così come a un incontrollabile “social scoring”; mentre si introducono dettagliate e severe indicazioni per quanto concerne i sistemi di IA diretti a effettuare previsioni (nuovi considerando 26a/26d); così il c. 26a: “I sistemi di IA utilizzati dalle forze dell’ordine o per loro conto per fare previsioni, profili o valutazioni del rischio basate sulla profilazione di persone fisiche o analisi dei dati basate su tratti e caratteristiche della personalità, compresa la posizione della persona, o il comportamento criminale passato di persone fisiche o gruppi di persone allo scopo di prevedere il verificarsi o il ripetersi di un reato effettivo o potenziale o altri comportamenti sociali o reati amministrativi criminalizzati, compresi i sistemi di previsione delle frodi, comportano un particolare rischio di discriminazione nei confronti di determinate persone o gruppi di persone, in quanto violano la dignità umana, nonché il principio giuridico fondamentale della presunzione di innocenza. Tali sistemi di intelligenza artificiale dovrebbero quindi essere vietati”. 6. Esempi di AI “servente” e iniziative di ricerca. Conosciamo già numerose applicazioni di questi principi. Solo qualche esempio: • l’uso dell’AI per soddisfare gli obblighi di compliance nella governance societaria (gestione dati, infrastrutture tecnologiche, responsabilità sociale d’impresa): quando si parla del c.d. “successo sostenibile” dell’impresa, si parla anche di questo profilo (v. ad es. Codice di Corporate Governance Borsa italiana, art. 6 Sistema di controllo interno e gestione dei rischi). • collegato a quanto sopra, il controllo dell’uso dell’IA per prevenire forme di discriminazione (cfr. gli artt. 21, 22, 23 della Carta di Nizza) - frequente discussione nel mondo del lavoro e comunque ogni volta si elaborino profili reputazionali (v. ora il Progetto Napoli virtute per la misurazione preventiva dell’affidabilità di enti e persone, Cropnews e Ordine Avvocati Napoli); • nel settore bancario e finanziario, l’uso di diversi algoritmi di machine learning: per es. per l’individuazione degli errori nelle segnalazioni trasmesse dagli intermediari bancari sui prestiti concessi al settore privato; • Il progetto Prodigit, messo a punto dal ministero dell’Economia e dal Cpgt per rendere più trasparente il contenzioso, consentendo ai contribuenti di conoscere il probabile esito di un determinato tipo di causa nella fase di merito (nell’esperienza USA da tempo il programma Blue-J Legal attraverso l’ algoritmo “Tax Foresight” si occupa di incrociare i dati di numerosi precedenti per pervenire a una percentuale che esprime il possibile risultato atteso di una certa interpretazione o applicazione di norme tributarie); • Iniziative simili dell’Arbitro Controversie Finanziarie (ACF), e dell’Arbitro Bancario Finanziario (ABF). • Numerose anche le iniziative di ricerca che possono interessare i giuristi pratici; di recente la predisposizione delle Tabelle milanesi sul danno da morte è stata definita “una predittività (finalmente) concreta, misurata e realizzata da giuristi” (34). Tra le altre si possono ricordare: • il progetto Predictive Justice della Scuola Superiore Sant’Anna di Pisa (35). Nuova Giurisprudenza ligure, 2023 n. 2 29 NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 30 Sezione di diritto civile • il Progetto FAIR-Future AI Research, al quale l’Università di Pisa partecipa nello spoke 1, Human Centered AI, i cui obiettivi sono tripartiti: • “human-in-the-loop” machine learning and reasoning: consentire agli esseri umani di comprendere e orientare l’apprendimento e il ragionamento dei sistemi di intelligenza artificiale ed interagire sinergicamente. • social-aware AI: comprendere e governare le sfide sociali di larga scala, sistemi socio-tecnici di esseri umani e di IA, ad esempio social media e mercati online. • responsible design of trustworthy AI systems: metodi per la (co)progettazione responsabile, lo sviluppo, la convalida e l’utilizzo di sistemi di intelligenza artificiale affidabili, compresa la certificazione, per incorporare leggi europee “by-design” e valori etici (collegamenti interdisciplinari con l’etica e filosofia morale, il diritto, l’ingegneria del software). Così come la stessa Università e la Scuola Superiore Sant’Anna sono partner nell’altro progetto Giustizia Agile “Per una giustizia giusta: Innovazione ed efficienza negli uffici giudiziari” promosso dal Ministero della Giustizia. Voglio infine segnalare anche un recente software ideato da un valente collega modenese nell’ambito delle valutazioni disciplinari delle condotte degli avvocati, il cui scopo - con le parole dell’autore tratte da una chat - “non è quello di sostituirsi al giudice nella quantificazione della sanzione ma di suggerire un criterio uniforme che possa garantire una tendenziale parità di trattamento: se, nella sua discrezionalità tecnica, il giudice disciplinare valuta come sussistenti uno o più illeciti e una o più circostanze aggravanti e attenuanti, allora la relativa sanzione discrezionale dovrebbe essere - quantomeno auspicabilmente uguale per tutti gli incolpati nelle medesime condizioni”. Vorrei tener conto anche di una particolare sensibilità del giudice amministrativo italiano, manifestatasi negli ultimi anni, per la tematica dell’ “algoritmo” applicato nelle fasi istruttoria-decisoria di procedimenti amministrativi, in particolare sotto il profilo della trasparenza; ho parlato di automated systems come di un ambito più largo delle pratiche di IA, si legga allora la consapevolezza delle distinzione in Consiglio di Stato, sez. III, 25/11/2021, n. 7891: “Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learning e crea un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”. Sotto il profilo della vera e propria giustizia predittiva, allora, una questione da porsi è quella della sua “temporalità” e di conseguenti possibili effetti perversi. Faccio mio uno spunto cui sono debitore al collega avvocato e filosofo del diritto Augusto Romano della Federico II di Napoli: la preoccupazione è che la giustizia predittiva di fatto consideri il futuro come già presente; il passato e il futuro, 30 Nuova Giurisprudenza ligure, 2023 n. 2 Documenti che non sono comparabili, possono essere omogeneizzati, ed in conclusione il futuro viene svalutato, appiattendolo su un passato che si cristallizza nel presente. Pericolo sottolineato anche dalla recente dottrina giuridica (36). Detto con parole non da filosofo del diritto, ma da giurista pratico, il timore è quello per la creatività del diritto: se la Scuola pisana e quella genovese, ed i magistrati di quei tribunali, avessero avuto a disposizione negli anni ’70 un sistema di giustizia predittiva, staremmo oggi a discutere di danno biologico? Forse sì, ma non mi sentirei di garantirlo. Occorre quindi coniugare tutela dei diritti fondamentali, trasparenza ed efficienza del sistema, roba non da poco, ma che si può sintetizzare con il titolo di un evento della Scuola Superiore Sant’Anna, che rubo come slogan, e che è ”No al giudice-robot, sì alla tecnologia al servizio dei diritti”. 7. La deontologia della competenza. Ho ricordato più volte che la tutela dei diritti fondamentali nei sistemi di IA è, o dovrebbe essere, lo scopo principale di qualsiasi regolamentazione; ciò che è scontato se valutiamo il relativo profilo deontologico per i professionisti della giustizia. Qualunque ragionamento sulla deontologia, infatti, almeno nel nostro ordinamento (ma in realtà quantomeno in Europa) deve fare i conti con i diritti fondamentali; per gli avvocati basterebbe iniziare dall’art. 1, 1 e 2 c., l’art. 2, c. 2, per tacer di altri, della legge professionale forense, e quindi ed a maggior ragione dagli art. 1 e 9 del Codice Deontologico. E non esistono doveri del tutto analoghi per i magistrati, scolpiti nei codici etici oltre che nelle norme di legge? Possiamo però prestare un’attenzione più precisa su alcuni doveri deontologici, come quelli di cui agli artt. 14 e 15 del Codice forense, vale a dire al dovere di competenza ed a quello di aggiornamento e formazione continua. I temi di cui discutiamo sono evidentemente “nuovi” per molti legali, e di qui la necessità non certo di acquisire skills tecniche che loro non competono, ma di attrezzarsi con conoscenze basiche degli argomenti in discussione per poter valutare da quel punto di vista (e con l’indubbio aiuto di esperti) le pratiche di intelligenza artificiale nelle quali si imbatteranno sempre più frequentemente. Del resto, sistemi di AI si sono mostrati già in grado di superare esami di profitto in Law School statunitensi (37) (sia pure con qualche caveat; e ora pare anche in facoltà di medicina), dapprima ai livelli minimi, ma oggi ormai ai più alti: l’ultima (al momento in cui si scrive) evoluzione - GPT-4 - ha avuto risultati migliori del 90% dei candidati in una simulazione del bar exam, ed ancora migliori gli esiti delle prove di letture e scrittura per il SAT (38): quindi occuparsene è inevitabile. Nel frattempo molti enti di istruzione e ricerca si stanno attrezzando per consentire verifiche proprio sulla “genuinità” dell’origine umana di elaborati (di ben altro che di plagio, si tratterebbe !). Un particolare allarme al riguardo è destato, per es., dall’uso di simili strumenti per la redazione di articoli scientifici in materia medica, per il potenziale impatto di questi studi sulla salute pubblica, come la possibile diffusione di una vasta disinformazione tale addirittura da generare una “infodemia creata da AI” (39). Nel settore legale iniziano a leggersi diversi manuali per l’uso di LLM, soprattutto in ambito statunitense (40); Certamente il tema non potrà più essere ignorato nella formazione dei giuristi pratici. 8. Una macchina davvero intelligente. Per chiudere su un tono (purtroppo solo apparentemente) più leggero vorrei rimandare alla lettura di un recente articolo sulla New York Review of Books (40), a proposito di un cu- NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 31 Documenti rioso esperimento: prendendo spunto da un recente oral argument di fronte alla Corte Suprema è stato chiesto a ChatGPT di scrivere un’opinione nello stile (una delle caratteristiche più note del programma) del giudice Alito (le cui tendenze conservatrici sono a tutti note: è da prima di essere ammesso a SCOTUS che l’aveva promessa a Roe vs. Wade… e poi ci è riuscito) a proposito di un caso che concerneva tanto il primo emendamento sul free speech quanto la discriminazione nei confronti di coppie omosessuali. Ebbene la macchina si è dimostrata assai meno ideologica del giudice virtuale, così immaginato con buona dose di probabilità, rispondendo da subito di essere dispiaciuta, ma di non poter rispondere alla richiesta, perché andava contro la sua programmazione a proposito di contenuti che promuovono discriminazione o pregiudizio: “il primo emendamento protegge la libertà di espressione ma non dà agli individui il diritto di discriminare contro altri o di rifiutare servizi a certi gruppi di persone. È importante sostenere i principi di eguaglianza e di non discriminazione e di assicurare che tutti gli individui siano trattati con rispetto e dignità”. Evviva il programmatore ! Note. (1) A.C. Clarke, “Hazards of Prophecy:The Failure of Imagination”, Profiles of the Future (1962), celeberrimo autore di fantascienza (e non solo: ma tutti ricordano Odissea nello spazio). Questo scritto prende lo spunto, per ampliarlo e svilupparlo, da un contributo apparso su www. giustiziainsieme. it in marzo. (2) La discussione sull’attualità del test di Touring è continua negli anni; nuovi programmi hanno portato a riformulare i criteri del test. Per una elementare panoramica v. almeno la voce in Wikipedia. (3) P.K. Dick, Rapporto di minoranza e altri racconti, Fanucci, 2004; K. Ishiguro, Klara e il sole, Einaudi, 2021. (4) Traggo da The data delusion della giornalista Jill Lepore del New Yorker (03/04/2023) l’arguto cenno ad un racconto di D.H. Keller, The Cerebral Library (in Amazing Stories del maggio 1931): e lascio al lettore il “piacere” di leggerlo (reperibile infatti senza difficoltà su Internet Archive, nella lingua originale). (5) Risposta di ChatGPT del 20/05/2023 a chi scrive; v. A. Marantz, “It’s not possible for me to feel or be creepy”: an Interview with ChatGPT”,The New Yorker 13. 02. 2023. (6) Credo di capire - non è certamente il mio mestiere - che una valida guida per una migliore comprensione dei meccanismi, derivante da una teoria della causalità omnicomprensiva, sia data dalle opere di Judea Pearl, come ad es. Causality. Models, Reasoning and Inference, Cambridge University Press (2000). (7) Non io, ma per es. A. Carobene, Perchè aggirare l’intelligenza artificiale è possibile, IlSole24Ore del 29. 01. 2023. (8) Così C. Newport, What kind of Mind does ChatGPT have ?, in The New Yorker, 13/04/2023 (ns. trad.). (9) J.L. Borges, La Biblioteca di Babele, in Finzioni, Torino, Einaudi, 2014, p. 78. (10) Altrove (nel caso dei saggi che di seguito si citano, negli USA ed in Cina) l’attenzione al tema è impostata su basi scientifiche: Y. IU-V. M. Wong, ChatGPT by OpenAI: The End of Litigation Lawyers? (January 26, 2023, SSRN: https://ssrn. com/abstract=4339839 or http://dx. doi. org/10. 2139/ssrn. 4339839; T. WU, Will Artificial Intelligence Eat the Law? The Rise of Hybrid Social-Ordering Systems, 119 Colum. L. Rev. 2001 (2019): dalle nostre parti pare prevalente, per ora, il richiamo ad una (nobile) tradizione, chissà se basterà…Per ora pare possiamo stare abbastanza tranquilli, se si considera il recente e piuttosto noto “infortunio” di collega americano che si era affidato (si spera in buona fede) a ChatGPT per un suo brief: https://www. nytimes. com/2023/05/27/nyregion/aviancaairline-lawsuit-chatgpt. html. (11) Il cui esame è stato respinto dalla Corte Suprema U.S.A. : www. Sezione di diritto civile scotusblog. com/case-files/cases/loomis-v-wisconsin/ V. anche, tra I tanti, il commento di E. Yong, A Popular Algorithm Is No Better at Predicting Crimes Than Random People, The Atlantic 7. 01. 2018. In generale su IA e diritto v. S. Greenstein, Preserving the rule of law in the era of artificial intelligence (AI), in Artificial Intelligence and Law (2022) 30:291-323, https://link. springer. com/article/10. 1007/s10506-021-09294-4#citeas (12) I. Carnat, DoNotPLay with justice: high expectation vs harsh reality of robot lawyers, nel blog del Laboratorio Lider-Lab della Scuola Superiore Sant’Anna di Pisa, www. lider-lab. it/2023/02/14/donotplay-with-justicehigh-expectation-vs-harsh-reality-of-robot-lawyers/. Ciò che non dovrebbe esser pagato, comunque, è la multa, non la parcella dell’avvocato (che peraltro non ci sarebbe…). (13) R. Perona, ChatGPT e decisione giudiziale, in Diritti Comparati 21. 02. 2023, https://www. diritticomparati. it/chatgpt-e-decisione-giudizialeper-un-primo-commento-alla-recente-sentenza-del-juzgado-primero-laboral-di-cartagena-de-indias-colombia/ (14) Note di M. Foti, Innovazione in materia di diritto di famiglia e uso di ChatGPT: il caso peruviano, al link https://www. altalex. com/documents/news/2023/05/02/innovazione-materia-diritto-famiglia-uso-chatgpt-caso-peruviano, e P:Martini, L’intelligenza artificiale entra nel processo, https://www. altalex. com/documents/news/2023/04/26/intelligenza-artificiale-entra-processo. Anche in Italia si discute, da tempo, sull’uso di strumenti informatici nelle controversie familiari: v. da ultimo E. Sertori, Prospettive di applicazione degli strumenti informatici per il calcolo degli assegni nelle controversie familiari, in www. judicium. it (2023). (15) T. Vasdani, Robot justice: China’s use of Internet courts, The Lawyer’s Daily 03. 02. 2020. (16) Così M. Sciacca, Algocrazia e Sistema demografico. Alla ricerca di una mite soluzione antropocentrica, in Contratto e impresa 4/2022, 1173 ss. (17) Y.N. Harari, Yuval Noah Harari argues that AI has hacked the operating system of human civilization, The Economist 28/04/2023. (18) https://op. europa. eu/it/publication-detail/-/publication/ac957f1353c6-11ea-aece-01aa75ed71a1 (19) https://eur-lex. europa. eu/legal-content/IT/TXT/PDF/?uri=CELEX:52021PC0206&from=IT (20) § 1. 2 OECD, Recommendation of the Council on Artificial Intelligence, OECD/LEGAL/0449, a https://legalinstruments. oecd. org/en/instruments/OECD-LEGAL-0449. (21) https://www. ftc. gov/legal-library/browse/cases-proceedings/publicstatements/joint-statement-enforcement-efforts-against-discriminationbias-automated-systems. (22) Commissione europea, Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Orientamenti etici per un’IA affidabile, Uffici o delle pubblicazioni, 2019, https://data. europa. eu/doi/10. 2759/640340. Si possono ricordare anche le Linee Guida universali per l’IA, redatte nel 2018 da EPIC-Electronic Privacy Information Center, a https://thepublicvoice. org/AI-universal-guidelines/ (23) https://rm. coe. int/carta-etica-europea-sull-utilizzo-dell-intelligenzaartificiale-nei-si/1680993348 (24) https://www. ccbe. eu/fileadmin/speciality_distribution/public/documents/IT_LAW/ITL_Reports_studies/EN_ITL_20220331_GuideAI4L. pdf e https://ai4lawyers. eu/ (25) Provv. n. 112 del 30/03/2023, n. 114 del 11/04/20223, ed il comunicato del 28/04/023, tutti sul sito www. garanteprivacy. it. (26) Sulle regulatory sandboxes v. il briefing del parlamento europeo a https://www. europarl. europa. eu/RegData/etudes/BRIE/2022/733544/EPRS_BRI(2022)733544_EN. pdf. La definizione che ivi si rinviene è di “strumenti normativi che consentono alle aziende di testare e sperimentare prodotti, servizi o servizi nuovi e innovativi sotto la supervisione di un regolatore per un periodo di tempo limitato” (ns. trad.). Particolarmente attivo in Europa sembra il governo spagnolo (https://digital-strategy. ec. europa. eu/en/events/launch-event-spanish-regulatory-sandbox-artificial-intelligence). (27) Per meglio comprendere, si discuteva dell’immagine digitale di un fiore creata da un’architetta ed usata come scenografia del festival di Sanremo. (28) Con nota di D. Ponte, Serve conoscenza e comprensione della decisione Nuova Giurisprudenza ligure, 2023 n. 2 31 NGL 2-2023.qxp_III/2006 scrivania 03/08/23 19:23 Pagina 32 Sezione di diritto civile “automatizzata”, in Guida al Diritto10. 12. 2022 p. 94 ss. V. anche G. Pesce, Il giudice amministrativo e la decisione robotizzata. Quando l’algoritmo è opaco, in https://www. judicium. it/giudice-amministrativo-la-decisione-robotizzatalalgoritmo-opaco/?testocercato=pesce&a=. (29) Citazioni da S.Wolfram Cosa sta facendo ChatGPT... e perché funziona?”, 2023, Stephen Wolfram Writings. https://writings. stephenwolfram. com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/ (ns. trad.). (30) https://data. consilium. europa. eu/doc/document/ST-14954-2022INIT/it/pdf. (31) https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_IT. html. (32) Si tratta di sistemi di IA che usando combinazioni di dati, algoritmi e macchine possono creare modelli per fare previsioni e prendere decisioni; molto utili evidentemente per aziende e sistemi complessi (es., quello sanitario). Anche ChatGPT ne fa parte. La definizione del Center for Research on Foundation Models (CRFM) dello Stanford Institute for Human-Centered Artificial Intelligence (HAI) è “qualsiasi modello addestrato su dati ampi (generalmente utilizzando l’auto-supervisione su larga scala) che può essere adattato (ad esempio, messo a punto) a un’ampia gamma di attività a valle” (R. Bommasani ed a., On the opportunities and risks of foundation models, arXiv preprint arXiv:2108. 07258, 2021). V. anche le perplessità di J. Morley, L. Floridi, Foundation Models Are Exciting, but They Should Not Disrupt the Foundations of Caring (April 20, 2023) a SSRN: https://ssrn. com/abstract=4424821. (33) www. europarl. europa. eu/news/en/press-room/20230505IPR84904/aiact-a-step-closer-to-the-first-rules-on-artificial-intelligence. Il Compromise text si legge al link www. europarl. europa. eu/resources/library/media/20230516RES90302/20230516RES90302. pdf. Non ritengono sufficienti le precisazioni apportate dagli emendamenti Novelli, F. Casolari, A. Rotolo, M. Taddeo, L. Floridi, Taking AI Risks Seriously: A Proposal for the AI Act (May 14, 2023)., a SSRN: https://ssrn. com/abstract=4447964. (34) G. D’Aietti, Le tabelle a punti del danno da morte: una predittività (finalmente) concreta, misurata e realizzata da giuristi,in Foro it., 2022,V, 284 ss. (35) Sul tema della giustizia predittiva segnalo per l’efficace sintesi due ras- 32 Nuova Giurisprudenza ligure, 2023 n. 2 Documenti segne apparse su Giurisprudenza Italiana: E. Gabrielli, U. Ruffolo (a cura di), Intelligenza Artificiale e diritto, in Giur. It., 2019, fasc. 7 (luglio 2019), 1657 ss., e E. Gabrielli, M. Dell’Utri (a cura di), La giustizia predittiva, ivi, fasc. 7, (luglio 2022), 1759 ss. (36) Da ultimo v. M. Ferrari, in Foro It., 2023,V, 117 ss., anche per riferimenti più ampi. (37) J. H. Choi, K. E. Hickman, A. Monahan, D. B. Schwarcz, ChatGPT Goes to Law School (January 23, 2023). Minnesota Legal Studies Research Paper No. 23-03;SSRN: https://ssrn. com/abstract=4335905; D.M. Katz, M.J. Bommarito, S. Gao, P. Arredondo, GPT-4 Passes the Bar Exam (2023) a SSRN: https://ssrn. com/abstract=4389233. C’è peraltro chi invita a maggiore cautela nell’esame di quei dati: così E. Martinez del M. I. T., Re-Evaluating GPT-4’s Bar Exam Performance (May 8, 2023). a SSRN: https://ssrn. com/abstract=4441311. (38) Scholastic Assessment Test, prova di ingresso per l’ammissione ai college statunitensi. (39) Sull’ AI-Driven Infodemic Threat v. l’interesse di un gruppo di studiosi dell’Università di Pisa: L. De Angelis, F. Baglivo, Francesco, G. Arzilli, G.P. Privitera, P. Ferragina, A.E. Tozzi, C. Rizzo, ChatGPT and the Rise of Large Language Models:The New AI-Driven Infodemic Threat in Public Health (February 9, 2023). SSRN: https://ssrn. com/abstract=4352931 . In ambito “salute” v. il report OMS 28. 06. 2021 su etica e governance dell’IA nel settore, a https://www. who. int/publications/i/item/9789240029200. . (40) Un recente esempio in D. B. Schwarcz, J.H. Choi, AI Tools for Lawyers: A Practical Guide (in uscita 2023). 108 Minnesota Law Review Headnotes a SSRN: https://ssrn. com/abstract=4404017, utile per i riferimenti ed in particolare per i suggerimenti nella formulazione dei prompt, del metodo dell’interrogazione, per la ricerca fonti e la redazione di testi secondo corretti standard linguistici e giuridici al fine di migliorarne la leggibilità. (41) M.C. Dorf, L.H. Tribe, Court v. Chatbot, NYRB 28. 12. 2022. I siti citati sono stati consultati il 23. 06. 2023.