Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
ARGOMENTI DEL DIRITTO CIVILE COLLANA DIRETTA DA: LUIGI BALESTRA, ELENA BARGELLI, ALBERTO MARIA BENEDETTI, ALESSANDRO D’ADDA, UGO SALANITRO, CLAUDIO SCOGNAMIGLIO, STEFANO TROIANO SMART la persona e l’infosfera a cura di UGO SALANITRO 9 788833 795225 SMART la persona e l’infosfera Argomenti del diritto civile 1. Mirko Faccioli, La responsabilità civile per difetto di organizzazione delle strutture sanitarie 2. Umberto Breccia, Discorsi sul Diritto. Appunti per un corso di “teoria generale del diritto” 3. Il sistema del diritto di famiglia dopo la stagione delle riforme, a cura di Ugo Salanitro 4. Matilde Ratti, La caparra e la clausola penale tra autonomia privata e potere correttivo del giudice 5. Elena Guardigli, Diritti patrimoniali, tutela dei terzi di buona fede e misure preventive antimafia 6. Maria Samantha Esposito, La contrattazione preliminare c.d. ad esecuzione anticipata. Spunti per un inquadramento giuridico alla luce della prassi delle contrattazioni 7. Concetta Maria Nanna, Accordi in vista del divorzio. Validità e legittimità degli atti dispositivi del patrimonio familiare 8. Mario Renna, Garanzie personali e autonomia d’impresa 9. Stefano Pagliantini, Il consumatore “frastagliato” (Istantanee sull’asimmetria contrattuale tra vicende circolatorie e garanzie) 10. Marco Martino, La cessione del credito con causa di garanzia. Trasferimento, accessorietà, adempimento 11. Guglielmo Bevivino, Le “autonomie private” nel nuovo diritto dell’insolvenza 12. A Contract Law for the Age of Digital Platforms?, a cura di Elena Bargelli e Valentina Calderai 13. SMART, la persona e l’infosfera, a cura di Ugo Salanitro SMART la persona e l’infosfera Atti del Convegno 30 settembre - 2 ottobre 2021 Catania a cura di UGO SALANITRO Comitato scientifico Giuseppe AMADIO - Franco ANELLI - Tommaso AULETTA - Andrea BELVEDERE - Umberto BRECCIA - Giovanni D’AMICO - Giovanni DE CRISTOFARO - Giovanni DI ROSA - Pasquale FEMIA - Massimo FRANZONI - Alberto GAMBINO - Carlo GRANELLI - Mario LIBERTINI Nicola LIPARI - Angelo LUMINOSO - Francesco MACARIO - Marcello MAGGIOLO - Manuela MANTOVANI - Maria Rosaria MAUGERI - Emanuela NAVARRETTA - Luca NIVARRA - Mauro ORLANDI - Fabio PADOVINI - Stefano PAGLIANTINI - Salvatore PATTI - Vincenzo ROPPO Michele SESTA - Pietro SIRENA - Giuseppe VETTORI - Alessio ZACCARIA Procedura di selezione Il direttore proponente raccoglie l’assenso degli altri direttori, da esprimersi entro il termine di quindici giorni; sottopone il volume, in forma anonima, al giudizio di due referee, ignoti all’autore o agli autori, scelti dal collegio dei direttori preferibilmente all’interno del comitato scientifico e chiamati a comunicare la propria valutazione entro il termine di trenta giorni: ove un solo referee esprima un giudizio positivo, la decisione finale spetterà alla direzione. Pubblicato con il contributo del Programma di Ricerca di Ateneo 2020/2022 Linea 2 - Università degli Studi di Catania - Dipartimento di Giurisprudenza. © Copyright 2022 by Pacini Editore Srl ISBN 978-88-3379-522-5 Realizzazione editoriale 1872 - 2022 Pacini Editore 1872-2022: 150 anni nell’editoria di qualità Via A. Gherardesca 56121 Pisa Responsabile di redazione Gloria Giacomelli Fotolito e Stampa Industrie Grafiche Pacini Le fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla SIAE del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. INDICE Presentazione ...................................................................................................................... p. 9 Gunther Teubner, Responsabilità civile per i rischi della digitalità ........................................... » Raffaella Messinetti, Autonomia della macchina e identità della persona................................ » Giusella Finocchiaro, La proposta di regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio ........................................................................................... » Andrea Bertolini, Le applicazioni di intelligenza artificiale proibite tra manipolazione e inganno dell’utente ................................................................................................................................. » Roberto Cavallo Perin, Fondamento e cultura giuridica per la decisione algoritmica ........... » Pasquale Stanzione, Decisioni automatizzate e ruolo della privacy ........................................... » Carlo Casonato, Intelligenza artificiale e medicina: l’impatto sulla relazione di cura (cenni)» Giovanni Di Rosa, I robot medici ....................................................................................................... » Arianna Fusaro, La disciplina sulla responsabilità del produttore alla prova dei sistemi intelligenti ................................................................................................................................................ » Alessandro D’Adda, Responsabilità «da robot»: i soggetti responsabili e i loro rapporti interni (con speciale riferimento all’ambito sanitario) .................................................................. » Alfio Guido Grasso, GDPR e intelligenza artificiale: limiti al processo decisionale automatico in sanità ................................................................................................................................ » Antonio Carratta, Prova algoritmica e processo civile ................................................................... » Thomas Casadei, Istituzioni e algoritmi: tra strategie funzionali ed “effetti collaterali” ...... » Antonio Punzi, Decidere in dialogo con le macchine: la sfida della giurisprudenza contemporanea ......................................................................................................................................... » Gabriella Nicosia, L’infosfera “per” la persona: riflessioni introduttive .................................... » Lorenzo Zoppoli, Lavoro agile, persone e amministrazioni: le sfide post-pandemia ......... » Donata Gottardi, Benessere, disconnessione, conciliazione. La prospettiva delle istituzioni UE ............................................................................................................................................................... » Giancarlo Vecchi, Lavoro agile e infosfera nel settore pubblico. Organizzazione, valutazione e criticità da affrontare ..................................................................................................... » Elsa Bivona, Smart contracts, diritto nazionale e discipline eurounitarie................................ » Andrea Stazi, Automazione del contratto, accordo telematico e smart contracts ................... » Francesco Paolo Patti, Smart contracts e blockchain: rischi ed opportunità ......................... » Michele Nastri, Blockchain, smart contract, ledger e pubblici registri: tutela dei diritti e funzione notarile ...................................................................................................................................... » 13 25 49 71 89 99 107 115 129 153 183 225 239 261 275 283 301 313 319 333 347 363 6 SMART LA PERSONA E L’INFOSFERA Antonio Las Casas, Contrattazione digitale e modelli di scambio.............................................. » Alberto Maria Benedetti, Tecnica, diritto civile e smart contract. Minimalismo o massimalismo? ......................................................................................................................................... » 387 415 Tavola rotonda La c.d. Giustizia Predittiva: esperienze e prospettive ................................................................. » 431 Gli Autori ................................................................................................................................................ » 467 ARGOMENTI DEL DIRITTO CIVILE Costituisce oggetto di una tradizione sufficientemente consolidata nell’ambito del lavoro scientifico e di ricerca il fatto che chi dà vita ad un progetto culturale nuovo – che si tratti di una rivista o, come in questo caso, di una Collana – si preoccupi di esplicitare l’esigenza che lo ha mosso, all’atto del concepimento dell’iniziativa, ed il senso che alla stessa intende imprimere. I direttori della Collana Argomenti del diritto civile non intendono sottrarsi a questa consuetudine, che è pure un onere, benché siano convinti che sia di gran lunga preferibile manifestare le proprie scelte non con le mere enunciazioni astratte, ma con i fatti e cioè con le opere che, auspicabilmente numerose, troveranno ospitalità in questa Collana e finiranno per delinearne il percorso. L’esigenza sottesa all’iniziativa, dunque, e per cominciare. Non è il caso di addentrarsi, per illustrarla, in discorsi relativi allo stato attuale, ed alle prospettive, della ricerca scientifica nel campo del diritto civile in Italia ed alle difficoltà che incontrano gli studiosi, soprattutto delle generazioni più giovani, che ad essa intendono accostarsi. Si tratta, infatti, di discorsi che si esporrebbero, in pieno, da un lato, al rischio dell’ovvietà, dall’altro, a quello dell’eccesso di semplificazione: tanto più che sarebbe irrealistico, prima ancora che immodesto, anche solo ipotizzare che quelle difficoltà possano essere avviate a soluzione per mezzo di una collana, che sopraggiunge, ultima, accanto a tante altre di assai più risalente tradizione e di sicuro prestigio. Basterà allora dire che l’esigenza che ha aggregato la direzione degli Argomenti è quella di offrire agli studiosi – con una considerazione particolare, ma non esclusiva, per quelli che, pur avendo già raggiunto il traguardo del lavoro monografico di ampio respiro, si trovano all’inizio della loro traiettoria – un luogo di pubblicazione essenzialmente caratterizzato dalla pluralità delle voci e dei metodi: perché plurali, appunto, ed anche molto diversificate le une dalle altre, sono le esperienze di coloro che compongono la direzione della Collana. Il senso che si vuole dare al progetto, poi. 8 SMART LA PERSONA E L’INFOSFERA La pluralità delle voci e dei metodi, da ultimo evocata, se intende assicurare la massima libertà a chi vorrà vedere la sua opera ospitata nella Collana, non vuole naturalmente risolversi, quale criterio di selezione dei lavori da pubblicare, in una professione di eclettismo metodologico fine a sé stesso, ovvero in scelte editoriali che, per essere in ipotesi troppo corrive all’attualità giurisprudenziale o normativa, finiscano per smarrire la dimensione della profondità e della fatica della ricerca: di qui, quale strumento ulteriore di garanzia per il lettore, prima ancora che come esigenza di conformità a standards organizzativi ormai consolidati anche a livello normativo, la presenza di un Comitato scientifico, composto di studiosi del massimo livello di autorevolezza e di differenti generazioni, che possa orientare le valutazioni della direzione e restituire appieno il senso di un progetto che, nella individuazione delle opere da pubblicare, aspira a coniugare serietà e curiosità. I Direttori ALFIO GUIDO GRASSO GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ* SOMMARIO: 1. Introduzione: clinical decision support systems (CDSS), diagnostic decision support systems (DDSS), e confini giuridici del problema. – 2. La nozione di decisione automatizzata contenuta nell’art. 22 GDPR. – 3. Il problema delle decisioni parzialmente automatizzate. – 3.1. (Segue). Diagnosi semiautomatiche e controllo del medico. – 4. Diagnosi “automatiche” e vincoli legali a consistenza variabile. – 4.1. Quando il processo decisionale automatizzato è autorizzato dal diritto europeo o nazionale. – 4.2. Consenso informato (al trattamento medico), consenso al trattamento dei dati e consenso al processo decisionale automatizzato: uno, (nessuno) o tre consensi? – 4.3. Processi decisionali automatizzati e contratto: divieto di applicazione dell’eccezione contrattuale in campo medico. – 4.4. La proposta di Regolamento sull’intelligenza artificiale e il principio “human in the loop”. – 5. Informazioni obbligatorie e intelligenza artificiale in medicina: la recente riforma della legge sulla bioetica in Francia. – 6. Comprensibilità della decisione e profili regolatori (Regolamento Dispositivi Medici UE 2017/745): tra spiegazione dell’uomo e accessibilità dell’algoritmo. 1. Introduzione. La medicina rappresenta uno dei settori maggiormente interessati dai progressi intervenuti negli ultimi decenni in materia di intelligenza artificiale, Internet of Things, robotica, stampa 3D, ingegneria genetica, computer quantistici e altre innovazioni tecnologiche: progressi che vanno comunemente sotto il nome di IV rivoluzione industriale1. Alla base dell’intelligenza artificiale e delle Il contributo si inserisce nella ricerca sul tema “Responsabilità medica e intelligenza artificiale” che l’autore sta svolgendo nel quadro del Programma di ricerca di Ateneo UNICT 2020-22 linea 2, progetto di ricerca “SMART Soggetti e Macchine tra Autonomia e responsabilità: quali tutele. Le discipline sostanziali e processuali per la società della IV rivoluzione, dopo la pandemia”. Il lavoro è stato inoltre realizzato grazie al finanziamento e al sostegno del Ministero Federale Tedesco dell’Istruzione e della Ricerca (BMBF). Numero di sovvenzione: 16DII112 – “German Internet Institute“/„Deutsches Internet-Institut“. 1 Per un primo inquadramento generale v., fra gli altri, H.-W. MICKLITZ, O. POLLICINO, A. REICHMAN, A. SIMONCINI, G. SARTOR e G. DE GREGORIO (a cura di), Constitutional Challenges in the Algorithmic Society, Cambridge, 2021; U. RUFFOLO (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020; G. ALPA (a cura di), Diritto e intelligenza artificiale, Pisa, 2020; S. Amato, Biodiritto 4.0. Intelligenza artificiale e nuove tecnologie, Torino 2020; W. BARFIELD e U. PAGALLO, Research Handbook on the Law of Artificial Intelligence, Edward Elgar Publishing, 2018; L. CALIFANO e C. COLAPIETRO (a cura di), Innovazione tecnologica e valore della persona, Napoli, 2017. * 184 ALFIO GUIDO GRASSO sue molteplici applicazioni vi sono gli algoritmi, che possiamo intendere – con linguaggio comune – come qualsiasi procedura computazionale predefinita che assume un valore, o un insieme di valori, come input e genera un valore, o un insieme di valori, come output2. Tra questi, merita in particolare fare menzione degli algoritmi c.d. di Machine Learning, i quali rappresentano i prodotti più recenti di questo processo di sviluppo e sono così definiti perché “capaci di assumere decisioni autonome conseguenti a un processo di adattamento self learning”3. Si tratta di un’applicazione particolare dell’intelligenza artificiale che fornisce ai sistemi la capacità di imparare autonomamente e migliorare le loro performance direttamente dall’esperienza, in modo adattativo, senza essere stati preventivamente programmati a farlo4. Per questa loro caratteristica sono solitamente utilizzati all’interno dei processi decisionali, allo scopo di fornire una previsione o una classificazione. Sempre più queste tecnologie sono coinvolte nella formulazione di decisioni che hanno un impatto significativo sulla vita individuale e collettiva, incidendo su funzioni pubbliche chiave5. Tra i settori più coinvolti rientra quello medico-sanitario6, dove gli sviluppi sono stati particolarmente evidenti e in larga parte 2 Definizioni simili si rintracciano ex multis in T.H. CORMAN, C.E. LEISERSON, R.L. RIVEST e C. STEIN, Introduction to Algorithms, 3a ed., MIT Press Cambridge, Massachusetts, 2009, 5; A. BLASS, GUREVICH, Algorithms: A Quest for Absolute Definitions, in Bull. EATCS, 2003, 81, pp. 195 ss.; N.S. YANOFSKY, Towards a Definition of an Algorithm, in Journal of Logic and Computation, 2011, p. 1. 3 U. SALANITRO, Intelligenza artificiale e responsabilità: la strategia della Commissione Europea, in Riv. dir. civ., 2020, p. 1247. 4 Una definizione analoga ricorre nel primo esempio di studio nel campo dell’apprendimento automatico: v. A.L. SAMUEL, Some Studies in Machine Learning Using the Game of Checkers, in IBM Journal of Research and Development, 1959, vol. 3, 3, pp. 210 ss. Tra le opere più recenti che affrontano il tema in modo comprensibile anche ai non addetti ai lavori segnalo A. BURKOV, The Hundred-Page Machine Learning Book, Self-Publishing, 2019; T. TAEHO JO, Machine Learning Foundations: Supervised, Unsupervised, and Advanced Learning, Springer, 2022; in italiano, D. GOSMAR, Machine Learning: Il sesto chakra dell’intelligenza artificiale, Independently published, 2020. 5 Per un quadro degli usi dei machine learning in tanti importanti settori v., e.g., H.-W. MICKLITZ, O. POLLICINO, A. REICHMAN, A. SIMONCINI, G. SARTOR e G. DE GREGORIO (a cura di), op. cit.; S. LOHSSE, R. SCHULZE e D. STAUDENMAYER (a cura di), Liability for Artificial Intelligence and the Internet of Things, München-Oxford, 2019. Specificamente nel settore della medicina, v. a livello monografico i recenti lavori di A. MARCHESE, Principi civilistici dell’Information Technology in àmbito sanitario, Napoli, 2021; G. PASCERI, Intelligenza artificiale, algoritmo e machine learning. La responsabilità dell’amministrazione sanitaria e del medico, Milano, 2021; F. LAGIOIA, L’intelligenza artificiale in sanità: un’analisi giuridica, Torino, 2020. M. CIANCIMINO, Protezione e controllo dei dati in àmbito sanitario e Intelligenza Artificiale. I dati relativi alla salute tra novità normative e innovazioni tecnologiche, Napoli, 2020. 6 V., ex multis, E. COLLETTI, Intelligenza artificiale e attività sanitaria. Profili giuridici dell’utilizzo della robotica in medicina, in Riv. dir. econ. tras. e amb., 2021, pp. 201 ss.; E. GIUSTI, Intelligenza GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 185 positivi7, anche grazie al sempre più diffuso ricorso ai c.d. sistemi di supporto decisionale clinico. I clinical decision support systems (CDSS) sono stati storicamente una delle principali applicazioni dell’intelligenza artificiale: sebbene per lo più a fini meramente accademici o di ricerca, già a partire dagli anni ’70 esistevano modelli ideati per supportare i medici nelle decisioni diagnostiche e cliniche8. Tuttavia solo di recente, grazie all’integrazione con le cartelle cliniche elettroniche e ai flussi di lavoro computerizzati, questi sistemi hanno raggiunto un livello di precisione e speditezza tale da determinare un effettivo cambiamento di paradigma nell’assistenza sanitaria9. Al riguardo si possono distinguere Clinical decision support system basati sulla conoscenza (Knowledge-based CDSS) e Clinical decision support system non basati sulla conoscenza (Non-Knowledge-based CDSS). I primi constano di tre parti: la base di conoscenza, un motore di inferenza e un meccanismo di comunicazione. La base di conoscenza è il patrimonio di acquisizioni della comunità scientifica di esperti (o di un singolo specialista) in un’area del sapere medico: contiene le regole e le associazioni di dati e per questo spesso appare sotto forma di istruzione If-Then10. Il motore di inferenza combina le regole della base di conoscenza con i dati del paziente; mentre, il meccanismo di comunicazione permette al sistema di mostrare i risultati all’utente. I Clinical decision support system non basati sulla conoscenza, invece, fanno ricorso a forme di intelligenza artificiale cd. machine learning, che permettono al computer di imparare autono- artificiale e sistema sanitario, in Dir. e salute, 2019, pp. 1 ss. 7 Fra le tante applicazioni v., solo ad esempio, U. CORTÉS (et al.), Intelligenza artificiale in medicina: progetto di una piattaforma mobile inserita in un ambiente intelligente per l’assistenza ai disabili e agli anziani, in Recenti Prog. Med., 2004, 95, 4, pp. 190 ss. 8 E.H. SHORTLIFFE e B.G. BUCHANAN, A model of inexact resoning in medicine, in Math. Biosci. 379, 233–262 (1975). 9 Probabilmente il più noto sistema di supporto alle decisioni cliniche con intelligenza artificiale è l’IBM’s Watson, che assiste prevalentemente gli oncologi con raccomandazioni terapeutiche basate su evidenze scientifiche. Il sistema è in grado di svolgere complesse operazioni anamnestiche e diagnostiche, definizione di cure personalizzate, grazie all’utilizzo di cloud computing estremamente sviluppati. Qui un recente studio che confronta l’alto tasso di accuratezza delle raccomandazioni terapeutiche del sistema rispetto ai trattamenti ricevuti nei reparti di urologia dai pazienti con cancro alla prostata: YU et all., Early experience with Watson for Oncology: a clinical decision-support system for prostate cancer treatment recommendations, in World J Urol. 2021 Feb;39(2):407-413. 10 Si pensi al caso di un medico che istruisca il sistema circa la diagnosi del paziente e i farmaci che sta già assumendo; in vista della terapia, il sistema confronterà tutti i farmaci utili e restituirà solo l’elenco di quei medicamenti che non interferiscono con quelli già assunti. Per ulteriori e più complessi esempi si rinvia, fra gli altri, a T. SIKMA, R. EDELENBOSCH e P. VERHOEF, The use of AI in healthcare: A focus on clinical decision support systems, RECIPES project, European Commission, aprile 2020; R.A. MILLER, Medical Diagnostic Decision Support Systems—Past, Present, and Future: A Threaded Bibliography and Commentary, in J Am Med Inform Assoc 1994;1:8–27. 186 ALFIO GUIDO GRASSO mamente dalle esperienze passate e/o trovare modelli nei dati clinici senza bisogno che venga fissato un set predefinito di regole da cui attingere o individuati a priori gli input degli esperti da cui apprendere11. Nonostante il loro promettente potenziale, i medici hanno mostrato di preferire i Knowledge-based CDSS, per ragioni di affidabilità, prevedibilità e, in ultima analisi, responsabilità, in quanto i sistemi basati sull’apprendimento automatico più difficilmente possono spiegare le ragioni delle loro conclusioni12. Tuttavia, possono essere particolarmente utili come sistemi post-diagnostici che suggeriscono ai clinici quali pattern approfondire al fine di ricavare connessioni tra i pazienti e la loro storia clinica, utili per la ricerca scientifica e per predire manifestazioni future13. In concreto, sia che si basino sulla conoscenza sia che utilizzino programmi di machine learning, si tratta di tecnologie dell’informazione sanitaria che forniscono ai medici, al personale, o ai pazienti stessi conoscenze e informazioni specifiche sulla condizione psicofisica della persona, valutate attraverso il ricorso all’intelligenza artificiale e portati all’attenzione del medico a seconda delle necessità del caso. I CDSS comprendono una varietà di strumenti per migliorare il processo decisionale nell’ambito del lavoro clinico quali, tra gli altri, avvisi e promemoria computerizzati, linee guida cliniche, prontuari, rapporti e riepiloghi dei dati del paziente, modelli di documentazione, supporto diagnostico e informazioni di riferimento contestualmente (e temporalmente) rilevanti. Quando sono utilizzati come strumenti di supporto diagnostico – in inglese Diagnostic decision support systems (DDSS) – questi sistemi rappresentano più In genere, le reti non basate sulla conoscenza spesso si concentrano su una lista ristretta di sintomi, come i sintomi di una singola malattia, al contrario dell’approccio basato sulla conoscenza che copre la diagnosi di molte malattie diverse. 12 S. MONTANI e M. STRIANI, Artificial Intelligence in Clinical Decision Support: a Focused Literature Survey, in Yearb Med Inform., 2019, 28(1), 120 ss. 13 Questi sistemi possono essere basati su reti neurali, algoritmi genetici, macchine vettoriali di supporto, alberi decisionali o qualsiasi altra tecnologia di apprendimento automatico, che “impara” a riconoscere i modelli in serie di dati caso per caso. Le reti neurali artificiali utilizzano nodi e connessioni ponderate tra loro per analizzare i modelli trovati nei dati dei pazienti per ricavare associazioni tra sintomi e diagnosi. Gli algoritmi genetici si basano invece su processi evolutivi semplificati che utilizzano la selezione diretta per ottenere risultati CDSS ottimali; gli algoritmi di selezione valutano componenti di insiemi casuali di soluzioni ad un problema e le soluzioni che risultano migliori vengono poi ricombinate e mutate ed eseguite nuovamente nel processo: questo accade più e più volte fino a quando non viene scoperta la soluzione corretta. Sono funzionalmente simili alle reti neurali nella misura in cui rappresentano anch’esse delle “black box” aventi il compito di cercare di ricavare la conoscenza dai dati dei pazienti. Per approfondimenti si rinvia a L.A. WINTERS-MINER et all, Biomedical Informatics, in Practical Predictive Analytics and Decisioning Systems for Medicine: Informatics Accuracy and Cost-Effectiveness for Healthcare Administration and Delivery Including Medical Research, 2015, Academic Press, pp. 42 ss. 11 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 187 propriamente una sorta di “consultazione” computerizzata in una fase preliminare di valutazione, in cui vengono forniti all’utente una serie di diagnosi possibili o probabili14. Vengono di conseguenza usati come strumento di ausilio alla decisione medica, spesso in relazione a quei casi più complessi in cui risulta utile un confronto con un “collega più esperto” ovvero, con un approccio più estremo, possono essere impiegati financo come strumenti sostitutivi della decisione individuale del medico curante: questo è l’ambizioso obiettivo con il quale – complice l’esigenza di fronteggiare l’epidemia da COVID-19 evitando il più possibile il contatto umano – sono stati sviluppati diversi software in grado di identificare in modo indipendente i pazienti che necessitano di un ricovero d’emergenza da quelli che possono attendere un ricovero ordinario o programmato15. Da queste notazioni si può già cogliere l’estrema novità di questi strumenti, ai quali è (sarà) possibile affidare una attività che fino a un recentissimo passato era appannaggio esclusivo degli esseri umani, e cioè la capacità di inferire da una serie di dati (sintomi, storia clinica, storia familiare, reazione agli stimoli, esami medici etc. etc.) la veridicità o meno dell’ipotesi clinica iniziale (È provato che X soffra della malattia Y o viceversa). Tali dispositivi, infatti, a differenza dei tradizionali strumenti diagnostici – i quali permettono di identificare in genere soltanto l’esistenza di uno o più elementi caratteristici della malattia –, riescono a offrire un’informazione definitiva e completa sull’esistenza o meno di una patologia senza bisogno di ricorre ad altre prove diagnostiche né, in ipotesi, alla valutazione di sintesi di un medico compente. Gli stessi strumenti, poi, suggeriscono anche la terapia da adottare, in modo tale da coprire quasi per intero l’area delle attività tipicamente riservate al sanitario. Nonostante questi progressi, rimangono molte incognite riguardo all’uso e agli effetti che i CDSS hanno sugli utenti, sulla correttezza dei risultati forniti Un esempio di un’applicazione DDSS particolarmente riuscita è quello creato da alcuni ricercatori per la diagnosi della neuropatia periferica utilizzando la logica fuzzy. Attraverso 24 campi di input che includono sintomi e risultati di test diagnostici, hanno raggiunto il 93% di accuratezza rispetto agli esperti “umani” nell’identificare neuropatie motorie, sensoriali, miste neuropatie miste o casi normali: R. KUNHIMANGALAM, S. OVALLATH e O.K. JOSEPH, A clinical decision support system with an integrated EMR for diagnosis of peripheral neuropathy, in Neuroimaging Clin N Am. 2014 Feb;24(1):49-65 15 Rispetto all’epidemia in corso (per il resto v. nota 20) tra le tante ricerche v. C.K. KIM, J.W. CHOI, Z. JIAO, et al., An automated COVID-19 triage pipeline using artificial intelligence based on chest radiographs and clinical data, in Npj Digit. Med. 5, 5 (2022), https://doi.org/10.1038/s41746021-00546-w; AT. KAPOOR, AP. KAPOOR e G. MAHAJAN, Use of Artificial Intelligence to Triage Patients with Flu-Like Symptoms Using Imaging in Non-COVID-19 Hospitals during COVID-19 Pandemic: An Ongoing 8-Month Experience, in Indian J Radiol Imaging, 2022 Jan 10, 31(4), 901 ss.; A. GILBERT e A. GHUYSEN, Triage in the time of COVID-19, in The Lancet Digital Health, vol. 4, 9 marzo 2022. 14 188 ALFIO GUIDO GRASSO e sui costi del servizio. Non sono mancati studi che hanno messo in guardia sugli effetti controproducenti che l’utilizzo di queste applicazioni può avere sui medici e sui pazienti stessi: nei primi in termini di smarrimento della capacità di discernimento senza l’ausilio della ancilla tecnologiae, nei secondi in termini di paure e ansie connesse alla rilevazione dei sintomi16. Ma oltre ai conflitti etici e alle implicazioni deontologiche, questi strumenti pongono problemi anche giuridici (rectius di diritto positivo), legati all’autonomia del medico e al rispetto dei limiti e delle garanzie relative ai processi decisionali automatici. Tali sistemi, almeno ogni qual volta vengano impiegati come strumenti sostitutivi della decisione umana, mettono in discussione le regole vigenti, come ad esempio quella secondo cui il medico curante ha la responsabilità ultima delle decisioni cliniche nei confronti dei suoi pazienti, e (soprattutto) le regole sul processo decisionale automatizzato contenute nel regolamento generale sulla protezione dei dati dell’Unione Europea. L’articolo 22 GDPR conferisce alle persone il diritto di non essere sottoposte a una decisione basata esclusivamente su un trattamento automatizzato, qualora produca effetti giuridici o comunque li riguardi in modo significativo: nonostante la lettera della disposizione, è controverso se la disposizione stabilisca un diritto o piuttosto un obbligo17. In ogni caso, mettendo da parte questo dibattito, che non è necessario affrontare in questa sede, e aderendo all’opinione – che abbiamo trovato più convincente altrove18 – per cui si tratti di un divieto, la valutazione da compiere non può essere ridotta a un semplice sì o no all’interrogativo se le decisioni automatizzate siano vietate, dacché alla previsione del primo comma fanno seguito una serie di disposizioni ove si riconosce (ampio) spazio per un legittimo processo decisionale senza alcun coinvolgimento umano, a condizione che vi sia stato un esplicito consenso o ricorrano altri presupposti, e a patto che si assicurino all’interessato adeguate garanzie quali la possibilità di esprimere un parere, contestare la decisione o ottenere un intervento umano. 16 Per molti, v. R.T. SUTTON et. all, An overview of clinical decision support systems: benefits, risks, and strategies for success, in Npj Digital Medicine, 2020, 3:17; A.T.M. WASYLEWICZ e M.J.W. SCHEEPERS-HOEKS, Clinical Decision Support Systems, in Fundamentals of Clinical Data Science, a cura di KUBBEN et al., Springer, 2019, pp. 153 ss.; T. LYSAGHT et all, AI-Assisted Decision-making in Healthcare The Application of an Ethics Framework for Big Data in Health and Research, in Asian Bioethics Review, 2019, 11:299-314. 17 In generale sulla disposizione v. L.A. BYGRAVE, Article 22, in The EU General Data Protection Regulation (GDPR): A Commentary, a cura di C. Kuner et al., 2020, OUP, pp. 530 ss.; A. CAIA, Articolo 22, in GDPR e Normativa Privacy Commentario, a cura di G.M. Riccio, G. Sforza e E. Bellisario, I, Milano, 2018, pp. 219 ss. 18 A.G. GRASSO, The bad algorithm. Automated Discriminatory Decisions in the European General Data Protection Regulation, di prossima pubblicazione. GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 189 Volendo schematizzare, si potrebbero raggruppare i processi decisionali algoritmici in campo sanitario in tre diverse aree di interesse, a seconda dei destinatari di questi strumenti e del modo in cui vengono impiegati, se per assistere il medico o per sostituirlo: 1) applicazioni in grado di supportare le scelte dei pazienti relativamente alla loro assistenza sanitaria19; 2) sistemi di supporto alle decisioni cliniche in grado di fornire ai medici giudizi clinici personalizzati, in modo rapido e particolarmente accurato, da cui trarre indicazioni in vista di una diagnosi o di una decisione terapeutica20; 3) programmi di machine learning 19 Esistono numerose applicazioni che consentono al singolo individuo di identificare alte probabilità di tumori della pelle semplicemente scattando con il proprio telefono una foto della zona di cute sospetta. Al riguardo, tra le tante, si consideri l’applicazione UMSkinCheck, sviluppata all’Università del Michigan, è un esempio di App gratuita che permette agli utenti di effettuare un autoesame completo della pelle e un’indagine fotografica, tracciare e creare una storia di nei e lesioni e ricevere promemoria regolari per eseguire autoesami successivi e controllare le lesioni che vengono tracciate: per info v. https://www.rogelcancercenter.org/skin-cancer/melanoma/prevention/app. Questo è solo una delle tante App che sono state create con la stessa finalità negli ultimi anni, alcune delle quali utilizzano tecnologie di deep learning e non di machine learning, con la conseguenza che il sistema è in grado di elaborare anche dati non strutturati, che non stati oggetto di precedente categorizzazione. Si tratta tuttavia di applicazioni la cui accuratezza nella diagnosi è dibattuta: v. N. GALAN, How Effective Are Skin Cancer Apps for Early Detection?, in Medical news today, 2019, https:// www.medicalnewstoday.com/articles/285751); G. MAMMOSER, AI May Be Better at Detecting Skin Cancer Than Your Derm, in Healthline, 11 giugno 2018, https://www.healthline.com/health-news/ ai-may-be-better-at-detecting-skincancer-than-your-derm#1. Oltre a ciò, negli Stati Uniti, è notizia recente, la Food and Drug Administration (FDA) ha approvato una delle prime applicazioni basate sull’apprendimento automatico che rileva la retinopatia diabetica dalle immagini diagnostiche scattate con gli smartphone: FDA, FDA permits marketing of artificial intelligence-based device to detect certain diabetes-related eye problems, 2018, https://www.fda.gov/news-events/press-announcements/fda-permits-marketing-artificial-intelligence-based-device-detect-certain-diabetes-related-eye. Si può fare menzione anche di altre applicazioni come BabylonHealth, le quali utilizzano l’intelligenza artificiale per interagire direttamente con i pazienti, i quali comunicano con una chatbot per ottenere un consulto medico o una diagnosi. Una volta inseriti i sintomi che sta sperimentando, il Symptom Checker (chatbot) farà alcune domande al paziente/utente per raccogliere maggiori dettagli, per poi fornire informazioni sulle potenziali cause e sui possibili passi in avanti, ed (eventualmente) mettersi in contatto con un medico. L’App è in grado di identificare i problemi medici più comuni, come allergie, infezioni (da coronavirus e.g.), intossicazione alimentare, con una accuratezza che secondo il produttore è circa dieci volte più elevata di quella di un medico generico: A. MALVA e V. ZURLO, Babylon Health: il servizio anglosassone di Medicina Generale privato basato su app, in Riv. soc. it. med. gen., n. 5, vol. 26, 2019, p. 15. Babylon Health è solo una delle tante applicazioni del genere. Possono ricordarsi inoltre Ada Health, che fornisce un suggerimento di diagnosi in pochi minuti; DeepMind Health di Google, che ha la capacità di interpretare con alta precisione la scansione oculare. 20 Tra i tanti ambiti della medicina interessati dagli sviluppi dei sistemi automatici di supporto clinico-diagnostico è la radiodiagnostica quello maggiormente innovato: l’intelligenza artificiale, combinata con l’imaging e con il passaggio alla cartella clinica elettronica, ha mostrato (e sta mostrando) un grande potenziale nel supportare la rapida identificazione della presenza o assenza 190 ALFIO GUIDO GRASSO utilizzati nel contesto dell’accesso alle cure (triage), in grado di decidere al posto del medico se (e quali persone) ricoverare d’urgenza ovvero trasferire in terapia intensiva e quali invece possono attendere un ricovero ordinario21. Se nel primo caso le decisioni sul trattamento sono prese in ultima analisi dal paziente o dal suo rappresentante, e quindi il problema maggiore è quello di assicurare un quadro completo e comprensibile di informazioni, in base anche alla gravità del rischio e di quanto desidera sapere; nel secondo e nel terzo caso la valutazione cambia a seconda se il medico intervenga (e con che autonomia) nel processo decisionale. Benché non possa escludersi – specialmente per il caso del triage – che la decisione possa essere affidata integralmente al mezzo digitale, allo stato dell’arte questa non sembra essere la prassi più diffusa: nella maggior parte dei casi sarà il clinico che si assumerà in ultima analisi l’onere della decisione. Con la conseguenza che, a causa della mediazione umana, non troverà applicazione il divieto di decisione automatica di cui al comma 1 dell’art. 22 GDPR. Tuttavia, come l’elaborazione dottrinale e giurisprudenziale ha riconosciuto, lo standard di protezione che il Regolamento (UE) 2016/679 garantisce all’interessato cede soltanto se l’intervento dell’uomo nel processo decisionale sia significativo e non puramente simbolico o meramente nominale. di certi tipi di malattie con un’accuratezza maggiore di quella degli specialisti. Si consideri soltanto che ricercatori dell’Università di Stanford hanno elaborato un algoritmo che, in pochi secondi, può interpretare le radiografie del tronco per individuare quattordici diverse patologie del torace: H. ARMITAGE, Artificial intelligence rivals radiologists in screening X-rays for certain diseases, Stanford Medicine News Center, 2018, https://www.rsna.org/news/2019/January/AI-for-chest-x-rays. 21 A parte i già richiamati software recentemente sviluppati per far fronte alla pandemia (v. nota 14), uno dei sistemi diagnostici più noti (e più risalenti) è il programma bayesiano per la diagnosi del dolore addominale acuto sviluppato da ricercatori inglesi. Per come originariamente concepito, uno degli obiettivi del sistema era proprio quello di discriminare tra trattamenti chirurgici e trattamenti non chirurgici di dolore addominale acuto al fine di aiutare il medico nel triage dei pazienti in una situazione di emergenza: F.T. DE DOMBAL, D.J. LEAPER, J.C. HORROCKS, J.R. STANILAND e A. MCCANN, Human and computer-aided diagnosis of abdominal pain: further report with emphasis on performance of clinicians, in Br Med J, 1974; 1:376–380. Più di recente, v. S. RAZZAKI et al., A comparative study of artificial intelligence and human doctors for the purpose of triage and diagnosis, 2018, in https://arxiv.org/abs/1806.10698, ove casi identici sono stati valutati sia da un sistema di intelligenza artificiale che da medici umani. Le diagnosi differenziali e i risultati del triage sono stati poi considerati da un soggetto esterno, indipendente, che non era a conoscenza della fonte (sistema AI o medico umano) dei risultati. Nel complesso lo studio ha trovato che il sistema di triage e diagnostica fondato sull’intelligenza artificiale sia stato in grado di identificare la condizione del paziente con un’accuratezza paragonabile ai medici umani. Inoltre, il suggerimento di ricovero raccomandato dal sistema di intelligenza artificiale era, in media, più sicuro di quello dei medici umani, se confrontato con le categorie di soggetti ritenuti ricoverabili dalle linee guida degli esperti indipendenti, con solo un minimo margine di scostamento. GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 191 2. La nozione di decisione automatizzata contenuta nell’art. 22 GDPR. Di per sé il termine “decisione” sembra utilizzato nel contesto della disposizione in modo deliberatamente atecnico, così da consentire il richiamo tanto di quelle determinazioni con cui le autorità amministrative o giudiziarie definiscono un procedimento22, quanto di quelle misure adottate dalle imprese – termine con cui, come noto, nel linguaggio unionale si identificano anche i professionisti intellettuali – nei confronti di singoli individui o gruppi di persone. Il criterio di cernita e di selezione sembra piuttosto affidato agli effetti che tali decisioni devono produrre per essere considerate rilevanti: si deve trattare di effetti “giuridici” o comunque tali da incidere in modo “significativamente analogo” sulla persona dell’interessato. Definire cosa si intenda per effetti giuridici non è un compito così arduo, soprattutto perché è stato ampiamente approfondito dagli studiosi che si sono occupati dell’art. 15 della direttiva 95/46/CE, ove era contenuta la precedente disciplina23. L’approccio prevalente ha identificato queste decisioni in quelle capaci di “incidere sullo stato giuridico” degli interessati24 ovvero, in termini più prosaici, in quelle decisioni che “intaccano la loro posizione giuridica o i loro interessi legali”25. Nonostante il Gruppo di Lavoro Articolo 29 sulla protezione dei dati (da ora in poi WP2926) individui tali decisioni in quelle in grado di esercitare un’influenza su diritti di cui l’interessato è già titolare – diritti che in concreto possono essere basati su una fonte legislativa o su un contratto27 –, Così è inteso anche nel diritto dell’Unione europea dove il termine – se si esclude l’omonima fonte normativa – è usato per indicare qualsiasi atto con cui le autorità competenti si pronunciano su un caso particolare con effetti giuridici sulla persona e/o sugli enti interessati: solo ad esempio, si v. la definizione di “decisione” contenuta nell’art. 5, comma 39, del Regolamento n. 952/2013. 23 La formulazione dell’articolo 22 non differisce dal suo precedente sotto questo aspetto. 24 M. MARTINI, ‘DS-GVO Art. 22 Automatisierte Entscheidungen im Einzelfall einschließlich Profiling, in Datenschutz-Grundverordnung, a cura di Paal e Pauly, 1st edn, beck-online, 2017, Rn. 27, pp. 249 ss. 25 M. BRKAN, Do algorithms rule the world? algorithmic decision-making in the framework of the GDPR and beyond, in International Journal of Law and Information Technology 27, n. 2, 2019, pp. 91-121, ove riferimenti alla precedente dottrina. 26 Il Gruppo di lavoro articolo 29 è un organo consultivo europeo indipendente sulla protezione dei dati e la privacy. Si chiama articolo 29 perché è stato istituito ai sensi dell’articolo 29 della direttiva 95/46/CE. È composto da rappresentanti delle autorità di protezione dei dati degli Stati membri, dal Garante europeo della protezione dei dati e dalla Commissione europea. Il GDPR lo ha sostituito con il Consiglio europeo per la protezione dei dati. 27 Questo punto di vista è stato espresso anche dal Gruppo di Lavoro Articolo 29 sulla protezione dei dati (da ora in poi WP29) nelle sue linee guida, il quale sembra distinguere tra effetti derivanti direttamente dalla legge ed effetti derivanti dalla forza vincolante del contratto (e quindi 22 192 ALFIO GUIDO GRASSO sembra il caso di includervi anche quelle decisioni relative a situazioni giuridiche soggettive che, seppur non qualificabili in termini di diritti (per ragioni anche interne alla struttura di ogni singolo ordinamento), corrispondono a interessi particolarmente qualificati: come il caso di una pubblica amministrazione che utilizzi un algoritmo per decidere se concedere o meno licenze al fine di avviare un’attività commerciale o nuovi permessi edilizi28. Più incerto risulta invece determinare il significato della regola quando si riferisce a quelle decisioni che, pur non producendo effetti propriamente giuridici, incidono in modo altrettanto significativo sull’interessato29. Al riguardo il considerando 71 del Regolamento menziona come esempi di decisioni automatizzate che incidono sulla persona dell’interessato in modo altrettanto significativo alle decisioni giuridiche quei processi decisionali automatizzati che hanno luogo nell’ambito economico-produttivo, dove gli algoritmi sono sempre più utilizzati nelle procedure di concessione di prestiti bancari o per i processi di solo indirettamente dalla legge): Guidelines on Automated Individual Decision-Making and Profiling for the Purposes of Regulation 2016/679, 3 ottobre 2017, rivisto il 6 febbraio 2018, spec. p. 21. In questo senso, le linee guida offrono due tipi di esempi: i diritti derivanti dalla legge, come “il voto in un’elezione, o un’azione legale; il diritto o la negazione di un particolare beneficio sociale concesso dalla legge, come il sussidio per i figli o l’alloggio; il rifiuto di ammissione in un paese o la negazione della cittadinanza”; e quelli derivanti dal contratto, come “l’annullamento o la nullificazione di un negozio giuridico”. 28 Sul tema dell’uso di algoritmi da parte delle autorità pubbliche nel prendere decisioni v. D.W. SCHARTUM, From facts to decision data: about the factual basis of automated individual decisions, in Scandinavian Studies in Law, 2018, pp. 379 ss. M. SUKSI, Administrative due process when using automated decision-making in public administration: some notes from a Finnish perspective, in Artif Intell Law, 2021, 29, pp. 87 ss. 29 Sebbene ci possano essere decisioni da cui non derivano effetti, di solito si tratta di atti dai quali discendono delle conseguenze destinate a perdurare nel tempo. Le decisioni, infatti, a differenza di altri atti (come piani, suggerimenti o consigli), generano solitamente output vincolanti e duraturi, in quanto presuppongono una valutazione oramai conclusa. Allo stesso tempo però, poiché l’art. 22 GDPR non richiede alcun onere di forma per considerare un atto una decisione, anche un processo identificato come piano, dichiarazione d’intenti, consulenza o tappa intermedia o interlocutoria di un trattamento automatizzato, può rientrare nel campo di applicazione della disposizione, purché ne sussistano i requisiti di sostanza. Come suggerito anche dal WP29, occorre infatti adottare un approccio casistico, attento a considerare più il contenuto dell’atto che la sua veste formale: v. in questo senso R. BINNS e M. VEALE, Is that your final decision? Multi-stage profiling, selective effects, and Article 22 of the GDPR, in International Dat Privacy Law, 2021, vol. 00, n. 0, pp. 1 ss., spec. 11; D. KAMARINOU, C. MILLARD e J. SINGH, Machine Learning with Personal Data, Queen Mary School of Law Legal Studies, Research Paper n. 247, 2016, spec. p. 12; già L.A. BYGRAVE, Automated Profiling: Minding the Machine: Article 15 of the EC Data Protection Directive and Automated Profiling’, in Computer Law & Security Review, 2001, vol. 17. n. 1, 17 ss, spec. 19, espressasi sotto il regime dell’art. 15 della direttiva 95/46/CE ma con opinione che sembra aver mantenuto anche dopo l’introduzione del regolamento (ID., Article 22, cit., p. 532). GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 193 assunzione elettronica (senza intervento umano) di nuovi dipendenti, così come per il rifiuto automatico di una linea di credito. Lo stesso considerando non fa però alcun riferimento alle decisioni adottate nel settore sanitario e, dal canto suo, il WP29 nelle sue linee guida include le decisioni che condizionano l’accesso di una persona ai servizi sanitari tra quelle che incidono in modo significativo sulla persona, ma tace su qualsiasi altra decisione assunta all’interno di una un determinato contesto assistenziale. Ciò sembrerebbe gettare un’ombra sulla possibilità di considerare una diagnosi o un suggerimento terapeutico come una decisione automatizzata rilevante ai sensi dell’art. 22 GDPR, se non fosse che se ci riferiamo alla sfera della salute stiamo richiamando diritti riconosciuti dai principi fondamentali del diritto dell’UE in quanto riguardano il libero sviluppo della personalità, e pertanto le decisioni automatizzate che li limitano saranno decisioni che hanno “effetti giuridici”, riferendosi a situazioni in cui non è affatto escluso che si tratti di posizioni giuridiche nel senso pieno del termine30. In linea generale, un atto di diagnosi può senza dubbio essere considerato una decisione dalla quale derivano effetti giuridici in primo luogo se il suo scopo principale non sia quello di mantenere o ristabilire la salute del paziente ma di fornire un parere funzionale a ricostruire le implicazioni giuridiche di una condizione o di un evento. A questo proposito, si prenda il caso di una perizia medica eseguita nel contesto di un procedimento finalizzato al riconoscimento del versamento di una pensione di invalidità da parte di un ente previdenziale o a una perizia medico-legale volta ad accertare la responsabilità medica. In questa ipotesi, sebbene faccia appello alle competenze tecnico/scientifiche del prestatore e possa implicare attività tipiche della professione medica – come l’esame fisico del paziente o l’analisi della sua cartella clinica –, la perizia è eseguita non al fine diretto di tutelare la salute del soggetto ma di permettere ad un terzo di prendere una decisione produttiva di effetti giuridici nei confronti dell’interessato (o di altri)31. Tuttavia, è evidente che, nella maggior parte dei casi, lo scopo principale 30 Cfr. D. SCHÖNBERGER, Artificial intelligence in healthcare: a critical analysis of the legal and ethical implications, in International Journal of Law and Information Technology, 2019, 27, p. 171-203, spec. 191; C. SARRA, Il diritto di contestazione delle decisioni automatizzate nel GDPR, in Anuario Facultad de Derecho - Universidad de Alcalá XII, 2019, p. 33-69, spec. 46. 31 Il criterio dello scopo per il quale la prestazione sanitaria è resa è stato utilizzato dalla Corte di Giustizia al fine di determinare se a una prestazione sanitaria debba essere riconosciuto il beneficio dell’esenzione dall’imposta sul valore aggiunto. Al riguardo, i giudici europei hanno posto una distinzione tra prestazioni mediche effettuate allo scopo principale di tutelare – vuoi mantenendola vuoi ristabilendola – la salute, ovvero allo scopo di rendere un consulto richiesto preventivamente all’adozione di una decisione che produce effetti giuridici (in questo caso non applicandosi il beneficio): v. Corte di Giustizia, 20 novembre 2003, cause C212/01 e C-307/01; Corte di Giustizia, 14 settembre 2000, causa C-348/98). 194 ALFIO GUIDO GRASSO della diagnosi medica non sia quello di contribuire all’adozione di una decisione propriamente legale, ma piuttosto di migliorare o almeno salvaguardare le condizioni psicofisiche del paziente. Ma anche in questi casi, per così dire ordinari, la qualificazione in termini di ‘giuridicità’ degli effetti non sembra affatto esclusa, dato che qualsiasi intervento medico intercetta situazioni giuridiche soggettive particolarmente qualificate, attesa la natura di bene giuridico fondamentale che hanno per oggetto32. Una decisione terapeutica chiama in causa diritti riconosciuti dai principi fondamentali del diritto comunitario (artt. 32 e 35 Carta UE; 6, lett. a, 9, TUE; 36, 137, comma 1, lett. a, 168, 169, 191, TFUE) e, di conseguenza, induce a considerare le relative determinazioni come aventi “effetti giuridici”, nella misura in cui riguardano il libero sviluppo della personalità. Non sembrano infatti sussistere valide ragioni per differenziare – quanto agli effetti – tra decisioni terapeutiche prese attraverso mezzi manuali e decisioni assunte tramite mezzi automatizzati: l’eventuale decisione di rifiutare un trattamento sanitario basata su un procedimento automatizzato – un software che ad esempio calcoli come alto il rischio di reazioni avverse, e quindi escluda il paziente Y dalla terapia X, ovvero che consideri Z un paziente da ricoverare in via prioritaria rispetto a Q –, inciderebbe sul diritto alla salute nello stesso modo in cui potrebbe farlo una decisione presa da un medico senza l’assistenza di un CDSS. Prospettiva che non va limitata alla circostanza di una decisione errata, bensì estesa anche al più comune caso di una diagnosi automatica corretta. Infatti, ogniqualvolta abbia dato luogo alla scelta del trattamento farmacologico o chirurgico da intraprendere, la diagnosi automatizzata ha innescato una serie di conseguenze idonee ad incidere su beni primari fondamentali come la vita e l’integrità fisica. Risponde alla ratio di tutela dell’art. 22, primo comma, considerare quindi tali decisioni come generalmente vietate o, qualora siano autorizzate – ricorrendo una o più eccezioni di cui al secondo comma –, assicurare il diritto di impugnazione nonché le altre garanzie contenute nei commi 3 e 433. Una questione analoga potrebbe sorgere anche in relazione alle valutazioni a supporto dell’assunzione da parte di un’azienda privata, con il dubbio se si tratti di una decisione che ha effetti giuridici o di una decisione ‘solo’ altrettanto significativa. Se non fosse che, per quanto riguarda le decisioni automatizzate di assumere elettronicamente (senza intervento umano) nuovi dipendenti (così come di licenziarli), la risposta si trova già nel GDPR, in particolare nel considerando 71, e nelle stesse linee guida del WP29, dove queste decisioni sono incluse tra quelle che hanno effetti significativi simili alle decisioni giuridiche. 33 Sembra pertanto da ribaltare l’indirizzo secondo cui “in the case of ML [machine learning] for health, while there is generally not a legal effect, there could be significant effects on the data subject-patient if he is denied treatment based solely on an automated decision”: R. PIERCE, Machine learning for diagnosis and treatment. Gymnastics for the GDPR, in EDPL, 2018, 3, pp. 333 ss., spec. 32 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 195 Infine, è bene precisare, a scanso di equivoci, che le conclusioni appena esposte non si applicano alle decisioni alle quali non faccia seguito un successivo atto di cura (come la prescrizione di una terapia o di un trattamento). Nel nostro modello ricostruttivo, solo le decisioni assunte nel contesto dell’assistenza sanitaria (come il ricovero in terapia intensiva o la diagnosi medica) rientrano nell’ambito di applicazione dell’articolo 22 del GDPR. Le valutazioni effettuate nel corso della ricerca medica o scientifica non sono comprese, poiché di norma sono prive di un impatto diretto “significativo” sui pazienti34. 3. Il problema delle decisioni parzialmente automatizzate. Quale ulteriore condizione per l’applicazione dell’art. 22 GDPR è necessario che la decisione sia basata su un trattamento (processing) completamente automatizzato. La disposizione – che sul punto non è mutata rispetto al precedente regime di cui all’art. 15 Direttiva 95/46/CE – è stata interpretata nel senso che anche un minimo intervento umano impedisce di considerare la decisione come integralmente automatizzata e quindi preclude l’applicazione del divieto35. Questa rigorosa interpretazione, condivisa anche dalla giurisprudenza tedesca36, 336. Sembrano dello stesso avviso M. MOURBY, K. Ó CATHAOIR e C. BJERRE COLLIN, Transparency of machine-learning in healthcare: The GDPR & European health law, in Computer law and security review, 2021, 43, pp. 1 ss, spec. 6. 35 V. “EU Introduces ‘Right to Explanation’ on Algorithms”, 2016, in http://fusion.net/ story/321178/european-union-right-to-algorithmic-explanation/, ove, tra le tante opinioni, rileva particolarmente quella di Calo, secondo il quale: “All a firm needs to do is introduce a human—any human, however poorly trained or informed—somewhere in the system,” e “[V]oila, the firm is no longer basing their decision ‘solely on automated processing.’”. Cfr. inoltre M. HILDEBRANDT, The Dawn of a Critical Transparency Right for the Profiling Era, Digital Enlightenment Yearbook, IOS Press, 2012, p. 41-56, spec. 50, il quale ammoniva sul rischio che se non fosse stata modificata la previsione contenuta nel Progetto della Commissione Europea del 2012 (suggerimento non raccolto) qualsiasi intervento umano avrebbe reso inapplicabile; S. WACHTER, B. MITTELSTADT e L. FLORIDI, Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, in International Data Privacy Law, 2017, vol. 7, n. 2, p. 92, per i quali “the phrase ‘solely’ suggests even some nominal human involvement may be sufficient”; MARTINI, op. cit., pp. 249 ss. 36 Questa lettura rigorosa è stata condivisa dalla giurisprudenza tedesca nel caso SCHUFA, riguardante l’uso di sistemi automatizzati di credit-scoring. In questo caso, i giudici hanno ritenuto che il sistema di credit-scoring denominato SCHUFA non rientrasse nell’ambito delle norme tedesche che recepivano l’art. 15 Direttiva 95/46/CE (e quindi non fosse vietato) perché il trattamento automatizzato su cui si basava veniva utilizzato solo nella fase della raccolta delle informazioni e allestimento dell’istruttoria: Corte Federale Tedesca, BGH: Umfang einer von der SCHUFA zu erteilenenden Auskunft BGH, Urteil vom 28 January 2014 - VI ZR 156/13 (LG Gießen, AG Gießen) 34 196 ALFIO GUIDO GRASSO risulta altresì coerente con l’intenzione che ha informato il legislatore della riforma del 201637, ma non sembra in linea con quanto indicato dalla CGUE, la quale 490. Recentemente è emersa una nuova questione con protagonista il sistema di credit scoring SHUFA, quando il 25 ottobre 2021 il Tribunale Amministrativo di Wiesbaden ha deciso di sottoporre alla Corte di Giustizia due questioni pregiudiziali riguardanti l’ambito delle tutele ai sensi dell’art. 22 contro il processo decisionale automatizzato e la profilazione nel contesto del calcolo del punteggio di credito di un individuo (Causa C-634/21, in https://curia.europa.eu/juris/showPdf. jsf?text=decisioni%2Bautomatizzate&docid=250522&pageIndex=0&doclang=IT&mode=req&dir=&occ=first&part=1&cid=553414). Il caso riguarda una richiesta di risarcimento avanzata dopo che a un individuo era stato rifiutato un prestito sulla base di un punteggio basso fornito a una banca da SCHUFA. Quest’ultima si difende sostenendo di limitarsi a calcolare i punteggi per valutare l’affidabilità creditizia delle persone, di prevedere, sulla base di questo punteggio e di altre caratteristiche della persona, la probabilità di un comportamento futuro (ad esempio, il rimborso di un prestito) e di condividere queste informazioni con i loro clienti (come le banche). Le agenzie di rating del credito sostengono che, calcolando il punteggio e condividendolo con i loro clienti, si limitano a tracciare il profilo delle persone e non prendono alcuna decisione automatizzata ai sensi dell’art. 22, in quanto le decisioni effettive sulle persone sono prese dai loro clienti. Il Tribunale tedesco ha esaminato il caso e ha deciso di rivolgersi alla CGUE per chiarire se il calcolo da parte delle agenzie di credito del punteggio di credito di un individuo e la divulgazione di questo punteggio a terzi (come le banche) senza ulteriori commenti o raccomandazioni rientri lo stesso nell’ambito di applicazione della disposizione. Il Tribunale ha ritenuto che fosse possibile sostenere che anche la sola elaborazione del punteggio rappresentasse una “decisione” rilevante ai sensi dell’art. 22; e ha osservato che, anche se in linea di principio il cliente dell’agenzia di credito (una banca, un operatore di telecomunicazioni o un proprietario di casa) potrebbe prendere una decisione diversa sulla base di indicatori altri dal valore del punteggio (portando esempi in cui a individui con un buon punteggio erano stati comunque rifiutati prestiti), in pratica i punteggi di credito svolgono un ruolo decisivo nella concessione di prestiti e nella elaborazione delle condizioni di prestito, e valori di punteggio insufficienti conducono al rifiuto di prestiti al consumo nella maggioranza dei casi. Visto il diffuso utilizzo dei punteggi SCHUFA nel commercio quotidiano, la decisione della CGUE e la pronuncia del giudice tedesco che ne seguirà avranno enormi implicazioni pratiche sui contratti in Germania e, in generale, in Europa, oltre a chiarire l’ambito di applicazione della norma rispetto alla questione se l’elaborazione di un punteggio di credito costituisca già una decisione rilevante ai sensi dell’art. 22 GDPR. 37 Sembra da leggere in questo senso il rigetto degli emendamenti proposti dal Parlamento europeo al progetto della Commissione europea volti ad aggiungere l’avverbio “prevalentemente” accanto a “solamente” al fine di ampliare il campo di applicazione della disposizione: v. Commissione per le libertà civili, la giustizia e gli affari interni del Parlamento europeo, “Report on the Proposal for a Regulation of the European Parliament and of the Council on the Protection of Individuals with Regard to the Processing of Personal Data and on the Free Movement of Such Data (General Data Protection Regulation) COM(2012)0011 – C70025/2012 – 2012/0011(COD)”, in https://www. europarl.europa.eu/doceo/document/A-7-2013-0402_EN.html. L’omissione di qualsiasi riferimento a “prevalentemente” nella versione finale dell’articolo è significativa della volontà del legislatore di restringere il campo di applicazione del Regolamento alle decisioni prese al l’esito di processi svolti in assenza di qualsiasi intervento umano: si mostrano di quest’opinione G. MALGIERI e G. COMANDÉ, Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regu- GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 197 già espresso argomenti a favore di una visione meno formalistica del concetto di ‘controllo umano’38. Infatti, se qualsiasi “intromissione” umana – per quanto scarsamente qualificata o priva di effettiva autonomia – potesse sottrarre la decisione al regime di cui all’art. 22 GDPR, si determinerebbe un sostanziale svuotamento di contenuto della previsione, e quindi una radicale riduzione di tutele rispetto a una serie di decisioni, potenzialmente significative, adottate all’esito di procedimenti semi-automatici: in cui la mediazione umana spesso si riduce a un intervento meramente formale o di carattere soltanto nominalistico39. Si impone di conseguenza l’esigenza di correggere in via interpretativa la norma, al fine di conservarne anche il significato precettivo, escludendo che una qualsiasi ingerenza umana possa impedire l’applicazione della disciplina e, al contempo, precisando i requisiti ai quali l’intervento dell’uomo deve rispondere per poter sottrarre la decisione al regime delle decisioni automatizzate. Va pertanto promossa una nozione relativa (cioè relativizzata) del concetto di “processo decisionale automatizzato”, basata sia su un’interpretazione sistematico/generale del Regolamento sia su una diversa lettura della formula contenuta nell’art. 22 primo comma, in linea con le indicazioni provenienti dalla giurisprudenza della Corte di Giustizia, la quale ha espresso argomenti a favore di un’interpretazione meno formalistica del concetto di “controllo umano”40. Ri- lation, in International Data Privacy Law, vol. 7, p. 14. 38 Cfr. il Parere 1/15 della CGUE (Grande Camera) sull’Accordo PNR (Passenger Name Record) UE-Canada, 26 luglio 2017, disponibile all’indirizzo https://curia.europa.eu/juris/document/ document.jsf?text=decisioni%2Bautomatizzate&docid=193216&pageIndex=0&doclang=it&mode=req&dir=&occ=first&part=1&cid=544762#ctx1 (in particolare v. p. 173). 39 Per rimanere nell’esempio del credit scoring, si rifletta sul fatto che di solito, in questo campo, gli algoritmi forniscono un punteggio (che rappresenta il risultato dell’analisi dei potenziali clienti) e le aziende si limitano ad applicare condizioni di particolare vantaggio o a negare servizi di base a seconda del rating espresso dall’algoritmo (v. nt. 35). Di regola, la decisione di applicare o negare condizioni più favorevoli non richiede alcuno sforzo di valutazione, tanto da essere stata messa in discussione (neanche troppo provocatoriamente) la sua stessa natura “umana”: G. MALGIERI e G. COMANDÉ, op. cit., p. 13. Se seguissimo l’approccio secondo cui qualsiasi intervento dell’uomo qualificherebbe la decisione come non completamente automatizzata, se ne avrebbe come risultato la totale estromissione dell’art. 22 dalle dinamiche aziendali delle imprese che operano nel settore della valutazione del rischio legato al credito. Le imprese, infatti, potrebbero aggirare la regola semplicemente assicurando un qualsiasi intervento umano: anche nominale o a conclusione del procedimento (automatizzato): v. E. TROISI, AI e GDPR: l’Automated Decision Making, la protezione dei dati e il diritto alla intellegibilità dell’algoritmo, in European Journal of Privacy Law & Technologies, 1/2019, pp. 41 ss., spec. 47. 40 V. il parere 1/15 della Corte di Giustizia (Grande Camera) sull’accordo UE-Canada relativo al codice di prenotazione passeggero (PNR), 26 luglio 2017, in https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:62015CV0001(01)&from=EN. In quel caso i giudici eu- 198 ALFIO GUIDO GRASSO spetto al primo profilo, solo in una prospettiva più intransigente, ossia meno formalistica, sarebbe possibile garantire le finalità di tutela che l’art. 22 è chiamato ad assicurare secondo quanto emerge dal considerando 71: previsione ove sono riportati, come esempi di decisioni dalle quali il soggetto deve essere protetto, alcune tra le pratiche maggiormente esposte al rischio di rimanere escluse dall’ambito di applicazione del divieto se si addivenisse all’interpretazione formalistica qui criticata41. Secondo questo approccio che potremmo definire – per contrapposizione – sostanzialista, le decisioni “formally attributed to humans”, ma in realtà aventi origine “from an automated data-processing operation the result of which is not actively assessed by either that person or other persons before being formalized as a decision”, sarebbero comprese tra le decisioni automatizzate e quindi incluse nell’ambito di applicazione del divieto42. Approccio che trova riscontri anche nel testo della disposizione, nella misura in cui si esprime in termini di decisioni “basate unicamente sul trattamento automatizzato” e non di “trattamenti decisionali esclusivamente automatizzati” – ossia integralmente svolti da attori digitali: con la conseguenza che la previsione risulta applicabile anche qualora sia un operatore umano (“human in the loop”) a intestarsi formalmente la decisione, nonostante l’intera “preparatory evidence and discretional judgments (e.g. scoring) are fully based on automated means”43. ropei hanno sostenuto che, “since the automated analyses of PNR data necessarily involve some margin of error, as stated in paragraph 169 of this Opinion, any positive result obtained following the automated processing of that data must, under Article 15 of the envisaged agreement [a norma del quale “il Canada non può prendere decisioni che arrechino un significativo pregiudizio ai passeggeri unicamente sulla base del trattamento automatizzato dei dati PNR”], be subject to an individual re-examination by non-automated means before an individual measure adversely affecting the air passengers concerned is adopted. Consequently, such a measure may not, under Article 15, be based solely and decisively on the result of automated processing of PNR data”. 41 In particolare faccio riferimento ai rifiuti automatizzati di una domanda di credito online e alle pratiche di e-recruiting, i quali sono menzionati quali esempi di decisioni da cui la persona interessata deve essere protetta. 42 L.A. BYGRAVE, Automated Profiling: Minding the Machine: Article 15 of the EC Data Protection Directive and Automated Profiling, cit., p. 19. L’A. distingue in inglese tra “solely automated decision-making” e decisioni basate “solely on automated processing” (che è l’equivalente dell’espressione italiana “decisione basata unicamente sul trattamento automatizzato”). 43 G. MALGIERI e G. COMANDÉ, op. cit., p. 13. Ha adottato un approccio in parte ambiguo il WP29. Il Gruppo di lavoro, nelle sue linee guida (p. 20), prima dichiara che “solely” – il termine contenuto nel testo inglese del Regolamento – deve essere interpretato nel senso di “any human involvement in the decision processing”. Tuttavia, poco dopo (quasi come a voler precisare la dichiarazione iniziale), aggiunge che “the controller cannot avoid the Article 22 provisions by fabricating human involvement”: ad esempio nel caso in cui “someone routinely applies automatically generated profiles to individuals without any actual influence on the result, this would still be a decision based solely on automated processing”. Secondo il Gruppo di lavoro, per qualificarsi come coinvolgimento umano, GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 199 Peraltro, è proprio laddove l’intervento dell’uomo sopraggiunge solo a conclusione del procedimento che assume maggiore rilevanza assicurare le tutele di cui all’art. 22 GDPR. In mancanza di un’interpretazione sostanzialistica della norma, in questi casi si avrebbe che il destinatario della decisione, già spogliato (de facto) del controllo umano – controllo che, se interviene alla fine della procedura e da parte di un soggetto privo dei sufficienti poteri, si riduce ad una verifica meramente formale, incapace di colmare il gap di comprensibilità e prossimità verso i bisogni dell’altro connaturato ai sistemi automatizzati44 – non godrebbe “the controller must ensure that any oversight of the decision is meaningful, rather than just a token gesture. It should be carried out by someone who has the authority and competence to change the decision. As part of the analysis, they should consider all the relevant data”. Afferma inoltre che “if a human being reviews and takes account of other factors in making the final decision, that decision would not be ‘based solely’ on automated processing”. In ogni caso, questa interpretazione non ha convinto tutti gli interpreti. Secondo alcuni autori, il WP29 avrebbe creato più confusione di quanta ce ne fosse stando alla lettera della legge, avendo generato il problema di determinare fino a che punto un intervento umano debba estendersi per potersi considerare una decisione come non basata esclusivamente sul trattamento automatizzato: G. NOTO LA DIEGA, Against the Dehumanisation of Decision-Making – Algorithmic Decisions at the Crossroads of Intellectual Property, Data Protection, and Freedom of Information, in JIPITEC 3, 2018, 9, par. 1, pp. 1 ss., spec. 19. Questa osservazione sembra appropriata, e probabilmente questa confusione è dovuta alle differenze che si registravano all’interno del Gruppo, tra coloro che volevano rimanere più fedeli all’interpretazione letterale della disposizione e altri che volevano espandere il suo campo semantico. Ad ogni modo, al di là delle ambiguità terminologiche, appare incontrovertibile che per il WP29 “solely” non significhi senza alcun coinvolgimento umano ma senza alcun coinvolgimento umano “significativo”: E. PELLECCHIA, Profilazione e decisioni automatizzate al tempo della black box society: qualità dei dati e leggibilità dell’algoritmo nella cornice della responsible research and innovation, in Nuove leggi civ. comm., 2018, pp. 1209-1235, spec. 1225. Per quanto le linee guida non siano vincolanti, in altre occasioni hanno dimostrato di essere particolarmente persuasive tra gli studiosi, le autorità di protezione dei dati personali e gli organi giurisdizionali; di conseguenza, tranne a non riconoscere portata a questo strumento, dobbiamo ritenere corretto escludere che un intervento umano senza reale influenza sull’esito della decisione possa essere sufficiente a negare l’applicabilità dell’art. 22. Piuttosto, ciò che sembra mancare nell’approccio del WP29 è la negazione di qualsiasi valore all’intervento umano effettuato nelle fasi precedenti la decisione. Il Gruppo si concentra solo sulla necessità di un intervento umano nella fase finale del procedimento, dimenticando che, in sistemi decisionali complessi, all’essere umano può essere riservato un ruolo sostanziale in una fase anche solo lontanamente precedente quella finale: C. KUNER et al., Machine learning with personal data: is data protection law smart enough to meet the challenge?, in International Data Privacy Law, 2017, vol. 7, n. 1, pp. 1 ss., spec. 2; C. SARRA, Put Dialectics into the Machine: Protection against Automatic-decision-making through a Deeper Understanding of Contestability by Design, in Global Jurist, 2020, 4. In questo modo il WP29 sembra inoltre sopravvalutare ciò che un essere umano può fare nella fase conclusiva di un processo interamente basato su mezzi automatici. Con il rischio concreto di avere un effetto controproducente se si considera solo il peso della responsabilità dell’essere umano coinvolto nella fase finale della procedura (v. testo). 44 Senza bisogno di richiamare l’etimologia greca dei termini simpatia e empatia, prossimità qui è intesa come riconoscimento della comune matrice “umana”, come capacità di simpatizzare 200 ALFIO GUIDO GRASSO nemmeno delle garanzie disposte dalla legge, in quanto la stessa presenza di un operatore all’interno del procedimento escluderebbe la possibilità di considerare la decisione come “basata unicamente sul trattamento automatizzato” (e quindi l’applicazione del regime di cui all’art. 22 GDPR). In questi casi, infatti, l’operatore si trova a fronteggiare un dilemma: o confermare la decisione presa dalla macchina, o modificarla (sostituendola financo), addossandosi però l’onere di dover giustificare la scelta agli occhi della propria organizzazione (e perché no: dei propri pazienti), nonché assumendosi il rischio di eventuali conseguenze risarcitorie di tipo (quantomeno) civilistico o contabile45. A parità di mancanza di motivazioni – elemento che caratterizza tutti i dispositivi di machine learning – risulta più agevole confermare i risultati che adottare una posizione diversa in quanto, se discostarsi dal giudizio della macchina richiede necessariamente la conoscenza della sua logica (se non altro per giustificarsi agli occhi della propria organizzazione ed evitare di incorrere in responsabilità), confermare la decisione non richiede una pari conoscenza esaustiva delle cause, dovendosi presumere, stante la bassa percentuale di errore diagnostico (generalmente inferiore a quella dell’uomo), che la macchina abbia adottato la decisione più corretta46. A ciò si aggiunga anche il rilievo che assume la c.d. “fallacia computazionale”, ovvero l’idea che una decisione presa da un computer sia in qualche modo più valida o accurata di una decisione umana: si tratta di un bias potenzialmente molto pericoloso non solo perché mina le capacità decisionali del medico, ma anche perché compromette la fiducia del paziente nel professionista. 3.1. (Segue). Diagnosi automatiche, semiautomatiche e controllo del medico. Il tema delle decisioni parzialmente automatizzate risulta particolarmente rilevante proprio in relazione al settore della diagnosi medica e degli interventi di cura e assistenza, in quanto le decisioni esclusivamente automatizzate sono poco frequenti in questo ambito. Non sono infatti ancora disponibili sul mercato sistemi di supporto decisionale alla diagnosi capaci di prescindere dal contributo dei sanitari. Contributo del medico che si concretizza innanzitutto nell’individuazione dei sintomi: se escludiamo l’ipotesi che sia il paziente stesso a inserire la descrizione dei suoi disturbi nel sistema47, è il professionista infatti che, dopo verso gli altri e di provare empatia verso i loro bisogni. 45 C. SARRA, ibidem. 46 Oltre alle varie ricerche già menzionate (v. ntt. 10-18), si può richiamare l’uso (rivelatosi particolarmente efficiente) dell’intelligenza artificiale nella diagnosi precoce dell’autismo (info in https://www.stateofmind.it/2021/04/autismo-intelligenza-artificiale/). 47 Quando è il paziente stesso a inserire i sintomi (come nel caso BabylonHealth, v. nt. 18) siamo al di fuori dei sistemi di supporto alla clinica o alla diagnosi. In quel caso si tratta di un’ipotesi di autodiagnosi per la quale è necessario un livello di trasparenza ancora più elevato di quello GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 201 un primo esame e l’ascolto, inserisce nell’apposita finestra di dialogo gli indici riconosciuti come rivelatori della patologia, ricavati anche attraverso l’utilizzo di esami strumentali48. Una volta inseriti i sintomi, e raccolti ulteriori dettagli relativi al paziente e alla sua storia clinica personale e familiare, l’algoritmo mira a identificare, attraverso una serie di domande, i fattori medici più rilevanti alla luce delle informazioni iniziali, come tali da sottoporre in via prioritaria all’attenzione del paziente, emulando il processo decisionale di un esperto umano49. Suc- richiesto per i sistemi di supporto alla diagnosi, al fine di assicurare il diritto dei pazienti di fare scelte informate. Ma si tratta di problemi che, per quanto prossimi a quelli indagati, non sono propriamente oggetto di indagine in questo lavoro, e per i quali si rinvia a MOURBY, CATHAOIR e BJERRE COLLIN, op. cit., pp. 1 ss. 48 Bisogna considerare che, di recente, si è registrato un grande sviluppo nel campo delle procedure telediagnostiche a distanza, a causa della pandemia. Da un lato la carenza di medici, spesso impegnati nell’assistenza in prima linea, e dall’altro la necessità di evitare il contatto umano per ridurre il contagio, hanno portato a un aumento della domanda di dispositivi in grado di valutare le condizioni dei pazienti COVID senza la presenza fisica del medico. Per valutare le condizioni dei pazienti COVID senza il contatto diretto con il sanitario sono stati sviluppati diversi strumenti di telediagnostica. Il sistema include, per esempio, un tampone nasofaringeo, un’ispezione della cavità orale, l’auscultazione del torace, la percussione e la palpazione dell’addome, tramite terminali robotici. La palpazione, la percussione e l’auscultazione sono basate su un sistema di microfoni collegati al computer in tempo reale tramite interfaccia audio. Il medico è collegato utilizzando invece un’interfaccia utente di nuova concezione e un robot guida, con controllo rapido del ritorno di forza (force feedback), che permette movimenti precisi e veloci grazie al robot addetto al monitoraggio del paziente: v. J. FUCHTMANN et all, COVID-19 and beyond: development of a comprehensive telemedical diagnostic framework, in International Journal of Computer Assisted Radiology and Surgery (2021) 16:1403-1412, https://doi.org/10.1007/s11548-021-02424-y. Tutto ciò suggerisce che, nel momento in cui si arriverà ad integrare completamente (e a far procedere di pari passo) l’intelligenza artificiale c.d. virtuale (cartelle cliniche elettroniche, software per la pianificazione di diagnosi e terapie etc. etc.) con l’intelligenza artificiale c.d. fisica (assistenza chirurgica tramite robot, protesi intelligenti, ecc.), l’utilizzo dei CDSS avrà raggiunto un significato diverso (e più comprensivo) di quello che assume oggidì, determinando altresì un radicale cambiamento di paradigma nella figura del medico per come l’abbiamo conosciuta finora: su questa distinzione tra intelligenza artificiale virtuale e fisica in campo medico v. P. AMISHA MALIK, M. PATHANIA e V.K. RATHAUR, Overview of artificial intelligence in medicine, in J. Fam. Med. Prim. Care, 2019, 8, p. 2328-2331; J. ISSA et al., The Effectiveness of Semi-Automated and Fully Automatic Segmentation for Inferior Alveolar Canal Localization on CBCT Scans: A Systematic Review, in Int. J. Environ. Res. Public Health, 2022, 19, p. 560. Tuttavia, non bisogna nemmeno suscitare aspettative eccessivamente elevate, poiché questi strumenti non sono (né probabilmente saranno) sempre in grado di sostituire il supporto umano, almeno stando al precedente nel campo della ricerca COVID-19, dove i software per la diagnosi automatica dell’omonima infezione con la tomografia computerizzata del torace, si sono rivelati strumenti utili ma non in grado di sostituire i tamponi molecolari, come si era ipotizzato: per queste riflessioni si rinvia a DI ROSA, I robot medici, in questo volume a p. 121. 49 Le domande si determinano in modo dinamico e continuativo, in base alle risposte del paziente e alla conoscenza che il sistema ha dei dati di addestramento. 202 ALFIO GUIDO GRASSO cessivamente, il software fornirà una serie di possibili diagnosi, classificandole in base alla probabilità e indicando quelle più pericolose, insieme alle rispettive terapie e indicando le risorse bibliografiche o via web dove approfondire le potenziali diagnosi (dalla divulgativa Wikipedia a fonti mediche specializzate come UptoDate). A parte l’estremo interesse in termini di personalizzazione delle cure, queste tecnologie prescindono quindi solo in parte dall’intervento del medico: la cui attività è peraltro indispensabile – anche nei sistemi più spiccatamente automatici (come quelli basati sulla radiomica50) – per interpretare poi i risultati, nonché per tradurre in pratica la risposta terapeutica di cui il software ha previsto l’efficacia. Cionondimeno, sebbene si tratti di decisioni che, essendo prese in ultima istanza dai medici, non sono soggette al divieto generale dell’art. 22, comma 1, permangono importanti oneri di trasparenza nei confronti dei pazienti, i quali dovrebbero essere informati della profilazione e delle conseguenze che ne derivano. Non basta infatti evocare la loro natura di strumenti di supporto alle decisioni cliniche che non necessitano del consenso esplicito (art. 22, comma 2, lett. c) (o delle altre deroghe) per risultare legittimi: l’esclusione dalla disciplina 50 La radiologia è l’area della scienza medica in cui il contributo dell’intelligenza artificiale ha inciso di più. Da un primo momento con il c.d. computer-aided detection (CAD), una tecnologia progettata per ridurre le disattenzioni osservative – e quindi i tassi di falsi negativi – dei medici impegnati nell’interpretazione delle immagini mediche, fino ai recenti sviluppi della radiomica: per un excursus v. B. SAHINER e N. PETRICK, Evaluation of CAD and Radiomic Tools, in The Handbook of Medical Image Perception and Techniques, a cura di Samei e Krupinski, Cambridge, 2018, 389-406. La radiomica è quel campo di ricerca emergente incentrato sull’estrazione e l’analisi di caratteristiche quantitative dalle immagini mediche. Le immagini mediche (MRI, CT, raggi x) e/o le loro caratteristiche radiomiche vengono analizzate con programmi di machine learning o deep learning per elaborare modelli predittivi della patologia o delle conseguenze del trattamento. Si tratta di un approccio quantitativo all’imaging medico, che mira a migliorare i dati a disposizione dei medici attraverso un’analisi matematica avanzata. Grazie a questa tecnologica, le immagini mediche ottenute da esami come la TAC, la risonanza magnetica o la PET vengono convertite in dati numerici. Questi dati vengono poi elaborati da strumenti di calcolo appositi e la loro gestione e analisi passa attraverso l’uso di tecniche avanzate quali i sistemi di intelligenza artificiale e i “big data”. Dalla radiomica, e quindi dall’estrazione e analisi delle caratteristiche quantitative delle immagini mediche, è possibile creare dei modelli di supporto alla decisione clinica, capaci di ridurre drasticamente il lavoro dei radiologi, giacché non richiedono una selezione manuale delle immagini né una loro pre-elaborazione: per alcuni riferimenti di base v. A. RETICO, Applicazioni di radiomica e intelligenza artificiale all’imaging medico: potenzialità e criticità, in 1060 Congresso nazionale società italiana di fisica, 14-18 settembre 2020, in https://static.sif.it/SIF/resources/public/files/congr20/ri/Retico.pdf. Nondimeno si tratta di attività solo apparentemente sottratte ai medici, giacché la radiomica permette di ottenere informazioni che l’occhio umano non potrebbe ottenere e che la stessa mente umana non potrebbe elaborare a causa della loro quantità e complessità al momento della refertazione ma che occorre interpretare e tradurre in risposta operativa. GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 203 dei processi decisionali automatizzati non implica anche la mancata applicazione dei requisiti di trasparenza che il GDPR impone in (tutti) i casi di trattamento automatizzato dei dati (a prescindere che faccia seguito o no una decisione). Per quanto alcuni autori abbiano suggerito che il Regolamento richieda minime informazioni sul trattamento automatizzato quando le decisioni siano (anche marginalmente) mediate dall’uomo51, altri hanno sostenuto un’interpretazione più stringente degli obblighi di trasparenza52: interpretazione avallata anche dalle linee guida del Gruppo di Lavoro Articolo 2953. Il WP29 ha chiarito che l’intervento umano non sottrae il trattamento automatizzato dalle regole della profilazione, almeno finché i dispositivi di machine learning vengano utilizzati per valutare o prevedere aspetti riguardanti la salute della persona. In particolare si sostiene “where the processing involves profiling-based decision making (irrespective of whether it is caught by Article 22 provisions), then the fact that the processing is for the purposes of both (a) profiling and (b) making a decision based on the profile generated, must be made clear to the data subject”. Di conseguenza, anche quando siano i medici ad assumere la decisione clinica finale, la modellazione predittiva rientrerà nella definizione di profilazione contenuta nel GDPR e sarà soggetta ai suoi requisiti di trasparenza rafforzata. Sul piano normativo, quanto esposto si desume dal considerando 60, il quale integra la disposizione relativa ai principi applicabili al trattamento dei dati personali (art. 5). Dal combinato disposto del considerando 60 e dell’art. 5, comma 1, lett. a, si ricava che “l’esistenza di una profilazione e le conseguenze della stessa” rientrano tra gli obblighi di trasparenza e comunicazione che il responsabile del trattamento è chiamato ad assolvere nei confronti dell’interessato. A questo proposito, tuttavia, è stato riscontrato come la disposizione sia disattesa nei suoi precetti di trasparenza, in quanto il responsabile del trattamento spesso non è in grado di fornire ai pazienti le informazioni complete e significative che la disposizione richiederebbe. Una spiegazione completa delle ‘conseguenze’ imporrebbe infatti che le persone interessate (in questo caso, i pazienti) fossero informate sui fattori che influenzano i loro punteggi di rischio, che a loro volta incidono sulle decisioni prese in merito alla loro assistenza sanitaria. I pazienti WACHTER, MITTELSTADT, FLORIDI, op. cit., pp. 76 ss. A.D. SELBST e J. POWLES, Meaningful information and the right to explanation, in International Data Privacy Law, 2017, 7, pp. 4 ss.; BRKAN, op. cit., pp. 91 ss.; M.E. KAMINSKI, The Right to Explanation, Explained, in Berkley Technology Law Journal, 2019, 34, pp. 189 ss.; G. MALGIERI e G. COMANDÉ, op. cit., pp. 13 ss.; B. CASEY, A. FARHANGI e R. VOGL, Rethinking Explainable Machines: The GDPR’s “Right to Explanation” Debate and the Rise of Algorithmic Audits in Enterprise, in Berkeley Technology Law Journal, 2019, 34, pp. 143 ss. 53 Gruppo di lavoro Articolo 29, linee guida sul processo decisionale automatizzato e profilazione, pp. 16 e 17. 51 52 204 ALFIO GUIDO GRASSO potrebbero aver bisogno di sapere quali caratteristiche dei loro dati sanitari hanno un impatto sulla loro assistenza (cioè un’esposizione di quali fattori medici sono importanti per i risultati del modello)54; in linea, peraltro, con le indicazioni che i medici spesso intendono fornire ai loro pazienti, consentendo loro di comprendere meglio la gravità della situazione e i fattori di rischio modificabili (ad esempio, il fumo, il consumo di alcol, ecc.). Ciò presupporrebbe, a monte, da parte dei responsabili del trattamento, una conoscenza sufficiente dei fattori clinici alla base delle previsioni di un modello, in modo che i risultati possano essere poi integrati nel contesto di una spiegazione medica, così da fornire ai pazienti una rappresentazione attendibile delle ‘conseguenze’ della profilazione. Sebbene ciò non significhi necessariamente che i modelli fondati sull’apprendimento automatico debbano essere in sé ‘spiegabili’ o interpretabili, questo elevato standard di trasparenza mette in evidenza, anche sul piano legale, l’importanza della comprensione da parte dei medici delle caratteristiche cliniche più rilevanti di una previsione basata sul ML, nel caso in cui si avvalgano di tali strumenti55. 4. Diagnosi “automatiche” e vincoli legali a consistenza variabile. Lo standard di trasparenza da garantire nel caso di sistemi decisionali parzialmente automatizzati resta comunque inferiore a quello delle decisioni esclusivamente automatizzate, in relazione alle quali l’interessato ha diritto a ‘informazioni significative sulla logica coinvolta’, fornite in una forma ‘comprensibile e facilmente accessibile’ (artt. 13, comma 2, lett. f, 14, comma 2, lett. g, 15, comma 1, lett. h). Tuttavia, prima di soffermarci sulla sufficienza e l’estensione di queste ‘informazioni significative’, e se corrispondano, o meno, a una vera e propria ‘spiegazione’ dei risultati (v. § 5), occorre verificare la consistenza di quegli indici normativi che sembrano negare l’ammissibilità stessa dei sistemi decisionali automatizzati nel settore sanitario. Verifica che può sembrare meramente speculativa o proiettata in un tempo ancora lontano da venire, ma che in realtà risulta più prossimo di quanto si possa ictu oculi supporre, se solo si considera che modelli spiccatamente automatizzati sono già stati sviluppati nel contesto dell’accesso alle cure: sistemi progettati per ridurre al minimo l’interazione con il medico, capaci di decidere quali soggetti debbano essere ricoverati in emergenza o trasferiti in terapia intensiva e quali invece possano attendere il ricovero in via V. E. ŠTRUMBELJ e I. KONONENKO, Explaining prediction models and individual predictions with feature contributions, in Knowledge and Information Systems, 2014, 41, pp. 3 ss. 55 Così MOURBY, CATHAOIR e BJERRE COLLIN, op. cit., p. 7. 54 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 205 ordinaria56. Tale sviluppo è stato accelerato dall’insorgere della recente epidemia da COVID-19, che ha provocato un affollamento degli ospedali, una carenza di personale e, in alcuni casi, un contingentamento delle cure; motivo per cui importanti centri di ricerca scientifica hanno progettato sistemi di apprendimento automatico in grado di fornire assistenza ai medici impegnati nel contrasto alla pandemia57. L’uso dell’intelligenza artificiale in questo campo si è rivelato efficace non solo rispetto all’esigenza di decongestionare gli ospedali, ma anche per ridurre il rischio di ricoveri inutili nonché al fine di trasferire più rapidamente un soggetto in un’unità di recupero o di terapia intensiva, ottenendo così una maggiore probabilità di successo58. Ostacoli all’ammissibilità di questi sistemi sono stati innanzitutto individuati nell’art. 22, comma 4, GDPR. Si è già illustrato, ma è opportuno ribadirlo in questo contesto, che l’art. 22 stabilisce il diritto generale delle persone di non essere soggette a decisioni legali o comunque significative basate esclusivamente su un trattamento automatizzato. Il comma secondo, tuttavia, stabilisce talune eccezioni a questo diritto: è consentito assumere decisioni esclusivamente automatizzate se autorizzato dalla legge, se necessario per il contratto o se è stato ottenuto il consenso esplicito dell’interessato. Cionondimeno, anche quando risultano consentite, le decisioni automatizzate sono soggette a un’ulteriore restrizione, contenuta nel quarto comma, secondo cui non possono basarsi sulle categorie particolari di dati personali elencate nell’art. 9, comma 1. Questo riferimento assume particolare importanza se riportato al contesto medico, in quanto i dati sanitari (e i dati genetici) rientrano nelle categorie speciali di dati personali di cui A parte i sistemi già richiamati (v. ntt. 13 e 17), tra i tanti si consideri il sistema della start-up danese CORTI, nella cui descrizione si legge che utilizza il riconoscimento vocale e l’apprendimento automatico per ottimizzare il triage medico. Corti è un assistente digitale basato sulla voce e dotato di un’intelligenza artificiale all’avanguardia, in grado di comprendere i pazienti che parlano in linguaggio naturale. La tecnologia viene utilizzata per analizzare le chiamate di emergenza in tempo reale, per identificare i segni di arresto cardiaco, oltre che per guidare il dialogo e migliorare la diagnostica durante i consulti medico-paziente (https://www.idc.com/getdoc.jsp?containerId=EUR147147320). Un quadro delle principali ricerche si ritrova in J. MILES et al., Using machine-learning risk prediction models to triage the acuity of undifferentiated patients entering the emergency care system: a systematic review, in Diagnostic and Prognostic Research, 2020, 4:16. 57 V. l’intervista al Dr. Ron Li, professore assistente clinico presso la Stanford Medicine, direttore dell’informatica medica per l’integrazione clinica della salute digitale e dell’intelligenza artificiale, in https://www.marketplace.org/shows/marketplace-tech/how-artificial-intelligence-could-influence-hospital-triage/. 58 Si tratta di modelli di AI basati su un sistema che identifica la risposta giusta sulla base di esempi di coppie domanda-risposta. Questo approccio, chiamato model-driven AI (o AI simbolica), richiede un enorme set di dati con un’etichettatura perfetta (“labelling”); ed è in grado di elaborare le immagini, decostruendole in colori, linee e forme, che vengono poi confrontate con regole esplicite. 56 206 ALFIO GUIDO GRASSO all’art. 9. Pertanto, come regola generale, non sarebbe mai consentito assumere decisioni automatizzate in questo ambito, dal momento che – per definizione – vengono trattati dati strettamente personali come quelli relativi alla salute. Esistono tuttavia importanti eccezioni al divieto di basare decisioni automatizzate su dati sensibili: tali da mettere in discussione l’assolutezza dell’opinione che ritiene il divieto tendenzialmente insuperabile59. Sono consentite infatti nella misura in cui trovino applicazione le disposizioni di cui all’art. 9, comma 2, lett. a) o g): cioè, se è stato ottenuto il consenso esplicito dell’interessato (art. 9, lett. a), oppure b) se il trattamento è necessario per motivi di interesse pubblico, sulla base del diritto dell’UE o degli Stati membri, proporzionato alla finalità perseguita (art. 9, comma 2, lett. g). 4.1. Quando il processo decisionale automatizzato è autorizzato dal diritto europeo o nazionale. Un processo decisionale automatizzato può essere autorizzato innanzitutto dalla legislazione europea o degli Stati membri. Va innanzitutto rilevato che l’eccezione basata sul diritto europeo o nazionale compare già tra quelle che legittimano le decisioni automatizzate in generale (art. 22, comma 2, lett. b), ma con la significativa differenza che in quel contesto viene richiamato il diritto dell’Unione Europea o degli Stati membri tout court, senza ulteriori precisazioni; mentre, quando è menzionata come eccezione che legittima l’adozione di decisioni automatizzate basate su dati sensibili (art. 22, comma 4), si allude specificamente – tramite il rimando all’art. 9, comma 2, lett. g – al carattere di “interesse pubblico” che devono avere tali disposizioni. Non sembra trattarsi di una differenza meramente nominalistica, né la menzione dell’interesse pubblico può essere intesa riduttivamente come un riferimento all’interesse generale al quale è per definizione improntato ogni provvedimento legislativo che riguarda la salute o l’accesso alle cure60, quanto piuttosto di una precisa scelta regolamentare da ricondurre al proposito di sottoporre a un regime ancora più restrittivo la possibilità di derogare al divieto se si tratta di decisioni relative a dati sensibili. Se si condivide questa interpretazione, sorge la questione se sia necessario introdurre una disposizione specifica che legittimi il processo decisionale automatizzato, o se sia sufficiente la legge nazionale che regola nei diversi ordinamenti i servizi sanitari (nel nostro, la l. 23 dicembre 1978, n. 833). Al riguardo, sembra da condividere l’opinione per la quale sia necessario introdurre una di- Si mostrano di questa opinione MOURBY, CATHAOIR e BJERRE COLLIN, op. cit., pp. 1 ss. V. M. FORTI, The Deployment of Artificial Intelligence Tools in the Health Sector: Privacy Concerns and Regulatory Answers within the GDPR, in European Journal of Legal Studies, 13, n. 1, giugno 2021, p. 29-44, spec. 41. 59 60 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 207 sposizione ad hoc che legittimi il processo decisionale automatizzato, non essendo sufficiente la legge che regola in generale i servizi sanitari. Ciò sembrerebbe desumersi dall’assenza di un richiamo nell’art. 22, comma 4, all’art. 9, comma 2, lett. (h): disposizione contenente l’eccezione generale al divieto di trattare i dati personali qualora risulti necessario per finalità mediche o sanitarie sulla base del diritto dell’Unione o degli Stati membri. L’art. 22, comma 4, riferendosi alla più limitata ipotesi in cui il trattamento dei dati sanitari sia autorizzato da una legge nazionale o europea per motivi di interesse pubblico, sembra richiedere una disposizione specifica, in ragione anche delle garanzie che tale disposizione (a differenza dell’eccezione generale di cui alla lettera h) richiede: il processo decisionale automatizzato deve infatti essere effettuato con mezzi proporzionati alla finalità perseguita, nel rispetto dell’essenza del diritto alla protezione dei dati, e secondo misure adeguate a tutelare i diritti, le libertà e i legittimi interessi del soggetto. In ogni caso si tratta di un ostacolo che, per quanto concreto, non è affatto insormontabile, come dimostra l’esperienza di quegli ordinamenti che già hanno introdotto disposizioni volte a legittimare processi decisionali automatici nell’ambito dell’assistenza sanitaria61. Piuttosto, il problema risiede proprio nell’efficacia di queste garanzie che le leggi nazionali devono adottare e che potrebbero non essere effettive se applicate a sistemi di apprendimento automatico operanti nel campo della salute. Ma su questo punto torneremo più avanti, quando affronteremo la questione delle garanzie in un contesto più ampio (v. § 5). 4.2. Consenso informato (al trattamento medico), consenso al trattamento dei dati e consenso al processo decisionale automatizzato: uno, (nessuno) o tre consensi? Maggiori difficoltà si incontrano relativamente al ricorso all’eccezione dell’esplicito consenso, la quale è dubbio possa costituire la base giuridica per legittimare processi decisionali completamente automatizzati nell’ambito medico, almeno per quanto riguarda i sistemi che operano nei (e per i) contesti di emergenza e urgenza. Il problema maggiore risiede nel fatto che il consenso a essere sottoposto a una decisione basata unicamente sul trattamento automatizzato non Spiccano gli esempi del Regno Unito, che ha regolamentato l’ipotesi in modo flessibile (sezione 14 del Data Protection Act 20189, e della Danimarca, dove l’Autorità per la protezione dei dati ha lasciato intendere che il processo decisionale automatizzato (anche nel settore sanitario) possa essere consentito, a condizione che vi sia una base giuridica e che all’interessato vengano fornite garanzie adeguate, come la possibilità di appellarsi a un organismo che non assuma decisioni a sua volta basate su un processo automatizzato. Rileva anche l’esperienza tedesca, dove il legislatore, nel Federal Data Protection Act (BDSG) (sez. 37), ha espressamente escluso che il diritto di non essere sottoposto a un processo decisionale automatizzato si applichi alla fornitura di servizi assicurativi, anche quando sia coinvolti dati sanitari, riconoscendo in questo frangente particolari tutele. Per un quadro dei diversi approcci europei v. G. MALGIERI e G. COMANDÉ, op. cit., pp. 13 ss. 61 208 ALFIO GUIDO GRASSO può essere considerato come ‘liberamente prestato’ (art. 7, comma 4) se il suo rifiuto rischia di provocare un danno62. In concreto, sembra altamente improbabile che il paziente, nell’ambito di un modello automatizzato di triage, possa rifiutare di essere sottoposto a una decisione basata unicamente sul trattamento automatizzato dei propri dati senza rischiare l’esclusione (o almeno un accesso ridotto o ritardato) al reparto di terapia intensiva. In sostanza, almeno quando i suoi valori e le sue condizioni giustifichino il ricovero d’urgenza, il potenziale pregiudizio di rinunciare alle cure o ritardarle appare troppo significativo per giustificare qualsiasi pretesa che il consenso sia stato dato liberamente63. Più in generale, l’esplicito consenso dell’interessato come base giuridica che legittima l’estromissione del divieto di affidarsi esclusivamente al processo di automated decision, risente di due fattori peculiari del settore medico-sanitario. In primo luogo, le vulnerabilità intrinseche dei pazienti, non soltanto di quelli con malattie debilitanti, gravi o potenzialmente letali – la cui presenza mette in discussione la stessa natura volontaristica del consenso64 – ma dei pazienti in genere, considerati i ben noti squilibri di potere connaturati al rapporto con il medico. Si può mettere in discussione che il paziente abbia effettivamente la possibilità di rifiutare il consenso a essere sottoposto a processi decisionali automatizzati, soprattutto in assenza di alternative altrettanto efficaci e concretamente praticabili. La ricorrenza di una simile eventualità può minare l’intento protettivo della disposizione, dal momento che tali decisioni di norma hanno un impatto significativo sulla vita di una persona. In secondo luogo, si pone il problema dei soggetti che giungono al pronto soccorso in stato di incoscienza. Problema, quest’ultimo, che non può essere risolto ricorrendo alla disposizione che consente il trattamento dei dati a prescindere dal consenso dell’interessato se il trattamento è necessario per salvaguardare interessi vitali dello stesso (artt. 6, comma 1, lett. d, 9, comma 2, lett. c), in 62 Sulle inefficienze del consenso esplicito, per limitarci al contesto italiano, di recente N. IRTI, Consenso negoziato e circolazione dei dati personali, Torino, 2021, 61 ss.; I.A. CAGGIANO, Il consenso al trattamento dei dati personali nel nuovo Regolamento europeo, in Oss. dir. civ. comm., 1/2018, pp. 67 ss., spec. 78 ss.; F. CAGGIA, Il consenso al trattamento dei dati personali nel diritto europeo, in Riv. dir. comm., 2019, I, pp. 406 ss.; F. BRAVO, Il consenso e le altre condizioni di liceità del trattamento di dati personali, in AA.VV., Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, diretto da G. Finocchiaro, Bologna, 2017, pp. 138 ss.; E. TOSI, Diritto privato delle nuove tecnologie digitali, Milano, 2021, 145; L. GAROFALO, Regolare l’irregolabile: il consenso al trattamento dei dati nel GDPR, Annuario OGID 2021 – Yearbook JODI, pp. 119 ss., spec. 121; L. GATT, R. MONTANARI e I.A. CAGGIANO, Consent to the Processing of Personal Data: A Legal and Behavioral Analysis Insights the Effectiveness of Data Protection Law European Journal of Privacy Law & Technologies, 2018, 1 ss. 63 Così M. MOURBY, K. O CATHAOIR, C. BJERRE COLLIN, op. cit., p. 5. 64 Cfr. PIERCE, op. cit., p. 336. GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 209 quanto i casi di liceità del trattamento dei dati sono diversi (e molto più ampi) rispetto alle ipotesi che legittimano l’adozione di decisioni automatizzate. Né tale problema può essere risolto facendo leva sulle disposizioni contenute nella legge n. 291/2017 (art. 1, comma 7), dove si prevede espressamente che non è necessario ottenere il consenso in situazioni di estrema urgenza in cui occorre un intervento medico immediato, ad esempio quando si tratta di situazioni di rischio per la vita del paziente, perché si opera nell’ambito del ‘consenso presunto’. La difficoltà a questo proposito risiede nel fatto che le linee guida del WP29 hanno chiaramente sottolineato la distinzione tra il consenso informato al trattamento sanitario (a cui si riferisce la disposizione italiana) e il consenso al trattamento dei dati ai sensi del GDPR, e hanno suggerito che l’atto con cui si autorizza quest’ultimo potrebbe non essere parimenti adeguato ad autorizzare il trattamento sanitario del paziente in un contesto clinico65. Al di là del parere del WP29 (il quale tuttavia non solo è altamente persuasivo, ma è anche vincolante per le autorità nazionali di garanzia), la Commissione Europea66 e il Garante Europeo della Protezione dei Dati67 hanno pure sottolineato la differenza tra il consenso informato e il consenso come base per il trattamento dei dati personali. Mentre il primo è sempre considerato indispensabile per rendere legittimo il trattamento medico (tranne nei casi di estrema urgenza appena citati), il secondo può mancare, se ricorre un’altra base giuridica che legittimi il trattamento, come nel caso in cui sia necessario per l’esecuzione di un contratto di cui l’interessato è parte. Tuttavia, si può dubitare che questa opzione, ovvero l’esecuzione di un contratto, sia un’alternativa davvero praticabile nel settore sanitario, poiché non è menzionata tra le condizioni che autorizzano i processi decisionali automatizzati relativi a particolari categorie di dati. Prima di passare a considerare quest’ultimo profilo, occorre sottolineare, In diversi pareri, il Gruppo di Lavoro Articolo 29 ha esaminato i limiti del consenso nelle situazioni in cui non può essere dato liberamente. Questo è stato in particolare il caso del Parere 15/2011 sulla definizione di consenso (WP 187), del Documento di Lavoro sul trattamento dei dati personali relativi alla salute nelle cartelle cliniche elettroniche (WP 131), Parere 8/2001 sul trattamento dei dati personali nel contesto lavorativo (WP48), e il Secondo parere 4/2009 sul trattamento dei dati da parte dell’Agenzia Mondiale Antidoping (WADA) (Standard internazionale per la protezione della privacy e delle informazioni personali). 66 Commissione Europea Direzione Generale per la Salute e la Sicurezza alimentare, Question and Answers on the interplay between the Clinical Trials Regulation and the General Data Protection Regulation, p. 7, in https://ec.europa.eu/health/system/files/2019-04/qa_clinicaltrials_gdpr_en_0. pdf. 67 Garante europeo della protezione dei dati, A Preliminary Opinion on data protection and scientific research, 6 gennaio 2020, in https://edps.europa.eu/sites/edp/files/publication/20-01-06_ opinion_research_en.pdf. 65 210 ALFIO GUIDO GRASSO in chiusura del paragrafo, che la possibilità di derogare al divieto ricorrendo al consenso esplicito dell’interessato rimane un’opzione valida, almeno al di fuori del contesto del trattamento d’emergenza e quando il paziente goda di alternative altrettanto efficaci e praticabili al trattamento diagnostico o clinico automatizzato, salvo quanto si esporrà in merito all’informazione sull’uso del processo decisionale automatizzato che il medico è tenuto a fornire. 4.3. Processi decisionali automatizzati e contratto: divieto di applicazione dell’eccezione contrattuale in campo medico. A questo proposito, va subito notata una differenza di disciplina – a cui non sempre si presta la dovuta attenzione68 – tra le eccezioni che consentono le decisioni automatizzate in generale (commi 2 e 3 dell’art. 22) e le eccezioni che consentono le decisioni automatizzate basate su categorie sensibili di dati (comma 4 della stessa disposizione). In particolare, delle tre eccezioni che consentono di derogare al divieto di decisioni esclusivamente automatizzate (disposizioni di legge, consenso esplicito, necessità per la conclusione o l’esecuzione di un contratto69), quest’ultima è la sola a non essere menzionata70. Questa limitazione ha V. PIERCE, op. cit., p. 337, il quale solleva dubbi sulla possibilità per un paziente di rifiutare di stipulare un contratto con un medico (o un ospedale) qualora desideri rinunciare alle procedure decisionali automatizzate. I dubbi risultano ben fondati, se non fosse che il problema non si può presentare, dal momento che un medico non potrebbe proporre la sottoposizione a un processo decisionale automatizzato come condizione necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un responsabile del trattamento dei dati, dato che la condizione di cui all’art. 22, comma 2, lett. a, non è richiamata dall’art. 22, comma 4, tra quelle che permettono di adottare decisioni automatizzate che si basano su dati sensibili come quelli relativi alla salute. Piuttosto, queste preoccupazioni – e le abbiamo infatti affrontate in quel contesto – devono essere considerate nel quadro del consenso esplicito, e cioè se il paziente – quando gli viene chiesto dall’operatore sanitario se acconsente a sottoporsi a procedure diagnostiche automatizzate – possa esercitare ‘liberamente’ il suo diritto di rifiutarle. 69 Ciò consente, ad esempio, a un’azienda di utilizzare un processo decisionale automatizzato in vista dell’assunzione di un nuovo dipendente o a una compagnia di assicurazione di valutare se risulta conveniente stipulare una polizza a copertura di una persona o un conducente, purché l’uso dell’automazione risulti ‘necessario’ per la conclusione e l’esecuzione del contratto in questione (ad esempio, a causa di un numero eccezionalmente elevato di candidature o per la difficoltà e la relativa lentezza nello stimare con precisione i rischi di lesioni personali o di incidenti stradali. Per ulteriori dettagli, v. LANDINI, Insurtech: innovazione nella produzione, distribuzione, governance e supervisione nel mercato assicurativo, in Assicurazioni, n. 3, 2021, pp. 433 ss.; G. D’IPPOLITO, Processi decisionali automatizzati nel settore assicurativo. Un’indagine preliminare, in MediaLaws (https://www.medialaws.eu/wp-content/uploads/2019/03/2-2019-dIppolito.pdf), p. 329. 70 In linea con quanto ricorre nell’art. 9, dove non è richiamata l’eccezione contrattuale come base legale per il trattamento dei dati sensibili (a differenza del consenso esplicito e della previsione di diritto europeo o nazionale sorretta da motivi di interesse pubblico). L’eccezione contrattuale, come base giuridica che rende lecito il trattamento dei dati (non sensibili), è menzionata nell’art. 68 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 211 conseguenze rilevanti non tanto per i casi di pazienti che arrivano al pronto soccorso in stato di incoscienza (per i quali non può già operare nemmeno la condizione del consenso esplicito), ma più in generale per qualsiasi ipotesi di servizio medico, che non può avvalersi dell’eccezione contrattuale come base giuridica per legittimare l’uso di processi decisionali automatizzati. Il motivo risiede probabilmente nella circostanza che l’eccezione, a differenza del regime precedente, può essere utilizzata come base giuridica che rende lecito adottare decisioni interamente automatizzate pure quando la proposta contrattuale provenga dal responsabile del trattamento e l’interessato si limiti a aderirvi71. Se da un lato questa modifica legislativa ha reso possibile estendere le misure di protezione anche al caso in cui la proposta dell’interessato di stipulare o eseguire il contratto fosse stata accettata72, dall’altra ha comportato una maggiore esposizione dell’interessato al rischio di acconsentire a trattamenti non richiesti o a procedure decisionali potenzialmente dannose in termini di violazione della privacy o di discriminazione. Mediante l’esclusione della deroga contrattuale si è dunque inteso evitare (o meglio limitare, visto quanto si dirà) che tali insidie investissero aspetti della vita di relazione estremamente sensibili, come quelli riguardanti le condizioni psico- 6, comma 1, lett. b; peraltro, con la sostanziale differenza che in quella sede l’eccezione è limitata all’esecuzione del contratto, mentre nell’ambito dell’art. 22 sui processi decisionali automatizzati e la profilazione è estesa anche (già) alla conclusione del contratto. 71 Nel regime precedente dell’art. 15 della Direttiva del ‘95, l’eccezione si applicava solo se la conclusione del contratto fosse stata sollecitata dall’interessato. Per approfondimenti v. HILDEBRANDT, op. cit., pp. 41 ss.; L.A. BYGRAVE, Automated Profiling: Minding the Machine: Article 15 of the EC Data Protection Directive and Automated Profiling, cit., pp. 17 ss. 72 Come già menzionato, il legislatore del GDPR ha eliminato la condizione contenuta nell’art. 15 della direttiva del ’95 per cui il contratto avrebbe dovuto essere richiesto dall’interessato per consentire di adottare decisioni automatizzate. In altre parole, l’eccezione si applica ora anche se il contratto è stato proposto dal titolare del trattamento e l’interessato vi ha semplicemente aderito. Tuttavia, questo ampliamento del campo di applicazione dell’eccezione sembra essere compensato da un livello generale di protezione più elevato per la persona interessata. Infatti, nel regime precedente l’imposizione di ‘misure appropriate’ per salvaguardare i suoi interessi legittimi, come ad esempio accordi che le consentissero di esprimere le proprie opinioni, non veniva imposta se la richiesta della persona di stipulare o eseguire il contratto fosse stata soddisfatta. L’eccezione era stata debitamente criticata perché si basava sul presupposto fallace che soddisfare la richiesta di una persona di stipulare o eseguire un contratto non fosse mai svantaggioso per la persona stessa. Si v. BYGRAVE, op. loc. cit., p. 21, la quale propone come esempio una situazione in cui una decisione sulla domanda di lavoro di una persona viene presa sulla base di test psicometrici. Tuttavia, questo tipo di test può avere conseguenze dannose per la persona interessata (e per la qualità dei processi di candidatura al lavoro in generale), anche se le viene poi assegnato il lavoro. Per esempio, il soggetto può considerare tale test avvilente per la sua dignità, oppure il test può non rivelare che la persona è qualificata per una posizione più avanzata. 212 ALFIO GUIDO GRASSO fisiche di una persona. Tuttavia, a un’analisi più attenta, risulta un accorgimento nel complesso meno incisivo di quanto possa apparire, se si considera che la non inclusione dell’eccezione contrattuale è stata controbilanciata dall’introduzione (inedita rispetto alla disciplina precedente) dell’eccezione del ‘consenso esplicito’. La novella, infatti, avrebbe avuto un impatto di gran lunga maggiore se non fosse stato aggiunta tale eccezione: a quel punto, lasciando al titolare del trattamento l’onere della proposta senza l’escamotage dell’esplicito consenso, al fine di legittimare il processo decisionale automatizzato sarebbe stato indispensabile innescare un meccanismo di sollecitazione (e quindi di responsabilizzazione) in capo all’interessato, chiamato ad accettare la proposta (e quindi a rendere legittimo l’uso di mezzi automatizzati) o meno. In ogni caso, anche così, la non inclusione dell’eccezione contrattuale assolve una funzione rilevante, in quanto obbliga i responsabili del trattamento a ricercare il consenso dell’interessato se intendono adottare decisioni automatizzate basate su dati sensibili, e questo anche quando la conclusione o l’esecuzione del contratto giustificherebbero il ricorso a tali procedure (il che, in base alle norme generali, renderebbe di per sé già lecito il loro utilizzo). 4.4. La proposta di Regolamento sull’Intelligenza artificiale e il principio “human in the loop”. Altre ragioni giuridiche che impongono di garantire sempre la mediazione umana si possono rintracciare nella recente proposta di Regolamento UE sull’Intelligenza artificiale del 21 aprile 2021, per via della recezione del principio “human-in-the-loop”. Se mettiamo da canto le questioni di responsabilità civile derivanti dall’uso di dispositivi di intelligenza artificiale, qui non indagate, possiamo affermare con relativa certezza che è ampiamente accettato il principio per cui la titolarità morale delle decisioni adottate dai dispositivi di intelligenza artificiale non possa essere assegnata o trasferita agli algoritmi o alle macchine, ma rimanga in capo agli esseri umani, nonostante tali sistemi sul piano tecnico risultino capaci di fare previsioni in modo indipendente. Questo postulato viene comunemente definito ‘human in the loop’ e si riflette nella proposta di Regolamento UE sull’Intelligenza Artificiale, la quale richiede che l’uomo mantenga in ultima analisi il controllo del processo decisionale finale. In particolare, la proposta include “i sistemi di IA destinati a essere utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all’invio di tali servizi, compresi vigili del fuoco e assistenza medica” nel novero di quelli ad alto rischio e, come tali, li sottopone a rigorosi requisiti di trasparenza, tra i quali essere progettati per consentire sempre l’interfaccia uomo-macchina e la sorveglianza umana (art. 6, comma 2, e allegato III alla proposta). Tuttavia, si può dubitare che la disposizione – che si presenta come una norma neutra – richieda alla persona incaricata anche la capacità di interferire nei meccanismi del dispositivo o di verificare la validità del suo contenuto (content relevance), in GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 213 quanto sembra piuttosto limitarsi a stabilire una qualsiasi vigilanza, sia pure solo di carattere formale: in ciò rintracciandosi una differenza rispetto all’art. 22 che, come già indicato, richiede invece un contributo umano ‘significativo’ per sottrarre la decisione al regime delle decisioni automatizzate73. Ne consegue che un contributo non accompagnato da adeguate capacità di controllo del funzionamento del dispositivo e di revisione dei relativi risultati, potrebbe essere considerato idoneo ai fini della verifica di conformità al Regolamento IA, ma al di sotto dei requisiti richiesti al fine di escludere l’applicazione del divieto di cui all’art. 22, comma 1, GDPR. Da qui l’importanza che il contributo del professionista sanitario sia comunque adeguatamente supportato dalla capacità di conoscere e comprendere le cause che hanno portato la macchina a proporre quella particolare soluzione. Una capacità che dipende principalmente dalla qualità, quantità e pertinenza delle informazioni e delle spiegazioni che il medico può ricevere dal produttore del software74, nonché dalla capacità individuale di ciascun operatore del settore di comprenderle75. 5. Informazioni obbligatorie e intelligenza artificiale in medicina: la recente riforma della legge sulla bioetica in Francia. Il controllo e la padronanza del dispositivo di apprendimento automatico da parte dell’operatore sanitario compaiono anche tra i requisiti che la recente rifor- 73 Infatti, di per sé, la presenza di un membro del personale sanitario non esclude la qualificazione della decisione come automatica: riprendendo quanto sottolineato in precedenza, un contributo antropico nel processo decisionale non esclude ex se l’applicabilità del divieto, a meno che si tratti di un controllo significativo, effettuato da un soggetto che abbia l’autorità e la competenza per modificare la decisione, il quale riconsideri tutti i dati pertinenti nel corso della sua verifica ovvero valuti e tenga conto di altri fattori da quelli presi in esame dal dispositivo: v. WP29, Guidelines on Automated Individual Decision-Making and Profiling for the Purposes of Regulation 2016/679, cit., 20. 74 Al di là del caso (peraltro molto comune) in cui il titolare del trattamento ometta di divulgare informazioni rilevanti relative al trattamento automatizzato dei dati – per scongiurare interferenze o per proteggere la proprietà intellettuale e i segreti commerciali (omissione, quest’ultima, consentita in certa misura dal considerando 63) –, l’oscurità strutturale che caratterizza queste tecnologie comporta che gli sviluppatori, nonché gli utenti (nel nostro caso un medico), non abbiano facile accesso alle regole che il sistema di AI segue per produrre un determinato risultato. Sui tipi di opacità che caratterizzano specificamente i dispositivi medici, v. A. FERRETTI, M. SCHNEIDER e A. BLASIMME, Machine Learning in Medicine: Opening the New Data Protection Black Box, in EDPL, 2018, 3, pp. 325 ss., i quali distinguono tra oscurità procedurale e ignoranza procedurale. 75 Non si può presumere che gli operatori sanitari abbiano conoscenze sufficienti per comprendere tali informazioni, le quali, di norma, anche quando accessibili, sono codificate secondo i parametri che il sistema di machine learning ha appreso, e quindi non sono fruibili in una forma semantica facilmente leggibile. 214 ALFIO GUIDO GRASSO ma francese della legge sulla bioetica richiede a quanti impieghino sistemi medici di intelligenza artificiale. La legge n. 2021-1017 del 2 agosto 2021 – dedicata in parte anche a porre i fondamenti per la recezione del quadro legislativo europeo nascente in materia di intelligenza artificiale nel sistema transalpino –, ha inserito all’interno del Codice di sanità pubblica un nuovo articolo (art. L. 4001-3), ove è sancito l’obbligo per i professionisti se utilizzano dispositivi medici che comportano l’elaborazione algoritmica di dati allo scopo di realizzare un trattamento preventivo, diagnostico o terapeutico di informarne la persona nonché, se del caso, di avvertirla dell’interpretazione dei relativi risultati (letteralmente “avertie de l’interprétation qui en résulte”). Gli operatori sanitari devono inoltre essere istruiti sull’uso del trattamento dei dati, e i dati del paziente utilizzati nel processo di elaborazione nonché i risultati ottenuti devono essere loro accessibili. Gli sviluppatori e i progettisti del software di elaborazione algoritmica sono chiamati a garantire che il funzionamento di questi dispositivi possa essere spiegato agli operatori (cioè ai medici)76. Per quanto riguarda l’ambito di applicazione del testo, l’art. L. 4001-3 si riferisce all’uso da parte di un professionista della salute di un ‘dispositivo medico che comporta l’elaborazione algoritmica di dati il cui apprendimento è stato effettuato a partire da dati massivi’77. Inizialmente il disegno di legge, all’art. 11, si riferiva alla mera “elaborazione algoritmica dei big data”78; tuttavia, successivamente, il legislatore francese ha sentito la necessità di restringere la portata della disposizione ai dispositivi in grado di eseguire un’elaborazione algoritmica sulla base dell’apprendimento di set massicci di dati. Questa definizione è intesa dalla dottrina come riferita esclusivamente ai dispositivi di machine learning, che si basano su tecniche di apprendimento automatico in grado di far evolvere il software attraverso un addestramento ripetuto con l’aiuto di serie di dati: con la conseguenza che tutti gli altri sistemi che potrebbero essere qualificati come sistemi di intelligenza artificiale, ma che si basano, ad esempio, su regole stabilite da esperti, sono esclusi dall’ambito della disposizione79. Se riportiamo queste conclusioni alle nostre riflessioni sui sistemi di supporto alla diagnosi medica, il risultato che se ne trae è quello di considerare i Clinical decision support system 76 Un decreto ministeriale dovrà poi stabilire, previa consultazione dell’Alta Autorità della Sanità (HAS) e della Commissione Nazionale per l’Informatica e le Libertà (CNIL), la natura dei dispositivi medici interessati da questi requisiti e le loro modalità di utilizzo. 77 “…dispositif médical comportant un traitement de données algorithmique dont l’apprentissage a été réalisé à partir de données massives”. 78 AN, projet de loi n° 2187 du 24 juillet 2019. 79 V. C. CRICHTON, L’intelligence artificielle dans la révision de la loi bioéthique, in Dalloz-actualite, 16 settembre 2021 (https://www.dalloz-actualite.fr/node/l-intelligence-artificielle-dans-revision-de-loi-bioethique#.YqW3o6HP23A), ove ampi riferimenti. GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 215 basati sulla conoscenza (Knowledge-based CDSS) al di fuori dell’ambito di applicazione della disposizione, proprio perché la loro base di conoscenza è costituita dalle acquisizioni della comunità scientifica (o di un singolo esperto) in un determinato campo del sapere medico e non una serie di esempi, schemi e relazioni da cui trarre le soluzioni senza l’intervento umano. La disposizione stabilisce l’obbligo per l’operatore sanitario che utilizza il dispositivo medico sopra descritto di informare la persona interessata del suo utilizzo e, se del caso, metterla al corrente dell’interpretazione che ne deriva. Nonostante la poca chiarezza del testo, denunciata in primo luogo dai commentatori francesi80, si deduce che la persona deve essere informata sull’uso del dispositivo ed è responsabilità del professionista sanitario spiegare chiaramente il risultato della rilevazione. Tuttavia, il testo non specifica quando le informazioni devono essere fornite. Il disegno di legge originariamente affermava che l’operatore sanitario dovesse informare la persona interessata preventivamente e, se necessario, avvertirla anche dell’interpretazione che ne sarebbe derivata81. Nondimeno, il testo adottato in seconda lettura dall’Assemblea Nazionale ha eliminato la menzione dell’espressione che traduceva il concetto di ‘preliminarmente al trattamento’. Nel testo di accompagnamento all’emendamento di modifica presentato dal Governo, si legge che, a seconda degli atti eseguiti e delle disposizioni ad essi applicabili, può essere opportuno informare il paziente prima o dopo l’attuazione del trattamento, e per questo non è il caso di vincolare l’informazione a un momento determinato. In particolare si fa l’esempio, da un canto, di un caso di impianto di pancreas artificiale in cui il paziente verrà informato prima, poiché si tratta di un intervento chirurgico che richiede un consenso libero e informato, dall’altro lato di un caso di utilizzo di un dispositivo di intelligenza artificiale nel contesto di una diagnosi radiologica, ove l’informazione verrà fornita dal professionista sanitario nel momento in cui porterà il paziente a conoscenza anche dei risultati resi da questo dispositivo nonché della loro “interpretazione”. La tempistica dell’informazione dipende quindi dal contesto e deve essere pertanto flessibile e affidata in una certa misura all’autonomia del personale medico-sanitario. Obiettivo della legge, come già anticipato, è anche quello di predisporre le condizioni per l’introduzione dei principi europei sull’intelligenza artificiale, tra cui il principio “human-in-the-loop” su cui precedentemente ci siamo soffer- B. BÉVIÈRE-BOYER, Droit, intelligence artificielle et système de santé, in La personne face à l’intelligence artificielle, a cura di M. BOUTEILLE-BRIGANT, IFJD, 2021, spec. p. 152 e 153; ID., Numérique en santé : le projet de loi relatif à la bioéthique a accouché d’une souris, in Données et technologies juridiques, diretto da N. Nevejans, Éditions Mare & Martin, 2021, spec. p. 245 e 246. 81 V. AN, rapport n° 1572 du 15 janv. 2019, p. 268 à 270, proposition n° 50 e il parere dell’Autorità per la protezione dei dati francese (CNIL) dell’11 luglio 2019 (délib. n° 2019-097). 80 216 ALFIO GUIDO GRASSO mati. Sebbene la versione finale del testo si allontani dal principio della garanzia umana come originariamente previsto – quando era inteso in modo ancora più rigoroso82–, il requisito del controllo dell’uomo rimane nel testo esitato, dove si assicura che l’operatore sanitario abbia una capacità minima e realistica di padroneggiare gli strumenti di intelligenza artificiale, rafforzando così la sua autonomia e le garanzie del paziente. È in questo contesto che va inquadrata la decisione di privilegiare la spiegabilità rispetto alla mera trasparenza, secondo quanto emerge dal terzo comma della disposizione83. Già nel 2018, il Consiglio di Stato francese aveva preferito la prima alla seconda, ritenendo che la mera pubblicazione del codice sorgente non consentisse agli utenti del dispositivo di comprendere la logica generale del suo funzionamento e fosse quindi insufficiente84: evidenziandosi in ciò un’analogia con quanto sostenuto dal nostro Consiglio di Stato nel noto caso riguardante l’adozione di un piano straordinario di reclutamento scolastico demandato ad un algoritmo85. L’Assemblea Nazionale si è mossa in questa stessa direzione, ma ha introdotto un’ulteriore innovazione dalle implicazioni complesse, i cui effetti – se disincentivanti o no l’innovazione tecnologica – potranno essere valutati solo nel tempo: l’assegnazione del requisito della spiegabilità in capo ai progettisti dell’algoritmo, ai quali spetta garantire la comprensibilità del funzionamento del dispositivo agli occhi degli utenti/operatori sanitari. Al di là del profilo se l’innovazione tecnologica sia scoraggiata o meno da requisiti particolarmente onerosi per gli sviluppatori, emerge il problema della praticabilità di queste disposizioni, le quali sembrano fare eccessivo affidamento sulla possibilità di comprendere la logica e le motivazioni che governano il processo decisionale. È dubbio infatti che il sistema giuridico-tecnologico possa consentire all’operatore, e poi alla persona, di comprendere il modo in cui la macchina opera nel contesto dei processi decisionali, se non altro perché, almeno per i sistemi di apprendimento automatico, è incerto che lo sviluppatore stesso sia in possesso di questa conoscenza e possa quindi trasferirla in maniera intelligibile86. Premesso ciò, un’alternativa, sostenuta dalla dottrina del settore, Per ulteriori approfondimenti v. Crichton, op. cit., la quale ricorda come originariamente fosse prevista la tracciabilità dei trattamenti successivi, nonché l’espressa inclusione del riferimento alla ‘garanzia umana’, pur senza definirla: requisiti ulteriori poi abbandonati. 83 “Les concepteurs d’un traitement algorithmique mentionné au I s’assurent de l’explicabilité de son fonctionnement pour les utilisateurs”. 84 Conseil d’État, Révision de la loi de bioéthique: quelles options pour demain ?, 28 giugno 2018, spec. 206. 85 Cons. Stato, 13 dicembre 2019, n. 8472, in https://www.altalex.com/documents/ news/2020/01/20/algoritmi-in-ambito-amministrativo-il-consiglio-di-stato-delinea-i-limiti. 86 Diversamente D. MESSINETTI, La tutela della persona umana versus l’intelligenza artificiale. 82 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 217 è quella dei modelli controfattuali, che si colloca tra la resa all’incomprensibilità dei sistemi di intelligenza artificiale e la ricerca della spiegabilità secondo i canoni tradizionali del trasferimento di conoscenza tra esseri umani87. 6. Comprensibilità della decisione e profili regolatori (Regolamento Dispositivi Medici UE 2017/745): tra spiegazione dell’uomo e accessibilità dell’algoritmo. Quando è lecito assumere decisioni con mezzi automatizzati, l’interessato ha diritto di ricevere “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento” (artt. 13, comma 2, lett. f), 14, comma 2, lett. g) e 15, comma 1, lett. h). Sull’adeguatezza e l’estensione di queste ‘informazioni significative’, e se corrispondano, o meno, a una vera e propria ‘spiegazione’ dei risultati, si è dibattuto a lungo. In questa sede può dirsi che il problema sorge in quanto l’unico riferimento a tale diritto è contenuto nel considerando 71, la cui natura interpretativa88 impedisce di fondare tale diritto solo su di esso89. Un termine di riferimento normativo è stato rinvenuto negli articoli sopra citati che, garantendo all’interessato anche il diritto di ricevere informazioni “sull’importanza e le conseguenze previste di tale trattamento”, assicurerebbero implicitamente anche l’esercizio di questo diritto. Tuttavia, si Potere decisionale dell’apparato tecnologico e diritto alla spiegazione della decisione automatizzata, in Contr. impr., 2019, p. 867 (amplius v. nt. 97). 87 Sull’“equivoco” di pretendere di spiegare il sillogismo logico-funzionale con cui operano le macchine secondo i canoni del ragionamento umano v. diffusamente LIMONE, La macchina delle regole, la verità della vita. Appunti sul fondamentalismo macchinico nell’era contemporanea, Milano, 2015, 16; in chiave giuridica, v. P. PERLINGIERI, Sul trattamento algoritmico dei dati, in Tecno. e dir., 2020, 184; E. GIORGINI, Algorithms and Law, in Italian L.J., 2019, pp. 131 ss. 88 I considerando non sono giuridicamente vincolanti. Pertanto, non creano diritti o obblighi in contrasto o non impliciti già nelle previsioni precettive contenute nei singoli articoli: v., ad esempio, CGUE, Giuseppe Manfredi v. Regione Puglia, Causa C-308/97, 25 novembre 1998, paragrafi 29-30; CGUE, Procedimento penale contro Nilsson, Hagelgren & Arrborn, Causa C-162/97, 19 novembre 1998, par. 54. 89 Tuttavia, il ruolo centrale dei consideranda nell’interpretazione delle disposizioni di un atto dell’UE non può essere sottovalutato, anche in riferimento alla questione specifica che stiamo considerando (v. oltre). Sul ruolo centrale dei considerando nell’interpretazione del diritto dell’UE v. T. KLIMAS e J. VAICIUKAITE, The Law of Recitals in European Community Legislation, in Journal of International & Comparative Law, 2008, 15, p. 3; R. BARATTA, Complexity of EU law in the domestic implementing process, in 19° seminario Quality of legislation “EU legislative drafting: Punti di vista di coloro che applicano il diritto dell’UE negli Stati membri”, 2014, in https://ec.europa.eu/dgs/legal_service/seminars/20140703_baratta_speech.pdf. 218 ALFIO GUIDO GRASSO può dubitare che queste disposizioni riconoscano anche il diritto in argomento, poiché gli articoli 12-15 mirano a fornire una panoramica completa delle attività di trattamento previste, della logica che – in generale – contraddistingue questi procedimenti90, più che il diritto di ricevere una spiegazione dettagliata della logica interna seguita dal sistema nel caso specifico91: indici della natura prospettica (e non retrospettiva) di queste disposizioni si ritrovano nell’art. 12, comma 7, il quale precisa che scopo degli artt. 13-14 è quello di fornire “in modo facilmente visibile, intelligibile e chiaramente leggibile un quadro d’insieme del trattamento previsto”. In ogni caso, non occorre in questa sede prendere posizione sull’esistenza o meno di un tale diritto, dal momento che, anche ove fossero esigibili, le spiegazioni che il medico o il paziente potrebbero ricevere dal responsabile del trattamento sarebbero di scarsa utilità se di difficile comprensione da parte di soggetti privi di una formazione specifica92. Il problema dell’opacità dell’intelligenza artificiale sembra porsi in netto conflitto con il diritto dei pazienti di ricevere informazioni significative sulla logica coinvolta, nonché sul significato e sulle conseguenze previste di procedure diagnostiche o terapeutiche, o di altri interventi sulla salute93. Pertanto, la questione cruciale consiste nel determinare se sia possibile individuare un livello ottimale di spiegabilità centrata sul paziente, che allo stesso tempo non demotivi gli operatori sanitari dall’implementare tecnologie avanzate nella loro pratica quotidiana94, e che si non ponga in con- 90 In questo senso, cfr. S. SCHULZ, DS-GVO Art. 22 Automatisierte Entscheidungen im Einzelfall, in Datenschutz-Grundverordnung Vo (EU) 2016/679, a cura di P. GOLA, 1 ed., 2017, p. 410, spec. 418-419; L. FRANCK, DS-GVO Art. 12 Transparente Information, Kommunikation, ivi, p. 316, spec. 320; S. RODWAY, Just How Fair Will Processing Notices Need to Be Under the GDPR, in Priv. & Data Prot., 2016, pp. 16 ss.; C. KUNER et al., op. cit., pp. 1 ss.; R. JAY, Guide to the General Data Protection Regulation: a Companion to Data Protection Law and Practice, 2017, 4 ed. riv., p. 226; G. FINOCCHIARO, Intelligenza Artificiale e protezione dei dati personali, in Giur. it., 2019, p. 1670-1677, spec. 1674. 91 Questa parte finale della disposizione è inedita rispetto alla Direttiva sulla protezione dei dati del ‘95, ove il diritto di accesso comprendeva solo il diritto di conoscere la logica coinvolta nel processo decisionale automatizzato (art. 12, lett. a). Tale addizione è stata enfatizzata da coloro che propendono per l’esistenza di un diritto alla spiegazione: cfr. NOTO LA DIEGA, op. cit., p. 23; R. MESSINETTI, op. cit., pp. 861 ss.; contra, WACHTER et al., op. cit., p. 82. 92 Cfr. tra i tanti, J. KROLL et all., Accountable Algorithms’, Univ. OF PENN. L. REV, 2017, 1651, 17; L. EDWARDS e M. VEALE, Slave to the algorithm? Why a ‘right to an explanation’ is probably not the remedy you are looking for, in Duke Law & Technology Review, vol. 19, no. 1, pp. 19-84; G. SARTOR e F. LAGIOIA, The Impact of the General Data Protection Regulation (GDPR) on Artificial Intelligence, European Parliamentary Research Service PE 641.530, giugno 2020, p. 60. 93 V. BACHLE, On the ethical challenges of innovation in digital health, in The futures of health: social, ethical and legal challenges, a cura di Bachle e Wernick, Alexander von Humboldt Institute for Internet and Society, Berlino, 2019. 94 Così v. A. KISELEVA, Decisions made by AI versus transparency: who wins in healthcare?, in GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 219 flitto con i diritti di proprietà intellettuale o di altro tipo degli sviluppatori della tecnologia e di altre parti coinvolte. Al riguardo, è stata proposta un’interessante analogia con la comprensibilità delle decisioni dei medici, in base alla quale la spiegazione di una decisione automatizzata non richiederebbe la conoscenza del flusso di bit del sistema di intelligenza artificiale proprio come una spiegazione da parte degli esseri umani non richiede la conoscenza del flusso di segnali attraverso i neuroni del cervello umano95. Seguendo questo parallelismo, sarebbe sufficiente comprendere i fattori chiave posti alla base del processo decisorio così come gli elementi principali che ne hanno determinato il risultato; si tratterebbe in concreto di identificare gli input, gli output e le relazioni causali che li legano: tutti fattori che possono essere rivelati senza conoscere i dettagli del modo in cui il sistema è giunto alla decisione (senza quindi rivelare il codice sorgente o i contenuti interni dell’algoritmo) e che risultano semplici e comprensibili anche ai non addetti ai lavori, proprio come un paziente medio riesce a comprendere le indicazioni del proprio medico pur non essendo esperto della materia96. Anche il Gruppo di esperti nominato dalla Commissione europea per fornire consulenza sulla strategia di approccio normativo all’intelligenza artificiale, nelle linee guida sull’etica per un’Intelligenza artificiale affidabile hanno richiesto la spiegabilità dei sistemi di IA a coloro che ne sono interessati solo per quanto riguarda “a suitable explanation of the AI system’s decision-making process”97. Tradotto nel contesto delle implicazioni delle applicazioni diagnostiche, il principio della trasparenza e della comprensibilità richiede “solo” che vengano adottate misure atte a rendere intelligibili i processi decisionali basati sull’intelligenza artificiale, non anche che la funzionalità dell’applicazione stessa risulti accessibile98. Con il risultato che il problema della ‘black-box’ dei sistemi di IA, in relazione allo scopo di fornire informazioni significative volte a soddisfare il requisito dell’acquisizione di un consenso valido The futures of health: social, ethical and legal challenges, cit., pp. 93 ss. 95 K. ASTROMSKė, E. PEIčIUS e P. ASTROMSKIS, Ethical and legal challenges of informed consent applying artificial intelligence in medical diagnostic consultations, in AI & Society, 2021, 36, pp. 509520, spec. 516 96 V. DOSHI-VELEZ et al., Accountability of AI under the law: The role of explanation, Berkman Center Research Publication Forthcoming; Harvard Public Law Working Paper, 2017, n. 18-07; A. SPINA, New regulation or new medicine: the complex governance of personal data in medicine, in EDPL, 2018, vol. 4, n. 3, p. 280-283; T. HOEREN e M. NIEHOFF, Artificial intelligence in medical diagnoses and the right to explanation, in Eur Data Prot L Rev, 2018, 4, pp. 308 ss. 97 European Commission High-Level Expert Group on Artificial Intelligence (2019) Ethics guidelines for trustworthy AI, in https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. 98 K. ASTROMSKė, E. PEIčIUS e P. ASTROMSKIS, op. loc. cit. 220 ALFIO GUIDO GRASSO o a illustrare i risultati diagnostici o clinici, può rivelarsi un problema relativo, nella misura in cui è possibile ottenere spiegazioni controfattuali senza bisogno di scoperchiare la “scatola nera”. Il GDPR stesso non sembra richiedere una comprensione della logica interna del sistema decisionale algoritmico99. Gli artt. 13-15 già menzionati si propongono di descrivere come i processi automatizzati supportino i responsabili del trattamento nel processo decisionale, rendendolo più accurato, imparziale e affidabile e, a tale scopo, illustrano come i dati, le caratteristiche e il metodo utilizzati siano adatti a raggiungere un simile obiettivo. In quest’ottica, i modelli controfattuali possono fornire informazioni in linea con i diversi requisiti informativi del GDPR, e allo stesso tempo offrire una visione dei fattori che hanno condotto a una particolare decisione. In altre parole, non è necessario divulgare completamente il processo decisionale né i meccanismi di funzionamento in sé, ma è sufficiente presentare una descrizione della logica dell’algoritmo, che può includere un elenco di fonti di dati o di variabili. I modelli controfattuali seguono ampiamente questo approccio, rivelando in particolare l’influenza di fattori e variabili esterne specifiche rispetto a una decisione particolare100. Come possibili soluzioni che esaminano gli input e gli output degli algoritmi, è stato in concreto proposto di ricorrere a meccanismi di auditing, ossia strumenti in grado di restituire spiegazioni razionali e post-hoc, capaci di evidenziare i principali fattori e gli aspetti risolutivi tenuti in considerazione nel processo Diversamente R. MESSINETTI, op. cit., 867, per la quale “le garanzie coniate dall’art. 22, par. 3, GDPR, implicano, per la persona-titolare dei dati personali, non semplicemente “informazione” ma anche “conoscenza”, in una declinazione basilare: la possibilità di comprendere la logica e le rationes che governano il processo decisionale quale processo avente ad oggetto e termine di riferimento finale la sua identità personale. Con altre parole: il sistema giuridico-tecnologico deve permettere alla persona di comprendere la comprensione che la macchina ha della persona medesima nell’ambito di processi decisionali diretti ad incidere sulla sua sfera giuridica e vitale”. Considerazioni che sembrano essere seguite dalla giurisprudenza la quale, in relazione a un caso riguardante una piattaforma volto all’elaborazione di profili reali con l’obiettivo di contrastare fenomeni di creazione di profili fittizi e di calcolare in modo imparziale il c.d. “rating reputazionale” in modo da consentire a eventuali terzi di verificarne la credibilità, ha affermato che il consenso relativo al trattamento dei dati personali dato al momento dell’iscrizione alla piattaforma non può logicamente valere anche come accettazione di “un sistema automatizzato che si avvale di un algoritmo per la valutazione oggettiva di dati personali, laddove non siano resi conoscibili lo schema esecutivo in cui si l’algoritmo esprime e gli elementi all’uopo considerati”: Cass., 24 marzo 2021, n. 14381, in Lav. giur., 2022, pp. 153 ss., con nota di LAFRATTA. 100 Così S. WACHTER, B. MITTELSTADT e C. RUSSELL, Counterfactual explanations without opening the black box: automated decisions and the GDPR, in Harvard Journal of Law & Technology, 2018, vol. 31, n. 2, pp. 842 ss., spec. 860 ss. 99 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 221 decisionale101. Si tratta di modelli controfattuali o di deconvoluzione102, indicati come fonti adeguate perché in grado di restituire informazioni significative sulla logica di un sistema, utili non solo allo scopo di raccogliere un consenso libero e informato della persona interessata103, ma anche al fine di rendere efficaci le garanzie che l’art. 22, comma 3, riconosce al soggetto sottoposto a una decisione automatizzata104. Meccanismi che non sono affatto sconosciuti alla legislazione, in quanto altri analoghi operano già, e in relazione ai sistemi di supporto alle decisioni cliniche, all’interno delle norme che regolano i dispositivi medici nel mercato unico europeo, imposti dal Regolamento UE 2017/745105. Secondo la definizione di dispositivo medico, qualsiasi software con finalità di: 1) diagnosi, prevenzione, monitoraggio, previsione, prognosi, trattamento o attenuazione di malattie; 2) diagnosi, monitoraggio, trattamento, attenuazione o compensazione di una lesione o di una disabilità; 3) studio, sostituzione o modifica dell’anatomia oppure di un processo o stato fisiologico o patologico; 4) fornire informazioni attraverso l’esame in vitro di campioni provenienti dal corpo umano, inclusi sangue e tessuti donati, rientra nell’ambito di applicazione della nuova legislazione (art. 2). Nell’allegato VIII la Regola 11 afferma che il software destinato a fornire informazioni utilizzate per prendere decisioni a scopo diagnostico o terapeutico rientra nella classe IIa, a meno che tali decisioni possano causare 1) il decesso o un deterioramento irreversibile dello stato di salute di una persona (nel qual caso rientra nella classe III) ovvero 2) un grave deterioramento delle condizioni di salute di una persona o un intervento chirurgico (nel qual B. CASEY et al., Rethinking explainable machines: the GDPR’s ‘Right to Explanation’ debate and the rise of algorithmic audits in enterprise, in Berkeley Technol Law J., 2019, 145, pp. 188 ss. V. però le perplessità di A. MANTELERO, Artificial Intelligence, dati e diritti: spunti di riflessione per i regolatori, in Data protection tra Unione europea, Italia e Svizzera, a cura di Bertoli, sugli algoritmi in grado di supervisionare altri algoritmi. 102 La deconvoluzione si riferisce alla tecnica di elaborazione delle immagini ad alta intensità computazionale che viene sempre più utilizzata per migliorare il contrasto e la risoluzione delle immagini digitali acquisite al microscopio. L’algoritmo di deconvoluzione consente di ricostruire gli elementi mancanti su base statistica, di rimuovere i fattori di disturbo e di creare un’immagine di qualità superiore. 103 V. MOURBY, CATHAOIR e BJERRE COLLIN, op. cit., p. 6. Per approfondimenti v. C. PANIGUTTI et al., FairLens: Auditing black-box clinical decision support systems, in Information Processing and Management, 2021, p. 58. 104 Cfr. U. PAGALLO, Algo-Rhythms. The Beat of the Legal Drum, in Philosophy and Technology, 2018, 31, n. 4, pp. 507-524. 105 Il Regolamento sui dispositivi medici (MDR) avrebbe dovuto essere in vigore in tutti gli Stati membri a partire da maggio 2020, ma è stato posticipato di un anno a causa della pandemia da coronavirus. 101 222 ALFIO GUIDO GRASSO caso rientra nella classe IIb)106. Mentre il software che non conduce a decisioni sulla diagnosi o sulla terapia e che non monitora processi fisiologici può essere classificato come dispositivo di classe I107. Sulla base di queste indicazioni, sono qualificati come dispositivi medici i sistemi informativi ospedalieri che supportano il processo di gestione dei pazienti e sono destinati all’ammissione dei medesimi, purché siano in grado di combinare database e algoritmi di conoscenza medica con dati specifici del paziente e siano destinati a fornire agli operatori sanitari e/o agli utenti raccomandazioni per la diagnosi, la prognosi, il monitoraggio e il trattamento dei singoli individui. Ovvero, sono considerati come dispositivi medici quei sistemi di pianificazione del trattamento di radiazioni, il cui scopo è calcolare il dosaggio di radiazioni ionizzanti da applicare a un paziente specifico, in quanto controllano, monitorano o influenzano direttamente la fonte di radiazioni ionizzanti. Inoltre, rientrano tra i dispositivi medici anche i sistemi di pianificazione dei farmaci (ad esempio, la chemioterapia) il cui scopo è calcolare il dosaggio del farmaco da somministrare a un paziente specifico. Ed ancora, i sistemi per la gestione degli elettrocardiografi (ECG) pre-ospedalieri, ovvero sistemi basati su software destinati ai servizi di ambulanza per archiviare e trasferire le informazioni dei pazienti collegati a un monitor ECG a un medico in una posizione da remoto, rientrano in tale definizione108. Da questo articolato elenco di esempi si può evincere come i sistemi decisionali di supporto alla diagnosi (almeno quelli di cui ci siamo occupati nel corso del presente lavoro) rientrino tutti nel livello di rischio più alto e, come tali, siano sottoposti a stringenti misure di salvaguardia; tra le quali, quelle più rilevanti per la nostra riflessione, sono il monitoraggio post-certificazione, gli audit di sorveglianza annuale dei produttori da parte degli organismi notificati e le procedure di verifica della conformità del software con il sistema di gestione della qualità del produttore, con un livello di controllo crescente in base alla classificazione dei dispositivi. Lo sforzo da compiere sarebbe allora quello di trasferire la logica che sta Tra gli aggiornamenti più rilevanti ai fini della qualificazione del software CDS tra i dispositivi medici coperti dal Regolamento risulta l’inclusione delle parole ‘previsione’ e ‘prognosi’ della malattia nella definizione di dispositivo medico di cui all’art. 2, che estende la gamma di dispositivi coperti dal MDR rispetto alla precedente definizione contenuta nella direttiva 93/42/EEC (MDD), 107 Un esempio di software di classe I – per i quali è consentito il meccanismo dell’autocertificazione – è un’applicazione che calcola lo stato di fertilità dell’utente per prevedere l’ovulazione. 108 Questi e altri esempi sono contenuti nel documento del giugno 2016 della Commissione europea Guidelines on the qualification and classification of stand alone software used in healthcare within the regulatory framework of medical devices - MEDDEV 2.1/6, in https://ec.europa.eu/docsroom/documents/17921. 106 GDPR E INTELLIGENZA ARTIFICIALE: LIMITI AL PROCESSO DECISIONALE AUTOMATICO IN SANITÀ 223 alla base di questi sistemi e che rende possibili questi controlli, dal piano della sicurezza e dell’efficienza dei software come dispositivi medici a quello dei software utilizzati per “spiegare” le decisioni automatizzate ottenute in ambito sanitario. La proposta verterebbe sulla possibilità di integrare (affiancare) i sistemi di supporto decisionale clinico e/o diagnostico con un altro algoritmo, in modo da chiarire quali fattori sono stati presi in considerazione e qual è il loro peso; se non altro con l’obiettivo di evidenziare i fattori e le valutazioni che sono state prese in considerazione nel processo decisionale109. Al momento, l’art. 22 GDPR non sembra obbligare all’adozione di tali strumenti, ma non sembra nemmeno precluderlo, anzi: tali strumenti potrebbero rientrare tra le ‘misure appropriate’ che il responsabile del trattamento è tenuto a introdurre quando utilizza sistemi decisionali automatizzati (art. 22, comma 2, lett. a e c)110. In ogni caso non si può escludere che, con l’entrata in vigore della proposta di Regolamento sull’Intelligenza Artificiale, essi non vengano espressamente inclusi; fermo restando che, al di là di questa possibilità, spetta agli interpreti concentrare i loro sforzi per colmare questa lacuna di trasparenza e comprensibilità. 109 V. BRKAN, op. cit., p. 115; MOURBY, CATHAOIR e BJERRE COLLIN, op. cit., p. 6; sul piano tecnico v. A. DATTA, S. SEN e Y. ZICK, Algorithmic Transparency via Quantitative Input Influence, in https://www.andrew.cmu.edu/user/danupam/datta-sen-zick-oakland16.pdf. 110 Si mostra di quest’avviso il WP29 nelle richiamate Guidelines on automated Individual Decision-Making and Profiling for the Purposes of Regulation 2016/679, cit., 32, che include, tra gli altri, meccanismi di auditing fra le Good practice recommendations che i responsabili del trattamento possono seguire se intendono soddisfare i requisiti delle disposizioni del GDPR sulla profilazione e sul processo decisionale automatizzato.