Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
LE NUOVE SFIDE DELL’UMANITÀ E DEL DIRITTO NELL’ERA DELL’INTELLIGENZA ARTIFICIALE THE NEW CHALLENGES OF HUMANITY AND LAW IN THE ERA OF ARTIFICIAL INTELLIGENCE Eduardo Tomasevicius FilhoI Angelo Viglianisi FerraroII Universidade de São Paulo, São Paulo, SP, Brasil. E-mail: tomasevicius@usp.br I II Università degli Studi “Mediterranea” di Reggio Calabria, Calabria, Itália. E-mail: avf@unirc.it Riassunto: In questo articolo, gli autori hanno analizzato gli effetti dell’intelligenza artificiale nella società postmoderna. È interessante notare che l’intelligenza artificiale ha iniziato a essere sviluppata dall’inizio di questa nuova era. Negli ultimi anni è diventata sempre più utilizzato in diversi settori, procurando benefici, che hanno permesso di giungere alla Quarta Rivoluzione Industriale. Tuttavia, il suo utilizzo ha causato problemi diretti, come il potenziale aumento della disoccupazione e le violazioni della privacy, e altri danni indiretti, come la diffusione di fake news. Quindi, ci sono rischi per i diritti umani: in particolare, la possibilità di stabilire nuovi tipi di controllo sociale. L’Unione Europea e la comunità accademica si sono occupate dell’uso di queste tecnologie, attraverso report e ricerche. Pertanto, l’obiettivo di questo articolo è dimostrare brevemente i tipi di intelligenza artificiale, i suoi benefici ed i suoi effetti negativi, il rischio di danni per i diritti fondamentali. In conclusione, gli autori evidenziano l’importanza di un intervento normativo nella materia in questione. Parole chiave: Intelligenza artificiale. Diritti umani. Diritto alla privacy. Società postmoderna. Controllo sociale. DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 Autores convidados Abstract: In this paper, the authors discussed the effects of artificial intelligence on postmodern society. Interestingly, artificial intelligence has started to be developed since the beginning of this new era. In recent years, it has become increasingly used in several types of sectors, bringing benefits, which allowed reaching the Fourth Industrial Revolution. However, its use has caused direct problems, such as the potential increase in unemployment and privacy violations, and other indirect damages, such as the spread of fake news. Thus, there are risks to human rights: in particular, the possibility of establishing new types of social control. The European Union and the academic community have concerned with the use of these technologies, through reports and researches. Therefore, the objective of this paper is to briefly demonstrate the types of artificial intelligence, its benefits and losses, the risk of damage to fundamental rights. Esta obra está licenciada com uma Licença Creative Commons Atribuição-NãoComercial-SemDerivações 4.0 Internacional. 402 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 401-413 | set./dez. 2020 DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 As a conclusion, the authors consider that the underlying normative intervention in this subject is essential. Keywords: Artificial intelligence. Human rights. Right to privacy. Postmodern society. Social control. 1 Introduzione Si suole affermare che nella seconda metà del secolo scorso ha avuto inizio la c.d. postmodernità, segnata negli anni a seguire da una dirompente rivoluzione nei costumi delle società democratiche e da grandi cambiamenti nei mercati del lavoro, a livello locale e su scala mondiale, oltre che dalla massificazione dei media, dall’aumento esponenziale del consumo di beni e servizi, dalla nascita di una molteplicità di strutture familiari e di identità di genere e, soprattutto, dal continuo svilupparsi delle nuove tecnologie. Proprio in quel periodo veniva anche pubblicato uno degli studi che maggiormente ha inciso nelle elaborazioni successive in materia di c.d. intelligenza artificiale1, ossia il noto articolo Computing Machinery and Intelligence, del matematico Alan Turing, pubblicato sulla rivista Mind nel 1950. Il lavoro si apriva con le emblematiche parole <<I propose to consider the question, “Can machines think?”>>2. A settanta anni esatti di distanza da quella importante data, il Vecchio Continente, al pari di quanto sta già accadendo da tempo nel resto del mondo, si propone di indagare seriamente questo tema (tra i più strategici e delicati anche per i giuristi, nel nuovo millennio) e, precisamente il 19 febbraio 2020, l’Unione approda ad un Libro bianco della Commissione europea “sull’intelligenza artificiale”, che si apre con un riferimento alle enormi potenzialità dell’Europa di <<combinare i suoi punti di forza industriali e tecnologici con un’infrastruttura digitale di elevata qualità e un quadro normativo basato sui suoi valori fondamentali per diventare un leader mondiale nell’innovazione nell’economia dei dati e nelle sue applicazioni>>3. 1 Sulla quale, v. R. Penrose, La mente nuova dell’imperatore, Milano, 1992, p. 31 ss. M. Durante, Intelligenza artificiale (applicazioni giuridiche), in Dig. it., Disc. Priv., Sez. Civ., Torino, 2007, p. 714 ss. C. Casonato, Intelligenza artificiale e diritto costituzionale: prime considerazioni, in Dir. pubbl. comp. eur., 2019, p. 101 ss.; D. Heaven (a cura di), Macchine che pensano. La nuova era dell’intelligenza artificiale, trad. di V. L. Gili, Bari, 2018 G. Sartor, Intelligenza artificiale e diritto. Un’introduzione, Milano, 1996; H. Fry, Hello world – Essere umani nell’era delle macchine, Torino, 2018; S. Stefanelli, Diritto e Intelligenza artificiale. Alcune riflessioni nell’ambito del paradigma argomentativo, in Inform. dir., 1999, p. 7 ss.; G. Taddei Elmi, Corso di Informatica Giuridica, Napoli, 2007, p. 117 ss.; G. Smith, The AI delusion, Oxford, 2018; 2 Turing tentò, in effetti, di verificare se davvero le macchine potessero riflettere e, sulla base di semplicissimi indovinelli, analizzò approfonditamente la natura del pensiero umano ed il funzionamento dei neuroni. 3 Il testo, che ha come titolo “Un approccio europeo all’eccellenza e alla fiducia”, è reperibile sul sito ufficiale dell’Unione europea: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligencefeb2020_it.pdf. Il documento è il primo importante punto di approdo della “strategia per l’IA”, apertasi il 25 aprile 2018 con la Comunicazione “L’intelligenza artificiale per l’Europa” – COM(2018) 237 final –, che ha affrontato alcuni degli aspetti socio-economici legati alla ricerca, all’innovazione e “alle capacità di IA in tutta l’UE”, concordando un piano coordinato con gli Stati membri per l’allineamento delle varie azioni verso Le Nuove Sfide Dell’umanità e del Diritto Nell’era Dell’intelligenza Artificiale Eduardo Tomasevicius Filho | Angelo Viglianisi Ferraro 403 La rete è divenuta parte integrante della vita della maggior parte degli esseri umani, rivoluzionando telecomunicazioni, stampa e commercio, e contribuendo in tal modo alla creazione di relazioni umane sviluppate spesso, se non prevalentemente, in un ambiente online, in particolare sui social network4; tuttavia, l’aumento della capacità di archiviazione delle informazioni nel server dei “giganti di Internet”, la crescente velocità nella trasmissione e circolazione delle notizie e lo stesso cambio di modalità nella registrazione delle immagini (da analogiche a digitali), prodotte con la qualità di un telefono cellulare, ha mostrato immediatamente la penetrante capacità delle nuove tecnologie di rendere la persona umana vulnerabile, dentro e fuori il mondo virtuale5. Così, puntualmente, non appena si pensa che il controllo sulla vita delle persone per mancanza di privacy su internet abbia ormai raggiunto l’apice, si scopre che la pervasività delle nuove tecnologie può essere ancora più intensa, soprattutto – oggi – a causa delle sempre più aggiornate e futuristiche potenzialità della robotica (la quale stanno secondo alcuni conducendo ormai ad una sorta di “transumanesimo”6). Il report “Artificial Intelligence and privacy”, elaborato dal Norwegian data protection authority nel gennaio 20187, si apre proprio con l’affermazione che <<most applications of artificial intelligence (AI) require huge volumes of data in order to learn and make intelligent decisions. Artificial intelligence is high on the agenda in most sectors due to its potential for radically improved services, commercial breakthroughs and financial gains. In the future we will face a range of legal and ethical dilemmas in the search for a balance between considerable social advances in the name of AI and fundamental privacy rights>>. Una delle più grandi preoccupazioni della società contemporanea non è più legata solo (o tanto) alla diffusione di informazioni private – o alla difficoltà a veder tutelato il proprio diritto ad un corrette utilizzo delle stesse (in termini di aggiornamento e cancellazione) – quanto al rischio di non poter contenere il potere manipolativo della realtà, realizzato mediante la circolazione su internet delle c.d. “fake news”, ad opera di sistemi capaci di arrivare a distorcere i processi elettorali – e, di conseguenza – ad effettuare un vero e proprio controllo politico in una determinata società8. l’obiettivo comune - COM(2018) 795 final –. 4 In tale contesto, secondo R. Messinetti, La tutela della persona umana versus l’intelligenza artificiale. Potere decisionale dell’apparato tecnologico e diritto alla spiegazione della decisione automatizzata, in Contr. impr., 2019, p. 861, emergerebbe un vero e proprio nuovo diritto fondamentale a <<controllare i processi di costruzione e utilizzazione dell’identità personale quale “dispositivo di socializzazione”>>. 5 Dei rischi connessi alla “dittatura dell’algoritmo” aveva già fatto ampiamente menzione S. Rodotà, Il mondo della rete. Quali i diritti, quali i vincoli, Roma-Bari, 2014. Si veda, inoltre, E. Calzolaio (a cura di), La decisione nel prisma dell’intelligenza artificiale, Padova, 2020. 6 Cfr. U. Ruffolo e A. Amidei, op. cit., p. 1658. 7 Reperibile in https://iapp.org/media/pdf/resource_center/ai-and-privacy.pdf. 8 Si veda, sul punto, l’interessante riflessione di E. S. Gomi, Robôs são usados para divulgar notícias falsas na internet, in Jornal da USP, visionabile anche in https://jornal.usp.br/atualidades. 404 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 401-413 | set./dez. 2020 DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 2 Intelligenza artificiale, tra automazione, machine learning e deep learning Una delle prime definizioni di intelligenza artificiale è stata presentata verso la metà degli anni ‘ottanta da Elaine Rich, la quale la immaginava come la capacità di far svolgere ai computer compiti in cui gli esseri umani riuscivano in quel momento ad ottenere risultati migliori di quelli raggiungibili dalle macchine9. Questo primo concetto verrebbe oggi definito forse più che altro come “automazione”, ossia la idoneità ad eseguire processi predeterminati, ma senza sapersi adattare a realtà del tutto nuove; esempio tipico è quello del termostato di un condizionatore d’aria: quando viene raggiunta una temperatura indicata dall’utente, l’apparecchiatura accende o spegne il dispositivo (senza, però, mai prendere l’iniziativa di interagire in modo proattivo con l’ambiente in cui è installato). Eppure, il grande psicologo e filosofo tedesco Stern (noto per aver coniato l’espressione “IQ”) ha asserito che l’intelligenza (umana) può essere considerata <<a general mental adaptability to new problems and conditions of life>>10. E molto più simile a questa definizione appare quella utilizzata, in materia, per la prima volta in seno al soft law dell’Unione europea (a trentacinque anni di distanza dalle parole della Rich). Nella Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni COM(2018) 237, del 25 aprile 201811, si rileva che l’espressione intelligenza artificiale <<indica sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi>>. L’idea di fondo dei precursori di tale “rivoluzione informatica” era proprio quella di generare un insieme di “routine logiche”, che, applicate all’informatica, consentissero ai computer di non necessitare più della supervisione umana nel processo decisionale e nell’interpretazione dei messaggi analogici e digitali12. Ciò è apparso possibile, una volta stabilita la capacità del sistema di adattarsi ai bisogni umani, attraverso l’uso di dati 9 E. A. Rich, Artificial Intelligence, New York, 1983, p. 1. La prima conferenza nella quale venne usata l’espressione in questione è del 1956 e si svolse nel Dartmouth College dell’Università di Hanover, nel New Hampshire. V. il lavoro, del mese di agosto dell’anno precedente di J. McCarthy, M. L. Minsky, N. Rochester e C. E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, in https://aaai.org/ojs/index.php/ aimagazine/article/view/1904/1802. 10 W. Stern, The Psychological Methods of Intelligence Testing, Baltimore, 1914, passim. 11 Il documento, dal titolo L’intelligenza artificiale per l’Europa, è reperibile sul sito https://ec.europa.eu/transparency/ regdoc/rep/1/2018/IT/COM-2018-237-F1-IT-MAIN-PART-1.PDF. 12 Se l’idea di costruire macchine pensanti si può attribuire già agli inventori dei primi calcolatori (Leibniz e Babbage) o al creatore della logica binaria, utilizzata nei computer, facilmente adattabile alle apparecchiature elettroniche (George Boole), certamente al matematico Alan Turing è comunemente attribuito il ruolo di fondatore del concetto di intelligenza artificiale. Le Nuove Sfide Dell’umanità e del Diritto Nell’era Dell’intelligenza Artificiale Eduardo Tomasevicius Filho | Angelo Viglianisi Ferraro 405 provenienti da esperienze passate archiviate in memorie, prendendo decisioni con un minimo di “libero arbitrio”13. Questa intuizione produsse, ovviamente, un grande entusiasmo, perché si immaginò da subito la possibilità scrivere una partitura musicale, partendo dai suoni emessi da un pianoforte, e di svelare teoremi matematici o, ancora, di arrivare ad interpretare la personalità umana (fino ad arrivare, poi, negli anni ‘70, a prefigurare la possibilità di condurre diagnosi mediche mediante intelligenza artificiale. In effetti, come è noto, l’intelligenza artificiale è costituita da software che utilizzano emulazione di algoritmi di metodi di base per la risoluzione dei problemi14. Un vero e proprio salto di qualità nello sviluppo dell’intelligenza artificiale, si è poi realizzato con le cosiddette “reti connettiste” o “reti neurali”, tramite le quali il software del computer imita davvero il funzionamento dei neuroni, sulla base di una modellizzazione matematica di queste cellule15, superando così i limiti esistenti quando i computer erano isolati gli uni dagli altri (per cui gli unici dati disponibili erano quelli presenti nelle memorie delle singole macchine). Con il miglioramento dei programmi di riconoscimento di testi, immagini e informazioni originariamente registrati su supporti materiali e, soprattutto, con la possibilità di accesso a questo materiale istantaneamente in qualsiasi parte del mondo attraverso internet (e di memorizzare tutto su grandi server, quali il “cloud computing”), l’IA ha assunto una nuova e straordinaria dimensione, perché ha di fatto oggi l’accesso ad una infinità di dati16 (compresi quelli relativi alla navigazione online, nonché quanto viene inserito o consultato dall’interessato). Pertanto, si è segnalato che, ormai, <<l’intelligenza artificiale non rappresenta, in sé e per sé, un singolo bene immateriale, quanto piuttosto un’innovazione informatica di prodotto e di processo, che si interseca con tipici beni immateriali come il software, 13 V., sul punto, S. J. Russell e P. Norvig, Artificial Intelligence. A Modern Approach, Upper Saddle River, 2015; nonchè A. Santosuosso, Diritto, scienza e nuove tecnologie, Padova, 2016, p. 330 ss. 14 Il metodo di base per la risoluzione dei problemi più semplici è quella utilizzata per il gioco degli scacchi, che, per calcolare tutte le possibilità di mosse future, usa a modello dinamico di rappresentazione quello degli spazi vuoti in una matrice 8x8. Ma, particolarmente interessanti sono apparse subito anche le operazioni di alternative test (utilizzate, ad esempio, nella soluzione del “problema del commesso viaggiatore”, in cui l’algoritmo calcola il percorso più breve per giungere da un posto ad un altro) o le c.d. “ricerche euristiche” (attraverso le quali si chiede all’algoritmo di individuare rapidamente all’interno di un computer la risposta più soddisfacente e non quella migliore, tenendo conto che a volte all’utente potrebbe interessare di più risparmiare tempo e non avere una soluzione assolutamente precisa. V. E. A. Rich, Artificial Intelligence, cit., passim, e le sue riflessioni anche sugli schemi logici basati su “domande e risposte”, nonché quelli sulla rappresentazione logica del processo di conoscenza umana. 15 Cfr., per tutti, M. A. Tafner; M. Xerez e I. W. Rodrigues Filho, Redes neurais artificiais: introdução e princípios de neurocomputação, Blumenau, 1996. 16 Come G. Finocchiaro, Intelligenza artificiale e diritto – intelligenza artificiale e protezione dei dati personali, in Giur. it., 2019, p. 1657 ss., segnala, <<le applicazioni di intelligenza artificiale sono moltissime e a titolo esemplificativo si possono annoverare: Natural Language Processing, Speech Recognition, Virtual Agent, Machine Learning, AI-optimized Hardware, Decision Management, Deep Learning, Biometrica, Robotic Process Automation e Text Analytics>>. 406 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 401-413 | set./dez. 2020 DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 i brevetti e il know-how, altri intangibili internet-driven (M-App, ecc.) e con dati informativi di input derivanti da big data o sensori-IoT>>17. Oggi ci sono diversi algoritmi di intelligenza artificiale con prestazioni nettamente superiori rispetto a quelli che si occupavano di elaborazioni di base18 e si producono computer con software sofisticatissimi in grado di svolgere attività specifiche senza interruzione, come l’invio di messaggi, l’elaborazione di un linguaggio naturale, l’apprendimento, e lo sviluppo di alcuni sensi (quali la vista e l’udito), la generazione di soluzioni di buon senso19; sino, ad arrivare, in tempi recenti alla creazione di “robot”20 davvero molto simili agli esseri umani e dotati del cosiddetto deep learning21. Le intelligenze artificiali capaci di autoapprendimento22 presentano il vantaggio di essere <<programmate per svilupparsi cognitivamente tramite l’acquisizione e l’elaborazione dei dati derivanti dalle interazioni con la realtà esterna e, sulla base di questi, determinare in autonomia gli indirizzi del proprio funzionamento>>23. 3. I benefici derivanti dall’Intelligenza artificiale I vantaggi che l’intelligenza artificiale produce sono sotto gli occhi di tutti24. È evidente il miglioramento che grazie ad essa si avrà nella gestione delle informazioni (e nella conservazione e valorizzazione) oltre che nella risoluzione dei problemi, con una sempre maggiore velocità (non dovendo fare i conti con possibili blocchi emotivi) e con una riduzione dell’errore, rispetto a quelli realizzabili dagli esseri umani. 17 Così R. Moro Visconti, L’intelligenza artificiale: modelli di business e profili di valutazione, in Dir. ind., 2018, p. 422. 18 P. Domingos, L’Algoritmo Definitivo: la macchina che impara da sola e il futuro del nostro mondo, Torino, 2016. 19 Cfr. S. J. Russell e P. Norvig, op. cit. 20 A. Laurent e J. Besnier, Do Robots make love? From AI to immortality – Understanding transhumanism in 12 questions, Londra, 2018; D. Berry e A. Fagerjord, Digital humanities, Cambridge, 2017. 21 Sul quale anche il Consiglio di Stato ha per la prima volta preso posizione, con la sentenza n. 2270 dell’8 aprile 2019, evidenziando che <<l’utilizzo di procedure “robotizzate” di decisione della P.A., tramite algoritmi, per quanto legittimo, non può essere motivo di elusione dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa>>, e, pertanto, <<la regola algoritmica…vede sempre la necessità che sia l’amministrazione a compiere un ruolo ex ante di mediazione e composizione di interessi, anche per mezzo di costanti test, aggiornamenti e modalità di perfezionamento dell’algoritmo (soprattutto nel caso di apprendimento progressivo e di deep learning)>>. 22 Sulle quali, si veda R. Angelini, Intelligenza Artificiale e governance. Alcune riflessioni di sistema, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino, 2018, p. 295 ss. 23 Così N. F. Frattari, Robotica e responsabilità da algoritmo. Il processo di produzione dell’intelligenza artificiale, in Contr. impr., 2020, p. 462. L’importante ed osmostico rapporto tra intelligenza artificiale e big data è, in questo contesto, di facile intuizione. Nell’Artificial intelligence and privacy, Issues paper, pubblicato in Australia dall’Office of the Victorian Information Commissioner, nel giugno 2018, e consultabile in https://ovic.vic.gov.au, p. 5, si legge che <<the relationship between AI and big data goes two ways. While big data analytics processes already exist, much of big data’s true value is only able to be realised using AI techniques. In the other direction, big data offers AI an immense and rich source of input data to develop and learn from>>. 24 V., tra gli articoli più recenti, M. Chiarelli, Intelligenza artificiale: vantaggi, problematiche e prospettive di regolazione, in www.diritto24.ilsole24ore.com/ Le Nuove Sfide Dell’umanità e del Diritto Nell’era Dell’intelligenza Artificiale Eduardo Tomasevicius Filho | Angelo Viglianisi Ferraro 407 Non va del resto, dimenticato che i sistemi di intelligenza artificiale consentirebbero ad un servizio o ad una macchina (o un robot) di essere disponibili 24 ore al giorno per 365 giorni l’anno (senza il rischio che possano scioperare o chiedere i congedi parentali), aiutando nei lavori ripetitivi e alienanti (come l’invio di emails o di analisi di determinati testi). Tra i servizi informatici che l’intelligenza artificiale ha reso molto più sofisticati e funzionali, nella “società digitale” del terzo millennio, ci sono sicuramente i chatbot per i consumatori (che agevolano il compito delle compagnie aeree o telefoniche e stanno diventando molto precisi e rapidi nelle risposte) e la c.d. business-analytics per le imprese (utili strumenti capaci di individuare le migliori strategie da porre in essere per produrre netti vantaggi competitivi). Come è stato sottolineato, del resto, grazie alla capacità di self-learning, oggi <<i computer non si limitano più ad eseguire delle istruzioni predeterminate, ma sono in grado di adottare soluzioni dinamiche sulla base di sequenze di dati di cui gli uomini non hanno alcuna percezione>>25. Senza contare la capacità che le macchine intelligenti hanno di assumere rischi (o di farlo senza alcun timore che potrebbe inficiare la performance) a differenza degli esseri umani (gli esempi tipici che si fanno al riguardo sono il disinnesco di una bomba o l’esplorazione dei fondi marini, ma si pensi anche alla somministrazione di medicine a pazienti affetti da malattie infettive facilmente trasmissibili). Del resto, vi è chi giunge ad immaginare che la sempre più forte interazione tra macchina e framework neuronale umano possa condurre a teorizzare <<la (ancora molto lontana) possibilità di trasferire una coscienza umana su supporti artificiali, magari per garantire la sopravvivenza ad una mente altrimenti prigioniera di un corpo in decadimento e destinata a perire con esso>>26. 4. I possibili effetti negativi legati all’uso di sistemi di IA Se lo sviluppo tecnologico sta, del resto, conducendo a computer e macchinari sempre più potenti e funzionali, con interfacce nuove e migliorate, passando ad analizzare gli svantaggi delle nuove frontiere dell’IA, non possono che essere menzionati gli elevati costi di creazione e di aggiornamento dei sistemi in questione (e delle stesse macchine che operano in base alle nuove tecnologie e che richiedono riparazioni e manutenzione spesso molto costose, trattandosi il più delle volte di strumenti particolarmente complessi e delicati). 25 A sostenerlo è N. F. Frattari, op. cit., p. 462. 26 Così U. Ruffolo e A. Amidei, op. cit., p. 1658. 408 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 401-413 | set./dez. 2020 DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 Né si può trascurare la circostanza che più un macchinario richiede competenze iper-specialistiche, più sarà difficile trovare molti programmatori esperti per quel microsettore. Così come è probabile che molti prodotti non abbiano ancora raggiunto il mercato. È scientificamente provato, inoltre, che l’intelligenza artificiale contribuirà a rendere l’uomo, da un lato, sempre più pigro (perché indotto a far fare alle macchine quante più cose possibile) e, da un altro, purtroppo spesso anche dipendente dalle nuove tecnologie (con tutte le conseguenze che ne derivano nel caso di mancato funzionamento delle stesse o addirittura di improvviso blackout generale). Altro rischio legato allo sviluppo dell’intelligenza artificiale sarà probabilmente la crescita della disoccupazione, considerando che le macchine potranno sostituire molte delle mansioni oggi attribuite agli esseri umani, e si affrancheranno sempre più anche dalla necessità di essere seguiti dai loro produttori o proprietari: non è quindi difficile immaginare che tra qualche anno molti taxisti perderanno il loro lavoro, perché i clienti preferiranno le macchine a guida automatica in grado di arrivare più puntuali (seguendo percorsi autostradali meno trafficati in base alle indicazioni fornite dai sistemi satellitari), ed i postini saranno sostituiti da droni. Mentre a tagliare i capelli (e con sistemi di deep learning capaci di migliorare costantemente o di tenersi al passo con la moda) e cucire vestiti su misura saranno dei robot, che andranno a sostituire le persone meno qualificate, compiendo gli stessi lavori con maggiore efficienza). E se è vero che le macchine non potranno mai provare emozioni (quantunque potrà essere insegnato loro di fingere di provarle), l’accusa più grande che si continua a muovere ai sistemi di IA è la mancanza di creatività e di capacità di pensare fuori dagli schemi: anche nel caso di software di self-learning, le macchine potranno eseguire solo le attività per le quali sono progettate o programmate e rischieranno di combinare disastri (o al contrario dare risultati del tutto irrilevanti, a fronte di investimenti magari esosi) quando si troveranno a dover gestire situazioni assolutamente non previste. L’esempio dell’aereo schiantatosi a terra (senza peraltro che i piloti a bordo potessero fare nulla per invertire la rotta) viene sempre utilizzato per sottolineare i limiti che l’intelligenza artificiale non supervised continua a presentare27. 27 Ecco perché nel citato Libro Bianco dello scorso febbraio si legge che <<la sorveglianza umana aiuta a garantire che un sistema di IA non comprometta l’autonomia umana o provochi altri effetti negativi>> e ciò in quanto <<l’obiettivo di un’IA affidabile, etica e antropocentrica può essere raggiunto solo garantendo un adeguato coinvolgimento degli esseri umani in relazione alle applicazioni di IA ad alto rischio>>. Il documento immagina, a titolo meramente esemplificativo, quattro possibili modalità di controllo “non artificiale”: <<il risultato del sistema di IA non diviene effettivo prima di essere stato rivisto e convalidato da un essere umano…; il risultato del sistema di IA diviene immediatamente effettivo, ma successivamente è garantito l’intervento di un essere umano…; il sistema di IA può essere monitorato durante il suo funzionamento da un essere umano che può intervenire in tempo reale e disattivarlo…; in fase di progettazione, imponendo vincoli operativi al sistema di IA…>>. Le Nuove Sfide Dell’umanità e del Diritto Nell’era Dell’intelligenza Artificiale Eduardo Tomasevicius Filho | Angelo Viglianisi Ferraro 409 Nel febbraio 2018, uno studio di M. Brundage e altri suoi colleghi di Cambridge e Oxford, dal titolo The malicious use of artificial intelligence: forecasting, prevention, and mitigation, University of Cambridge, 2018, ha indicato tre tipi di rischi che possono derivare dall’intelligenza artificiale: quello per la c.d. “sicurezza digitale” (che può essere minata da intensi attacchi informatici diffusi), quello per la sicurezza fisica (legato a possibili lesioni causati da droni o armi gestiti attraverso l’IA), ed infine quello per la “sicurezza politica” (considerata la possibilità di monitoraggi collettivi derivanti dall’analisi dei dati di massa, di manipolazioni attraverso video e mediante lo studio del comportamento umano, dei costumi e delle credenze28. È, come si vede chiaramente, soprattutto sotto un profilo etico che occorrerà intervenire per evitare che i sistemi di IA possano costituire un serio pericolo per i diritti fondamentali. Interessante è sicuramente la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi adottata dalla CEPEJ (Commissione europea per l’efficienza della giustizia) nel corso della sua 31  Riunione plenaria (Strasburgo, 3-4 dicembre 2018), che ha evidenziato ante diem quali sono i principi più importanti che dovranno essere garantiti nei sistemi giudiziari, e negli ambiti connessi. Essi sono cinque e riguardano: 1) il rispetto dei diritti fondamentali (il cui rispetto va assicurato nella fase di elaborazione e attuazione di strumenti e servizi di intelligenza artificiale); 2) il divieto di discriminazione tra persone e gruppi (la Carta parla della necessità di prevenire “specificamente lo sviluppo o l’intensificazione” di condotte contrarie al principio di uguaglianza); 3) la salvaguardia della qualità e della sicurezza nel trattamento di decisioni e dati giudiziari (da realizzare, mediante l’utilizzo di <<fonti certificate e dati intangibili, con modelli elaborati interdisciplinarmente, in un ambiente tecnologico sicuro>>); 4) la trasparenza, l’imparzialità e l’equità (fine da perseguire rendendo le metodologie di trattamento dei dati accessibili e comprensibili, ed autorizzando verifiche esterne); 5) la necessità di consentire il controllo da parte dell’utilizzatore (regola che si sostanza nella necessità di precludere un approccio prescrittivo, a favore di modelli capaci di assicurare <<che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte>>). 28 Il rapporto propone quattro forti raccomandazioni in materia. Il primo è che legislatori e scienziati collaborino per una approfondita indagine del problema e l’individuazione di divieti o controlli nei potenziali usi dannosi di questa tecnologia. Il secondo è che ricercatori e ingegneri prendano sul serio il doppio possibile uso (benefico e malefico) dell’intelligenza artificiale. La terza raccomandazione è che siano identificate e diffuse le buone pratiche nel settore. La quarta e ultima riguarda l’estensione del dibattito al maggior numero di parti interessate ed esperti della materia. 410 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 401-413 | set./dez. 2020 DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 5 La quarta rivoluzione industriale ed il crescente rischio di lesioni dei diritti fondamentali dell’uomo Come è stato fatto notare, sarebbe in corso una vera e propria “quarta rivoluzione industriale” o “Industria 4.0”29, che riunirà mondo fisico, biologico e digitale, uso di manufatti 3D, Internet delle cose, biologia sintetica, sistemi cibifisici, cloud computing e intelligenza artificiale30. Presto l’e-voting o le smart cities, dotate di droni-postino e taxi a guida autonoma, non saranno solo un progetto innovativo sul quale lavorare, ma una realtà perfettamente consolidata. Se i vantaggi di tutto ciò sono sotto assolutamente evidenti, spesso sfuggono i gravi rischi che tuttavia emergono, per i diritti fondamentali (di tutti gli esseri umani, ma delle categorie più deboli in particolare)31. Non a caso, uno dei più grandi studiosi francesi del tema si è chiesto se l’umanità non si stia dirigendo verso forme di “domination programmée”32. In un volume elaborato dall’OCSE lo scorso anno, si legge che <<the use of AI may also pose unique challenges in situations where human rights impacts are unintentional or difficult to detect. The reason can be the use of poor-quality training data, system design or complex interactions between the AI system and its environment. One example is algorithmic exacerbation of hate speech or incitement to violence on line. Another example is the 29 Cfr. K. Schwab, La quarta rivoluzione industriale, Milano, 2016; F. Seghezzi, La nuova grande trasformazione. Lavoro e persona nella quarta rivoluzione industriale, Bergamo, 2017; A. Cipriani, A. Gramolati e G. Mari (a cura di), Il lavoro 4.0. La quarta rivoluzione industriale e le trasformazioni delle attività lavorative, Firenze, 2018. 30 V., per tutti, L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, 2017; Id., Infosfera. Etica e filosofia nell’età dell’informazione, Torino, 2009. 31 Il tema è centrale anche nelle organizzazioni internazionali operanti nel Vecchio continente. Una ricerca del Consiglio d’Europa (“Algorithms and Human Rights. Study on the human rights dimensions of automated data processing techniques and possible regulatory implications”, in https://rm.coe.int/algorithms-and-human-rightsen-rev/16807956b5) ha dimostrato quante ripercussioni su numerosi diritti fondamentali potrebbe avere un uso inappropriato dell’Intelligenza artificiale. Ed ecco perché, operando in seno alla stessa organizzazione internazionale, la European Commission for the Efficiency of Justice ha elaborato il 3-4 dicembre 2018 una Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari e in ambiti connessi (in https://rm.coe. int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348). E significative sono, inoltre, sul versante dell’Unione europea, la citata Comunicazione della Commissione COM(2018) 237 del 25 aprile 2018 (con un Allegato, intitolato Piano coordinato per lo sviluppo e l’utilizzo dell’intelligenza artificiale ‘‘Made in Europe’’) e la Risoluzione del Parlamento europeo del 12 febbraio 2019 su una politica industriale europea globale in materia di robotica e intelligenza artificiale. Nel Libro bianco dello scorso 19 febbraio 2020, si legge chiaramente che <<l’uso dell’IA può pregiudicare i valori su cui si fonda l’Unione e causare violazioni dei diritti fondamentali, compresi i diritti alle libertà di espressione e di riunione, la dignità umana, la non discriminazione fondata sul sesso, sulla razza, sull’origine etnica, sulla religione o sulle convinzioni personali, sulla disabilità, sull’età o sull’orientamento sessuale (ove applicabili in determinati settori), la protezione dei dati personali e della vita privata o il diritto a un ricorso giurisdizionale effettivo e a un giudice imparziale, nonché la tutela dei consumatori>>. 32 J. Ganascia, Intelligence artificielle: vers une domination programmée? Le Nuove Sfide Dell’umanità e del Diritto Nell’era Dell’intelligenza Artificiale Eduardo Tomasevicius Filho | Angelo Viglianisi Ferraro 411 unintentional amplifying of fake news, which could impact the right to take part in political and public affairs>>33. Vari diritti della personalità, in effetti, possono essere violati da un uso improprio dell’intelligenza artificiale, come nei casi relativi alla vita e all’integrità fisica (si è parlato, a tal proposito, di un <<diritto a ‘‘potenziare’’ il proprio corpo come nuovo diritto a disporre di sé stessi ed autodeterminarsi>>34, con tutte le implicazioni etiche che ne derivano sotto il profilo della costante tensione verso l’immortalità o un pericoloso modello di perfezione estetica35) in questioni relative alla salute, oltre all’onore, all’immagine, alla identità personale36, soprattutto, come è facile immaginare, alla riservatezza. Anche prima di giungere ad un ricorso così intenso all’intelligenza artificiale, sono emersi vari problemi di invasione della privacy nella navigazione in Internet, ad esempio, a causa dei cosiddetti cookie (file che si inseriscono nel computer e avviano l’esecuzione di annunci pubblicitari)37, ma essi possono essere comunque in un secondo momento rimossi dall’utente38. Oggi, invece, la situazione è molto più complessa e spesso sfugge ad ogni controllo umano. La recente pandemia ha dimostrato quanto fragile sia ormai già solo lo stesso diritto ad una autodeterminazione “informatica” o “informativa”39 (e quindi a scegliere se entrare o meno a far parte del mondo virtuale e comunque a decidere della sorte dei propri dati personali40), a fronte, ad esempio, di emergenze globali, capaci di far 33 OECD (2019), Artificial Intelligence in Society, Parigi, in https://doi.org/10.1787/eedfee77-en, p. 84. Nel testo si legge anche che <<the likely scale and impact of harm will be linked to the scale and potential impact of decisions by any specific AI system. For example, a decision by a news recommendation AI system has a narrower potential impact than a decision by an algorithm predicting the risk of recidivism of parole inmates>>. Il testo è reperibile in 34 Cfr., per tutti, U. Ruffolo e A. Amidei, op. cit., p. 1664. 35 Secondo U. Ruffolo e A. Amidei, op. cit., p. 1658, le continue scoperte e applicazioni dell’Intelligenza Artificiale e della robotica avanzata, <<sinergicamente uniti a forme di ‘‘genetic engineering’’ (genomica migliorativa, doping genetico, gene-editing, pratiche di life-extension), potranno…dare vita a commistioni uomo-macchina suscettibili di rappresentare la ‘‘via umana alla immortalità’’, quantomeno come prolungamento della vita o della coscienza anche dopo la morte del corpo>>. 36 Sempre U. Ruffolo e A. Amidei, op. cit., p. 1670, segnalano che la stessa prospettiva del trapianto di un cervello non sembra così remota e lo stesso dicasi per la possibilità di impiantare addirittura la testa su corpo altrui, con conseguenti <<problemi persino circa la ‘‘identità’’ del trapiantato (tali trapianti sono attualmente vietati. Ma in caso di violazione del divieto – forse prossimo a venir meno – tutti i richiamati problemi permarrebbero)>>. 37 Cfr. M. Bogni e A. Defant, op. cit., p. 123. 38 Anche se, come scrive E. Pellecchia, Profilazione e decisioni automatizzate al tempo della black box society: qualità dei dati e leggibilità dell’algoritmo nella cornice della responsible research and innovation, in Leggi civ. Comm., 2018, p. 1213, perfino <<quando i cookies sono disabilitati e la navigazione web è anonima, i dispositivi che usiamo lasciano tracce che sono a tutti gli effetti “impronte digitali”>>. 39 G. Sartor, Privacy, reputazione, e affidamento: dialettica e implicazioni per il trattamento dei dati personali, in F. Bergadano, A. Mantelero, G. Ruffo, G. Sartor, Privacy digitale. Giuristi ed informatici a confronto, Torino, 2005, p. 81 ss. 40 Si tratta di un diritto già di per sé assolutamente debole, anche secondo D. Poletti, op. cit., p. 2785, considerando che <<come dimostrato anche da recenti indagini comportamentali, proporzionalmente alle reiterate richieste di consenso si riduce la soglia di attenzione, anche per l’informativa, con conseguente debolezza cognitiva e compromissione del processo decisionale>>. 412 Revista Direitos Culturais | Santo Ângelo | v. 15 | n. 37 | p. 401-413 | set./dez. 2020 DOI: http://dx.doi.org/10.20912/rdc.v15i37.254 prevalere in modo “tirannico” (sia pur legittimamente, forse) un contrapposto diritto (superindividuale) alla salute, che può costringere tutti a ricorrere alle nuove tecnologie, senza avere alcuna alternativa – né poter esprimere un proprio consenso al riguardo – (salvo voler rinunciare al lavoro, allo studio e allo svolgimento di qualsiasi attività idonea ad una, seppur fortemente limitata, realizzazione della propria personalità)41. 6 Conclusioni. Le nuove frontiere dell’Intelligenza artificiale e la necessità di un intervento normativo Sono maturi i tempi perché il problema dell’Intelligenza artificiale venga affrontato seriamente a livello politico-normativo. E se nel Vecchio Continente è auspicabile che – come già accaduto per il danno da illecito antitrust o da prodotto difettoso, ovvero ancora da violazione della privacy tout court – sia l’Unione europea ad intervenire tempestivamente e fissare delle lineeguida il più possibile precise42, prima che siano gli Stati ad operare delle scelte concrete (diventando poi più o meno gelosi sostenitori delle proprie decisioni), anche nel Sud America è importante mettersi in moto per normare il settore, senza limitare chiaramente il tentativo di diventare dei leader nella materia (proprio come pare stia accadendo in Cile nel settore della robotica43). Si consideri che, quanto segnalato anni fa in dottrina, circa una intelligenza solo presunta o teorica dei computer, in quanto essi avrebbero «la capacità di trattare con precisione problemi ben definiti e sono molto abili nello svolgere questa funzione, ma sono del tutto inadatti ad affrontare situazioni non previste (dal programmatore)»44, nel giro di 3 lustri sembra messo in discussione da chi sostiene la necessità di iniziare a confrontarsi, semmai, con macchine sempre più dotate della c.d. “Intelligenza Artificiale Forte” (ossia del potere di ragionare in maniera estesa, proprio come un essere umano)45. 41 Si registrano già una serie di contributi dottrinali online su questi importanti temi in www.unicost.eu, www. sistemapenale.it, www.federalismi.it, www.rivistaaic.it, ecc. 42 La Commissione europea – prima ancora di adottare il citato Libro bianao – ha, ad esempio, nominato un gruppo di esperti ad alto livello, i cui orientamenti per una “IA affidabile” sono stati pubblicati nell’aprile 2019 (e sono reperibili in https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top) e hanno formato oggetto di una nuova Comunicazione della Commissione – COM(2019) 168 final – che ha accolto con favore i sette requisiti fondamentali individuati dagli studiosi sul tema: <<1) intervento e sorveglianza umani; 2) robustezza tecnica e sicurezza; 3) riservatezza e governance dei dati; 4) trasparenza; 5) diversità, non discriminazione ed equità; 6) benessere sociale e ambientale; 7) accountability). 43 Cfr. le interessanti novità che arrivano dalla Pontificia Universidad Católica de Chile, in www.ing.uc.cl/en/ boletines/desarrollan-primer-robot-chileno-inteligencia-artificial-trabajar-supermercados/. 44 Così R. M. Di Giorgi, L’intelligenza artificiale: teoria e applicazioni nel diritto, in R. Borruso, R. M. Di Giorgi, L. Mattioli e M. Ragona, L’informatica del diritto, Milano, 2004, p. 188. 45 Idea sviluppatasi dagli anni cinquanta agli anni ottanta e poi abbandonata, per dare spazio a quella di una Light AI (la quale, in base ad <<un approccio sostanzialmente funzionalista,… tende, semmai, a emulare solo alcune funzioni del cervello umano e porta a creare macchine che riescono a svolgerle, talora anche meglio degli umani>>, come segnalano A. Santosuosso, C. Boscarato e F. Caroleo, op. cit., 2012, p. 494), ma che oggi sta tornando, invece, alla ribalta con prepotenza. Cfr., al riguardo, N. Bostrom, Superintelligenza – Tendenze, Le Nuove Sfide Dell’umanità e del Diritto Nell’era Dell’intelligenza Artificiale Eduardo Tomasevicius Filho | Angelo Viglianisi Ferraro 413 Anzi, vi è anche chi immagina che agenti evoluti e sempre più sofisticati potranno presto rivelarsi addirittura dotati di una super-intelligenza, in grado di superare quella umana46. Per cui, non occorrerà più ricorrere a test come quelli effettuati da alcune aziende cinesi, per analizzare – attraverso sensori intelligenti inseriti in appositi caschi (“neurocap”) – gli impulsi nervosi dei lavoratori, <<desumendo così lo stato emotivo del soggetto e, quindi, la sua eventuale inidoneità a svolgere certe mansioni>>47. Una serie di macchine, instancabili e tendenzialmente indistruttibili, incapaci di ammalarsi e di provare emozioni (come paura, stress, sfiducia) e sempre disponibili (senza mai pensare di scioperare o andare in maternità), sostituiranno direttamente gli uomini. È veramente ora, insomma, che il diritto intervenga, nel tentativo di non arrivare more solito a disciplinare alcuni fenomeni (in continuo mutamento), con eccessivo e colpevole ritardo. pericoli, strategie, Torino, 2018. 46 N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford, 2014. Ma, vedi già J. Habermas, The future of Human Nature, Cambridge, 2003. 47 A segnalarlo è A. Soro, op. cit., p. 344. Il Garante parla a tal proposito di una <<postmodernità che ripropone l’uomo-automa, rappresentando una minaccia quando invece aveva promesso speranza>> e sottolinea che in questa preoccupante regressione neo-fordista, <<la tecnica che avrebbe dovuto liberare l’uomo dal peso e dall’alienazione della catena di montaggio rischia invece di costringerlo in nuove catene elettroniche, riducendolo a mero ingranaggio>>.