Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ La diffusione non consensuale di contenuti intimi ai tempi dei deepfake: una controprofezia ottimista 1 Marco Viola Università degli Studi Roma Tre, Dipartimento di Filosofia, Comunicazione e Spettacolo marco.viola@uniroma3.it Cristina Voto Università degli Studi di Torino, Dipartimento di Filosofia e Scienze dell'Educazione cristina.voto@unito.it Abstract In this essay, we consider the possible impact that deepfake technologies may exert upon the phenomenon of Non-Consensual Diffusion of Intimate Images or videos (NCDII), sometimes (mis)labeled as “revenge porn”. In partial contrast to the pessimistic view according to which deepfakes could enhance the threat constituted by NCDII, we forecast that, on the long run, the spread of deepfake media could lead to deflating the sense of trust that make us assume that photographic-looking images and videos represent some actual reality. By so doing, deepfakes can ultimately depower the sense of intimacy that NCDII bring about, hence possibly reducing their allure among the wrongdoers as well as their power to harm. Keywords: deepfake; visual epistemology; pictures; Non-Consensual Diffusion of Intimate Images; testimony Received 18/01/2022; accepted 15/04/2022. 0. Introduzione: la diffusione non consensuale di contenuti intimi 2018, provincia di Torino. Una giovane maestra viene licenziata in tronco dall’asilo dove lavorava perché i genitori dei bambini segnalano alla direttrice alcune immagini e un video riguardanti la sua sfera intima: contenuti che la ragazza aveva condiviso in privato con l’ex fidanzato, ma che sono circolati quando quest’ultimo li ha divulgati tramite la chat del calcetto. Senza il consenso di lei. Aprile 2020, la casella di posta elettronica di uno degli autori di questo articolo – così come di tante altre potenziali vittime di scam2. Una mail proveniente da un indirizzo sconosciuto, che si presenta come un hacker, dimostra di conoscere una (vecchia) 1 La stesura di questo articolo si basa su ricerche svolta nell’ambito del progetto FACETS – Face Aesthetics in Contemporary E-Technological Societies, finanziato dallo European Research Council (ERC) entro il programma di ricerca e sviluppo dell’Unione Europea Horizon 2020 (grant agreement No 819649 - FACETS). 2 Termine comunemente utilizzato per designare le truffe in rete, secondo Urban Dictionary: “To trick or cheat someone out of their posession(s)”. 65 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ password della vittima e afferma di aver avuto accesso a diversi dati sensibili – tra cui una cronologia che include alcuni siti porno («you got a tremendously odd taste btw lol»). Non solo: l’hacker afferma di aver attivato la webcam durante la frequentazione di questi siti, e minaccia di condividere con i contatti della vittima tanto la cronologia del materiale pornografico che i video che le ritraggono intente a masturbarsi, a meno che queste non gli inviino 2000 dollari in bitcoin entro 24 ore. Marzo 2021, una città del salernitano. Un ragazzo diciassettenne appezza le vie del paese con immagini intime della ex ragazza, accompagnate da allusioni di offerta di prestazioni a pagamento con intento denigratorio. Ovviamente senza il consenso della ragazza. D’altro canto, secondo la legge non avrebbe potuto darlo nemmeno volendo, perché ha soltanto 13 anni. Storie come queste sono oramai all’ordine del giorno: secondo l’osservatorio “permessonegato.it”, se a gennaio 2020 su Telegram erano presenti 17 gruppi o canali dedicati allo scambio di materiale intimo non consensuale, per un totale di 1,147 milioni di utenti, già nel maggio dello stesso anno questi numeri sono aumentati a 29 gruppi e ai 2,223 milioni di utenti; mentre a novembre 2020 i gruppi o canali erano ben 89, gli utenti 6 milioni. Tutti tre i casi vertono su episodi (reali o minacciati) di non-consensual dissemination of intimate images (NCDII)3, a cui talvolta ci si riferisce con l’espressione impropria revenge porn. Nonostante la vasta diffusione, crediamo che questa etichetta vada evitata perché in questa dicitura di successo si annidano una serie di presupposti discutibili sia da un punto di vista etico che da un punto di vista socio-culturale. Riferirsi ad episodi come quelli sopra citati usando l’espressione revenge porn, la cui traduzione all’italiano diventa ‘vendette pornografiche’, contamina l’orizzonte di quello che a tutti gli effetti si presenta come un serio problema giuridico-sociale con immaginari inappropriati e capaci di perpetuare una serie di soprusi spesso intrinseci, o ancor peggio silenziati, in seno alla nostra società. Parlare nei termini di revenge significa, de facto, presupporre che le vittime abbiano commesso un danno originale per il quale debbano essere punite; in secondo luogo parlare di porn fraintende la natura dei materiali diffusi, che passerebbero così dalla sfera protetta dell’intimità alla dimensione pubblica ed esposta del prodotto di intrattenimento iscrivibile all’interno di un preciso genere di consumo di massa, quello pornografico. Scostarsi da una categorizzazione impropria nei termini di una supposta vendetta pornografica in favore del riconoscimento di una pratica di diffusione non consensuale di immagini intime ci permette, allora, di far emergere e individuare una violenza a tutti gli effetti. Trattando di un problema sociale relativamente recente, i tre casi presentano profili giuridici diversi per la legge italiana: solo di recente infatti il Parlamento, sospinto da un tagico suicidio molto discusso dalla cronaca dell’epoca, ha introdotto alcune sanzioni specifiche per reati inerenti NCDII (legge 19 luglio 2019 n. 69, nota come “Codice Rosso”)4. Benché il nome di questo fenomeno faccia riferimento soprattutto alle immagini (statiche, dalla parvenza di fotografie), la NCDII investe sempre di più anche contenuti video. Pertanto, tenute in debito conto le importanti differenze, nel nostro articolo ci riferiremo tanto alle immagini statiche quanto a quelle in movimento. 4 La legge in questione introduce importanti modifiche in relazione alle violenze di genere conseguenti ad atti persecutori e a maltrattamenti. La sua emanazione è strettamente collegata ai fatti di cronaca che hanno coinvolto una giovane ragazza il cui nome è oggi diventato sinonimo dell’urgenza di politiche capaci di inquadrare il fenomeno della diffusione non consensuale di immagini intime. Decidiamo allora di ricordarlo, Tiziana Cantore, non per mera aneddotica ma perché in uno studio che si prefigge come obiettivo quello che di riflettere sulle condizioni della testimoniabilità ci risulta difficile non rendere conto dell’importante testimonianza che arrecano le persone coinvolte nella comprensione di un fenomeno. 3 66 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ E tuttavia, la legislazione italiana non si è ancora dotata di strumenti adeguati ad affrontare una nuova variante del problema NCDII5: la diffusione di contenuti generati artificialmente tramite tecnologie di deepfake. 1. I deepfake nell’epoca della riproducibilità tecnica L’etichetta ‘deepfake’ indica contenuti mediali creati grazie al potere computazionale delle moderne tecnologie di intelligenza artificiale (e in particolare le reti neurali profonde, da cui “deep”) e impiegati potenzialmente allo scopo di ingannare (da cui “fake”). Il principio alla base di molti deepfake è lo stesso di quelle tecniche che hanno permesso alla Disney di riportare il volto di Peter Cushing, defunto nel 1994, nel recente lungometraggio Rogue One (2016), riadattando i movimenti facciali di un altro attore; solo che, nel nostro caso, i volti vengono giustapposti a contenuti di tipo pornografico. Laddove la maggior parte dei deepfake sostituisce i volti, altri sostituiscono i corpi. È il caso per esempio della app DeepNude. La app permette a chi ne fa uso di “svestire” dei soggetti fotografati: una volta caricata una fotografia, è sufficiente un click per sostituire i vestiti con simulazioni realistiche di un corpo femminile totalmente nudo compatibile per fisionomia ritratta dalla foto. Pubblicata nel 2019, è stata ritirata solo 4 giorni dopo in seguito a una serie di controversie – il che non ha comunque impedito che circolasse ampiamente nel web. Lo svestimento permesso da DeepNude sembrerebbe produrre un vero e proprio abbaglio percettivo, un’illusione capace di sospendere l’incredulità attraverso un meccanismo cognitivo e squisitamente semiotico: nonostante i risultati siano spesso spuri e con frequenza arrechino le tracce di errori e glitch computazionali, l’efficacia figurativa e comunicativa delle immagini prodotte dalla app genera agli occhi di chi le osserva una sensazione di indistinguibilità tra l’immagine rappresentante e la realtà rappresentata. Questo effetto ricorda il trompe-l'oeil, dove assistiamo a uno slittamento da una significazione per somiglianza percettiva a una per contiguità spazio temporale. Nelle parole di Massimo Leone: “l'iconicità è di fatto sostituita dall'indessicalità; ciò che si vede non rappresenta solo una realtà significata; ciò che si vede è effettivamente tale realtà, almeno agli occhi degli osservatori illusi” 6 . Inquadrare le immagini prodotte attraverso l’utilizzo di reti neurali profonde all’interno di una genealogia tecnologica della rappresentazione dell’inganno permette il riconoscimento di una ragione illusoria comune all’epoca digitale e pre-digitale. Tuttavia, l’inganno percettivo a cui ci mettono di fronte oggi i deepfake diventa spesso difficile da smascherare. Per questa ragione riteniamo necessario il ritorno a una epistemologia della testimonianza come passo dovuto per la comprensione di questi fenomeni e dei relativi risvolti sociali. Sebbene le tecniche per creare deepfake esistessero già da tempo, la diffusione di questa app ha sollevato particolari preoccupazioni: diverse testate ne hanno denunciato i pericoli, e persino la trasmissione Le Iene vi ha dedicato un servizio. Ad alimentare questi timori è il fatto che, se prima d’ora la creazione di deepfake richiedeva comunque il possesso di certe competenze e un certo consumo di tempo, con una app come DeepNude questo processo – e la relativa possibilità di nuocere – diventano “a portata di click” su scala massiccia. Chiosando il titolo del celebre libro di Benjamin, possiamo Anche se nel 2021 la deputata De Carlo ha avanzato una proposta di legge per sanzionare la diffusione di immagini di donne nude ottenute tramite manipolazioni tecnologiche e riconducibili a persone precise. 6 La citazione, da noi tradotta, è tratta e dalla conferenza ‘Semioethics of the Visual Fake’ tenuta da Massimo Leone in data 27 maggio 2021 presso il CY Advanced studies della Cergy Paris Université [https://www.youtube.com/watch?v=9jjquRK2T5o&ab_channel=CYAdvancedStudies, consultato il 19/01/2022]. 5 67 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ dire insomma che app come DeepNude traghettano il deepfake nell’epoca della sua riproducibilità tecnica. Ripensiamo ai tre casi discussi in apertura. In tutti e tre, una persona dispone (o finge di disporre, nel caso del tentativo di truffa) di contenuti intimi ritraenti una vittima, e nuoce (o minaccia di nuocere) diffondendo questi contenuti senza il consenso della vittima. Ma con la diffusione massificata di tecnologie di deepfake, la condizione di possedere (o riuscire a far credere di possedere) questo materiale intimo viene meno: se per produrre una foto intima basta una fotografia e un click su una app, la platea dei potenziali perpetratori di NCDII si ampia a dismisura. E diventa virtualmente incontrollabile. Infatti, mentre è plausibile rintracciare chi ha avviato la catena di NCDII relativa a un autoscatto intimo, che tipicamente è prodotto per un destinatario specifico, molto più arduo (se non impossibile) sarebbe rintracciare chi ha prodotto un’elaborazione pornografica a partire da una fotografia non intima pubblicamente disponibile. Ma davvero la disponibilità di deepfake condurrà inevitabilmente a questa situazione disastrosa? Molti degli articoli giornalistici che ne trattano sembrano suggerire di sì. In questo articolo suggeriremo però la plausibilità di uno scenario decisamente meno pessimistico. Anticipandone i contenuti, la nostra “contro-profezia ottimista” si basa sull’assunto che l’inflazione di deepfake promuoverà una svalutazione nel potere testimoniale delle immagini (che si presentano come) fotografiche, svuotando così in parte il potere di ricatto delle NCDII generate artificialmente – e potenzialmente perfino di quelle di origine fotografica. La plausibilità di questo esito dipende da alcune assunzioni riguardanti lo statuto epistemico delle immagini (e dei video): assunzioni che giustificheremo nel prossimo paragrafo. 2. Lo statuto epistemico delle immagini (che si presentano come) fotografiche Lo statuto epistemico delle immagini, e specialmente delle fotografie, è stato oggetto di numerosi studi a cavallo tra epistemologia, semiotica ed estetica; troppi perché se ne possa azzardare un riassunto in questa sede. Per i nostri scopi, ci tornerà piuttosto comodo prendere a prestito una dicotomia fondativa dell’epistemologia della testimonianza 7 : quella che vede contrapposti i riduzionisti e gli anti-riduzionisti (Nick 2021: §1). Secondo la posizione anti-riduzionista, che ha per ‘patrono’ il filosofo scozzese Thomas Reid, una credenza acquisita per via testimoniale non richiede di norma giustificazioni ‘esterne’ – se non l’assenza di ragioni per dubitare della fonte. Al contrario, per i più diffidenti riduzionisti le credenze acquisite tramite testimonianza necessitano di una giustificazione indipendente: non a caso il loro patrono è David Hume, campione dello scetticismo filosofico. In altre parole, la distinzione riguarda quale sia l’opzione di default nei confronti degli stati di cose riferiteci da altri agenti epistemici: per un anti-riduzionista la massima è “puoi fidarti fino a prova contraria”, mentre un riduzionista richiederà una prova positiva prima di dare per buona la rispettiva credenza. Anche se in epistemologia della testimonianza questa dicotomia è riferita più spesso alla dimensione normativa (quando è razionale fidarsi della testimonianza di un altro agente epistemico?), questa distinzione può riguardare anche un’indagine descrittiva delle nostre attitudini (quando, di fatto, tendiamo a dare per vero quanto ci viene comunicato da un altro agente epistemico?). I problemi nascono quando il piano descrittivo del cosa facciamo è disallineato dal piano normativo del cosa dovremmo fare. L’epistemologia della testimonianza è quella branca dell’epistemologia sociale che si interroga sulla conoscenza acquisita tramite la mediazione di un altro agente epistemico. 7 68 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ Ma cosa succede se, anziché un altro agente epistemico, a suggerirci degli stati di cose sono invece delle fotografie? Sia pure per ragioni diverse, gli autori che hanno analizzato lo statuto epistemico delle fotografie convergono nel sostenere che «the epistemically special character of photographs is revealed by this fact: we are inclined to trust them in a way that we are not inclined to trust even the most accurate of drawings and paintings» (Meshkin & Cohen 2010: 70). Oppure, per dirla con Walton (1984: 247), «Photographs are more useful for extortion; a sketch of Mr. X in bed with Mrs. Y-a full color oil painting-would cause little consternation»; parafrasandolo, il tentativo di truffa di cui si è parlato in apertura di questo articolo sarebbe stato (ancor) meno credibile se l’hacker avesse minacciato di mandare un disegno delle vittime intente a fruire di materiale pornografico! Di fronte a un’immagine fotografica, insomma, la nostra intuizione ci porta a seguire Reid piuttosto che Hume. Tutto sommato, possono esserci buone ragioni per credere al fatto che le cose che vediamo nelle fotografie corrispondano a qualche stato di cose che si è dato nel mondo8. Dopotutto, la corrispondenza tra la fotografia e la porzione di mondo che ritrae è garantita da una genesi prevalentemente indessicale, mediata cioè da processi causali largamente indipendenti dalla mediazione di un agente; tanto che alcuni autori hanno difeso la tesi che osservare la foto di una casa equivale a osservare direttamente la casa (Walton 1984); o che la fotografia sarebbe una fonte di conoscenza percettiva, contrariamente a un’immagine come un disegno, che va considerato una fonte testimoniale (Cavedon-Taylor 2013). Il problema è che, anche assumendo che possano esserci buone ragioni per essere antiriduzionisti e dunque fidarsi delle fotografie, lo stesso potrebbe non valere per tutte quelle immagini che, pur presentandosi a prima vista come fotografie, non condividono la stessa genesi causale di tipo indessicale. È il caso per l’appunto dei deepfake. Di fronte a un deepfake ben fatto, saremo indotti a credere di trovarci di fronte a una fotografia. A riprova del fatto che l’attitudine dominante di fronte a queste immagini-che-si-fingonofotografie sia quella ‘reidiana’, che porta a interpretare il contenuto dell’immagine come dotato di un referente reale, sembra militare il fatto che la versione freeware di DeepNude contornava le immagini che produceva con un watermark che ne segnalava la natura di ‘fake’, come a voler disinnescare la fiducia che altrimenti accorderemmo ad un’immagine simil-fotografica. (Marchio che tuttavia sparisce nella versione a pagamento, suggerendo la malafede di chi ha messo in circolazione il software). 3. Immagini e intimità In alcuni casi, i deepfake sono utilizzati per produrre contenuti pornografici che non hanno alcuna pretesa di realtà, e che sono infatti esplicitamente rubricati sotto etichette come “fake celebrity”. Anche quest’uso dei deepfake non è esente da criticità legali e morali: ad esempio, può contribuire a perpetrare stereotipi di dominio patriarcale (Öhman 2020) rafforzando associazioni psicologiche implicite (Harris 2021). Tuttavia, è verosimile che a incrociare la traiettoria del fenomeno del NCDII – fulcro dell’interesse del presente articolo – non siano i fake manifesti, quanto piuttosto le immagini con una qualche pretesa di realtà. La nostra ipotesi è che l’allure che queste immagini o video non consensuali esercitano presso i loro fruitori non dipenda tanto dalle loro proprietà estetiche intrinseche. A Ciò non significa ovviamente che la fotografia sia scevra di rischi epistemici: questi infatti aumenteranno esponenzialmente non appena ci spostiamo dal considerare ciò che è mostrato dal contenuto della fotografia alle inferenze che facciamo a partire da questa – ed è verosimile che non sia possibile distinguere davvero "contenuto mostrato" e "contenuto inferito". 8 69 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ interessarli, verosimilmente, è piuttosto lo stato di cose reale a cui l’immagine si riferisce; è il senso di intimità che la fotografia genera con la vittima ritratta. Che questo effetto di realtà sia parte dell’allure di queste immagini (o video) sembrerebbe confermato dal fatto che, purtroppo, le NCDII sono sovente accompagnate da informazioni personali relative alla vittima9. Questo senso di intimità sembra dipendere in modo importante dallo statuto epistemico privilegiato che assegniamo alle fotografie. Ma cosa succede quando questa “promessa di indessicalità” viene disillusa? A una domanda di questo tipo si propone di rispondere Walton, costruendo un esperimento mentale a partire da uno degli autoritratti di Chuck Close – dipinti che, un po’ come i deepfake, simulano le proprietà delle fotografie: … we see Chuck Close's superrealist Self-Portrait thinking it is a photograph and learn later that it is a painting. The discovery jolts us. Our experience of the picture and our attitude toward it undergo a profound transformation […] We feel somehow less "in contact with" Close when we learn that the portrayal of him is not photographic. If the painting is of a nude and if we find nudity embarrassing, our embarrassment may be relieved somewhat by realizing that the nudity was captured in paint rather than on film (Walton 1948: 255). È possibile che un tale disincanto si applichi anche ai deepfake una volta che il loro inganno viene smascherato, smorzando così l’interesse di consumatori e produttori di deepfake finalizzati a NCDII? La nostra previsione è che in parte questo avverrà, per lo meno nel lungo periodo. Ma intravediamo un ulteriore spiraglio di ottimismo: è possibile che, anziché aggravare il fenomeno della NCDII, l’esplosione di deepfake possa addirittura attenuarlo. Vediamo perché. 4. La fiducia nelle immagini (che si presentano come) fotografiche è reversibile Precedentemente abbiamo detto che, nei confronti delle immagini che si presentano come fotografiche, tendiamo ad assumere un atteggiamento de facto reidiano: a meno che non vi sia qualche elemento che ci fa attivamente dubitare di loro, tendiamo a pensare che si riferiscano a qualche stato di cose realmente esistito. Tuttavia, non è detto che questo statuto epistemico privilegiato di cui godono le immagini che sono o si presentano come fotografie sia necessario e immutabile. Al contrario, vi sono ragioni di pensare che la credibilità di cui godono le immagini (che sembrano) fotografiche dipenda da alcune conoscenze di sfondo relative alla loro produzione (Meshkin & Cohen 2010). Prima della diffusione massificata delle tecnologie di manipolazione digitale, era per noi scontato che un’immagine con le caratteristiche di una fotografia avesse un’origine predominantemente indessicale: la sua genesi è legata alla prossimità spaziale, il suo isomorfismo è garantito da rapporti di parentela causale per lo più indipendenti dall’arbitrio umano. Ma con l’avvento e la diffusione massificata delle tecniche informatiche di manipolazione dell’immagine, queste credenze di sfondo stanno andando incontro all’obsolescenza: che un’immagine sembri fotografica è sempre meno garanzia del fatto che lo sia davvero. E lo stesso vale per i video. Con le parole di Umberto Eco potremmo dire che: “il funzionamento di un testo (anche non verbale) si spiega prendendo in considerazione, oltre o invece del momento generativo, il ruolo svolto dal destinatario nella sua comprensione, attualizzazione, interpretazione, nonché il modo in cui il testo stesso prevede questa partecipazione” ([1990] 2006: s/p). È su questo terreno che si gioca la nostra scommessa sulla reversibilità del potere dei deepfake usati per contraffare immagini intime: in quella che Circa un quinto delle foto analizzate da Uhl e colleghi (2018) sono accompagnate da informazioni quali il nome proprio o l’età anagrafica della vittima. 9 70 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ il semiologo definisce come intentio lectoris, ovvero l’intenzionalità comunicativa depositata, in senso lato, dal lettore al testo empirico. Diversi epistemologi sembrano concordare con noi sul fatto che i deepfake possano minare la sfiducia delle immagini in generale, e guardano a questo crollo della fiducia con preoccupazione. Ad esempio, Dan Fallis preconizza che nel futuro prossimo «When fake videos are widespread, people are less likely to believe that what is depicted in a video actually occurred» (2020: 3). Harris (2021) ribatte che queste preoccupazioni siano persino esagerate, perché la maggior parte delle persone sanno già calibrare il grado di fiducia nei confronti dei media a cui sono sottoposti anche sulla base di informazioni esterne, quali ad esempio l’affidabilità delle fonti. Entrambi però concordano sulla direzione verso cui ci spingeranno i deepfake: quello di un approccio vieppiù humeano nei confronti delle immagini e dei video che sembrano fotografie/video genuini. Anche laddove avesse effetti negativi dal punto di vista epistemologico, questo incremento di scetticismo prodotto dall’epidemia di deepfake potrebbe paradossalmente sortire, sul lungo periodo, l’effetto di indebolire il loro potere di nuocere. Ripensiamo agli esempi discussi in apertura dell’articolo. Immaginiamo un mondo in cui sia facile realizzare fotografie o video contraffatti – e che questa facilità sia universalmente nota. In un siffatto scenario, chi ricevesse la minaccia di veder divulgato il proprio video durante la fruizione di pornografia darebbe probabilmente scarsissimo peso a questa minaccia. Peraltro, quand’anche l’hacker disponesse davvero di quel video e decidesse di divulgarlo per davvero, la vittima del ricatto potrebbe pur sempre smorzare l’imbarazzo asserendo che si tratta di una contraffazione. Ci preme chiarire che qui non vogliamo in alcun modo suggerire che il problema dei deepfake usati per NCDII non vada affrontato anche con strumenti giuridici che ne sanzionino la diffusione e tutelino le vittime. Difatti, l’esaudirsi della nostra controprofezia ottimistica dipende da un capovolgimento degli abiti interpretativi nei confronti delle immagini che sono o si fingono fotografiche, e un siffatto capovolgimento richiederebbe tempi piuttosto lunghi, mentre il dolore causato dalla NCDII rappresenta un’urgenza che non può attendere i tempi di una rivoluzione epistemica. E tuttavia, se abbiamo interpretato correttamente i segni che annunciavano questa rivoluzione, c’è ragione di pensare che le domande che affliggeranno di chi, tra trent’anni, condividesse con qualche partner delle proprie immagini o video intimi, non saranno tanto “come assicurarsi che non divulghi indebitamente quest’apertura di intimità?”, quanto piuttosto “crederà veramente che sia io la persona ritratta nell’immagine?” Una profezia che ci permette di compiere un ulteriore passo: un augurio con cui ipotizzare che in un futuro forse ad essere considerato come oggetto di valore non sia il furto di una testimonianza intima ma la condivisione di un accordo consensuale. Bibliografia Cavedon-Taylor, Dan (2013), «Photographically based knowledge» in Episteme, n. 10(3), pp. 283-297. 71 RIFL (2021) SFL: 65-72 DOI: 10.4396/SFL2021A07 __________________________________________________________________________________ Eco, Umberto (1990), I limiti dell’interpretazione, La nave di Teseo, Milano, 2006. Fallis, Dan (2020), «The Epistemic Threat of Deepfakes» in Philosophy & Technology», https://doi.org/10.1007/s13347-020-00419-2 Harris, Keith Raymond (2021), «Video on demand: what deepfakes do and how they harm» in Synthese, n. 199, pp. 13373–13391. Meskin, Aaron & Cohen, Johnatan (2010), Photography and philosophy: Essays on the pencil of nature, in Walden, Scott (Ed.), Photography Philosophy: Essays on the Pencil of Nature, Hoboken (NJ), Wiley Blackwell, 70-90. Leonard, Nick (2021), Epistemological Problems of Testimony, in Zalta, Edward (Ed.), The Stanford Encyclopedia of Philosophy, https://plato.stanford.edu/entries/testimonyepisprob Öhman, Carl (2020), «Introducing the pervert’s dilemma: A contribution to the critique of deepfake Pornography», in Ethics and Information Technology, n. 22(2), pp. 133–140.Uhl, Carolyn A., Rhyner, Katlin J., Terrance, Cheryl A., & Lugo, Noël Lugo R. (2018), «An examination of nonconsensual pornography websites» in Feminism & Psychology, 28(1), pp. 50-68. Uhl, Carolyn A., Rhyner, Katlin J., Terrance, Cheryl A., & Lugo, Noël R. (2018), «An examination of nonconsensual pornography websites», in Feminism & Psychology, 28(1), pp. 50-68. Walton, Kendall L. (1984), «Transparent pictures: On the nature of photographic realism» in Critical inquiry, n. 11(2), pp. 246-277. 72