RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
La diffusione non consensuale di contenuti intimi ai tempi dei
deepfake: una controprofezia ottimista 1
Marco Viola
Università degli Studi Roma Tre, Dipartimento di Filosofia, Comunicazione e Spettacolo
marco.viola@uniroma3.it
Cristina Voto
Università degli Studi di Torino, Dipartimento di Filosofia e Scienze dell'Educazione
cristina.voto@unito.it
Abstract In this essay, we consider the possible impact that deepfake technologies may
exert upon the phenomenon of Non-Consensual Diffusion of Intimate Images or
videos (NCDII), sometimes (mis)labeled as “revenge porn”. In partial contrast to the
pessimistic view according to which deepfakes could enhance the threat constituted by
NCDII, we forecast that, on the long run, the spread of deepfake media could lead to
deflating the sense of trust that make us assume that photographic-looking images and
videos represent some actual reality. By so doing, deepfakes can ultimately depower the
sense of intimacy that NCDII bring about, hence possibly reducing their allure among
the wrongdoers as well as their power to harm.
Keywords: deepfake; visual epistemology; pictures; Non-Consensual Diffusion of
Intimate Images; testimony
Received 18/01/2022; accepted 15/04/2022.
0. Introduzione: la diffusione non consensuale di contenuti intimi
2018, provincia di Torino. Una giovane maestra viene licenziata in tronco dall’asilo dove
lavorava perché i genitori dei bambini segnalano alla direttrice alcune immagini e un
video riguardanti la sua sfera intima: contenuti che la ragazza aveva condiviso in privato
con l’ex fidanzato, ma che sono circolati quando quest’ultimo li ha divulgati tramite la
chat del calcetto. Senza il consenso di lei.
Aprile 2020, la casella di posta elettronica di uno degli autori di questo articolo – così
come di tante altre potenziali vittime di scam2. Una mail proveniente da un indirizzo
sconosciuto, che si presenta come un hacker, dimostra di conoscere una (vecchia)
1
La stesura di questo articolo si basa su ricerche svolta nell’ambito del progetto FACETS – Face
Aesthetics in Contemporary E-Technological Societies, finanziato dallo European Research Council
(ERC) entro il programma di ricerca e sviluppo dell’Unione Europea Horizon 2020 (grant agreement No
819649 - FACETS).
2 Termine comunemente utilizzato per designare le truffe in rete, secondo Urban Dictionary: “To trick or
cheat someone out of their posession(s)”.
65
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
password della vittima e afferma di aver avuto accesso a diversi dati sensibili – tra cui
una cronologia che include alcuni siti porno («you got a tremendously odd taste btw
lol»). Non solo: l’hacker afferma di aver attivato la webcam durante la frequentazione di
questi siti, e minaccia di condividere con i contatti della vittima tanto la cronologia del
materiale pornografico che i video che le ritraggono intente a masturbarsi, a meno che
queste non gli inviino 2000 dollari in bitcoin entro 24 ore.
Marzo 2021, una città del salernitano. Un ragazzo diciassettenne appezza le vie del paese
con immagini intime della ex ragazza, accompagnate da allusioni di offerta di prestazioni
a pagamento con intento denigratorio. Ovviamente senza il consenso della ragazza.
D’altro canto, secondo la legge non avrebbe potuto darlo nemmeno volendo, perché ha
soltanto 13 anni.
Storie come queste sono oramai all’ordine del giorno: secondo l’osservatorio
“permessonegato.it”, se a gennaio 2020 su Telegram erano presenti 17 gruppi o canali
dedicati allo scambio di materiale intimo non consensuale, per un totale di 1,147 milioni
di utenti, già nel maggio dello stesso anno questi numeri sono aumentati a 29 gruppi e ai
2,223 milioni di utenti; mentre a novembre 2020 i gruppi o canali erano ben 89, gli
utenti 6 milioni.
Tutti tre i casi vertono su episodi (reali o minacciati) di non-consensual dissemination of
intimate images (NCDII)3, a cui talvolta ci si riferisce con l’espressione impropria revenge
porn.
Nonostante la vasta diffusione, crediamo che questa etichetta vada evitata perché in
questa dicitura di successo si annidano una serie di presupposti discutibili sia da un
punto di vista etico che da un punto di vista socio-culturale. Riferirsi ad episodi come
quelli sopra citati usando l’espressione revenge porn, la cui traduzione all’italiano diventa
‘vendette pornografiche’, contamina l’orizzonte di quello che a tutti gli effetti si presenta
come un serio problema giuridico-sociale con immaginari inappropriati e capaci di
perpetuare una serie di soprusi spesso intrinseci, o ancor peggio silenziati, in seno alla
nostra società. Parlare nei termini di revenge significa, de facto, presupporre che le vittime
abbiano commesso un danno originale per il quale debbano essere punite; in secondo
luogo parlare di porn fraintende la natura dei materiali diffusi, che passerebbero così dalla
sfera protetta dell’intimità alla dimensione pubblica ed esposta del prodotto di
intrattenimento iscrivibile all’interno di un preciso genere di consumo di massa, quello
pornografico. Scostarsi da una categorizzazione impropria nei termini di una supposta
vendetta pornografica in favore del riconoscimento di una pratica di diffusione non
consensuale di immagini intime ci permette, allora, di far emergere e individuare una
violenza a tutti gli effetti.
Trattando di un problema sociale relativamente recente, i tre casi presentano profili
giuridici diversi per la legge italiana: solo di recente infatti il Parlamento, sospinto da un
tagico suicidio molto discusso dalla cronaca dell’epoca, ha introdotto alcune sanzioni
specifiche per reati inerenti NCDII (legge 19 luglio 2019 n. 69, nota come “Codice
Rosso”)4.
Benché il nome di questo fenomeno faccia riferimento soprattutto alle immagini (statiche, dalla parvenza
di fotografie), la NCDII investe sempre di più anche contenuti video. Pertanto, tenute in debito conto le
importanti differenze, nel nostro articolo ci riferiremo tanto alle immagini statiche quanto a quelle in
movimento.
4 La legge in questione introduce importanti modifiche in relazione alle violenze di genere conseguenti ad
atti persecutori e a maltrattamenti. La sua emanazione è strettamente collegata ai fatti di cronaca che
hanno coinvolto una giovane ragazza il cui nome è oggi diventato sinonimo dell’urgenza di politiche
capaci di inquadrare il fenomeno della diffusione non consensuale di immagini intime. Decidiamo allora
di ricordarlo, Tiziana Cantore, non per mera aneddotica ma perché in uno studio che si prefigge come
obiettivo quello che di riflettere sulle condizioni della testimoniabilità ci risulta difficile non rendere conto
dell’importante testimonianza che arrecano le persone coinvolte nella comprensione di un fenomeno.
3
66
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
E tuttavia, la legislazione italiana non si è ancora dotata di strumenti adeguati ad
affrontare una nuova variante del problema NCDII5: la diffusione di contenuti generati
artificialmente tramite tecnologie di deepfake.
1. I deepfake nell’epoca della riproducibilità tecnica
L’etichetta ‘deepfake’ indica contenuti mediali creati grazie al potere computazionale
delle moderne tecnologie di intelligenza artificiale (e in particolare le reti neurali
profonde, da cui “deep”) e impiegati potenzialmente allo scopo di ingannare (da cui
“fake”). Il principio alla base di molti deepfake è lo stesso di quelle tecniche che hanno
permesso alla Disney di riportare il volto di Peter Cushing, defunto nel 1994, nel recente
lungometraggio Rogue One (2016), riadattando i movimenti facciali di un altro attore;
solo che, nel nostro caso, i volti vengono giustapposti a contenuti di tipo pornografico.
Laddove la maggior parte dei deepfake sostituisce i volti, altri sostituiscono i corpi. È il
caso per esempio della app DeepNude. La app permette a chi ne fa uso di “svestire” dei
soggetti fotografati: una volta caricata una fotografia, è sufficiente un click per sostituire
i vestiti con simulazioni realistiche di un corpo femminile totalmente nudo compatibile
per fisionomia ritratta dalla foto. Pubblicata nel 2019, è stata ritirata solo 4 giorni dopo
in seguito a una serie di controversie – il che non ha comunque impedito che circolasse
ampiamente nel web.
Lo svestimento permesso da DeepNude sembrerebbe produrre un vero e proprio
abbaglio percettivo, un’illusione capace di sospendere l’incredulità attraverso un
meccanismo cognitivo e squisitamente semiotico: nonostante i risultati siano spesso
spuri e con frequenza arrechino le tracce di errori e glitch computazionali, l’efficacia
figurativa e comunicativa delle immagini prodotte dalla app genera agli occhi di chi le
osserva una sensazione di indistinguibilità tra l’immagine rappresentante e la realtà
rappresentata. Questo effetto ricorda il trompe-l'oeil, dove assistiamo a uno slittamento da
una significazione per somiglianza percettiva a una per contiguità spazio temporale.
Nelle parole di Massimo Leone: “l'iconicità è di fatto sostituita dall'indessicalità; ciò che
si vede non rappresenta solo una realtà significata; ciò che si vede è effettivamente tale
realtà, almeno agli occhi degli osservatori illusi” 6 . Inquadrare le immagini prodotte
attraverso l’utilizzo di reti neurali profonde all’interno di una genealogia tecnologica
della rappresentazione dell’inganno permette il riconoscimento di una ragione illusoria
comune all’epoca digitale e pre-digitale. Tuttavia, l’inganno percettivo a cui ci mettono
di fronte oggi i deepfake diventa spesso difficile da smascherare. Per questa ragione
riteniamo necessario il ritorno a una epistemologia della testimonianza come passo
dovuto per la comprensione di questi fenomeni e dei relativi risvolti sociali.
Sebbene le tecniche per creare deepfake esistessero già da tempo, la diffusione di questa
app ha sollevato particolari preoccupazioni: diverse testate ne hanno denunciato i
pericoli, e persino la trasmissione Le Iene vi ha dedicato un servizio. Ad alimentare
questi timori è il fatto che, se prima d’ora la creazione di deepfake richiedeva comunque
il possesso di certe competenze e un certo consumo di tempo, con una app come
DeepNude questo processo – e la relativa possibilità di nuocere – diventano “a portata
di click” su scala massiccia. Chiosando il titolo del celebre libro di Benjamin, possiamo
Anche se nel 2021 la deputata De Carlo ha avanzato una proposta di legge per sanzionare la diffusione
di immagini di donne nude ottenute tramite manipolazioni tecnologiche e riconducibili a persone precise.
6 La citazione, da noi tradotta, è tratta e dalla conferenza ‘Semioethics of the Visual Fake’ tenuta da
Massimo Leone in data 27 maggio 2021 presso il CY Advanced studies della Cergy Paris Université
[https://www.youtube.com/watch?v=9jjquRK2T5o&ab_channel=CYAdvancedStudies, consultato il
19/01/2022].
5
67
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
dire insomma che app come DeepNude traghettano il deepfake nell’epoca della sua
riproducibilità tecnica.
Ripensiamo ai tre casi discussi in apertura. In tutti e tre, una persona dispone (o finge di
disporre, nel caso del tentativo di truffa) di contenuti intimi ritraenti una vittima, e
nuoce (o minaccia di nuocere) diffondendo questi contenuti senza il consenso della
vittima. Ma con la diffusione massificata di tecnologie di deepfake, la condizione di
possedere (o riuscire a far credere di possedere) questo materiale intimo viene meno: se
per produrre una foto intima basta una fotografia e un click su una app, la platea dei
potenziali perpetratori di NCDII si ampia a dismisura. E diventa virtualmente
incontrollabile. Infatti, mentre è plausibile rintracciare chi ha avviato la catena di NCDII
relativa a un autoscatto intimo, che tipicamente è prodotto per un destinatario specifico,
molto più arduo (se non impossibile) sarebbe rintracciare chi ha prodotto
un’elaborazione pornografica a partire da una fotografia non intima pubblicamente
disponibile.
Ma davvero la disponibilità di deepfake condurrà inevitabilmente a questa situazione
disastrosa? Molti degli articoli giornalistici che ne trattano sembrano suggerire di sì. In
questo articolo suggeriremo però la plausibilità di uno scenario decisamente meno
pessimistico. Anticipandone i contenuti, la nostra “contro-profezia ottimista” si basa
sull’assunto che l’inflazione di deepfake promuoverà una svalutazione nel potere
testimoniale delle immagini (che si presentano come) fotografiche, svuotando così in
parte il potere di ricatto delle NCDII generate artificialmente – e potenzialmente perfino
di quelle di origine fotografica. La plausibilità di questo esito dipende da alcune
assunzioni riguardanti lo statuto epistemico delle immagini (e dei video): assunzioni che
giustificheremo nel prossimo paragrafo.
2. Lo statuto epistemico delle immagini (che si presentano come) fotografiche
Lo statuto epistemico delle immagini, e specialmente delle fotografie, è stato oggetto di
numerosi studi a cavallo tra epistemologia, semiotica ed estetica; troppi perché se ne
possa azzardare un riassunto in questa sede.
Per i nostri scopi, ci tornerà piuttosto comodo prendere a prestito una dicotomia
fondativa dell’epistemologia della testimonianza 7 : quella che vede contrapposti i
riduzionisti e gli anti-riduzionisti (Nick 2021: §1). Secondo la posizione anti-riduzionista,
che ha per ‘patrono’ il filosofo scozzese Thomas Reid, una credenza acquisita per via
testimoniale non richiede di norma giustificazioni ‘esterne’ – se non l’assenza di ragioni
per dubitare della fonte. Al contrario, per i più diffidenti riduzionisti le credenze
acquisite tramite testimonianza necessitano di una giustificazione indipendente: non a
caso il loro patrono è David Hume, campione dello scetticismo filosofico. In altre
parole, la distinzione riguarda quale sia l’opzione di default nei confronti degli stati di
cose riferiteci da altri agenti epistemici: per un anti-riduzionista la massima è “puoi
fidarti fino a prova contraria”, mentre un riduzionista richiederà una prova positiva
prima di dare per buona la rispettiva credenza.
Anche se in epistemologia della testimonianza questa dicotomia è riferita più spesso alla
dimensione normativa (quando è razionale fidarsi della testimonianza di un altro agente
epistemico?), questa distinzione può riguardare anche un’indagine descrittiva delle
nostre attitudini (quando, di fatto, tendiamo a dare per vero quanto ci viene comunicato
da un altro agente epistemico?). I problemi nascono quando il piano descrittivo del cosa
facciamo è disallineato dal piano normativo del cosa dovremmo fare.
L’epistemologia della testimonianza è quella branca dell’epistemologia sociale che si interroga sulla
conoscenza acquisita tramite la mediazione di un altro agente epistemico.
7
68
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
Ma cosa succede se, anziché un altro agente epistemico, a suggerirci degli stati di cose
sono invece delle fotografie? Sia pure per ragioni diverse, gli autori che hanno analizzato
lo statuto epistemico delle fotografie convergono nel sostenere che «the epistemically
special character of photographs is revealed by this fact: we are inclined to trust them in
a way that we are not inclined to trust even the most accurate of drawings and
paintings» (Meshkin & Cohen 2010: 70). Oppure, per dirla con Walton (1984: 247),
«Photographs are more useful for extortion; a sketch of Mr. X in bed with Mrs. Y-a full
color oil painting-would cause little consternation»; parafrasandolo, il tentativo di truffa
di cui si è parlato in apertura di questo articolo sarebbe stato (ancor) meno credibile se
l’hacker avesse minacciato di mandare un disegno delle vittime intente a fruire di materiale
pornografico!
Di fronte a un’immagine fotografica, insomma, la nostra intuizione ci porta a seguire
Reid piuttosto che Hume. Tutto sommato, possono esserci buone ragioni per credere al
fatto che le cose che vediamo nelle fotografie corrispondano a qualche stato di cose che
si è dato nel mondo8. Dopotutto, la corrispondenza tra la fotografia e la porzione di
mondo che ritrae è garantita da una genesi prevalentemente indessicale, mediata cioè da
processi causali largamente indipendenti dalla mediazione di un agente; tanto che alcuni
autori hanno difeso la tesi che osservare la foto di una casa equivale a osservare
direttamente la casa (Walton 1984); o che la fotografia sarebbe una fonte di conoscenza
percettiva, contrariamente a un’immagine come un disegno, che va considerato una
fonte testimoniale (Cavedon-Taylor 2013).
Il problema è che, anche assumendo che possano esserci buone ragioni per essere antiriduzionisti e dunque fidarsi delle fotografie, lo stesso potrebbe non valere per tutte quelle
immagini che, pur presentandosi a prima vista come fotografie, non condividono la
stessa genesi causale di tipo indessicale. È il caso per l’appunto dei deepfake. Di fronte a
un deepfake ben fatto, saremo indotti a credere di trovarci di fronte a una fotografia. A
riprova del fatto che l’attitudine dominante di fronte a queste immagini-che-si-fingonofotografie sia quella ‘reidiana’, che porta a interpretare il contenuto dell’immagine come
dotato di un referente reale, sembra militare il fatto che la versione freeware di DeepNude
contornava le immagini che produceva con un watermark che ne segnalava la natura di
‘fake’, come a voler disinnescare la fiducia che altrimenti accorderemmo ad un’immagine
simil-fotografica. (Marchio che tuttavia sparisce nella versione a pagamento, suggerendo
la malafede di chi ha messo in circolazione il software).
3. Immagini e intimità
In alcuni casi, i deepfake sono utilizzati per produrre contenuti pornografici che non
hanno alcuna pretesa di realtà, e che sono infatti esplicitamente rubricati sotto etichette
come “fake celebrity”. Anche quest’uso dei deepfake non è esente da criticità legali e
morali: ad esempio, può contribuire a perpetrare stereotipi di dominio patriarcale
(Öhman 2020) rafforzando associazioni psicologiche implicite (Harris 2021). Tuttavia, è
verosimile che a incrociare la traiettoria del fenomeno del NCDII – fulcro dell’interesse
del presente articolo – non siano i fake manifesti, quanto piuttosto le immagini con una
qualche pretesa di realtà.
La nostra ipotesi è che l’allure che queste immagini o video non consensuali esercitano
presso i loro fruitori non dipenda tanto dalle loro proprietà estetiche intrinseche. A
Ciò non significa ovviamente che la fotografia sia scevra di rischi epistemici: questi infatti aumenteranno
esponenzialmente non appena ci spostiamo dal considerare ciò che è mostrato dal contenuto della
fotografia alle inferenze che facciamo a partire da questa – ed è verosimile che non sia possibile
distinguere davvero "contenuto mostrato" e "contenuto inferito".
8
69
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
interessarli, verosimilmente, è piuttosto lo stato di cose reale a cui l’immagine si riferisce;
è il senso di intimità che la fotografia genera con la vittima ritratta. Che questo effetto di
realtà sia parte dell’allure di queste immagini (o video) sembrerebbe confermato dal fatto
che, purtroppo, le NCDII sono sovente accompagnate da informazioni personali
relative alla vittima9.
Questo senso di intimità sembra dipendere in modo importante dallo statuto epistemico
privilegiato che assegniamo alle fotografie. Ma cosa succede quando questa “promessa
di indessicalità” viene disillusa? A una domanda di questo tipo si propone di rispondere
Walton, costruendo un esperimento mentale a partire da uno degli autoritratti di Chuck
Close – dipinti che, un po’ come i deepfake, simulano le proprietà delle fotografie:
… we see Chuck Close's superrealist Self-Portrait thinking it is a photograph and learn later
that it is a painting. The discovery jolts us. Our experience of the picture and our attitude
toward it undergo a profound transformation […] We feel somehow less "in contact with"
Close when we learn that the portrayal of him is not photographic. If the painting is of a
nude and if we find nudity embarrassing, our embarrassment may be relieved somewhat by
realizing that the nudity was captured in paint rather than on film (Walton 1948: 255).
È possibile che un tale disincanto si applichi anche ai deepfake una volta che il loro
inganno viene smascherato, smorzando così l’interesse di consumatori e produttori di
deepfake finalizzati a NCDII? La nostra previsione è che in parte questo avverrà, per lo
meno nel lungo periodo. Ma intravediamo un ulteriore spiraglio di ottimismo: è
possibile che, anziché aggravare il fenomeno della NCDII, l’esplosione di deepfake
possa addirittura attenuarlo. Vediamo perché.
4. La fiducia nelle immagini (che si presentano come) fotografiche è reversibile
Precedentemente abbiamo detto che, nei confronti delle immagini che si presentano
come fotografiche, tendiamo ad assumere un atteggiamento de facto reidiano: a meno che
non vi sia qualche elemento che ci fa attivamente dubitare di loro, tendiamo a pensare
che si riferiscano a qualche stato di cose realmente esistito.
Tuttavia, non è detto che questo statuto epistemico privilegiato di cui godono le
immagini che sono o si presentano come fotografie sia necessario e immutabile. Al
contrario, vi sono ragioni di pensare che la credibilità di cui godono le immagini (che
sembrano) fotografiche dipenda da alcune conoscenze di sfondo relative alla loro
produzione (Meshkin & Cohen 2010). Prima della diffusione massificata delle tecnologie
di manipolazione digitale, era per noi scontato che un’immagine con le caratteristiche di
una fotografia avesse un’origine predominantemente indessicale: la sua genesi è legata
alla prossimità spaziale, il suo isomorfismo è garantito da rapporti di parentela causale
per lo più indipendenti dall’arbitrio umano. Ma con l’avvento e la diffusione massificata
delle tecniche informatiche di manipolazione dell’immagine, queste credenze di sfondo
stanno andando incontro all’obsolescenza: che un’immagine sembri fotografica è
sempre meno garanzia del fatto che lo sia davvero. E lo stesso vale per i video.
Con le parole di Umberto Eco potremmo dire che: “il funzionamento di un testo (anche
non verbale) si spiega prendendo in considerazione, oltre o invece del momento
generativo, il ruolo svolto dal destinatario nella sua comprensione, attualizzazione,
interpretazione, nonché il modo in cui il testo stesso prevede questa partecipazione”
([1990] 2006: s/p). È su questo terreno che si gioca la nostra scommessa sulla
reversibilità del potere dei deepfake usati per contraffare immagini intime: in quella che
Circa un quinto delle foto analizzate da Uhl e colleghi (2018) sono accompagnate da informazioni quali
il nome proprio o l’età anagrafica della vittima.
9
70
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
il semiologo definisce come intentio lectoris, ovvero l’intenzionalità comunicativa
depositata, in senso lato, dal lettore al testo empirico.
Diversi epistemologi sembrano concordare con noi sul fatto che i deepfake possano
minare la sfiducia delle immagini in generale, e guardano a questo crollo della fiducia
con preoccupazione. Ad esempio, Dan Fallis preconizza che nel futuro prossimo
«When fake videos are widespread, people are less likely to believe that what is depicted
in a video actually occurred» (2020: 3). Harris (2021) ribatte che queste preoccupazioni
siano persino esagerate, perché la maggior parte delle persone sanno già calibrare il
grado di fiducia nei confronti dei media a cui sono sottoposti anche sulla base di
informazioni esterne, quali ad esempio l’affidabilità delle fonti.
Entrambi però concordano sulla direzione verso cui ci spingeranno i deepfake: quello di
un approccio vieppiù humeano nei confronti delle immagini e dei video che sembrano
fotografie/video genuini.
Anche laddove avesse effetti negativi dal punto di vista epistemologico, questo
incremento di scetticismo prodotto dall’epidemia di deepfake potrebbe paradossalmente
sortire, sul lungo periodo, l’effetto di indebolire il loro potere di nuocere. Ripensiamo
agli esempi discussi in apertura dell’articolo. Immaginiamo un mondo in cui sia facile
realizzare fotografie o video contraffatti – e che questa facilità sia universalmente nota.
In un siffatto scenario, chi ricevesse la minaccia di veder divulgato il proprio video
durante la fruizione di pornografia darebbe probabilmente scarsissimo peso a questa
minaccia. Peraltro, quand’anche l’hacker disponesse davvero di quel video e decidesse di
divulgarlo per davvero, la vittima del ricatto potrebbe pur sempre smorzare l’imbarazzo
asserendo che si tratta di una contraffazione.
Ci preme chiarire che qui non vogliamo in alcun modo suggerire che il problema dei
deepfake usati per NCDII non vada affrontato anche con strumenti giuridici che ne
sanzionino la diffusione e tutelino le vittime. Difatti, l’esaudirsi della nostra
controprofezia ottimistica dipende da un capovolgimento degli abiti interpretativi nei
confronti delle immagini che sono o si fingono fotografiche, e un siffatto
capovolgimento richiederebbe tempi piuttosto lunghi, mentre il dolore causato dalla
NCDII rappresenta un’urgenza che non può attendere i tempi di una rivoluzione
epistemica.
E tuttavia, se abbiamo interpretato correttamente i segni che annunciavano questa
rivoluzione, c’è ragione di pensare che le domande che affliggeranno di chi, tra
trent’anni, condividesse con qualche partner delle proprie immagini o video intimi, non
saranno tanto “come assicurarsi che non divulghi indebitamente quest’apertura di
intimità?”, quanto piuttosto “crederà veramente che sia io la persona ritratta
nell’immagine?” Una profezia che ci permette di compiere un ulteriore passo: un
augurio con cui ipotizzare che in un futuro forse ad essere considerato come oggetto di
valore non sia il furto di una testimonianza intima ma la condivisione di un accordo
consensuale.
Bibliografia
Cavedon-Taylor, Dan (2013), «Photographically based knowledge» in Episteme, n. 10(3),
pp. 283-297.
71
RIFL (2021) SFL: 65-72
DOI: 10.4396/SFL2021A07
__________________________________________________________________________________
Eco, Umberto (1990), I limiti dell’interpretazione, La nave di Teseo, Milano, 2006.
Fallis, Dan (2020), «The Epistemic Threat of Deepfakes» in Philosophy & Technology»,
https://doi.org/10.1007/s13347-020-00419-2
Harris, Keith Raymond (2021), «Video on demand: what deepfakes do and how they
harm» in Synthese, n. 199, pp. 13373–13391.
Meskin, Aaron & Cohen, Johnatan (2010), Photography and philosophy: Essays on the pencil of
nature, in Walden, Scott (Ed.), Photography Philosophy: Essays on the Pencil of Nature,
Hoboken (NJ), Wiley Blackwell, 70-90.
Leonard, Nick (2021), Epistemological Problems of Testimony, in Zalta, Edward (Ed.), The
Stanford Encyclopedia of Philosophy, https://plato.stanford.edu/entries/testimonyepisprob
Öhman, Carl (2020), «Introducing the pervert’s dilemma: A contribution to the critique
of deepfake Pornography», in Ethics and Information Technology, n. 22(2), pp. 133–140.Uhl,
Carolyn A., Rhyner, Katlin J., Terrance, Cheryl A., & Lugo, Noël Lugo R. (2018), «An
examination of nonconsensual pornography websites» in Feminism & Psychology, 28(1),
pp. 50-68.
Uhl, Carolyn A., Rhyner, Katlin J., Terrance, Cheryl A., & Lugo, Noël R. (2018), «An
examination of nonconsensual pornography websites», in Feminism & Psychology, 28(1),
pp. 50-68.
Walton, Kendall L. (1984), «Transparent pictures: On the nature of photographic
realism» in Critical inquiry, n. 11(2), pp. 246-277.
72