LA RIVOLUZIONE ALGORITMICA

Deepfake: anatomia di una paura

a cura di Francesco D'Isa
Deepfake: anatomia di una paura

Siamo nel maggio del 1869. Immaginatevi un dagherrotipo in bianco e nero che ritrae un elegante lettore del New York World; il signore in tuba e doppiopetto sembra perplesso, persino spaventato – notate un fremito nel suo baffo impomatato. A provocarlo, un articolo allarmante: «Chi potrà più fidarsi dell’accuratezza di una fotografia? Finora abbiamo creduto che una foto catturasse la natura così com’è, pura e semplice. Ma ora che cosa possiamo pensare, se diventa possibile mostrare […] il fantasma di un caro estinto ritratto con una frusta in mano mentre intimidisce un gruppo di neri in un campo di cotone? Che ne sarà della reputazione e quale caos attenderà gli storici del futuro? Le fotografie sono sempre state considerate sincere come i numeri: incapaci di mentire. E invece scopriamo che possono essere trasformate in menzogne con un’accuratezza sorprendentemente ingannevole.». 

La scena si sposta più di centocinquanta anni dopo; troviamo un altro uomo, sempre elegante, sebbene secondo i nuovi dettami dell’epoca. Sta scrollando con crescente preoccupazione sul proprio smartphone, legge The Verge, una nota rivista di tecnologia. La prossemica dello scandalo è simile a quella del suo antenato – che sia simile anche la causa? Leggiamo con lui: «Abbiamo vissuto brevemente in un’epoca in cui la fotografia era una scorciatoia verso la realtà, verso la conoscenza delle cose, verso il possesso della pistola fumante. […] Ora ci stiamo lanciando a capofitto in un futuro in cui la realtà è semplicemente meno conoscibile.»

Immagine via Google Creative Commons.

Chi conosce il fenomeno del Ciclo Sisifeo del Panico Tecnologico descritto da Amy Orben non si stupirà; ogni volta che nasce un media si percorre le stesse fasi di allarme prima di arrivare all’inevitabile normalizzazione. Eppure è strano trovare a pochi anni dalla nascita della fotografia la stessa dichiarazione sul valore di testimonianza delle immagini, che oggi si suppone avere un punto di svolta con l’intelligenza artificiale.

Le fotografie, come è noto, mentivano ben prima della nascita dei software di sintesi. Le foto spiritiche ottocentesche, i composographs sensazionalistici, i montaggi propagandistici della Comune di Parigi, le cancellazioni sistematiche dell’era stalinista – tutto questo precede di decenni (e a volte di un secolo) le preoccupazioni attuali. 

Fotografia, radio, cinema, televisione, internet: ogni nuovo media ha portato con sé una crisi epistemologica, seguita da allarmi sia da parte del pubblico che delle istituzioni che detenevano il controllo sulle notizie. Come scrivono Paris e Donovan nella loro ricerca sui deepfake, “contestualizziamo il fenomeno dei deepfake all’interno della storia della politica delle prove audiovisive per mostrare che la capacità di interpretare la verità delle prove è stata opera delle istituzioni — il giornalismo, i tribunali, l’accademia, i musei e altre organizzazioni culturali. Ogni volta che un nuovo mezzo audiovisivo è stato decentralizzato, le persone hanno diffuso contenuti a nuove velocità e su nuove scale; i controlli tradizionali sulle prove sono stati messi in crisi fino a quando istituzioni della conoscenza ritenute affidabili sono intervenute imponendo una modalità di definizione della verità. In molti casi, il panico generato da un nuovo mezzo ha creato uno spazio in cui gli esperti hanno potuto acquisire potere giuridico, economico o discorsivo”.

Nonostante gli allarmi, siamo sopravvissuti a tutti i media del passato remoto e recente, dalla stampa a internet, e il nostro rapporto con la verità, da sempre problematico, non ha subito vere rivoluzioni – a parte oggi! Diranno i critici in pieno ciclo sisifeo. “A parte oggi”, dopotutto, è la frase che diciamo sempre. Ogni nuovo medium tende ad attraversare forme ricorrenti di media panic: anche l’a parte oggi! che ricorre nel dibattito si inserisce in questa lunga genealogia di ansie.

Immagine via Google Creative Commons.

Il media panic però non deve diventare una scusa per ignorare i rischi della tecnologia e nonostante la ciclicità dell’allarme e la dubbia esistenza del “valore di verità” della fotografia, dobbiamo comunque analizzare il fenomeno per capire se si tratta o meno di un rischio così grave.

Il termine deepfake nasce nel 2017 su Reddit, quando un utente pubblica una serie di video pornografici con volti di celebrità generati attraverso tecniche di deep learning. Si tratta di contenuti audiovisivi sintetici generati da modelli neurali, che apprendono a mimare il volto, la voce o il corpo di una persona. Da allora, il fenomeno ha assunto connotazioni sempre più complesse e da strumento di intrattenimento e satira è diventato una possibile arma politica o di abuso. 

Nel dibattito pubblico è diventato sinonimo di crisi epistemologica, o meglio di quella che Habgood-Coote definisce “Epistemic Apocalypse”; una narrazione apocalittica basata sulla falsa premessa della novità storica, che dimentica come le immagini manipolate non siano affatto nuove. Come mostra la letteratura recente però, l’efficacia dei deepfake come strumento di disinformazione è spesso più una paura che una realtà. Il rischio maggiore, come vedremo, non è nel realismo fotografico, ma nella retorica narrativa che accompagna l’immagine.

A sconfessare l’importanza del realismo c’è un altro fenomeno di minore celebrità; il cheapfake. Con questo termine si intendono tutti quei contenuti audiovisivi modificati senza l’interento di tecnologie complesse, come video rallentati, tagliati, accorciati, decontestualizzati o associati a titoli fuorvianti.

Durante le elezioni presidenziali statunitensi del 2020, i cheapfakes sono stati più diffusi e condivisi dei deepfake. Uno studio sistematico sulla disinformazione politica nei video mostra che le forme divenute virali erano per lo più lievi manipolazioni, clip vere decontestualizzate, accompagnate da audio o testo. Semplici messaggi adattati al frame cognitivo ed emotivo degli utenti.

È proprio questa semplicità a renderli più insidiosi. I deepfake attirano l’attenzione e suscitano sospetto, mentre i cheapfake passano inosservati. In uno studio qualitativo condotto nel 2024, i fact-checker professionisti considerano i video decontestualizzati come la forma di disinformazione più difficile da contrastare, perché richiedono lente ricostruzioni che sono spesso inaccessibili al pubblico generalista. A differenza dei deepfake, i cheapfake non devono essere “smascherati” con dei tool sofisticati, vanno ricollocati, storicizzati e restituiti al loro contesto originale.

Hameleers ha comparato l’efficacia persuasiva di questi contenuti e i risultati mostrano che i cheapfakes sono giudicati più credibili, perché si basano su materiale noto e perché l’alterazione minima ed evidente attiva meno allerta cognitiva. Studi recenti arrivano a una conclusione simile nella loro ricerca: il potere dei deepfake non è confermato sperimentalmente e nei contesti reali viene superato da forme di manipolazione più semplici, che sfruttano il contesto e la narrazione.

Un altro limite di queste manipolazioni è che più diventano sofisticate, più si espongono al sospetto. L’effetto che ne risulta è un aumento dello scetticismo, non delle credenze. La letteratura sperimentale lo ha rilevato già nel 2020, quando Vaccari e Chadwick misurarono gli effetti cognitivi dei deepfake su un campione di utenti esposti a video politici manipolati. Il risultato fu un aumento delle risposte “non so”. L’immagine restava in uno stato di sospensione epistemica, che è un effetto collaterale non trascurabile ma ben diverso da quello più discusso.

Immagine via Google Creative Commons.

Questa erosione della fiducia potrebbe avere, paradossalmente, persino dei risvolti positivi. Se la fotografia perde la sua apparente autorità di prova, anche il suo potenziale ricattatorio ne esce indebolito. È quella che Viola e Voto (2021) hanno definito una “controprofezia ottimista”: nel contesto della diffusione non consensuale di contenuti intimi la consapevolezza della falsificabilità universale potrebbe offrire alle vittime una via di fuga, una plausible deniability tecnica che il vecchio regime di verità fotografica negava. Se tutti possono falsificare delle immagini intime perfette, queste perdono di valore.

Se ci spostiamo dal piano della speculazione a quello della verifica empirica, l’apocalisse deepfake vacilla sempre di più. Una recente analisi che ha passato in rassegna tutti gli studi sperimentali disponibili al momento ha portato a una conclusione netta: non esistono evidenze empiriche che confermino un effetto specifico e univoco dei deepfake sulle credenze o sulle opinioni politiche. Il loro impatto, quando rilevabile, è simile a quello di testi fuorvianti, fotografie alterate, narrazioni tossiche già note. 

Il problema, se c’è, non è che crediamo ai deepfake, ma che iniziamo a dubitare anche del materiale autentico. Lo studioso Keith Raymond Harris identifica questo fenomeno come “minaccia scettica” (skeptical threat): la semplice consapevolezza che esistano tecnologie in grado di falsificare le immagini ne riduce il valore probatorio. Qualcosa che se ci pensiamo era già accaduto col fotoritocco, sin dagli albori del mezzo.

La percezione di credibilità nei video manipolati dipende dalla congruenza tra messaggio, attore politico rappresentato e frame dell’utente. Un deepfake che metteva in bocca a un politico un discorso anti-immigrazione veniva considerato falso se quel politico era noto per posizioni progressiste. Lo stesso contenuto, invece, in forma cheapfake – ad esempio un montaggio di frasi reali estrapolate e riassemblate – veniva accettato con meno resistenze. La fonte, la piattaforma, il tono, la reputazione del mittente – tutto questo incide più della risoluzione dell’immagine o del realismo impeccabile di un movimento labiale. Se una notizia – vera o falsa – è attribuita a una fonte credibile, l’utente tende a crederla. Se invece lo stesso messaggio appare su un canale ritenuto poco affidabile, anche un’immagine perfetta genera dubbi.

L’idea che la falsificazione visiva sia un’emergenza recente regge solo se si dimentica che le immagini hanno sempre mentito.  “To photograph is to frame, and to frame is to exclude,”, scriveva Susan Sontag; ogni fotografia è una scelta e una scelta può già essere una menzogna.

La manipolazione visiva comincia con la scelta del punto di vista, con ciò che resta fuori campo, con il momento dello scatto. Lo sapevano bene gli operatori propagandistici della Prima Guerra Mondiale, lo sapevano i registi degli anni Trenta, lo sapevano i regimi totalitari che rimuovevano volti dalle fotografie ufficiali. In epoca stalinista, intere sequenze iconografiche venivano riscritte. Nikolaj Ezov, alto funzionario sovietico, venne fotografato accanto a Stalin sul molo di Mosca. Dopo la sua caduta, quella stessa immagine circolò senza di lui. La verità del documento si dissolve nella volontà del potere.

Ma non serve arrivare alla censura politica per osservare come l’immagine costruisca il reale più che registrarlo. Durante la Prima Guerra del Golfo, le foto diffuse dall’esercito americano mostrarono l’autostrada 80 – quella che portava dal Kuwait a Bassora – disseminata di mezzi militari iracheni distrutti. Mancavano i corpi, si vedevano solo veicoli carbonizzati. Sono scappati? Sono stati rimossi? Non lo sappiamo. Spesso è la verità per omissione a costruire l’effetto più persuasivo e il campo visivo, che diamo per neutro, è sempre parziale. 

L’idea che una foto “non menta” perché registrazione automatica della luce è un mito moderno, perché la verità – se mai esiste – non abita nelle immagini, ma nelle storie che intrecciamo attorno a loro. Se i deepfake ci faranno smettere di credere all’inesistente valore di verità delle immagini, bé: benvenuti deepfake.

Bibliografia:

Ching, Didier, John Twomey, Matthew P. Aylett, Michael Quayle, Conor Linehan, & Gillian Murphy. 2025. “Can Deepfakes Manipulate Us? Assessing the Evidence via a Critical Scoping Review.” PLOS ONE 20(5): e0320124.

Drotner, Kirsten. 1999. “Dangerous Media? Panic Discourses and Dilemmas of Modernity.” Paedagogica Historica 35, no. 3: 593–619.

Fineman, Mia. 2012. Faking It: Manipulated Photography Before Photoshop. New York: The Metropolitan Museum of Art; New Haven: Yale University Press.

Gërguri, Dren. 2024. “Cheapfakes.” In Elgar Encyclopaedia of Political Communication, edited by Alessandro Nai, Max Grömping & Dominik Wirz. Cheltenham: Edward Elgar (in corso di stampa).

Habgood-Coote, Joshua. 2023. “Deepfakes and the Epistemic Apocalypse.” Synthese 201: 103.

Hameleers, Michael. 2024. “Cheap Versus Deep Manipulation: The Effects of Cheapfakes Versus Deepfakes in a Political Setting.” International Journal of Public Opinion Research 36(1): edae004.

Harris, Keith Raymond. 2024. Misinformation, Content Moderation, and Epistemology: Protecting Knowledge. London–New York: Routledge.

Jeong, Sarah. 2024. “Google’s Pixel 9 Is a Lying Liar That Lies.” The Verge, 22 agosto 2024.

Orben, Amy. 2020. “The Sisyphean Cycle of Technology Panics.” Nature Human Behaviour 4: 920–922.

Paris, Britt, & Joan Donovan. 2019. Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence. New York: Data & Society Research Institute.

Sontag, Susan. 2003. Regarding the Pain of Others. London: Penguin Books.

Tucher, Andie. 2022. Not Exactly Lying: Fake News and Fake Journalism in American History. New York: Columbia University Press.

Vaccari, Cristian, & Andrew Chadwick. 2020. “Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News.” Social Media + Society 6(1): 1–13.

Vaccari, Cristian, Andrew Chadwick, Natalie-Anne Hall, & Brendan Lawson. 2025. “Credibility as a Double-Edged Sword: The Effects of Deceptive Source Misattribution on Disinformation Discernment on Personal Messaging.” Journalism & Mass Communication Quarterly 102(1): 1–30.

Viola, Marco, & Cristina Voto. 2021. “La diffusione non consensuale di contenuti intimi ai tempi dei deepfake: una controprofezia ottimista.” Rivista Italiana di Filosofia del Linguaggio (RIFL): 65–72.

Weikmann, Teresa, & Sophie Lecheler. 2024. “Cutting through the Hype: Understanding the Implications of Deepfakes for the Fact-Checking Actor-Network.” Digital Journalism 12(10): 1505–1522.

Francesco D’Isa

Francesco D’Isa, di formazione filosofo e artista digitale, ha esposto internazionalmente in gallerie e centri d’arte contemporanea. Dopo l’esordio con la graphic novel I. (Nottetempo, 2011), ha pubblicato saggi e romanzi per Hoepli, effequ, Tunué e Newton Compton. Il suo ultimo romanzo è La Stanza di Therese (Tunué, 2017), mentre per Edizioni Tlon è uscito il suo saggio filosofico L’assurda evidenza (2022). Le sue ultime pubblicazionio sono la graphic novel Sunyata per Eris edizioni (2023) e il saggio La rivoluzione algoritmica delle immagini per Sossella editore (2024). Direttore editoriale della rivista culturale L’Indiscreto, scrive e disegna per varie riviste, italiane ed estere. È docente di Filosofia presso l’istituto Lorenzo de’ Medici (Firenze) e di Illustrazione e Tecniche plastiche contemporanee presso LABA (Brescia).