Post Diritti Digitali Media Literacy

I deepfake stanno trasformando il corpo delle donne in merce digitale

5 Ottobre 2025 9 min lettura

author:

I deepfake stanno trasformando il corpo delle donne in merce digitale

Iscriviti alla nostra Newsletter

9 min lettura

All’inizio del 2024, Taylor Swift vive il suo momento d’oro: la popstar americana è nel pieno del suo The Eras Tour, domina Spotify con oltre 26 miliardi di ascolti ed è al centro della cronaca rosa per la relazione con il campione di football Travis Kelce. Swift non si è ancora esposta politicamente sostenendo la candidata democratica Kamala Harris, poi sconfitta da Donald Trump nelle elezioni presidenziali di novembre, è la beniamina degli statunitensi, amata dalla folla. Eppure, il 24 gennaio, nel mezzo di questa stagione trionfale, la sua immagine viene travolta da uno scandalo digitale: sul web iniziano a circolare immagini artefatte che la ritraggono in pose esplicite, in contesti legati alla squadra del compagno, i Kansas City Chiefs, o ai tifosi sugli spalti. Immagini grottesche, palesemente contraffatte, ma che sono state condivise massicciamente, divenendo virali.

Con oltre 45 milioni di visualizzazioni e centinaia di migliaia di interazioni, la piattaforma X si è trovata a bloccare la pubblicazione di contenuti legati all’artista per tentare di arginare la diffusione delle immagini. Non era la prima volta che l’immagine di Taylor Swift veniva manipolata senza consenso, tuttavia non era mai capitato che il fenomeno raggiungesse una simile portata. L’episodio rappresenta un caso emblematico di come l’avvento degli strumenti di generazione di immagini basati sull’intelligenza artificiale abbia semplificato la creazione e la diffusione di falsi, noti come “deepfake”, capaci di convincere il grande pubblico dell’esistenza di avvenimenti che sono inventati di sana pianta.

Portata e diffusione del deepfake

Un deepfake, di per sé, non nasce necessariamente con intenti malevoli o sessuali, tuttavia i dati rivelano uno spaccato applicativo estremamente ristretto. Secondo il report Lo stato dei deepfake pubblicato da Deeptrace Labs nel 2019, il 96% dei video deepfake allora disponibili online rappresentavano clip erotiche manipolate per produrre media sintetici estremamente realistici. Il 100% di questi rappresentava soggetti di sesso femminile, in gran parte celebrità ma anche persone comuni. All’epoca, i ricercatori avevano contato circa 14.678 contenuti di questo tipo, circa il doppio di quanti non ne avevano misurati solamente nel 2018. Da allora la diffusione è cresciuta a ritmo martellante, favorita da app e servizi che in pochi istanti “nudificano” o alterano foto e video caricati dagli utenti. Nel luglio 2024, la commissaria australiana per la sicurezza online, Julie Inman Grant, stimava un aumento annuo della produzione di deepfake pornografici pari al 550% dal 2019 in avanti. Secondo i dati da lei citati, il 99% del materiale deepfake presente in rete è composto da video pornografici, i quali rappresentano nel 99% dei casi rappresentazioni di donne o ragazze minorenni.

“Oggi chiunque, partendo da una foto qualsiasi reperita online, può generare in pochi minuti immagini e video sessuali falsi spogliando o sovrapponendo volti con strumenti pronti all’uso”, spiega a Valigia Blu un portavoce di PermessoNegato, associazione italiana che fornisce supporto gratuito, tecnico e legale alle vittime di diffusione non consensuale online di materiale intimo. La semplificazione dell’atto di creazione dei falsi ha industrializzato la produzione degli stessi, ma le cause del fenomeno si estendono ben oltre l’esistenza di queste app e si inseriscono in fattori socio-culturali legati al sessismo che normalizzano la violenza mediatica verso il corpo femminile. “I soggetti attuatori sono eterogenei: si va dagli ex partner o conoscenti che proseguono dinamiche di controllo e ritorsione, a gruppi di pari e comunità online che ‘giocano’ a produrre e scambiarsi immagini di compagne di scuola, colleghe o perfette sconosciute, fino ad attori opportunisti o criminali che, sfruttando l’anonimato e l’automazione, creano contenuti per estorcere denaro o dirigere traffico verso siti monetizzati”.

Secondo l’associazione la condivisione non consensuale di deepfake che simulano materiale intimo fa leva su dinamiche differenti da quelle vissute tradizionalmente: la vittima, consapevole che le immagini sono false, tende a provare meno sensi di colpa, tradimento o vergogna, emozioni che di solito derivano dal peso di un giudizio sociale che colpevolizza chi ha scattato o condiviso – anche in forma privata e confidenziale – fotografie intime. Prevale invece un sentimento di alienazione e di espropriazione dell’identità: il proprio volto diviene replicabile e rimodellabile all’infinito, senza limiti o controllo. Con il progressivo affinamento degli strumenti di intelligenza artificiale, però, non è affatto scontato che chi si imbatte in questi contenuti sia in grado di riconoscerne l’origine artificiosa. In questo modo si conserva l’elemento dello stigma sociale, generando frustrazione nelle persone coinvolte, le quali si trovano a dover dimostrare che ciò che circola online non è una loro vera rappresentazione.

Le molte cause dietro ai deepfake

La diffusione di deepfake a sfondo sessuale si intreccia spesso con dinamiche di controllo, fantasie di stupro e meccanismi sociali che rafforzano l’appartenenza a un gruppo. Casi di cronaca ci insegnano inoltre che questa pratica non sia confinata a fasce anagrafiche adulte: nel settembre 2023 è emerso che ad Almendralejo, in Spagna, un gruppo di adolescenti era solito creare e diffondere sui social immagini manipolate delle coetanee. Sono state contate almeno 20 vittime, tutte di età compresa tra gli 11 e i 17 anni. 

La sessualizzazione delle vittime non è però l’unico motore che alimenta questi abusi. Nel 2023, l’FBI ha segnalato un aumento dell’uso di immagini generate dall’IA finalizzate al ricatto o alla molestia, pratiche mirate a estorcere materiale reale a sfondo sessuale o, più comunemente, somme di denaro. I deepfake pornografici vengono anche impiegati per screditare figure pubbliche: nel 2020 un video pornografico manipolato aveva come protagonista l’attuale premier Giorgia Meloni, mentre nel 2024 la giornalista indiana Rana Ayyub è finita nel mirino di un influencer vicino al movimento suprematista Hindutva, il quale non solo ha diffuso nudi sintetici della professionista, ma ha anche reso pubblici online i suoi recapiti, esponendola a una campagna di molestie.

I deepfake dimostrano di avere usi applicativi controversi, tuttavia le aziende coinvolte non cercano di prendere le distanze, anzi, occasionalmente si fanno vanto di come i loro prodotti possano essere impiegati a scopi illegali. L’app FaceMega, ad esempio, ha lanciato su Meta una campagna promozionale in cui le fattezze della star del cinema Emma Watson venivano sovrapposte su quelle di un’attrice pornografica. Questo nonostante i termini di servizio dell’app vietassero esplicitamente la creazione di contenuti sessuali o l’uso senza consenso di immagini di terzi. Emma Watson, si è scoperto poi, non era stata interpellata.

FaceMega e altre app simili prosperano grazie a servizi di abbonamento e a “crediti” spendibili per sfruttare le funzioni avanzate dei rispettivi programmi. Un’indagine della testata Indicator ha censito 85 portali di “nudificazione”, i quali hanno accumulato nell’arco di sei mesi 18,5 milioni di visite, con i ricavi annui che sono stimati in 36 milioni di dollari. Una parte di questi profitti ricade a cascata anche sulle Big Tech: 62 di questi 85 siti si appoggiano ai servizi di hosting di Amazon e Cloudflare, mentre 54 impiegano i sistemi di autenticazione di Google.  A trarne profitto sono anche i circuiti di pagamento, quali Visa e Mastercard. Persino Meta, dal canto suo, ha consentito la creazione– e, in alcuni casi, ha sviluppato direttamente – di chatbot che impersonano celebrità come Scarlett Johansson, Anne Hathaway, Selena Gomez e Taylor Swift, mettendo a disposizione online degli avatar che sono capaci di intrattenere conversazioni erotiche e inviare foto in lingerie generate attraverso gli strumenti di IA.

Linee di difesa per contrastare il deepfake

Il vademecum del Garante della Privacy offre poche armi per tutelarsi dai deepfake. In sostanza, invita a “evitare di diffondere in modo incontrollato immagini personali o dei propri cari”, un consiglio che, in un mondo in cui la vita sociale e lavorativa passa inevitabilmente dal web, risulta di fatto impraticabile. Prevenire del tutto il rischio di diventare bersaglio di immagini sintetiche è impossibile, a meno di non adottare un ascetismo digitale radicale. Ciò che è possibile fare è agire per chiedere la rimozione dei contenuti illegali pubblicati online, un iter che però spesso viene trascurato perché percepito come lento e complesso. Per sopperire a questa criticità sono nate negli ultimi anni diverse realtà che si occupano di gestire casi di odio, molestie e revenge porn e che oggi estendono i propri servizi anche al fronte dei deepfake. Associazioni come PermessoNegato sono in grado di supportare le vittime sin dai primi passi, sia sul piano tecnico che su quello legale, nonché sul contesto psicologico. Parallelamente esistono soluzioni come StopNCII, uno strumento che, entrando in dialogo con le aziende, permette agli utenti di segnalare in via anonima i contenuti da identificare e rimuovere. Una soluzione accessibile, ma che richiede collaborazione da parte dei portali, i quali non sempre dimostrano di essere attenti o solerti. X, per esempio, si è addirittura opposta ai più recenti requisiti normativi. 

Sul piano giuridico è inoltre possibile appoggiarsi sulla recente legge italiana sull’Intelligenza Artificiale. Approvato il 17 settembre 2025, questo insieme di norme non ha mancato di suscitare critiche per la sua posizione dichiaratamente “pro-innovazione”, la quale privilegia l’integrazione imprenditoriale dell’IA e pone direttamente nelle mani delle agenzie governative l’onere di verificare che il Governo non abusi di questi strumenti. Il pacchetto introduce però anche nuovi reati, tra cui l’obbligo di etichettare i deepfake e l’Art. 612-quater, ovvero l’“Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. L’introduzione delle leggi prevede la reclusione da uno a cinque anni per “chiunque cagiona un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l'impiego di sistemi di intelligenza artificiale”.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Un altro possibile percorso normativo di contrasto ai deepfake trova forma nel Digital Services Act (DSA) europeo, il quale responsabilizza le Big Tech reticenti imponendo loro obblighi di trasparenza e un sistema di segnalazione più efficiente per i contenuti illegali. In questa cornice, AlgorithmWatch ha lanciato a metà agosto Let’s Stop Nudification Apps Together!, un’iniziativa che raccoglie le segnalazioni dagli utenti per mappare gli strumenti di “sessualizzazione non consensuale”. “Ci basiamo sui principi di ricerca tradizionali dei social media, nel senso che raccogliamo parole chiave – i nomi delle app, dei siti o parole in codice che le persone adoperano per diffondere tra di loro questi sistemi – e a quel punto, diciamo: ‘questa app è stata notata su Instagram, cosa succede se abbiamo un sistema che la cerca anche su Facebook, l’App Store di Apple, Google Play e X e che è in grado di monitorare la sua distribuzione?’”, spiega a Valigia Blu Oliver Marsh, responsabile della ricerca tecnologica del gruppo. “Possiamo dunque osservare gli account che parlano dei programmi a noi noti e controllare se ne citano altri che non conosciamo. Diventa un processo circolare: trovi un’app, l’app ti porta a degli account, gli account ti conducono a ulteriori app”. L’iniziativa è al tempo stesso uno strumento concreto per arginare il fenomeno e un banco di prova per verificare la reale capacità dell’Unione Europea di far rispettare le regole digitali. “Se X si rifiuta di fornire i dati necessari alle ricerche su un fenomeno che molti considerano gravemente lesivo della dignità umana, allora è legittimo domandarsi: se il Digital Services Act non viene applicato proprio in casi come questo, quale significato ha davvero?”, conclude Marsh.

Resta però un nodo di fondo: la diffusione non consensuale di immagini non è un problema tecnologico, ma culturale. Le norme, da sole, rischiano di trasformarsi in strumenti di censura poco efficaci. Peggio ancora, possono diventare pretesti utili a rafforzare i meccanismi di sorveglianza dei governi autoritari. “Il cambiamento dovrebbe essere posto a livello culturale e sociale: finché la società continuerà a percepire queste pratiche come intrattenimento o forme di trasgressione esenti da conseguenze, e non come violenza vera e propria attuata in modalità digitale, le vittime resteranno esposte e isolate”, spiega a Valigia Blu il portavoce di PermessoNegato. “Molte delle dinamiche che portano alla diffusione non consensuale di contenuti intimi non nascono da ‘devianza’, ma da un’assenza di cultura del rispetto, del consenso e della responsabilità digitale. Per questa ragione l’educazione nelle scuole e nelle comunità gioca un ruolo centrale nel sensibilizzare sull’importanza del consenso e il riconoscimento dell’altro”. Un’importanza di rilievo l’hanno però anche i media: da loro ci si aspetta non solo un’informazione corretta, ma anche la capacità di promuovere una cultura diversa, che sia capace di rafforzare comunità più consapevoli e solidali. Una cultura in cui le vittime non si sentano isolate o colpevolizzate, in cui gli spettatori imparino a intervenire e a denunciare, e nella quale chi potrebbe trasformarsi in autore possa essere dissuaso da un diffuso senso di rispetto collettivo.

Immagine in anteprima: frame video FirstPost via YouTube

Scrivi un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


CAPTCHA Image
Reload Image

Segnala un errore