Post Contropropaganda Diritti Digitali

X è diventata una fabbrica di deepfake pornografici: non è stato un incidente, ma una scelta politica

26 Gennaio 2026 9 min lettura

X è diventata una fabbrica di deepfake pornografici: non è stato un incidente, ma una scelta politica

Iscriviti alla nostra Newsletter

8 min lettura

Nelle prime due settimane di gennaio 2026 il social X è diventato praticamente una fabbrica di pornografia deepfake, molto spesso avente per oggetto minori. E chiariamolo da subito: non è stato un incidente di percorso.

La trasformazione di X in uno strumento di propaganda e violenza è iniziata sin da quando Elon Musk ha acquistato la piattaforma per un valore molto superiore a quello a cui era valutata. Sotto la sua guida il social dell’uccellino blu è diventato una zona franca: prima per neonazisti e suprematisti bianchi assortiti - con il segnale importante del ripristino degli account appartenenti all’ultra nazionalista Nick Fuentes (quello di “Your body, my choice”) e al suprematista britannico Tommy Robinson (a cui Musk ha anche coperto le spese legali in più occasioni) - poi il paradiso delle bot farm est-europee e russe, come loro stessi hanno (inavvertitamente?) mostrato a novembre scorso con la funzione “About This Account”. Sorvolando sulla retorica farlocca della libertà di parola sbandierata da Musk, sistematicamente smentita dai fatti, l’evoluzione in un luogo, per quanto virtuale, dove la guerra al "woke mind virus" sarebbe diventata più importante di qualunque altra cosa, compresa la tutela dei minori e del corpo delle donne, per X è stata un processo naturale.

Il punto di non ritorno, senza stupire nessuno, ha un nome: Grok. L’IA embedded di X ha ricevuto un upgrade a inizio anno, basato sul modello Flux dell'europea Black Forest Labs, che le permetteva di modificare arbitrariamente, e senza consenso, qualunque immagine caricata sulla piattaforma appartenente a qualunque account.

Partiamo dal presupposto che stiamo parlando della stessa IA che mesi fa si autodefiniva “MechaHitler” e negava l’Olocausto, soggetta fin dalla sua nascita a una serie di fine tuning fortemente voluti da Musk che la rendessero una IA anti-woke; quindi - se sapete cosa intende questa gente per woke (e non è detto che lo sappiate né che sia la stessa definizione che date voi) - questo sviluppo non è inatteso.

E di sicuro non è inevitabile. Nessuna tecnologia è realmente neutrale ma, se prendete i generatori di immagini di OpenAI o Google, i deepfake non consensuali o i materiali CSAM (Child Sexual Abuse Material) vengono bloccati all’origine; i test di sicurezza comparativi sono chiari: senza il "system prompt" etico, Grok ha un punteggio di sicurezza dello 0,3% contro il 33% di GPT-4. Ovviamente non perché chi sta alla guida delle altre Big Tech abbia un minimo di etica - non esiste capitalismo etico - ma perché permane ancora una soglia di attenzione all’autotutela legale. Nessuno vuole cause miliardarie, neanche chi se le può permettere.

Quando a Musk è stato fatto notare che il suo nuovo generatore di immagini non era esattamente il "Ghibli-like" che tutti si aspettavano dopo il trend di ChatGPT, la sua risposta è stata un tweet: “È molto più divertente”. Seguito dall’emoji che ride con le lacrime agli occhi.

Il "divertimento" di Musk ha però preso una piega molto specifica il 5 gennaio, quando Ashley St. Clair (autrice conservatrice e madre del quattordicesimo figlio di Musk) ha denunciato la creazione di deepfake basati su sue foto. L'IA non si è limitata al presente: ha accettato di manipolare foto di lei risalenti a quando aveva 14 anni. La reazione di X alle dichiarazioni dell'influencer neocon è stata la demonetizzazione del suo account.

Il 7 gennaio, come riportato dal Times, è emerso un utilizzo di Grok che va oltre l'abuso sessuale, sfociando nell'odio razziale e nell'antisemitismo. L'IA è stata usata per manipolare le foto di una discendente di sopravvissuti all'Olocausto. Non si sono limitati a spogliarla: l'hanno vestita di simboli nazisti e l'hanno collocata digitalmente all'interno del campo di concentramento di Auschwitz. Quando pensi che questa gente abbia toccato il fondo, in genere scopri che sanno scavare molto bene.

La reazione dopo la conseguente inevitabile shitstorm non è stata correggere il codice per allinearsi agli standard di sicurezza mondiali. In X hanno inizialmente reagito rendendo la generazione di immagini accessibile solo agli utenti paganti e, solo successivamente e sotto enorme pressione, hanno esteso i filtri sui deepfake anche a loro. La mossa iniziale non è stata eliminare qualcosa che stava fornendo strumenti ai predatori sessuali, ma provare a monetizzarlo (i piani Premium+ sono aumentati fino a 40 dollari) e a deresponsabilizzare la piattaforma con il tracciamento della carta di credito.

Ovviamente sono partite le solite difese d'ufficio: "Grok è come Photoshop". Che è un'idiozia fatta e finita. Photoshop, come altri strumenti simili, è passivo. È subordinato alla skill dell'utente. Un’IA generativa compie un atto attivo. Se un modello accetta di assemblare pixel per violare il corpo di una donna o di un minore sta solo soddisfacendo una richiesta. E se l’azienda lo sa e ci lucra sopra, non è un fornitore di software. È un complice.

La cosa su cui però vorrei focalizzare l'attenzione - e che nel discorso intorno ai fatti non credo abbia avuto il giusto peso - è che questo, come mostrano i casi che citati in apertura, non sembra affatto un imprevisto per Musk e la sua piattaforma social ad personam. Dopo la sua svolta conservatrice e dopo il suo ingresso prepotente nel mondo dei social, Musk si è rivolto subito al pubblico della brigata “anti-woke”: trad ultraconservatori, neonazi, gamergater, redpillati, anime boys e manosfera in generale, che sclerano se il personaggio femminile di un videogioco o di un qualunque prodotto di intrattenimento non è sufficientemente bianca e “scopabile” e chiamano "libertà di parola" il bullismo e il doxing. Il ripristino degli account problematici di cui ho parlato in intro è stato mascherato dietro la sua retorica sul free speech, ma i fatti successivi hanno suggerito altro: Musk ha fatto squadra con alcune figure particolarmente problematiche, prima mostrando appoggio verso contenuti antisemiti, poi spostandosi sul mondo del gaming a fianco dei peggiori grifter come Mark Kern/Grummz o Asmongold - rispettivamente un ex game dev di Activision/Blizzard caduto in disgrazia e un ex streamer di World of Warcraft riciclatosi come opinionista politico ultra-conservatore - utilizzando il gaming come campo di battaglia contro la DEI, il femminismo e il "cultural marxism" (qualunque cosa significhi per loro).

Non è una strategia nuova, lo aveva capito lo stesso Steve Bannon ai tempi in cui WoW aveva 16 milioni di utenti attivi che il mondo del gaming online era una miniera d’oro per intercettare un pubblico maschile, solo e arrabbiato. Tutte le strategie di propaganda del suo Breitbart e di Milo Yiannopoulos si rivolgevano a quel target. Il Gamergate che ne scaturì è ancora lì dopo 11 anni a ricordarci uno dei momenti peggiori di internet.

Neanche un anno fa Musk si spacciava pro player di Diablo e Path of Exile 2 per solidificare la sua posizione di leader autonominato dei gamer nerd (per poi essere sbugiardato come uno che pagava altri per giocare al posto suo). Poco tempo dopo lanciava una campagna contro il videogioco gdr Avowed perché durante la creazione del personaggio  era possibile scegliere i pronomi they/them. Al punto da arrivare a telefonare al CEO di Xbox Games per chiedere spiegazioni. Tutte azioni anche troppo palesemente volte a ergersi come portavoce di un sistema ideologico piuttosto riconoscibile.

Non è un caso se il Pentagono ha annunciato di voler adottare Grok per le reti militari. Il Segretario della Difesa ha dichiarato esplicitamente che useranno l'IA di Musk perché opera "senza vincoli ideologici" e perché "non sarà woke", ignorando deliberatamente che è un colabrodo di sicurezza informatica capace di allucinare fatti storici.

Il rapporto con il corpo delle donne (anche minori) rivelato dalle applicazioni di Grok aderisce perfettamente al profilo psicologico di queste sottoculture maschili alimentate da paura, insicurezza e sessualità irrisolta. Quelle a cui fa la corte l’amministrazione Trump quando manda il figlio Barron a coordinare l'ecosistema dei brocast. Le stesse a cui Musk guardava quando ha acquistato la piattaforma di Jack Dorsey e ha modificato l'algoritmo in modo che i suoi tweet diventassero virali di default.

Quindi non raccontiamoci fesserie parlando di una svista: il loro eroe gli ha fornito un nuovo strumento per colpire chi odiano.

Mentre in molti tacevano, la Francia ha deciso di attivarsi. Il 2 gennaio 2026, la Procura di Parigi ha ufficialmente esteso l'indagine penale contro X - già aperta a luglio per manipolazione degli algoritmi - includendo ora il reato di diffusione di pornografia deepfake non consensuale. La reazione politica al tentativo iniziale di Musk di "risolvere" il problema col paywall è stata piuttosto proporzionata. La Ministra delegata al Digitale, Anne Le Hénanff, ha bollato la strategia di X come "ipocrisia manifesta": se la piattaforma è tecnicamente in grado di bloccare i deepfake per gli utenti gratuiti, può farlo per tutti.

Keir Starmer nel Regno Unito è uscito dal letargo e ha avviato un dialogo con Canada e Australia per un possibile divieto internazionale di X. È tornato l'orsacchiotto puccioso del capitale che è sempre stato, pochi giorni dopo, sia chiaro. Ma il fatto che si sia spinto anche lui a fingere un minimo di etica significa che la situazione era davvero fuori controllo.

In Italia, stranamente, il Garante della Privacy ha mostrato i denti contro altre IA, bloccando a ottobre l'app di "nudificazione" ClothOff e ancora prima fermando l'IA cinese DeepSeek. Eppure, ancora non sembra aver fatto niente di concreto per l’IA di X. Ma forse hanno altro a cui pensare.

Persino negli Stati Uniti la narrazione della "libertà di parola" si è schiantata contro la realtà. Il 14 gennaio il Procuratore Generale della California, Rob Bonta, ha aperto un'indagine su xAI, definendo la piattaforma un "terreno di caccia per predatori".

Ma il vero problema legale per Musk è federale e si chiama TAKE IT DOWN Act. Firmata nel maggio 2025, questa legge criminalizza la pubblicazione di certi contenuti e impone la rimozione entro 48 ore. La causa di Ashley St. Clair potrebbe far cadere lo scudo della Sezione 230 (che protegge i social dalla responsabilità sui contenuti): l'accusa sostiene che X non sia più un semplice ospite di contenuti, ma il creatore materiale dell'abuso.

Indonesia e Malesia sono stati i primi paesi a bloccare completamente l'accesso al chatbot non appena il caso è scoppiato (incidentalmente luoghi in cui la tutela dei minori è oggetto di particolare attenzione). E le reazioni internazionali sono state talmente forti che alla fine, il 15 gennaio, X ha deciso di eliminare la funzione di creazione di immagini basate su persone reali per tutti gli utenti e ha implementato il geoblocking. Mettendo un punto, per ora, a tutta la faccenda. Ma gli interrogativi che ci rimangono riguardano proprio quanto vada regolamentata questa tecnologia, che può diventare un pericolo reale per fasce di utenza più vulnerabili, e quanto sia forte da parte di qualcuno la volontà di usarle per fini specifici.

Tempo fa mi sono imbattuto in un reel in cui l’autore faceva finta di essere un alieno che osserva la Terra rimanendo a bocca aperta nel vedere come ogni avanzamento tecnologico venisse trasformato in un’arma. Con l’IA sta succedendo la stessa cosa.

Iscriviti alla nostra Newsletter


Come revocare il consenso: Puoi revocare il consenso all’invio della newsletter in ogni momento, utilizzando l’apposito link di cancellazione nella email o scrivendo a info@valigiablu.it. Per maggiori informazioni leggi l’informativa privacy su www.valigiablu.it.

Flux e gli altri modelli non mainstream di generazione di immagini non sono di facilissima accessibilità e ragionevolmente la proliferazione dei deepfake e dei contenuti CSAM su X è avvenuta a causa della componente gratuita della funzione. Ma il pull effect dell'offerta deregolamentata ha scoperchiato il vaso di Pandora della domanda latente: là fuori c'è gente che ha il desiderio di utilizzare i deepfake AI per certi scopi e l'appartenenza più o meno netta a certi gruppi sostanzialmente radicalizzati e violenti non lascia presagire nulla di buono. Siamo sicuri sia una buona idea lasciare uno strumento del genere in mano a gente che viene da 4chan e pende dalle labbra di Nick Fuentes o Andrew Tate?

Individui come Elon Musk, che a quell'utenza attingono per alimentare il proprio brand pubblico e, in ultima analisi, parte del proprio peso culturale e politico, sono disposti a usare la propria immensa ricchezza per fornire loro gratuitamente gli strumenti utili a soddisfare le fantasie più violente se questo contribuisce ad alimentare la loro popolarità. Nel caso di Musk, ripetiamolo, è letteralmente il motivo per cui ha acquistato l'ex Twitter in primo luogo. Il mercato non si regolerà da solo, cosa che non accade mai nonostante le favole che ci raccontano da quasi mezzo secolo. E quello che è successo su X è la rappresentazione chiara di quello che provoca la deregulation su certe tecnologie. Se l'IA può essere un'arma forse sarebbe il caso di trattarla come tale anche quando si parla di regole.

Immagine in anteprima: frame video YouTube

Scrivi un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *


CAPTCHA Image
Reload Image

Segnala un errore