deepfake

Donne spogliate su Grok, il mondo si indigna: ma è problema aperto



Indirizzo copiato

Una funzione di Grok su X ha permesso per giorni di creare deepfake sessuali da foto reali, spesso senza consenso e talvolta con minori. Dalle testimonianze raccolte dalla BBC alle segnalazioni in Francia, fino alla richiesta formale dell’India e l’indagine UE in corso, emerge un problema strutturale di governance. Che fare?

Pubblicato il 7 gen 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



Grok deepfake sessuale

Una nuova funzione di Grok, l’AI integrata nella piattaforma X, ha consentito per giorni la generazione e la diffusione di immagini sessuali deepfake a partire da fotografie reali, spesso senza consenso e in alcuni casi coinvolgendo minori.

Uno scandalo su cui ora indaga anche la Commissione europea, come annunciato in questi giorni.

La notizia, emersa inizialmente come fenomeno virale, ha rapidamente assunto una dimensione internazionale: testimonianze di vittime raccolte dalla BBC, indagini penali avviate in Francia e un’azione amministrativa formale del governo indiano.

Lungi dall’essere un incidente isolato o un semplice abuso tecnologico, il caso Grok mette in luce un problema strutturale: l’asimmetria tra la potenza delle tecnologie generative e la capacità delle istituzioni di governarne gli effetti.

Grok genera deepfake sessuali di minori, indaga la Commissione europea

In un contesto in cui basta una fotografia pubblicata online per diventare bersaglio di nudificazione forzata, il confine tra innovazione e violazione della dignità personale diventa sempre più fragile.

Come i deepfake sessuali diventano un’arma con un semplice prompt

Il punto di partenza è apparentemente tecnico: Grok, il chatbot di intelligenza artificiale integrato in X, introduce una funzione, Spicy Mode, che consente agli utenti di modificare immagini caricate sulla piattaforma. In assenza di barriere adeguate, quella funzione viene rapidamente utilizzata per “spogliare” digitalmente donne e ragazze, trasformando fotografie reali in immagini pornografiche deepfake.

La gravità del caso non risiede solo nell’abuso da parte di singoli utenti, ma nella scalabilità dell’operazione. Non serve più produrre o caricare contenuti: basta un prompt. L’AI genera e pubblica le immagini. In questo modo, una pratica che in passato richiedeva competenze tecniche specifiche diventa accessibile, immediata e replicabile su larga scala.

La questione non rientra in un semplice problema di “moderazione dei contenuti”, ma diventa un tema di architettura della piattaforma. Quando una funzione rende prevedibile l’abuso, la responsabilità non può essere scaricata esclusivamente sugli utenti.

Deepfake sessuali su Grok, le indagini europee e non solo

“Da questo podio posso confermare che anche la Commissione sta esaminando molto seriamente la questione”, ha dichiarato lunedì un portavoce della Commissione ai giornalisti a Bruxelles.

“Non si tratta di qualcosa di ‘piccante’. È illegale. È terribile. È disgustoso. Non ha posto in Europa”.

Domenica, in risposta alla crescente indignazione e allarme suscitati dalle immagini, la piattaforma social ha dichiarato che le immagini sono state rimosse dalla piattaforma e che gli utenti coinvolti sono stati banditi.

“Interveniamo contro i contenuti illegali su X, compreso il materiale pedopornografico (CSAM), rimuovendoli, sospendendo definitivamente gli account e collaborando con i governi locali e le forze dell’ordine, se necessario”, ha pubblicato l’account X Safety.

Indagini simili sono state avviate in Francia, Malesia e India.

La Commissione europea ha anche fatto riferimento a un episodio dello scorso novembre in cui Grok ha generato contenuti che negavano l’Olocausto. La Commissione ha dichiarato di aver inviato una richiesta di informazioni ai sensi del Digital Services Act (DSA) dell’UE e di stare ora analizzando la risposta.

A dicembre, X è stata multata per 120 milioni di euro ai sensi del DSA per la sua gestione dei contrassegni di verifica degli account e la sua politica pubblicitaria.

“Penso che X sia ben consapevole che prendiamo molto sul serio l’applicazione del DSA. Ricorderanno la multa che hanno ricevuto da noi”, ha affermato il portavoce della Commissione europea.

Al tempo stesso questa multa è stata pietra di scandalo per Donald Trump contro l’Europa, accusata di penalizzare le aziende americane.

Il danno dei deepfake sessuali: identità, corpo, reputazione

Il primo livello di lettura è quello umano, ed è forse il più difficile da ignorare. La BBC ha raccolto la testimonianza di una donna che ha raccontato di essersi sentita “deumanizzata e ridotta a uno stereotipo sessuale” dopo aver visto una versione digitale di sé privata dei vestiti.

Non si trattava di immagini reali, ma l’effetto psicologico è stato descritto come equivalente a una violazione fisica. Questo passaggio è cruciale: il danno dei deepfake sessuali non è solo reputazionale, è identitario. Il corpo viene ricostruito dall’AI, ma la persona che lo subisce è reale, così come sono reali le conseguenze sociali, professionali e psicologiche.

In un contesto digitale iperconnesso, un’immagine falsa può avere effetti veri e duraturi.

Dall’episodio virale al fenomeno di massa: le segnalazioni in Francia

Se il racconto delle vittime rende il problema tangibile, i numeri ne mostrano la portata. In Francia, centinaia di donne e adolescenti hanno segnalato che le proprie fotografie sono state “spogliate” da Grok nel giro di pochi giorni. Non un episodio isolato, ma un’ondata.

Questo elemento è decisivo perché smonta una difesa ricorrente delle piattaforme: l’idea dell’“uso improprio”. Quando l’abuso è sistematico, ripetuto e rapido, non siamo di fronte a un incidente, ma a un fallimento di governance.

La cornice cambia: non è più “qualcuno ha violato le regole”, ma “il sistema ha reso l’abuso facile”.

Risposte diverse alla stessa urgenza sui deepfake sessuali

Le reazioni istituzionali mostrano approcci molto diversi, ma una stessa urgenza. La velocità dell’AI non coincide con la velocità di indagini, regolazione e sanzioni. Eppure, proprio qui si misura la tenuta dello spazio pubblico digitale.

Francia: l’azione penale e il contesto più ampio

In Francia, la Procura di Parigi ha aperto e ampliato un’indagine penale su X, ricordando che la diffusione di deepfake sessuali non consensuali è un reato punibile con il carcere e multe rilevanti. Il punto interessante è che l’indagine si inserisce in un fascicolo più ampio: Grok era già sotto osservazione per altri contenuti illegali generati dall’AI, come messaggi antisemiti o di negazione dell’Olocausto.

Regno Unito: illegale, ma con un passo più prudente

Nel Regno Unito, il tono è più prudente. Le autorità ribadiscono che la creazione di immagini intime non consensuali è illegale anche se generata dall’AI, ma l’azione regolatoria appare più lenta e meno incisiva.

India: la pressione amministrativa su X

In India, invece, il governo adotta un approccio diretto e amministrativo: una comunicazione formale a X, la richiesta di un rapporto dettagliato entro 72 ore e la minaccia esplicita di revocare le tutele legali se la piattaforma non dimostra di aver agito.

Un segnale chiaro: la responsabilità non è solo morale, ma giuridica.

Leggi contro i deepfake sessuali: perché l’enforcement non tiene il passo

Un elemento accomuna tutti questi contesti: le leggi contro la pornografia non consensuale e l’abuso di immagini esistono già. Il problema non è (solo) normativo, ma operativo. L’AI generativa mette in crisi i meccanismi tradizionali di enforcement perché rende l’abuso rapido, automatizzato e diffuso su scala globale.

In altre parole, le istituzioni si trovano a rincorrere una tecnologia che non si limita a produrre contenuti, ma ridefinisce il modo in cui il danno viene creato e distribuito.

La distanza tra regole scritte e applicazione concreta diventa, qui, un fattore di rischio.

Perché questa storia riguarda tutti: prevenzione e responsabilità di piattaforma

La conclusione più scomoda è anche la più semplice: non serve essere una celebrità per diventare una vittima. Basta una fotografia. In un ecosistema in cui le immagini circolano liberamente e le AI possono manipolarle su richiesta, la nudificazione forzata diventa una possibilità strutturale.

Chi ha risorse economiche e visibilità può reagire, ottenere rimozioni rapide, avviare azioni legali. La maggior parte delle persone no. Questo crea una nuova asimmetria: tra chi subisce l’abuso e chi ha i mezzi per difendersi.

Il caso Grok pone una domanda che va oltre: fino a che punto le piattaforme possono limitarsi a vietare formalmente certi usi, se le loro stesse architetture li rendono prevedibili e facili? Parlare di “violazioni delle policy” diventa insufficiente quando l’abuso è incorporato nelle possibilità tecniche del sistema.

La vera questione non è se l’AI possa essere usata male, ma se sia accettabile rilasciare strumenti potenti senza assumersi la responsabilità delle loro conseguenze più ovvie.

Conclusione

Il caso Grok non è solo una storia di deepfake sessuali, ma può diventare un test cruciale per il rapporto tra intelligenza artificiale, diritti fondamentali e capacità dello Stato di far rispettare le proprie regole. In un mondo in cui chiunque può diventare bersaglio di nudificazione forzata, il problema non riguarda “gli altri”, ma tutti noi.

Se le leggi restano lettera morta, il rischio è che l’innovazione tecnologica diventi il nuovo spazio dell’impunità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x