Mentre il dibattito pubblico si concentra sulle potenzialità economiche dell’AI generativa, un’ombra digitale si allunga sui diritti dei più piccoli, trasformando la tecnologia in un’arma di vittimizzazione di massa. Nel solo 2025, la produzione di video AI che ritraggono abusi sui minori è esplosa, crescendo di oltre 260 volte in dodici mesi e il futuro sembra ancora più buio.
Numeri, dinamiche e criticità giuridiche di un fenomeno in espansione.
Indice degli argomenti
Abusi sui minori e AI: dati, fonti e portata dell’escalation
L’inchiesta pubblicata da The Atlantic nel gennaio 2026 (A Tipping Point in Online Child Abuse) analizza i dati più recenti diffusi dall’Internet Watch Foundation (IWF) organizzazione inglese che si occupa, a livello globale, del monitoraggio e della rimozione dei contenuti relativi ad abusi sessuali su minori online.
È la fotografia di una tragica escalation: per la prima volta, la produzione di immagini e soprattutto video di abusi sessuali generati o manipolati tramite intelligenza artificiale assume una dimensione sistemica e misurabile che oltrepassa ogni più nera previsione: il numero di video AI di abusi sessuali su minori è aumentato di oltre 260 volte in un solo anno, passando da 13 casi nel 2024 a 3.440 nel 2025.
Nel 2025 il volume complessivo di materiale pedopornografico online ha raggiunto il livello più alto mai registrato e l’elemento nuovo è l’accelerazione improvvisa del fenomeno, legata soprattutto all’accessibilità di strumenti di generazione visiva sempre più realistici, facili da utilizzare e, per la maggior parte, open source.
L’AI sta cambiando radicalmente le condizioni di produzione dell’abuso, moltiplicandone la scala, riducendo i rischi percepiti per gli abusanti e aggravando le conseguenze per le vittime, come documentato nei report ufficiali dell’IWF.
Perché il “virtuale” non attenua il danno: identità e trauma nel tempo
Una delle reazioni più comuni di fronte ai contenuti sintetici è ritenere che, proprio perché manipolati in quanto generati dall’AI, cioè in assenza di un contatto fisico diretto, il danno per le vittime sia “attenuato”.
L’idea che i contenuti AI siano “finti” presuppone che essi non coinvolgano bambini reali, mentre, in realtà, gran parte di questi materiali nasce proprio dall’alterazione di immagini reali e video autentici o dall’addestramento dei modelli su archivi di abusi preesistenti. L’AI, infatti, rielabora ciò che esiste.
Il risultato è una forma di vittimizzazione secondaria estremamente invasiva per il minore, che vede la propria immagine trasformata in oggetto sessuale senza possibilità di controllo o rimozione definitiva. La consapevolezza che quell’immagine possa essere modificata e diffusa indefinitamente produce un trauma che può essere devastante quanto quello derivante da un abuso fisico.
Applicata agli abusi sessuali sui minori, questa distinzione tra reale e virtuale è quindi profondamente fuorviante, perché immagini e video sono strumenti di violenza che alterano immagini vere di minori, incidendone sull’identità, sulla reputazione e sul benessere psicologico delle vittime.
Nel contesto digitale, il danno si prolunga nel tempo poiché un contenuto può essere redistribuito all’infinito e, quando l’AI entra in questo circuito, rende la violenza persistente e incontrollabile e trasforma l’abuso in una condizione potenzialmente permanente.
Abusi sessuali sui minori con l’AI: quando la crescita diventa “composizione” del fenomeno
Nel 2025 l’IWF ha indagato 312.030 segnalazioni confermate di materiale di abuso sessuale su minori, registrando un aumento del 7% rispetto al 2024, come riportato nell’Annual Report dell’organizzazione. È un dato che, già da solo, basterebbe a definire la gravità della situazione, tuttavia, ciò che rende questo incremento qualitativamente diverso è la composizione del materiale intercettato.
Per la prima volta, infatti, una quota significativa di materiali è appunto costituita da contenuti generati o alterati tramite intelligenza artificiale, con un salto dimensionale che indica un uso sistematico di queste tecnologie da parte degli abusanti.
Quando la violenza “scala”: i contenuti più estremi e l’effetto soglia
Un dato particolarmente allarmante riguarda la natura dei contenuti AI individuati, dato che quasi due terzi dei video generati artificialmente intercettati nel 2025 rientrano nella cosiddetta “Categoria A”, che contrassegna purtroppo le forme più estreme di abuso e violenze (incluse torture sessuali e altre pratiche degradanti).
Questo elemento segnala una dinamica di escalation resa possibile grazie all’AI, che consente di superare limiti che, in altri contesti, avrebbero costituito un freno.
La distanza dalla vittima reale riduce le inibizioni e alimenta la ricerca di contenuti sempre più violenti, normalizzando l’orrore e spostando progressivamente il confine di ciò che viene percepito come accettabile.
Abusi sessuali sui minori con l’AI nella quotidianità: deepfake e relazioni tra adolescenti
Gli effetti di questa dinamica non restano però confinati nei circuiti criminali e, secondo un’indagine condotta da Thorn (organizzazione statunitense non profit che collabora con piattaforme, forze dell’ordine e centri di ricerca per prevenire e contrastare lo sfruttamento sessuale dei minori online), nel 2025 un adolescente statunitense su otto dichiarava di conoscere qualcuno che era stato vittima di deepfake sessuali.
Questo dato conferma che la violenza digitale entra sempre più spesso nelle relazioni quotidiane dei minori ed è addirittura un’esperienza percepita come del tutto possibile, se non probabile. Tale consapevolezza incide profondamente sul modo in cui i giovani vivono la propria presenza online e la costruzione della propria identità.
Dal punto di vista giuridico, questa percezione incide sull’esercizio effettivo dei diritti della personalità del minore, in particolare sul diritto all’identità, all’immagine e allo sviluppo libero e armonico della propria personalità. La consapevolezza che la propria immagine possa essere sottratta, manipolata e sessualizzata senza consenso produce una limitazione sostanziale, seppur indiretta, di tali diritti: il minore, pur non rinunciando formalmente alla propria presenza online (ormai fisiologica), la vive in una condizione di costante esposizione al rischio. In questo senso, la violenza digitale agisce come fattore strutturale di compressione dei diritti, che anticipa il danno prima ancora che l’abuso si concretizzi.
L’operatività invisibile: creare e consumare contenuti senza tracce pubbliche
Uno degli aspetti più critici di questo scenario riguarda le modalità operative degli abusanti, dal momento che i contenuti AI possono essere creati e conservati localmente sui dispositivi personali, senza necessità di condivisione pubblica, caricamenti online o accesso a piattaforme visibili.
Questo comportamento consente agli abusanti di operare in relativa segretezza, riducendo il rischio di intercettazione da parte delle autorità, in quanto i sistemi di individuazione automatica, basati sull’analisi dei flussi online, risultano in larga parte inefficaci di fronte a un consumo che avviene offline o in ambienti criptati, non intercettabili direttamente.
Abusi sessuali sui minori con l’AI: la tecnologia come moltiplicatore e “entry point”
L’inchiesta di The Atlantic evidenzia come l’AI sia diventato un vero e proprio moltiplicatore dell’abuso, grazie alla facilità di accesso e all’apparente anonimato, aspetti che abbassano notevolmente la soglia di ingresso e rendono più semplice il primo contatto con materiale illegale.
La fruizione di contenuti sintetici può fungere poi da porta d’ingresso (entry point) verso forme di abuso sempre più gravi e condurre alla normalizzazione progressiva della violenza, riducendo le barriere morali e favorendo l’escalation verso comportamenti criminali diretti.
Contromisure tecniche: perché funzionano solo “a valle” e sui pattern noti
Le principali aziende tecnologiche hanno dichiarato di aver introdotto una combinazione di misure tecniche per contrastare l’uso illecito dei propri strumenti di intelligenza artificiale; tra queste rientrano: i filtri sui prompt, progettati per bloccare richieste esplicitamente illegali; i sistemi di hash matching, che confrontano immagini e video con database di materiale già noto; il watermarking dei contenuti generati; e i meccanismi di segnalazione automatica alle autorità competenti, come il National Center for Missing & Exploited Children (NCMEC).
Si tratta tuttavia di contromisure che operano prevalentemente a valle o sulla base di pattern noti. Così, i filtri sui prompt possono essere aggirati attraverso riformulazioni indirette; l’hash matching è efficace solo rispetto a contenuti già identificati; il watermarking perde utilità una volta che il materiale viene modificato o esportato; mentre le segnalazioni automatiche intervengono spesso dopo che il contenuto è già stato prodotto. Non a caso, nel primo semestre del 2025 OpenAI ha segnalato oltre 75.000 casi di materiale di abuso o pericolo per minori al NCMEC, più del doppio rispetto al semestre precedente.
Il dato rivela un limite strutturale: in un contesto in cui la generazione può avvenire offline, tramite modelli open source o strumenti privi di salvaguardie, la prevenzione tecnica è necessariamente parziale. Le piattaforme possono intercettare una parte del fenomeno, ma non riescono a controllarne l’intero ciclo di produzione.
Abusi sessuali sui minori con l’AI: leggi in evoluzione e applicazione ancora frammentata
Negli ultimi anni, ordinamenti come il Regno Unito (con il Criminal Justice Bill), gli Stati Uniti (a livello federale con il 18 U.S. Code § 2256 e con leggi statali recenti come Texas SB 1361, California AB 602, New York proposals), l’Australia (con il Criminal Code Amendment) e l’Unione Europea (con la proposta di Regolamento CSAM – Child Sexual Abuse Material) hanno chiarito o ampliato le proprie normative penali, includendo esplicitamente immagini e video di abuso sessuale su minori, generati o manipolati tramite intelligenza artificiale, per evitare che la natura sintetica del contenuto diventi un alibi giuridico.
Se sul piano formale il quadro giuridico appare in evoluzione e sempre meno tollerante, l’applicazione concreta di queste leggi resta spesso lenta e frammentata.
Il divario tra tecnologia e giustizia: indagini complesse e cooperazione lenta
Il primo elemento critico riguarda la complessità tecnica delle indagini, in quanto identificare un contenuto AI, attribuirne la paternità, ricostruire il processo di generazione e collegarlo a una persona fisica richiede competenze altamente specialistiche, strumenti forensi avanzati e personale dedicato. Molti uffici giudiziari e forze di polizia non dispongono ancora di risorse adeguate, né di formazione continua, per affrontare indagini che si collocano all’intersezione tra informatica forense, intelligenza artificiale e criminalità sessuale.
A questo si aggiunge una difficoltà strutturale di natura giurisdizionale: i contenuti possono essere generati in un Paese, archiviati localmente in un altro, condivisi tramite infrastrutture collocate in più Stati e fruiti ovunque. La cooperazione giudiziaria internazionale, pur prevista da trattati e convenzioni, è lenta e macchinosa, soprattutto quando è necessario ottenere dati tecnici da provider esteri o ricostruire catene di responsabilità frammentate.
Infine, nel caso dei contenuti consumati offline o in ambienti criptati, l’intervento repressivo avviene quasi esclusivamente ex post, spesso a seguito di segnalazioni indirette o di indagini su reati diversi, rendendo strutturalmente impossibile un’azione tempestiva e preventiva.
Uno scarto strutturale che cresce: velocità dell’AI e tempi delle istituzioni
Il risultato è uno scarto sempre più evidente tra la velocità vorticosa e incontrollabile con cui la tecnologia consente di produrre nuovi contenuti di abuso e i tempi, inevitabilmente più lenti, del sistema giudiziario.
Anche quando la volontà politica esiste e le leggi sono formalmente adeguate, la risposta resta in affanno visto che a fronteggiarsi sono un ecosistema tecnologico in continua accelerazione e istituzioni costruite per operare secondo logiche di accertamento, garanzia e prova che, al contrario, richiedono tempo.
Abusi sessuali sui minori con l’AI: protezione, responsabilità e traiettoria del 2026
I dati mostrano con chiarezza che l’intelligenza artificiale generativa, pur non avendo creato il fenomeno degli abusi sessuali sui minori online, ne ha modificato profondamente portata e persistenza.
I dati analizzati dall’inchiesta di gennaio 2026 non lasciano molto spazio all’ottimismo: la traiettoria del fenomeno indica che l’anno appena iniziato si preannuncia ancor più critico sul fronte della produzione e della persistenza della violenza digitale.
L’accessibilità a strumenti sempre più realistici e facili da usare ha ormai abbassato le barriere all’ingresso, ampliato la platea degli abusanti e reso la violenza più scalabile e duratura.
Di fronte all’AI, che amplifica la violenza, ne estende la portata e ne riduce i costi per gli abusanti, proteggere i minori significa riconoscere che l’ecosistema digitale è parte integrante della realtà sociale e che l’innovazione produce conseguenze che non possono restare prive di responsabilità.













