l’analisi

IA e criminalità organizzata: la nuova minaccia globale



Indirizzo copiato

L’Intelligenza Artificiale trasforma la criminalità organizzata in reti decentralizzate e tecnologicamente avanzate. Deepfake, phishing automatizzato e ransomware rappresentano le nuove frontiere del crimine. Gli Stati rispondono con analisi predittiva e cooperazione internazionale in una corsa tecnologica asimmetrica

Pubblicato il 3 dic 2025

Gerardo Costabile

CEO di DeepCyber



accordi di condivisione minacce cyber; fornitori mercati online cyberwarfare basata su IA cybersicurezza delle pubbliche amministrazioni IA e criminalità organizzata

Giovanni Falcone, con preveggente lucidità, colse l’essenza della resilienza mafiosa nella sua capacità di essere «sempre diversa eppure sempre la stessa», un’entità in perenne metamorfosi pronta a sostituire i vecchi paradigmi con nuovi modelli operativi.

Nelle parole di Giovanni Falcone il peso di “Cinquant'anni di mafia”

La metamorfosi tecnologica della mafia nell’era digitale

Oggi, questa storica abilità adattiva trova la sua massima espressione nell’adozione strategica dell’Intelligenza Artificiale (IA) da parte della criminalità organizzata. L’IA non va intesa come un mero aggiornamento strumentale, ma come un catalizzatore strategico che destruttura i modelli operativi tradizionali del crimine. Essa sta accelerando la transizione da strutture gerarchiche e radicate geograficamente a reti decentralizzate, ideologicamente agnostiche e tecnologicamente potenziate, che operano come holding globali fluide. Questo comporta la necessità di valutare un “nuovo campo di battaglia asimmetrico”, con l’obiettivo di analizzare come l’IA stia non solo armando l’offensiva criminale, ma anche ridefinendo le strategie di contrasto statali in una competizione per la supremazia tecnologica e l’agilità operativa.

Come l’IA amplifica la portata globale del crimine

Per comprendere l’impatto strategico dell’Intelligenza Artificiale, è necessario analizzare come essa potenzi e trasformi specifiche tipologie di reato. L’IA amplifica la scala, la velocità e la portata globale delle attività illecite, abbassando al contempo le barriere d’ingresso per nuovi attori criminali. Tuttavia, un’analisi strategica non può prescindere dalla valutazione dei limiti reali.

L’adozione criminale dell’IA affronta significativi “colli di bottiglia” (c.d. bottlenecks), quali la necessità di competenze tecniche specialistiche, l’accesso a un’elevata potenza di calcolo e la garanzia della sicurezza operativa. Questa tensione tra il potenziale dirompente della tecnologia e i suoi vincoli pratici definisce il perimetro attuale della minaccia, offrendo al contempo alle istituzioni statali preziosi spunti per strategie di contrasto mirate.

Deepfake e phishing: quando l’inganno diventa automatizzato

L’IA sta rivoluzionando il campo delle frodi, automatizzando l’inganno su vasta scala. I Large Language Models (LLM) sono in grado di generare email di phishing e messaggi truffaldini linguisticamente impeccabili e personalizzati, superando gli errori grammaticali che ne facilitavano l’identificazione. La minaccia più allarmante è però rappresentata dai deepfake audio e video, contenuti sintetici iper realistici capaci di aggirare la diffidenza umana.

Un caso emblematico ha coinvolto un dirigente della multinazionale britannica Arup a Hong Kong, indotto ad autorizzare un bonifico da 25 milioni di dollari dopo aver partecipato a una videoconferenza con repliche digitali del direttore finanziario e di altri colleghi, interamente generate dall’IA.

Questo episodio illustra la potenza dei deepfake nelle truffe di tipo Business Email Compromise (BEC), la cui incidenza assistita da IA è aumentata del 1.760%. Anche le c.d. romance scams beneficiano di queste tecnologie: i bot possono gestire i contatti iniziali su larga scala, mentre i deepfake sono usati per costruire un rapporto di fiducia con la vittima.

Materiale pedopornografico sintetico: la minaccia dei contenuti generati da IA

Un’area di estrema criticità è la produzione di materiale pedopornografico (CSAM) tramite IA generativa. Questa tecnologia consente la creazione di immagini e video sintetici di abusi su minori con un realismo sconcertante. La Internet Watch Foundation ha rilevato un aumento del 380% di tali contenuti. È fondamentale sottolineare che in molti contesti normativi internazionali (tra cui l’Italia), la legge considera il CSAM generato da IA come CSAM a tutti gli effetti, non solo per il suo contenuto, ma anche perché i modelli sono spesso addestrati utilizzando materiale di abuso reale, perpetuando così il danno alle vittime originali. In alcuni casi, vengono impiegati modelli specifici come i LoRA (low-rank adaptation), addestrati su materiale reale per migliorare la qualità dei contenuti sintetici. La scalabilità di questo mercato criminale è dimostrata da casi concreti come la piattaforma “Kidflix“, che contava 1,8 milioni di utenti, e l’Operazione “Berry Bone” contro un produttore di CSAM sintetico che operava tramite un modello ad abbonamento. L’IA viene inoltre impiegata nella sextortion: il 98% dei contenuti deepfake online è di natura sessualmente esplicita e non consensuale, con il 99% che prende di mira le donne.

Dal WormGPT al ransomware: il cybercrime accessibile a tutti

L’IA sta potenziando anche le forme più tradizionali di cybercrime, democratizzandone l’accesso. Sono emersi modelli come “WormGPT” e “FraudGPT“, LLM privi di barriere etiche progettati per generare codice malevolo e script per attacchi informatici. Il modello del Ransomware-as-a-Service (RaaS) è un esempio paradigmatico di questa evoluzione. Il gruppo Lockbit, prima del suo smantellamento, era responsabile del 30% di tutti gli attacchi ransomware, operando come una piattaforma di Crime-as-a-Service dove anche affiliati non tecnicamente esperti potevano abbonarsi per lanciare attacchi. L’IA può essere integrata in ogni fase: dalla ricognizione automatizzata delle reti, alla personalizzazione del riscatto basata sull’analisi della capacità finanziaria della vittima, fino alla gestione delle negoziazioni tramite chatbot. Questa accelerazione iper-tecnologica non solo amplifica la minaccia, ma espone le vulnerabilità strutturali dei sistemi statali, trascinando il confronto su un campo di battaglia strategico fondamentalmente asimmetrico.

Asimmetrie tecnologiche e il labirinto normativo globale

L’offensiva criminale basata sull’IA ha generato una significativa asimmetria strategica, mettendo in crisi quadri normativi, investigativi e di cooperazione internazionale concepiti per un’era tecnologica precedente. La velocità, l’adattabilità e la natura transfrontaliera del crimine potenziato dall’IA espongono le vulnerabilità strutturali dei sistemi di giustizia, che faticano a tenere il passo con un avversario tecnologicamente agile e non vincolato da confini giurisdizionali.

Gli investigatori si trovano di fronte a sfide tecniche formidabili. Una delle principali consiste nel distinguere i contenuti sintetici da quelli reali. L’analisi di deepfake o di CSAM generato da IA richiede tempo e risorse ingenti, distogliendole da altre priorità operative. A ciò si aggiunge il problema dell’opacità degli algoritmi, il “dilemma della scatola nera” (black box).

Molti modelli di IA operano in modi non facilmente interpretabili, rendendo estremamente complesso, se non impossibile, provare in un’aula di tribunale come un sistema sia giunto a una determinata conclusione. Ciò solleva questioni irrisolte sulla responsabilità legale – o più banalmente sulla trasparenza sulle procedure – , che può ricadere sullo sviluppatore, sull’utente o sull’istituzione che ne ha permesso la diffusione.

La frammentazione normativa a livello globale genera un’asimmetria sistemica che le reti criminali sfruttano con agilità. Coesistono attualmente tre approcci principali:

a) il modello normativo europeo, basato sul rischio e la tutela dei diritti fondamentali (AI Act);

b) il modello di autoregolamentazione statunitense, guidato in pratica dal mercato;

c) il modello di controllo autoritario cinese. Questa divergenza crea un vantaggio strutturale e permanente per attori non statali agili e senza confini, a discapito degli Stati, intrinsecamente vincolati da giurisdizioni e quadri legali lenti. Le organizzazioni criminali operano un forum shopping strategico, localizzando infrastrutture, server o wallet di criptovalute in giurisdizioni con controlli più deboli. Sfruttano questo “arbitraggio normativo” più velocemente di quanto gli Stati possano colmare le lacune, rendendo la cooperazione internazionale un costante gioco di rincorsa.

Predictive policing e analisi dei big data: le armi dello Stato

Per contrastare efficacemente una criminalità sempre più tecnologicamente avanzata, è imperativo che le forze dell’ordine adottino esse stesse soluzioni basate sull’IA. Queste tecnologie stanno diventando strumenti fondamentali non solo per reagire, ma anche per analizzare scenari complessi, prevedere minacce emergenti e agire in modo proattivo, trasformando enormi quantità di dati grezzi in intelligence operativa.

L’IA predittiva, o predictive policing, – ad esempio – si articola in due approcci principali. I sistemi place-based, come il software PredPol, analizzano dati storici per identificare gli “hot spot” di criminalità. I sistemi person-based, invece, utilizzano la Social Network Analysis (SNA) per mappare le reti relazionali, identificando non solo i leader, ma anche i nodi strategici la cui rimozione può destabilizzare l’intera struttura.

L’analisi di dati su larga scala è un altro dominio in cui l’IA si rivela decisiva. Il caso EncroChat ne è un esempio lampante: nel 2020, un’operazione internazionale coordinata da Europol ha portato alla decrittazione di oltre 115 milioni di messaggi scambiati su una piattaforma usata da circa 60.000 criminali. L’analisi di questa mole di dati ha permesso di effettuare 6.558 arresti a livello globale, dimostrando la capacità dell’IA di trasformare informazioni indecifrabili in risultati concreti. Infine, l’IA viene impiegata anche nella prevenzione, come nel progetto PROTON, che utilizza simulazioni per comprendere e contrastare i processi di reclutamento criminale.

Cooperazione internazionale: il modello I-CAN contro la ‘ndrangheta

Data la natura intrinsecamente transnazionale del crimine potenziato dall’IA, la risposta non può che essere internazionale e coordinata. L’iniziativa I-CAN (Interpol Cooperation Against ‘Ndrangheta) costituisce un modello di successo. Promossa dall’Italia in collaborazione con Interpol, I-CAN combina l’expertise investigativa italiana con le piattaforme globali di condivisione dati, portando all’arresto di latitanti di altissimo profilo come Rocco Morabito.

Per affrontare le minacce future, è necessario un approccio strategico. Enti di ricerca come il CETaS, ad esempio, raccomandano la creazione di task force dedicate, come una AI Crime Taskforce, con il mandato di mappare sistematicamente l’uso criminale dell’IA. L’obiettivo è identificare e colpire i “colli di bottiglia” nell’adozione di queste tecnologie, come l’accesso alla potenza di calcolo o a competenze tecniche specializzate, per ostacolarne l’impiego illecito.

La corsa infinita tra crimine e giustizia nell’era dell’IA

L’analisi condotta sugli studi degli ultimi 12 mesi (si rimanda, per approfondimenti, alla bibliografia indicata), rivela come l’Intelligenza Artificiale agisca da potente moltiplicatore di forza sia per la criminalità organizzata che per le forze dell’ordine, inaugurando una sorta di “corsa infinita” tra le due parti.

L’IA sta rimodellando il carattere stesso del crimine, favorendo l’ascesa di reti globali, decentralizzate e altamente adattive. Specularmente, offre alle istituzioni capacità di analisi e previsione che possono rivoluzionare le indagini, trasformando dati massivi in intelligence strategica. Il più grande potenziale dell’IA nel campo della giustizia, tuttavia, non risiede nella sostituzione dell’intelligenza umana, ma nel suo potenziamento. L’analisi umana rimane un elemento al momento insostituibile per contestualizzare i dati, validare le piste investigative e prendere decisioni strategiche che tengano conto delle sfumature etiche e giuridiche.

La questione centrale non è se l’IA verrà impiegata, ma come verrà governata. La sfida decisiva per lo Stato non risiede nell’adozione tecnologica in sé, ma nella capacità di sviluppare un’agilità istituzionale, normativa e operativa in grado di competere con la velocità adattiva delle reti criminali nell’era dell’IA. Solo attraverso una governance responsabile, una solida cooperazione internazionale e un quadro etico chiaro, l’Intelligenza Artificiale potrà diventare uno strumento per rafforzare lo stato di diritto e la sicurezza globale, anziché un fattore di minaccia.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati