l’analisi

Terrorismo 4.0: l’ascesa dell’IA nelle strategie dei gruppi radicali



Indirizzo copiato

L’intelligenza artificiale, in particolare quella generativa, offre nuove opportunità ai gruppi terroristici per influenzare comportamenti e diffondere propaganda. La manipolazione dei media e dei social media sta diventando sempre più sofisticata

Pubblicato il 30 lug 2025

Antonio Teti

Responsabile del Settore Sistemi Informativi di Ateneo, Innovazione Tecnologica e Sicurezza Informatica dell’Università “G. D’Annunzio” di Chieti-Pescara. Docente di IT Governance e Big Data al Dipartimento di Economia Aziendale dell'Ateneo



Muslim,Militant,With,Rifle,In,The,Desert,On,Sunset,With

Negli ultimi anni, l’IA – specialmente quella generativa (LLM, deepfake, sistemi autonomi) – ha aperto nuove frontiere per gli attori malevoli: dai gruppi terroristici organizzati agli estremisti solitari.

Se da un lato le istituzioni ne vorrebbero sfruttare il potenziale per prevenire minacce, dall’altro la proliferazione delle tecnologie rende la manipolazione e le operazioni offensive sempre più efficaci e accessibili.

Intelligenza artificiale: una nuova arma per il terrorismo

L’IA generativa è in grado di produrre costantemente nuovi contenuti in risposta a stimoli esterni, offrendo un potenziale trasformativo in molteplici ambiti come l’istruzione, l’intrattenimento, la sanità e la ricerca scientifica. Sebbene l’IA generativa si stia espandendo rapidamente, sta anche generando diverse problematiche in ambiti particolari, come quello del terrorismo.

L’uso della tecnologia da parte dei gruppi terroristici non è un argomento nuovo, poiché la tecnologia ha sempre svolto un ruolo fondamentale nelle attività svolte dalle cellule terroristiche, come nel caso del Cyber Caliphate, il braccio tecnologico dell’ISIS. Tuttavia, con i recenti sviluppi nell’intelligenza artificiale, ed in particolare in quella generativa, alcuni gruppi terroristici stanno ora prendendo in considerazione i possibili “vantaggi” derivanti dall’utilizzo di queste tecnologie.

L’IA generativa è in grado di fornire un supporto di particolare rilevanza in questo ambito: dal reclutamento interattivo allo sviluppo di propaganda e all’influenza e al condizionamento psicologico e comportamentale degli individui, in particolare attraverso l’uso dei social media. I nuovi progressi tecnologici sono in grado di offrire molteplici opportunità ai gruppi terroristici soprattutto sull’impatto gli stessi sono in grado di esercitare sui comportamenti delle persone, un’area chiave che le organizzazioni terroristiche mirano a condurre operazioni di influenza.

La propaganda digitale: IA e disinformazione

La propaganda è uno dei principali strumenti utilizzati dai gruppi terroristici per promuovere i propri valori e le proprie convinzioni. Con l’aiuto dell’IA generativa, la propaganda può essere diffusa più facilmente e il suo impatto potrebbe aumentare considerevolmente, rendendola più efficiente e mirata ai suoi obiettivi.

La propaganda può essere utilizzata per diffondere incitamento all’odio e ideologie radicali. L’utilizzo di immagini, video o audio sintetici (falsi) in linea con i valori dell’organizzazione potrebbe contribuire ad aumentare l’ampiezza della propaganda prodotta, intensificare i messaggi e influenzare gli atteggiamenti e le emozioni delle persone (ad esempio, utilizzando immagini false di vittime/bambini feriti per avere un impatto emotivo sul pubblico). L’introduzione dell’IA generativa nella propaganda può generare una falsa realtà, consentendo ai gruppi terroristici di seminare caos e disordine attraverso la disinformazione.

Caricare specifici contenuti generati dall’IA sulle piattaforme dei social media può aumentare il pubblico e diffondere la disinformazione, poiché i contenuti possono essere condivisi rapidamente da milioni di followers. Con questo effetto globale, i social media sono in grado di assumere il ruolo di un’arma potente nelle odierne guerre di disinformazione, all’interno delle quali si consuma il dramma dell’alimentazione di false credenze.  

Tecnologie avanzate nel terrorismo: uso di deepfake e IA

A tal proposito, un esempio ci viene fornito dal conflitto sulla striscia di Gaza, in particolare su come i terroristi abbiano utilizzato l’IA generativa attraverso la diffusione di immagini su Internet onde innalzare il livello di violenza e incrementare la disinformazione.

Alcune foto di neonati o giovani feriti in guerra sembrano essere state manipolate1 utilizzando l’IA generativa per creare ulteriore caos e contenuti inquietanti in particolare sui canali social. Collegate allo stesso conflitto sono le immagini e i video dei soldati dell’IDF che indossano pannolini sui social media. I contenuti2 sembrano essere stati generati da un gruppo affiliato ad Hamas utilizzando l’IA generativa, con l’obiettivo di indebolire l’esercito israeliano.

Le immagini si sono diffuse immediatamente in rete, alimentando la disinformazione sulla realtà che sta accadendo a Gaza. Negli ultimi mesi, alcune organizzazioni terroristiche legate ad al-Qaeda hanno anche pubblicato linee guida su come utilizzare l’IA per sviluppare propaganda e disinformazione3.

I gruppi sovversivi e l’uso di IA per la radicalizzazione

L’International Centre for Counter-Terrorism (ICCT), noto think tank olandese indipendente che fornisce consulenza politica multidisciplinare, evidenzia come i gruppi terroristici stiano utilizzando modelli generativi per produrre testo, immagini e audio per cibo­logici personalizzati e campagne di radicalizzazione. Uno degli esempi più tangibili è la “Operation Overload4, condotta da gruppi filorussi che hanno diffuso deepfake video e immagini manipolate su temi come l’immigrazione e le elezioni occidentali, generando centinaia di contenuti virali in pochi mesi. In maniera analoga, gruppi estremisti neonazisti negli USA hanno usato strumenti analoghi per moltiplicare messaggi di odio, video falsi e manuali d’azione.

Alcuni report di intelligence prodotti dal Department of Homeland Security (DHS) rivelano che alcuni gruppi terroristici hanno impiegato applicazioni IA (tra queste, anche versioni “rogue” di ChatGPT) per creare istruzioni e manuali tecnici che spiegavano come fabbricare ordigni esplosivi e come condurre dei sabotaggi ai danni di infrastrutture critiche, come le centrali elettriche. Secondo l’agenzia di intelligence statunitense l’utilizzo dell’IA in alcune cellule terroristiche ha consentito:

  • di adottare modelli LLM come ChatGPT e Bard per ottenere informazioni su esplosivi, armi e vulnerabilità di reti energetiche;
  • di ottenere istruzioni dettagliate e sequenziali su come costruire ordigni rudimentali, sfruttando dei prompt “camuffati” o iniettando input maligni in piattaforme IA di tipo open-source;
  • di sviluppare relazioni virtuali con gruppi estremisti interni (come milizie anti-governative, neonazisti e suprematisti bianchi);
  • di sviluppare dei veicoli a guida autonoma (auto, droni) convertiti in “slaughterbots” per condurre attacchi.

Rischi operativi: IA al servizio del terrorismo

Nel biennio 2024–2025, il Department of Homeland Security (DHS) ha pubblicato una serie di report e briefing interni (resi parzialmente pubblici da Wired e altre testate investigative) che mostrano come individui e gruppi estremisti abbiano sfruttato chatbot basati su intelligenza artificiale per facilitare la pianificazione di attentati e attacchi contro infrastrutture critiche, in particolare negli Stati Uniti. Un caso eclatante è quello emerso a Las Vegas a fine 2024, dove un individuo arrestato per il tentato posizionamento di un ordigno rudimentale ha ammesso, durante l’interrogatorio condotto dalla polizia, di aver utilizzato un chatbot IA per progettare l’attacco, cercando:

  • tutti i possibili dettagli su tipi di esplosivi artigianali;
  • informazioni sulle metodologie fruibili per evitare il rilevamento da parte delle autorità;
  • schemi utili per massimizzare i danni alle reti elettriche locali per consentire l’interruzione delle comunicazioni.

Le sfide per la sicurezza globale: un’azione urgente

Il DHS ha definito il caso come “una soglia superata”, dimostrando che l’IA può essere direttamente impiegata nella radicalizzazione operativa, non solo su quella ideologica, basata sulla propaganda ed il condizionamento psicologico. Le tecniche osservate sono le seguenti:

  • Prompt injection. È una tecnica di attacco mirata contro i modelli linguistici di grandi dimensioni (LLM). Gli hackers camuffano input nocivi come prompt legittimi, manipolando sistemi di AI generativa (GenAI) per far trapelare dati sensibili, diffondendo principalmente disinformazione.
  • Jailbreak LLM. Il jailbreaking LLM è il processo di utilizzo di specifiche strutture di prompt, modelli di input o segnali contestuali per aggirare le restrizioni integrate o le misure di sicurezza dei grandi modelli linguistici (LLM). In altri termini, la tecnica consiste nel manipolare il modello LLM per indurlo a produrre risposte che altrimenti verrebbero bloccate. Ad esempio, una tecnica è quella di ingannare il modello attraverso degli schemi creativi (come una narrazione specifica, un’attività di codifica o giochi di ruolo) che tendono ad ingannare il modello, evitandogli di seguire un approccio rigorosamente metodico.
  • Sfruttamento di IA open-source. Strumenti come GPT-J, LLaMA, Vicuna e Claude sono stati scaricati da repository pubblici e riprogrammati offline con istruzioni diverse.

Nel report pubblicato dal DHS sono stati elencati 18 casi documentati in cui contenuti generati da IA sono stati:

  • diffusi su piattaforme come Telegram, 4chan, e Terrorgram;
  • incorporati in manuali PDF per la produzione artigianale di armi;
  • utilizzati per simulare attacchi in ambienti virtuali con simulatori open source.

Secondo i rapporti, 4 su 5 arrestati negli Stati del Sud tra fine 2023 e inizio 2025 in operazioni anti-terrorismo avevano utilizzato almeno una piattaforma IA per l’organizzazione di atti ostili. Il caso DHS ha sollevato allarmi anche in Europa. In Italia, il DIS (Dipartimento delle informazioni per la sicurezza) ha emesso una nota di vigilanza su IA open-source, in particolare per:

  • il rischio di contaminazione radicale nelle carceri e nei contesti online italiani;
  • l’eventuale uso di IA per progettare attacchi contro obiettivi energetici o istituzionali.

I dati rilevati dal DHS mostrano chiaramente che l’intelligenza artificiale ha abbattuto il muro tecnico tra l’intento e la realizzazione dell’attacco. I filtri delle IA pubbliche non sono infallibili, ed è sufficiente una conoscenza tecnica “media” per sfruttarle malevolmente. A tal proposito, occorre potenziare i modelli IA commerciali, e non è certamente un caso che aziende statunitensi come OpenAI, Anthropic e Google stiano collaborando con il DHS per blindare i modelli pubblici, integrando watermark, tracciamenti e filtri semantici più rigidi. Anche sul piano della disinformazione, sono state condotte, parte del Governo USA, specifiche campagne di de-radicalizzazione digitale, attraverso iniziative di comunicazione automatizzate per diffondere una “contronarrativa” su specifici canali “target” (ad esempio, con IA sviluppate per contrastare propaganda violenta).

Quali strategie per contrastare l’uso improprio dell’IA da parte dei terroristi

L’uso dell’IA generativa da parte dei gruppi terroristici rappresenta una tendenza preoccupante nel panorama in continua evoluzione della sicurezza globale. L’analisi di gruppi come Hezbollah, Hamas, ISIS e Al-Qaeda rivela che queste organizzazioni stanno sempre più esplorando come sfruttare tecnologie avanzate per raggiungere i loro obiettivi nefasti.

Le potenziali implicazioni di tale sfruttamento sono di ampia portata e comprendono la diffusione di propaganda, la creazione di sofisticate campagne di disinformazione, la produzione di contenuti mediatici falsi per incitare alla violenza o diffondere paura e persino lo sviluppo di sistemi d’arma autonomi. Queste implicazioni hanno un impatto sui comportamenti delle persone che non sono consapevoli dei sofisticati meccanismi utilizzati per creare questi contenuti. 

Nell’affrontare questa minaccia emergente, i decisori politici, le forze dell’ordine e la società civile devono collaborare strettamente per sviluppare strategie solide per contrastare l’uso improprio dell’IA generativa da parte di organizzazioni terroristiche. Ciò implica il rafforzamento dei quadri normativi per monitorare e controllare la diffusione delle tecnologie di IA, la promozione della cooperazione internazionale per tracciare e smantellare le reti illecite e gli investimenti nella ricerca e nello sviluppo di strumenti di rilevamento e attribuzione dell’IA. Inoltre, nell’affrontare le sfide per la sicurezza poste dallo sfruttamento dell’IA generativa, è essenziale rispettare i principi fondamentali dei diritti umani, della privacy e della libertà di espressione. Vigilanza, adattabilità e collaborazione sono fondamentali di fronte alle minacce in continua evoluzione. Adottando misure appropriate per ridurre i rischi associati allo sfruttamento dell’IA generativa da parte dei gruppi terroristici, possiamo creare un futuro più sicuro e solido per tutti, in cui le persone possano distinguere tra contenuti validi e quelli generati dagli strumenti dell’IA.   

Note

1 https://www.jpost.com/business-and-innovation/all-news/article-772715

2 https://gnet-research.org/2024/02/19/ai-jihad-deciphering-hamas-al-qaeda-and-islamic-states-generative-ai-digital-arsenal/

3 https://techagainstterrorism.org/hubfs/Tech%20Against%20Terrorism%20Briefing%20-%20Early%20terrorist%20experimentation%20with%20generative%20artificial%20intelligence%20services.pdf

4 https://www.wired.com/story/pro-russia-disinformation-campaign-free-ai-tools/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati