attacchi cyber

Malware adattivi e autonomi grazie all’AI: la nuova minaccia



Indirizzo copiato

L’integrazione dell’intelligenza artificiale nei malware segna una svolta: i codici malevoli diventano adattivi e autonomi, capaci di dialogare con i modelli linguistici durante l’esecuzione, come rilevato da Google. Una minaccia “pensante” che impone nuovi paradigmi di rilevazione e difesa comportamentale

Pubblicato il 13 nov 2025

Chiara Benso

Hermes Bay Intelligence Junior Analyst



Cybersecurity,Vulnerability,Log4j,And,Hacker,coding,malware,Concept.hooded,Computer,Hacker,In,Cybersecurity

Per la prima volta, analisi tecniche mostrano malware che non si limitano a sfruttare l’IA “a valle”, ma inviano richieste ai Large Language Models (LLM) direttamente in fase di esecuzione per generare script malevoli, offuscare il proprio codice e adattare funzioni “on demand“.

Google Threat Intelligence Group (GTIG) descrive questo fenomeno come l’inizio di una nuova fase operativa dell’abuso dell’IA: malware “just-in-time” che richiedono difese diverse da quelle tradizionali.

Dall’assistenza passiva all’integrazione operativa: la svolta dell’IA nel cybercrime

Negli ultimi anni i criminali informatici hanno progressivamente integrato l’intelligenza artificiale nei propri arsenali. Fino ad oggi, tuttavia, la principale applicazione dell’IA nelle operazioni cyber-offensive e nelle campagne di disinformazione era di tipo “assistenziale”: scrivere lure phishing più credibili, automatizzare la generazione di script di supporto o creare deepfake e contenuti sintetici a scopo manipolativo.

Con il rapporto “GTIG AI Threat Tracker: Advances in Threat Actor Usage of AI Tools“, pubblicato il 5 novembre 2025, Google ha documentato una nuova tendenza: l’integrazione dell’intelligenza artificiale durante l’esecuzione del codice, che consente ai malware di ridefinire dinamicamente le proprie funzioni, modificare tattiche ed esecuzioni e adattarsi all’ambiente della vittima, aprendo la strada ad un nuovo paradigma di minacce “intelligenti”.

Cinque famiglie di malware AI: panoramica delle nuove minacce identificate

In particolare, il Google Threat Intelligence Group ha identificato cinque malware – PROMPTFLUX, PROMPTLOCK, PROMPTSTEAL, FRUITSHELL e QUIETVAULT – che impiegano, a diversi livelli, l’intelligenza artificiale nei propri processi operativi. Alcuni si limitano all’uso di prompt o strumenti AI preconfigurati per supportare attività come l’esfiltrazione di credenziali o l’elusione dei sistemi di difesa basati su modelli linguistici, senza interagire direttamente con un LLM remoto.

Altri, invece, generano codice o comandi in tempo reale tramite modelli linguistici, rendendo dinamica l’esecuzione e complessa la rilevazione.

Caratteristiche tecniche dei malware: da FRUITSHELL a PROMPTFLUX

Di seguito, le cinque tipologie di malware identificate dal GTIG e le loro principali caratteristiche:

  • FRUITSHELL: una reverse shell implementata in PowerShell che stabilisce una connessione remota ad un server di comando e controllo consentendo l’esecuzione di comandi arbitrari sul dispositivo compromesso. Tale famiglia di malware include prompt hard-coded progettati per aggirare o confondere sistemi di difesa basati su LLM rendendo più difficile l’analisi e la rilevazione automatica;
  • QUIETVAULT: un credential stealer scritto in JavaScript specializzato nel furto di token GitHub e NPM. Le credenziali raccolte vengono esfiltrate mediante la creazione automatica di repository GitHub pubblici. Inoltre, QUIETVAULT impiega un prompt AI e strumenti CLI AI installati sull’host per cercare altri eventuali file riservati presenti sul sistema infetto ed esfiltrarli su GitHub;
  • PROMPTSTEAL (anche noto come LAMEHUG): un data miner sviluppato in Python che in fase di esecuzione sfrutta il LLM “Qwen2.5-Coder-32B-Instruct” di Hugging Face – a platform for open-source machine learning – per generare comandi volti a raccogliere informazioni di sistema e documenti e inviarli ad un server controllato dall’attaccante. Secondo quanto rilevato dal GTIG, a giugno 2025 tale malware sarebbe stato utilizzato dal noto gruppo APT sponsorizzato dal Governo russo Fancy Bear (o APT28) contro obiettivi in Ucraina. L’uso di PROMPTSTEAL da parte del gruppo ha segnato costituisce la prima osservazione da parte del GTIG di malware che interroga un LLM implementato in operazioni live;
  • PROMPTLOCK: un ransomware sperimentale multi-piattaforma implementato in Go che impiega l’API Ollama per accedere al LLM gpt-oss:20b e generare ed eseguire dinamicamente script Lua dannosi durante l’esecuzione;
  • PROMPTFLUX: un dropper scritto in VBScript che contatta l’endpoint dell’API di Gemini per richiedere “on demand” specifiche tecniche di offuscamento ed evasione VBScript al fine di facilitare l’auto-modifica “just-in-time”. In particolare, PROMPTFLUX si serve di un modulo denominato “Thinking Robot” che invia periodicamente una richiesta POST al modello gemini-1.5-flash-latest per ottenere porzioni di VBScript progettate per eludere antivirus; il prompt è strutturato in modo machine-parsable e istruisce l’LLM a restituire solo codice eseguibile.

PROMPTFLUX: il malware metamorfico più avanzato della famiglia

Tra i malware analizzati dal GTIG, PROMPTFLUX emerge come il più sofisticato, presentando caratteristiche operative significativamente più avanzate rispetto agli altri. Sebbene la funzione di auto-modificaAttemptToUpdateSelf” risulti al momento commentata e dunque in fase sperimentale, la sua presenza – unita al logging attivo delle risposte dell’IA in un file dedicato – indica l’intento dell’autore di sviluppare uno script metamorfico, in grado di aggiornarsi ed evolversi autonomamente nel tempo. Inoltre, secondo il Google Threat Intelligence Group, i nomi dei file associati a PROMPTFLUX riflettono schemi tipici di attori mossi da finalità economiche. Ad esempio, esche di social engineering come “crypted_ScreenRec_webinstall” mostrano un approccio ampio, finalizzato a compromettere un elevato numero di utenti indipendentemente dal settore o dall’area geografica.

In termini di mitigazione, Google ha assicurato di aver intrapreso azioni di contrasto mirate, disabilitando le risorse associate alle attività di PROMPTFLUX. Contestualmente, il team di DeepMind AI Research ha impiegato le informazioni raccolte per rafforzare i sistemi di protezione, migliorando sia i classificatori di Google sia il modello stesso, in modo da impedire che fornisca supporto ad attacchi analoghi in futuro.

Il futuro delle minacce intelligenti e le nuove strategie di difesa

Pur essendo ancora in uno stadio prototipale, PROMPTFLUX rappresenta un primo segnale di come l’intelligenza artificiale stia diventando un componente operativamente attivo nelle strategie di offuscamento e persistenza dei malware di nuova generazione. Gli attaccanti stanno andando oltre il mero “vibe coding– ossia l’uso di IA a supporto passivo o ausiliario – per integrarne le capacità direttamente nella catena di esecuzione degli attacchi. L’evoluzione di queste tecniche è ancora in fase iniziale, ma secondo le stime del GTIG è ragionevole aspettarsi un incremento della frequenza e della complessità di queste tecniche nel prossimo futuro. Ciò implica la necessità di superare strategie di detection basate unicamente su firme e pattern statici, integrando analisi comportamentale, monitoraggio delle API e sistemi adattivi in grado di identificare interazioni anomale con i modelli linguistici. Sta emergendo un nuovo paradigma di minacce “intelligenti”, in cui le capacità cognitive dei modelli IA potranno essere sfruttate tanto per difendere quanto per attaccare.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati