Solo qualcosa di molto umano, come un sentimento di sospetto, poteva smascherare un inganno sintetico. Era luglio 2024 quando un executive di Ferrari ha ricevuto una serie di messaggi su WhatsApp e poi una telefonata che sembravano arrivare proprio dal Ceo della casa automobilistica. E invece, era un deepfake che sfruttando l’AI riproduceva la voce del suo capo. Era convincente, ma il manager attento ai dettagli ha domandato di un libro che il Ceo stesso gli aveva consigliato giorni prima. E il tentativo di truffa è crollato.
L’uso malevolo dell’intelligenza artificiale, tecnicamente MUAI – Malicious use of AI, trascende i confini dell’ecosistema cyber sociale dove si manifesta e, nella realtà, ha impatti rilevanti non solo sulla vita delle persone coinvolte ma anche nei contesti corporate. Con costi importanti per le organizzazioni.
Bisogna quindi conoscere come, nel contesto d’impresa, l’AI può essere usata in modo malevolo e con quali tecniche, ma anche capirne le dinamiche, devianti e criminali, per avere la giusta consapevolezza e poter fare prevenzione.
Indice degli argomenti
Google scopre cinque malware che sfruttano l’AI
Il 5 novembre 2025 Google ha annunciato di aver individuato “l’utilizzo dell’AI just-in-time nel malware: per la prima volta, GTIG (Google Threat Intelligent Group, ndr) ha identificato famiglie di malware, come Promptflux e Promptsteal, che utilizzano gli LLM, modelli linguistici di grandi dimensioni, durante l’esecuzione”, si legge nel nuovo report sul sito del gruppo.
Questi strumenti “generano dinamicamente script dannosi, offuscano il proprio codice per eludere il rilevamento e sfruttano modelli di IA per creare funzioni dannose su richiesta, anziché codificarle in modo rigido nel malware. Sebbene sia ancora agli albori, ciò rappresenta un passo significativo verso un malware più autonomo e adattivo”.
NP
Crescono gli incidenti di cybersecurity: i dati Clusit
Il fenomeno si contestualizza in uno scenario critico: i rapporti annuali e semestrali mostrano una crescita di attacchi cyber importanti e un ruolo non marginale dell’Italia nello scenario globale. Ad esempio, secondo i dati Clusit presentati il 5 novembre 2025, nel primo semestre 2025 gli incidenti di sicurezza sono aumentati del 36% rispetto al secondo semestre del 2024, in tutto il mondo. In Italia, invece, la crescita è stata del 13% ma con 280 incidenti gravi che da soli rappresentano il 75% degli eventi rilevati nel 2024.
MUAI e hacktivism
Il report Clusit indica che in Italia le principali finalità di attacco sono hacktivism e cybercrime. Analizzando il dato dalla prospettiva del MUAI, va segnalato che il fenomeno amplifica questi attacchi, con l’obiettivo di attivare visibilità, copertura mediatica e compromettere la fiducia.
Dal punto di vista socio-cognitivo, inoltre, in questo contesto cresce l’esposizione a social engineering e FIMI, che sfruttando crisi e polarizzazione crea confusione ed empasse decisionale con il determinarsi di eventuali effetti a cascata sui interi indotti e settori.
Uso malevolo dell’AI, i costi per le aziende
Secondo l’AI Threat Landscape del Cybersecurity competence center di Maticmind, rapporto presentato a metà ottobre alla Camera dei deputati, il costo medio di un data breach potenziato dall’AI ha toccato i 5,72 milioni di dollari nel 2025, un dato che rappresenta il 13% in più rispetto all’anno precedente.
Le aziende piccole e medie sono quelle che registrano l’impatto economico peggiore. E infatti, emerge anche che le PMI hanno speso il 27% in più per rispondere agli incidenti. Non solo: a causa dell’uso malevolo dell’AI sono aumentati del 22% i pagamenti delle assicurazioni per gli attacchi guidati dall’intelligenza artificiale.
Grande classico degli attacchi è la truffa ai dirigenti aziendali con l’uso del deepfake, come nel caso citato di Ferrari. Nel 2025, l’uso malevolo di video deepfake ai danni dei Ceo è aumentato dell’83% con perdite totali di circa 1,1 miliardi di dollari.
In generale, per comprendere lo scenario, il report indica che gli attacchi basati su AI sono cresciuti del più 47% rispetto all’anno scorso e che in Italia il 40% degli attacchi cyber gravi è stato guidato da AI.
Muai, le dinamiche dell’uso malevolo dell’AI
Il carattere disruptive dell’AI risiede nella capacità di accelerare l’automazione e ridisegnare i processi, ma al contempo può favorire nuove dipendenze, suscettibilità o vulnerabilità da gestire in chiave di sicurezza sia a livello decisionale che operativo. Il MUAI costituisce un cambio di paradigma nell’ambito della cybersecurity. E infatti, lo sfruttamento dell’AI gen permette attacchi su scala e velocità prima impensabili, con profili/utenti sintetici e raccolta massiva di dati social per attacchi altamente personalizzati.
Che cos’è il MUAI
Il MUAI è l’impiego intenzionale di sistemi di intelligenza artificiale per finalità dannose verso persone, imprese e istituzioni.
Le principali proprietà distintive sono:
- automatizzazione e industrializzazione,
- rapidità (riduce il tempo tra ideazione e attacco),
- personalizzazione (adatta il contenuto al target).
È utile inoltre distinguere due piani:
- logico-infrastrutturale, che comprende sistemi, reti, applicazioni, identità, in cui rientrano tra gli altri phishing evoluto, abuso di credenziali, sfruttamento vulnerabilità, ransomware e furto dati/IP.
- socio-cognitivo, in cui sono contemplati social engineering aumentato, voice/video deepfake, narrative shaping e operazioni di influenza (dis-)informativa.
Chiaramente, l’elemento di maggior debolezza e dunque preso di mira è quello umano, nelle sue tre principali dimensioni: individuo, membro di comunità (team, filiera) e cittadino. Il MUAI, infatti, sfrutta prevalentemente i bias cognitivi, il sovraccarico informativo e le regole implicite dei processi aziendali.
Modus operandi del MUAI
Nel MUAI gli agenti e i modelli generativi fungono in un certo senso da copiloti malevoli, supportando ricognizione, creazione di esche credibili, triage di dati rubati, evasione dalle procedure di controllo. Solitamente sono:
- cybercriminalità organizzata
- hacker crew opportuniste,
- APTs e gruppi state-aligned,
- insider intenzionali o inconsapevoli,
- reti mafiose
- nonché hacktivisti.
Il MUAI si innesta nella kill chain dell’attacco potenziandone ogni fase, senza necessariamente richiedere particolari competenze tecniche da parte dell’attore malevole.
E data l’efficacia, sta emergendo un vero e proprio mercato del MUAI_as_a_Service, con attacchi AI-enabled che rendono più ardui rilevazione e neutralizzazione soprattutto delle minacce adattive, che favoriscono l’aumento di truffe direzionali con deepfake voce/video, account take-over potenziati da automazioni ML e campagne di doxing mirate a supply chain regionali.
Come avviene un attacco cyber con AI
Le fasi principali di un attacco con AI possono essere così sinteticamente riassunte:
- ricognizione – l’AI viene usata per setacciare web e piattaforme social, costruire profili, pattern e “mappe relazionali”, trovare finestre di opportunità operativa, come chiusure contabili, ferie e migrazioni software;
- accesso iniziale – l’AI arma tecniche/tattiche di phishing mirato per mezzo di testi nativi e landing “su misura”, ma anche attraverso vishing con voice-cloning, nonché sfruttamento delle vulnerabilità, priorizzato da modelli di ranking dettagliatamente customizzabili;
- escalation – l’AI struttura vettori di attacco Living-Off-The-Land (LOTL), furto di credenziali e uso di identità legittime;
- persistenza – l’AI aiuta a variare tattiche, tecniche e procedure (TTPs) per eludere soluzioni Endpoint Detection and Response (EDR), a programmare l’esecuzione di processi, e a mantenere canali Command and Control (C2) “a basso rumore”, quindi destando un’attenzione ridotta in termini di difesa e protezione da parte del target;
- targeting – l’AI potenzia la cifratura ransomware, esfiltrazione selettiva attraverso il triage AI-assistito, manipolazioni di dati e/o processi;
- monetizzazione – l’AI rende più efficace e rapida la produzione di testi credibili, minacce reputazionali coordinate su leak site e social, anche per l’eventuale ricettazione dei dati.
Perché le aziende sono l’ambiente giusto per il proliferare del MUAI
La dipendenza delle aziende dal Software_as_a_Service (SaaS), da terze parti e da supply-chain complesse espone le stesse ad un rischio MUAI elevato, in quanto moltiplica i potenziali punti d’ingresso. L’adozione di MUAI da parte degli attaccanti si palesa nel salto qualitativo di email e landing page fake, nel voice-cloning per vishing e nelle video-call con avatar credibili.
Dal punto di vista organizzativo l’AI è usata per orchestrare più canali (tra cui email, telefono, chat) scegliere le routine temporali di massima vulnerabilità e organizzare per priorità i bersagli.
MUAI e danni reputazionali al brand
A questi rischi si sommano poi quelli legati alle conseguenze reputazionali. Nel dominio informativo il MUAI alimenta campagne di disinformazione e Foreign Information Manipulation and Interference (FIMI) che spingono il target a errori decisionali e danneggiano la fiducia nel brand.
La targettizazzazione MUAI delle aziende mette in luce l’asimmetria di risorse, data da un lato da una carenza di consapevolezza, sicurezza e competenze specifiche, mentre dall’altro è caratterizzata da avversari malevoli in grado di scalare grazie alle routine di automazione.
La compliance e le aspettative di clienti e partner innalzano il livello di rischio in quanto fallire sulla sicurezza significa perdere affidabilità commerciale.
Come cambia il social engineering con l’AI
Il social engineering rappresenta il tessuto connettivo di molte minacce potenziate dall’AI. Nel BEC, per esempio, produce email native e voice-clone che replicano stile, ritmo e lessico dei dirigenti e fornitori, nel phishing, vishing e smishing testa varianti, orchestra sequenze multicanale e sfrutta segmenti e finestre temporali di opportunità.
Nelle frodi multicanale, chatbot truffa inumani e operatori umani si alternano per togliere tempo alle procedure di verifica.
Le leve psicologiche del social engineering
Le leve psicologiche più ricorrenti adottate sono: autorità, urgenza, reciprocità, scarsità, paura ed empatia. Inoltre, il MUAI massimizza la coerenza narrativa – email, PEC, telefonate e chat aiutano a costruire un quadro artefatto di coerenza di significato spesso ricco di dettagli plausibili.
Capire il MUAI: approccio socio-cognitivo e devianza cyber
Dal punto di vista socio-cognitivo, il MUAI attraverso l’overload informativo favorisce l’elaborazione di narrazioni che sono spesso un mezzo di emotional warfare e cognitive warfare e veicolano messaggi di urgenza, autorità, ma anche empatia.
Sul piano della cyber deviance, invece, l’AI può essere utilizzata per condizionare condotte non criminali, ma particolarmente efficaci sul piano della compromissione del trust e delle prassi sociali. Sono per esempio quelle utili a sollecitare o promuovere l’uso della Shadow AI (cioè l’uso improprio di tecnologie AI-based al di fuori delle policy di un’organizzazione) nonché di normalizzare prassi insicure anche al fini di favorire la fuga più o meno consapevole di informazioni, magari ritenute poco rilevanti se isolate.
Fattore umano e attacchi basati su AI
A livello di individuo, il MUAI imita voce e linguaggio di figure autorevoli (in azienda, ad esempio il Ceo) e genera messaggi che inducono azioni rapide, come nel caso Ferrari. A livello di comunità, coordina narrazioni che normalizzano eccezioni, bypassano controlli e sfruttano fiducia inter-aziendale. Infine, a livello di cittadino, FIMI e cognitive warfare creano artatamente e/o alimentano un clima di incertezza e sfiducia che si riflette nelle scelte professionali.
Il ruolo dell’insider negli attacchi basati su AI
Ma il rischio non viene solo dall’esterno. L’insider è chi, per ruolo o vicinanza, dispone di accessi e relazioni in grado di produrre danni alle aziende. Risulta opportuno distinguere tra insider intenzionali – motivazioni economiche, rivalsa, collusione – e insider inconsapevoli – errori, adescamento, Shadow AI. Il MUAI riduce lo sforzo umano di aggregare ed esfiltrare dati, scrivere macro e script, mascherare tracce e convincere colleghi con messaggi credibili.
La cultura aziendale incide in modo rilevante in questo ambito. Ambienti che puniscono l’errore scoraggiano la segnalazione, mentre ambienti che la valorizzano, contribuiscono a ridurre il dwell time. Consulenti, manutentori, e fornitori IT possono trasformarsi in “quasi-insider”, favoriti dall’assenza spesso di specifiche policy AI aziendali.
L’etica dell’uso dell’AI va tradotta in norme pratiche, grazie a case-studies, sanzioni e incentivi. La distinzione tra errore e inganno è cruciale, pertanto, la risposta deve essere proporzionata e orientata al fine di prevenire eventuali recidive. Il whistleblowing protetto offre un canale per far emergere red flag senza ripercussioni indebite. Sul fronte legale, la tutela della prova digitale e la protezione della dignità delle persone devono coesistere.
I rischi dell’automation bias
In tale contesto, l’automation bias porta a fidarsi dell’output “perché l’ha detto l’AI”, una sorta di attualizzazione dell’ipse dixit. La scarcity e l’urgency spinge ad agire bypassando i sistemi e le procedure di verifica. La routine è l’assetto che il MUAI attacca per creare modelli operazionabili.
Uso malevolo dell’AI: il deepfake
E in tutto questo calderone, una delle armi più efficaci di social engineering basato su AI è il deepfake. Secondo l’European Parliamentary Research Service, entro fine 2025 saranno condivisi in tutto otto milioni di deepfake contro i 500.000 del 2023.
Come riporta la relazione citata di Maticmind, nel 2025 il 37% delle grandi aziende ha segnalato di esser stata vittima di almeno un tentativo di deepfake vocale, mentre si rileva che i deepfake video hanno avuto la capacità di eludere i sistemi Know your customer nel 12% degli episodi.
Come difendersi dall’uso malevolo dell’AI e social engineering in azienda
Sul piano della formazione diviene cruciale la simulazione di scenari reali, con metriche comportamentali idonee in cui il tempo è un fattore critico, la lingua non è più barriera, e il tono è fortemente condizionante in quanto l’AI imita intercalari, abbreviazioni, prassi, riducendo la percezione di criticità.
Per tutelarsi, le aziende devono codificare comportamenti desiderati in protocolli semplici e integrati, come nel caso della telemetria che deve includere indicatori socio-cognitivi, come pattern di richieste “urgenti” o variazioni nelle routine di contatto.
Inoltre, la cultura della segnalazione – anche anonima – riduce la vergogna dell’errore e favorisce l’emersione di comportamenti potenzialmente compromettenti. La trasparenza su incidenti e quasi-incidenti rappresenta un capitale organizzativo che favorisce l’apprendimento e migliora la resilienza. Strumenti phishing-resistant e gestione rigorosa delle sessioni riducono l’efficacia del furto di credenziali. Inoltre, occorre addestrare a riconoscere deepfake – video-call e audio-note – anche se non verificate.
La rotazione dei compiti e la compartimentazione delle funzioni aiutano a segmentare le catene persuasive.
MUAI, i rischi per le PMI
Va specificato che non solo le grandi aziende rischiano le conseguenze degli attacchi AI driven. Le PMI acquisiscono un ruolo strategico in quanto risultano spesso “ponti” di specifiche filiere, poiché attraverso il targeting di un fornitore locale, gli attori MUAI sono in grado di aprire la strada a clienti più grandi e importanti in termini di mercato e compromissione generale dello stesso.
Attacchi cyber basati su calendario fiscale e scadenze
Il MUAI, quindi, consente una sempre più “sartoriale” connotazione locale del campaign, in quanto a lingua, calendario fiscale, abitudini di pagamento.
Il dwell time rimane un elemento di particolare criticità: gli attori MUAI possono mantenere accessi silenti e dormienti per attivare estorsioni nel segmento temporale di maggiore criticità. Il furto di dati e IP diventa frequente anche senza cifratura, in quanto i mercati criminali valorizzano anagrafiche clienti, listini, progetti, ricette industriali. Il BEC si conferma rischio ad alto valore medio, ossia eventi ridotti, ma perdite elevate e bassa recuperabilità su pagamenti istantanei.
Rischi dell’AI per le PMI: l’importanza della consapevolezza
Come racconta Francesco Tieghi, Chief Marketing Officer di ServiTecno, “il primo errore che molte PMI commettono è credere di essere troppo piccole per essere un bersaglio. In realtà, l’intelligenza artificiale non guarda alle dimensioni o al fatturato: non fa distinzioni. La sua forza sta proprio nella capacità di adattarsi, di procedere per tentativi e di individuare vulnerabilità o backdoor in totale autonomia, in tempi rapidissimi”.
Questa evoluzione “appiattisce le differenze tra piccole e grandi aziende. Gli attacchi avvengono su più livelli (tecnologico, organizzativo e umano) e la complessità del sistema moderno fa sì che nessuno sia davvero immune. Le grandi imprese, pur avendo un perimetro d’attacco più ampio, possono contare su strutture di difesa più solide e personale specializzato.
Le PMI, invece, tendono a concentrare gli sforzi sul proprio business principale, trascurando gli aspetti di sicurezza informatica”. E da questo punto di vista “il livello di consapevolezza è bassissimo. Molte PMI italiane non hanno ancora percepito la reale portata dei rischi collegati all’intelligenza artificiale. Si tratta di tecnologie che evolvono con una velocità straordinaria, e per chi non dispone di risorse interne o competenze specifiche è davvero difficile stare al passo“, sottolinea.
Cyber attacchi con AI: il caso di un’azienda life science
Francesco Tieghi commenta che “molte PMI utilizzano strumenti di intelligenza artificiale in modo superficiale, senza rendersi conto dei rischi legati alla gestione impropria dei dati. Nonostante le sanzioni comminate, come quella a ChatGPT per l’uso improprio delle informazioni ricevute, tanti utenti continuano a condividere dati sensibili (tecnici, finanziari o legati alla privacy) su piattaforme pubbliche, attratti dalla scorciatoia dell’automazione”, spiega.
Per questo motivo, aggiunge, “alcune aziende stanno cercando di migrare verso soluzioni interne, con server dedicati che garantiscano maggiore protezione. Tuttavia, questa scelta porta con sé limiti significativi in termini di capacità di calcolo e potenza elaborativa, aprendo una sfida ancora tutta da gestire: trovare un equilibrio tra sicurezza e performance“.
E racconta: “Un caso interessante che abbiamo osservato riguarda un’azienda che, nel tentativo di limitare l’uso di strumenti di AI consumer, ha deciso di implementare una piattaforma interna di intelligenza artificiale per i propri collaboratori. L’obiettivo era aumentare la sicurezza e il controllo sui dati, ma il risultato è stato sorprendente: il progetto ha messo in luce un forte divario di competenze“.
Il management si è reso conto “che la cultura tecnologica interna era molto arretrata. Lo strumento è stato usato senza criterio, con tentativi di automatizzare processi complessi in modo inadeguato e, in alcuni casi, fornendo all’AI informazioni irrilevanti o dannose (oltre che riservate). Il tutto ha generato più confusione che efficienza”.
NP
Fattore umano e rischi cyber nelle PMI
Come anticipato, oltre alle minacce esterne vanno considerate quelle interne. Racconta Tieghi che “bastano pochi collaboratori poco formati o inconsapevoli per aprire varchi enormi. Talvolta, infatti, è proprio attraverso l’uso improprio degli strumenti di AI — anche in buona fede — che gli attaccanti riescono a raccogliere informazioni preziose per colpire”.
Infatti, aggiunge, “spesso sono proprio i collaboratori, magari spinti dalla curiosità o dalla voglia di semplificare o ottimizzare il lavoro, a fornire inconsapevolmente informazioni sensibili a piattaforme esterne di AI. Il problema è che l’uso interno dell’intelligenza artificiale è ancora poco regolamentato e raramente accompagnato da politiche chiare o da programmi di formazione adeguati”.
MUAI, il perimetro di rischio
Il MUAI agisce nelle zone grigie, sfruttando supply-chain, identità e canali informativi per oltrepassare perimetri giuridici e tecnici. Per questo la conformità alle normative deve tradursi in pratica. Le evidenze europee mostrano convergenza tra cybercrime, hacktivismo e attori State-aligned, con riuso di strumenti e modelli, e tendenza a campagne continue a bassa intensità più che ad eventi isolati. Per le aziende ciò implica che i piani logico-infrastrutturale e socio-cognitivo siano sempre più intrecciati e vadano governati con un’unica architettura di rischio.
Sul piano criminologico, il perimetro non finisce con l’organigramma o con il registro degli asset. Viviamo in un ecosistema cyber-sociale dove le minacce logiche e quelle socio-cognitive convergono e si alimentano a vicenda. In tale ecosistema, ogni cittadino-utente ogni momento esposto a forme di targeting MUAI, tanto asimmetrico – interno ed esterno, l’attaccante sfrutta i suoi bias, lui non conosce l’attaccante – quanto simmetrico – esterno/esterno: interazioni tra pari nello spazio pubblico digitale -, perché ogni individuo è una porta verso sistemi più ampi, quali famiglia, comunità, impresa, istituzioni.
Tale esposizione si colloca nella cornice della resilienza democratica poiché nuove tecnologie moltiplicano scala e velocità di manipolazione, ibridando operazioni informative e cyber attacchi. Nel quotidiano, ciò si traduce in nudging malevolo, overload informativo, sfruttamento di emozioni e identità, personalizzazione algoritmica che costruisce echo chambers e filtri percettivi. La vulnerabilità non riguarda (solo) la politica, ma salute, sicurezza pubblica, finanza personale, relazioni lavorative, fiducia nelle istituzioni e nei brand.
Il MUAI accelera radicalizzazione, mobilitazione e weaponizzazione. Ne derivano identità connettive, dicotomie Us-vs-Them, meme come vettori di senso ambigui e condivisibili, gamification dell’estremismo, e ibridazione con teorie cospirazioniste e reti criminali. Il cittadino diviene “entry point”che può essere sfruttato come proxy inconsapevole – amplificatore di contenuti – o “vittima-ponte”.
Normative e cyber rischi legati all’AI: Nis2
Le aziende fornitrici di soggetti PSNC e NIS2 ricevono clausole contrattuali e oneri di prova, inoltre, la responsabilità condivisa impone controlli equivalenti lungo la catena. Va anche ricordato le tempistiche di NIS2 spingono la professionalizzazione della sicurezza anche nei livelli subfornitori, pena esclusione da gare e contratti. In tale prospettiva, il perimetro non è più un confine IT: è un’architettura di conformità e di rischio che lega attori eterogenei tramite obblighi legali, standard tecnici, nonché responsabilità contrattuali. Per le aziende ciò significa mappare dove si sta “dentro” a perimetri altrui e dimostrare controlli equivalenti. Il diritto delimita soggetti e obblighi, mente il rischio attraversa confini tecnici e organizzativi.
Le politiche EU di prevenzione e contrasto della manipolazione informativa riconoscono la continuità tra spazio informativo e cybersecurity. Il confine tra “perimetro informativo” e “perimetro tecnico” è poroso e richiede l’approccio centrale di sicurezza cyber-sociale, attraverso l’educazione ai media, alfabetizzazione digitale, AI-literacy, situational awareness e cooperazione multiattoriale.
Ricordando che, per le imprese, ciò implica che la difesa del perimetro tecnico fallisce se il perimetro socio-cognitivo resta esposto.
Bibliografia
Antinori, Arije, Malicious use of Artificial Intelligence (MUAI): l’uso malevolo dell’intelligenza artificiale nell’ecosistema cyber-sociale, Rivista di sicurezza e scienze sociali, 2 (2025), doi: 10.5281/zenodo.17297557














