Il panorama della sicurezza informatica sta vivendo una trasformazione radicale, segnata dall’ascesa delle frodi basate su deepfake, manipolazioni digitali di voce e video in grado di riprodurre con fedeltà impressionante amministratori delegati e dirigenti aziendali.
Grazie alla diffusione di strumenti di intelligenza artificiale generativa a basso costo e facilmente accessibili, tali tecniche sono oggi utilizzate non solo da gruppi criminali organizzati, ma anche da attori meno strutturati, con il risultato di ampliare in modo significativo la platea delle potenziali minacce.
Indice degli argomenti
Frodi deepfake: dati e casi concreti in crescita
Secondo le rilevazioni di Adaptive Security, società statunitense sostenuta da OpenAI, nel 2024 negli Stati Uniti si sono registrati oltre 105.000 attacchi legati a deepfake, pari a circa uno ogni cinque minuti.
È un incremento esponenziale rispetto al 2023. Brian Long, CEO dell’azienda, ha osservato che un anno fa solo un responsabile della sicurezza su dieci aveva avuto esperienza diretta di simili frodi, mentre oggi la proporzione è vicina a cinque su dieci.
I casi noti confermano la gravità del fenomeno: Ferrari, Wiz, WPP e soprattutto Arup, società di ingegneria britannica coinvolta in un episodio da 25 milioni di dollari trasferiti su conti illeciti dopo una videoconferenza con falsi dirigenti generati dall’intelligenza artificiale.
Come funzionano gli attacchi deepfake
Lo schema di questi attacchi appare ormai codificato. Il dipendente, spesso un manager con accesso a risorse finanziarie o informazioni sensibili, riceve una comunicazione urgente apparentemente proveniente dal CEO.
Segue un incontro virtuale in cui l’interlocutore, ricreato con tecniche di intelligenza artificiale, replica voce, cadenza e inflessioni con sorprendente naturalezza. Le istruzioni possono riguardare trasferimenti di denaro, invio di dati riservati o azioni che facilitano l’ingresso di malware nei sistemi aziendali.
Come ha spiegato Margaret Cunningham di Darktrace, l’efficacia di queste frodi risiede nell’uso combinato di familiarità, autorità e urgenza, tre potenti leve cognitive che inducono la vittima ad abbassare le difese.
Perdite economiche legate alle frodi deepfake
Le perdite economiche documentate sono già considerevoli. Secondo Optiv, nei primi tre mesi del 2025 le frodi basate su impersonificazione di dirigenti hanno causato danni superiori a 200 milioni di dollari. Il dato non fotografa l’intera realtà, poiché molte imprese preferiscono non rendere pubblici gli episodi per timore di danni reputazionali.
La Financial Crimes Enforcement Network del Tesoro statunitense ha diffuso un avviso specifico, segnalando un aumento delle truffe deepfake contro banche, assicurazioni, broker ipotecari e casinò. La minaccia non risparmia nemmeno il settore tecnologico: nel marzo 2025 YouTube ha dovuto avvertire i propri creator di un falso video attribuito al CEO Neal Mohan che conteneva link a siti di phishing.
Dirigenti aziendali come bersagli privilegiati
Secondo Dmitry Volkov, CEO di Group-IB, i dirigenti aziendali costituiscono bersagli privilegiati poiché ampiamente esposti mediaticamente. Interviste, webinar, conference call ed eventi pubblici forniscono materiali audiovisivi di alta qualità facilmente reperibili, sufficienti ad addestrare i modelli di intelligenza artificiale per replicare fedelmente voce e tratti somatici.
Nati Tal di Guardio conferma che bastano pochi minuti di audio pulito per generare un modello in grado di produrre contenuti credibili.
Deepfake e cybercrime: il ruolo dell’intelligenza artificiale
Il fenomeno dei deepfake è parte di un contesto più ampio di evoluzione del cybercrime alimentato dall’intelligenza artificiale. Vitaly Simonovich di Cato Networks ha dimostrato come sia possibile creare, in poche ore, un malware funzionante sfruttando le capacità di un modello linguistico e aggirandone i filtri.
Strumenti come XanthoroxAI, disponibili nel dark web a costi relativamente modesti, consentono di sviluppare non solo deepfake ma anche campagne di phishing altamente personalizzate e operazioni di social engineering su larga scala. L’IA viene inoltre utilizzata per rendere il malware più adattivo: in un recente attacco contro sistemi ucraini un software malevolo ha interagito con un modello linguistico nel cloud per generare nuovo codice e superare barriere difensive, segnando un salto qualitativo nel panorama delle minacce.
Frodi deepfake: impatti economici e risposta del mercato
Gli impatti economici sono già notevoli. IBM ha stimato che nel 2024 l’intelligenza artificiale è stata coinvolta in un incidente di violazione dati su sei e in due truffe di business email su cinque. Deloitte prevede che le frodi basate su IA passeranno dai 12 miliardi di dollari del 2023 a 40 miliardi nel 2027.
Contestualmente, Gartner calcola che la spesa globale in cybersicurezza crescerà del 25% entro il 2026, fino a 240 miliardi di dollari.
La dinamica ha innescato un’ondata di fusioni e acquisizioni: Palo Alto Networks ha acquisito CyberArk per 25 miliardi e Protect AI per 700 milioni, SentinelOne ha rilevato Prompt Security per 250 milioni, mentre Google ha investito 32 miliardi per Wiz.
Anche Microsoft ha rafforzato i propri servizi con soluzioni integrate di difesa, segnalando l’attenzione dei big tech al tema.
Difendersi dalle frodi deepfake
Il quadro resta complesso. Dave Tyson di iCOUNTER avverte che i segnali rivelatori dei deepfake, come anomalie visive o tempi di risposta innaturali, stanno scomparendo. Di conseguenza, la difesa non può basarsi esclusivamente su strumenti tecnologici di rilevamento.
È necessario integrare procedure di verifica, protocolli di autenticazione multipla e formazione diffusa. Alex Quilici di YouMail invita a verificare sempre le richieste delicate tramite canali alternativi consolidati e a favorire una cultura aziendale in cui la sospensione temporanea di un’operazione per un controllo supplementare sia considerata normale.
Frodi deepfake: rischi, ma anche opportunità per le imprese
Nonostante la crescente sofisticazione delle minacce, lo scenario non è privo di prospettive incoraggianti. La consapevolezza del fenomeno sta aumentando, le istituzioni hanno rafforzato i propri avvisi e il mercato della cybersicurezza si sta consolidando rapidamente.
L’IA, oltre a potenziare i criminali, sta stimolando lo sviluppo di nuove tecnologie di rilevamento e la diffusione di pratiche organizzative più robuste. L’attuale pressione può diventare occasione per accelerare la maturità digitale delle imprese e rafforzarne la resilienza.
Conclusioni
In definitiva, le frodi deepfake rappresentano una sfida cruciale per il mondo aziendale, ma non insuperabile. La capacità di reagire, di integrare tecnologia, procedure e formazione, determinerà non solo la protezione dagli attacchi, ma anche la costruzione di un ecosistema digitale più sicuro e affidabile. La linea di confine tra reale e artificiale sarà sempre più sottile, ma le imprese che sapranno affrontare la sfida con consapevolezza e innovazione potranno trasformare una minaccia in un’opportunità di rafforzamento strutturale.













