sicurezza

Minacce cyber AI-powered: l’Italia sempre più vulnerabile



Indirizzo copiato

L’intelligenza artificiale generativa elimina le barriere linguistiche per i cybercriminali. Il report Proofpoint 2025 rivela come l’AI faciliti attacchi di phishing personalizzati in italiano. Le organizzazioni italiane subiscono aumenti significativi di BEC e ransomware

Pubblicato il 14 gen 2026

Emiliano Massa

Area Vice President, Sales SEUR, Proofpoint



educazione-alla-cybersecurity-agenda-digitale; Legge Ai professioni intellettuali Strategia nazionale di cybersicurezza 2025–2027

L’intelligenza artificiale generativa ha eliminato le tradizionali barriere linguistiche e culturali che proteggevano le organizzazioni italiane, consentendo ai cybercriminali di lanciare attacchi sofisticati e personalizzati su larga scala.

L’AI abbatte le barriere linguistiche nel cybercrime italiano

La prima edizione del report Human Factor 2025 di Proofpoint ha messo infatti bene in chiaro che lingua e cultura non rappresentano un deterrente più per i cybercriminali come in passato. Con la crescente accessibilità degli strumenti di intelligenza artificiale generativa, infatti, sono ora in grado di creare messaggi credibili a supporto di phishing e impersonificazioni personalizzate in più lingue, incluso l’italiano. Solo pochi anni fa, le barriere culturali o linguistiche erano sufficienti a scoraggiare i malintenzionati dal prendere di mira l’Italia e la sua lingua.

Oggi, invece, stanno utilizzando l’AI per adattare gli attacchi in modo più efficace al pubblico locale. La ricerca di Proofpoint mostra che, sebbene la maggior parte delle frodi via email tracciate resti in inglese, la quantità di messaggi in altre lingue cresce in modo significativo. Un esempio tutto italiano è rappresentato dall’attore noto come TA544, che punta a distribuire malware con messaggi in tema economico e finanziario, impersonificando in modo credibile istituzioni italiane. Questa tendenza solleva una domanda importante: la lingua italiana offre ancora una barriera per i cybercriminali nell’attuale panorama delle minacce guidate dall’AI?

L’intelligenza artificiale come motore della nuova ingegneria sociale

Ciò che sta abilitando questo cambiamento non è solo la flessibilità linguistica, ma la trasformazione fondamentale del funzionamento dell’ingegneria sociale. L’intelligenza artificiale non è più solo uno strumento; è diventata il motore che alimenta la prossima generazione di minacce cyber.

Gli attaccanti possono raccogliere grandi volumi di dati da conversazioni avvenute su varie piattaforme, quali social media, app di messaggistica e registri di chat, e alimentarli in modelli di linguaggio naturale che imparano a imitare il tono e il contesto, rendendo l’interazione ancora più umana. L’obiettivo finale è la manipolazione: convincere qualcuno a fare una chiamata, cliccare su un link o scaricare un file senza rendersi conto di essere stato preso di mira. E più l’email è realistica, maggiori sono le possibilità che la vittima cada in trappola.

Italia sotto attacco: i numeri allarmanti di BEC e ransomware

L’ingegneria sociale si sta evolvendo rapidamente, e l’Italia resta nel mirino. Uno studio recente ha rivelato che questo cambiamento si sta già facendo sentire nel nostro paese. In base ai dati di Proofpoint, nell’ultimo anno il 51% delle organizzazioni italiane è stato colpito da attacchi di Business Email Compromise (BEC), ben il 71% ha subìto un’infezione da ransomware (con un aumento del 61% rispetto a quello precedente). Una causa potrebbe essere il fatto che ora gli attaccanti stanno utilizzando l’AI per superare le barriere linguistiche e culturali che in precedenza potrebbero averli frenati.

La verità è che il panorama più ampio dell’ingegneria sociale si sta evolvendo. In passato, i cybercriminali dovevano scegliere tra inviare generiche email di phishing di massa o dedicare tempo alla creazione di messaggi altamente personalizzati. Con l’automazione e l’AI, questo compromesso non esiste più. Oggi, possono lanciare attacchi complessi e convincenti su larga scala, rendendo la minaccia più difficile da contenere e più semplice da sottovalutare.

Attacchi multicanale e tattiche di social engineering evolute

Anche gli strumenti utilizzati sono ora più vari. Con molte aziende che utilizzano piattaforme di collaborazione come Microsoft Teams, Slack e WhatsApp oltre all’email, gli attaccanti stanno utilizzando più punti di ingresso. Possono iniziare con un messaggio email e proseguire tramite un altro tool di comunicazione. Questo approccio multicanale aumenta la probabilità di successo, soprattutto quando un dipendente abbassa la guardia al di fuori della propria casella di posta.

La ricerca di Proofpoint ha rilevato che il 72% dei CISO italiani considera ora l’errore umano il loro più grande rischio di sicurezza, rispetto al 48% del 2023. Un’altra tattica crescente è l’uso di conversazioni benigne per costruire fiducia. Gli attaccanti iniziano con un messaggio amichevole o neutro, magari chiedendo un preventivo o un semplice follow-up su un compito, per verificare se il bersaglio risponderà. Una volta stabilita la fiducia, introducono un link o una richiesta dannosa. Queste tattiche più “morbide” sono più difficili da rilevare perché non sembrano pericolose a prima vista, ma col tempo aprono la porta a violazioni più gravi.

Cyber resilienza: strategie multi-livello per la protezione

Un approccio proattivo alla cyber resilienza è ormai necessario. Nonostante le sfide, c’è un forte slancio per la costruzione di una reale cyber resilienza. Anche l’Italia, direttamente e con il supporto di numerose iniziative europee, sta ormai effettuando investimenti visibili in cybersecurity, infrastrutture intelligenti e campagne di educazione pubblica.

Questi sforzi fanno parte di una spinta più ampia per rendere gli ecosistemi digitali a prova di futuro, continuando a guidare la trasformazione digitale. Per stare al passo con queste minacce, le organizzazioni dovranno costruire strategie multi-livello. I sistemi di sicurezza che utilizzano analisi comportamentali, machine learning e AI possono aiutare a rilevare schemi di comunicazione insoliti e segnalare potenziali minacce in anticipo, mentre tecnologie come l’autenticazione del mittente possono svolgere un ruolo chiave, bloccando gli attacchi che si basano sull’impersonificazione dell’identità o su domini simili.

Ma la tecnologia da sola non basta. Anche i dipendenti devono far parte della soluzione. La formazione continua e le iniziative di sensibilizzazione saranno cruciali per aiutare le persone a riconoscere le minacce emergenti e a rimanere vigili, non solo via email, ma su tutti gli strumenti che utilizzano per comunicare. Man mano che l’AI generativa si integra sempre più nel panorama delle minacce, nessun paese sarà escluso e anche per l’Italia, sarà necessario un approccio più proattivo e incentrato sulle persone per rimanere protetti in un ambiente di minacce sempre più sofisticato e personalizzato.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x