sicurezza

AI e cybersecurity, i nuovi rischi per le imprese italiane



Indirizzo copiato

La cybersecurity è diventata una priorità urgente per le imprese italiane, spinte da attacchi più frequenti e da un contesto digitale sempre più esposto. L’intelligenza artificiale accelera questa trasformazione, amplia il rischio e rende decisivo il presidio del fattore umano

Pubblicato il 26 mar 2026

Maurizio Zacchi

Cyber Academy Director di Cyber Guru



software microsoft giustizia CSA2 e sovranità digitale Human-Centric Security
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

I numeri parlano chiaro e non lasciano spazio a interpretazioni rassicuranti: la cybersecurity è diventata una delle priorità strategiche più urgenti per le imprese italiane. Lo certifica l’ultima ricerca dell’Osservatorio Cybersecurity & Data Protection del Politecnico di Milano, presentata a febbraio 2026, che fotografa un ecosistema digitale sotto pressione crescente, in cui le minacce si evolvono a una velocità che le difese tradizionali faticano a inseguire.

Il mercato italiano della cybersecurity ha raggiunto nel 2025 un valore di 2,78 miliardi di euro, con un incremento del 12% rispetto all’anno precedente. Una crescita robusta, che resiste persino al contesto macroeconomico avverso e all’instabilità generata dalle tensioni geopolitiche internazionali, e che si stacca nettamente dal debole +1,5% registrato dalla spesa digitale media. Ma dietro questa espansione e a un ottimismo di facciata si nasconde la risposta — ancora parziale — a un rischio sistemico che si è ingrandito in modo esponenziale.

Il quadro degli attacchi: un’Italia sempre più nel mirino

Nel corso del 2025, oltre un terzo delle grandi imprese italiane – il 34% – ha subito attacchi informatici che hanno comportato costi significativi di ripristino. Una cifra che, da sola, racconta la concretezza della minaccia: non si tratta di rischi ipotetici o di scenari di laboratorio, ma di incidenti reali con ripercussioni tangibili sul business. Per il 3% delle organizzazioni colpite, l’impatto ha raggiunto il livello operativo, con interruzioni dirette alle attività produttive.

La risposta delle imprese non si è fatta attendere: il 57% delle grandi organizzazioni ha avviato una revisione strutturale dei piani di incident response, cioè dei protocolli che regolano la capacità di rilevare, gestire e contenere gli attacchi. Un segnale che le aziende stanno prendendo atto che le modalità di attacco sono cambiate in profondità e che le contromisure devono evolversi di conseguenza.

A trainare la crescita del mercato sono stati settori particolarmente esposti: la Pubblica Amministrazione registra un incremento degli investimenti del 28%, seguita dal Finance — banche e assicurazioni — con un +22% e dalla Logistica e Trasporti con un +18%. Questi numeri riflettono la distribuzione reale del rischio: le infrastrutture critiche e i settori che gestiscono dati sensibili o flussi finanziari sono bersagli prioritari per gli attori malevoli.

L’intelligenza artificiale: da strumento difensivo ad arma offensiva

Il dato più allarmante che emerge dalla ricerca riguarda l’integrazione dell’intelligenza artificiale nelle strategie di attacco informatico. Per il 71% dei CISO — i Chief Information Security Officer — italiani, l’AI acuisce il rischio cyber in modo rilevante. Non è una percezione generica: è la presa d’atto di un cambiamento strutturale nelle modalità con cui operano i cybercriminali.

L’elemento più dirompente è l’avvento degli agenti AI autonomi, sistemi capaci di gestire in modo indipendente l’80-90% delle catene d’attacco. Cosa significa nella pratica? Che soggetti privi di competenze tecniche avanzate — in passato un ostacolo significativo all’ingresso nel mondo del cybercrime — possono oggi orchestrare offensive sofisticate, personalizzate e persistenti, semplicemente delegando l’esecuzione a sistemi automatizzati. La soglia di accesso al crimine informatico si è abbassata in modo drammatico, mentre la potenza di fuoco a disposizione degli attaccanti è aumentata in modo altrettanto marcato.

Come si evince dalla Ricerca, il 2025 ha rappresentato un vero punto di rottura. L’AI ha portato all’automazione e al potenziamento delle attività offensive e da ora in avanti sarà normale attendersi minacce cyber autonome, anche senza governo da parte dell’uomo. L’imperativo strategico che ne deriva è quello di “immaginare l’imprevedibile“: i CISO devono farsi interpreti di segnali deboli, anticipare scenari di rischio che ancora non si sono manifestati, costruire resilienza contro attacchi che non si conoscono ancora nella loro forma definitiva.

Questo cambiamento di paradigma ha implicazioni profonde per l’intera organizzazione aziendale. Non si tratta più soltanto di difendere perimetri tecnologici: si tratta di costruire una cultura della sicurezza capace di adattarsi in tempo reale a minacce in continua mutazione. Un obiettivo ambizioso, che richiede investimenti, competenze e — soprattutto — una governance della sicurezza che coinvolga l’intera catena decisionale dell’impresa.

Il fattore umano: la vulnerabilità che l’AI amplifica

Tra le priorità segnalate dai responsabili della sicurezza italiani, una emerge con forza schiacciante: il 96% dei CISO identifica la gestione del fattore umano come la prima criticità aziendale. Un dato che, per quanto già noto agli addetti ai lavori, assume un significato nuovo e più urgente nel contesto attuale, dove il proliferare di soluzioni di intelligenza artificiale di tipo consumer ha introdotto vettori di rischio inediti.

Le persone commettono errori: cliccano su link di phishing, utilizzano password deboli, condividono informazioni riservate per disattenzione o per scarsa consapevolezza dei rischi. Queste vulnerabilità esistono da sempre, ma oggi vengono amplificate da due fattori convergenti: da un lato, gli attacchi di social engineering sono diventati molto più sofisticati grazie all’AI, capace di generare comunicazioni fraudolente indistinguibili da quelle autentiche; dall’altro, la diffusione massiva di strumenti di AI generativa nella vita quotidiana dei lavoratori ha aperto canali di rischio che le policy aziendali tradizionali non riescono a presidiare efficacemente.

Quando un collaboratore utilizza un chatbot o uno strumento di AI generativa per elaborare documenti aziendali, sintetizzare email riservate o generare presentazioni con dati sensibili, sta potenzialmente esponendo informazioni critiche a sistemi di terze parti che potrebbero non soddisfare i requisiti di sicurezza e conformità dell’organizzazione.

I tool di AI diventano così un doppio vettore di rischio: da un lato sono target d’attacco — sistemi che contengono o elaborano dati sensibili possono essere compromessi — dall’altro offrono terreno fertile per l’errore umano, spesso non intenzionale ma ugualmente dannoso. La linea di confine tra utilizzo produttivo e utilizzo rischioso dell’AI è sottile, difficile da tracciare e richiede un approccio che vada ben oltre la semplice proibizione.

Come rafforzare la cybersecurity attraverso le persone

Affrontare questa criticità richiede un ripensamento profondo delle strategie di formazione e sensibilizzazione. Non è sufficiente organizzare sessioni di training annuali sulla cybersecurity: occorre costruire programmi continui, contestualizzati e capaci di adattarsi all’evoluzione delle minacce. La formazione deve diventare parte integrante della cultura aziendale, non un adempimento formale.

I livelli operativi della risposta organizzativa

Un approccio efficace alla gestione del fattore umano deve articolarsi su più livelli complementari. Il primo è quello della consapevolezza: i dipendenti devono comprendere non solo le regole da seguire, ma le ragioni che le motivano e le conseguenze concrete di una violazione.

Il secondo livello è quello della simulazione. Le campagne di phishing simulate rappresentano uno degli strumenti più efficaci per misurare la vulnerabilità reale dell’organizzazione e per fornire formazione contestualizzata nel momento in cui si verifica l’errore. La differenza tra chi

clicca su un link di phishing simulato e chi non lo fa dipende spesso non dalla conoscenza teorica delle minacce, ma dalla capacità di applicare quella conoscenza in situazioni di stress e urgenza. Le simulazioni realistiche allenano esattamente questa capacità.

Il terzo livello riguarda le policy sull’utilizzo dell’AI. Le organizzazioni devono dotarsi di linee guida chiare e praticabili sull’uso degli strumenti di intelligenza artificiale, che trovino un equilibrio tra la necessità di proteggere i dati aziendali e la comprensibile esigenza dei dipendenti di accedere a strumenti che aumentino la produttività. Policy troppo restrittive o percepite come irragionevoli vengono sistematicamente eluse: è quindi fondamentale che siano costruite con il coinvolgimento attivo degli utenti, che riflettano la realtà operativa delle diverse funzioni aziendali e che siano accompagnate da alternative sicure agli strumenti proibiti.

Il quarto livello, infine, è quello tecnologico: l’AI può essere utilizzata non solo come strumento d’attacco, ma anche come strumento di difesa. Il 56% delle grandi imprese italiane utilizza già l’AI in ambito cybersecurity, ma non sempre cogliendone appieno il potenziale di “augmentation” delle capacità umane. Sistemi di rilevamento anomalie basati su AI, strumenti di analisi comportamentale e piattaforme di threat intelligence possono compensare i limiti cognitivi delle persone, segnalando in tempo reale comportamenti sospetti e fornendo supporto decisionale nelle situazioni di rischio.

Cyber-resilienza contro gli attacchi potenziati dall’AI

La vera posta in gioco, dunque, è la costruzione di una cyber-resilienza genuina: la capacità di resistere agli attacchi, di contenerne gli effetti e di ripristinare rapidamente l’operatività. I dati della ricerca mostrano che su questo fronte c’è ancora molto lavoro da fare. La direzione deve essere quella di un impegno sistematico, continuo e coraggioso, capace di stare al passo con un avversario — il cybercrime potenziato dall’AI — che non dorme mai.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x