La sicurezza informatica nell’era dell’intelligenza artificiale non è più materia esclusiva degli specialisti IT. È una sfida culturale e organizzativa che investe ogni livello aziendale, dai consigli di amministrazione agli operatori, e che richiede un salto di consapevolezza che le regole tradizionali — per quanto utili — non sono più in grado di garantire da soli.
Indice degli argomenti
Il rito della password: come nasce la formazione sulla sicurezza informatica
“Almeno otto caratteri, maiuscole, minuscole, numeri e simboli.” Più che una frase, è un rituale. In un corso di formazione sulla protezione dei dati personali, quel consiglio è spesso la soglia che separa il diritto dalla tecnica, la compliance dalla vita reale: il punto in cui, dopo aver parlato delle norme, si aprono le ore dedicate a concetti essenziali e pillole operative di sicurezza informatica.
Per anni ha funzionato. Concetti solidi, ripetuti fino a diventare un lessico condiviso: Riservatezza, Integrità e Disponibilità; autenticazione e autorizzazione; malware, ransomware, le principali tipologie di attacco (chi si ricorda di WannaCry?). E poi il solito elenco di prescrizioni: non cliccare su link sospetti, non aprire allegati da mittenti sconosciuti, bloccare lo schermo quando ci si allontana dalla scrivania. Un copione collaudato, slide replicate in infinite presentazioni immaginate per catturare l’attenzione dei dipendenti.
Perché le regole tradizionali non bastano più nell’era dell’AI
Solo che oggi quel rituale rischia di diventare velocemente — e in alcuni contesti già lo è — drammaticamente insufficiente. Non perché le regole siano sbagliate: le password robuste restano utili e cliccare su un link malevolo continua a essere un rischio concreto.
Il punto è che le tecnologie che stiamo adottando – e in particolare l’intelligenza artificiale, stanno cambiando scala, velocità e credibilità degli attacchi rivelando tutta l’inadeguatezza delle misure pensate per sentirsi al sicuro.
Il phishing evoluto: quando l’intelligenza artificiale imita la realtà
Per capire meglio l’entità del fenomeno è sufficiente osservare la trasformazione di un attacco fortemente tipizzato come il phishing. Le e-mail sgrammaticate della prima ora si sono evolute in messaggi scritti con uno stile impeccabile, costruito su misura per quel reparto/operatore, con riferimenti reali, dettagli credibili, tempi giusti.
L’AI non inventa soltanto testi: imita. Riproduce tono, cadenze, abitudini. E quando un attacco diventa credibile, la più vulnerabile linea di difesa — l’attenzione umana — è la prima a cedere.
Attacchi ai sistemi AI: dal prompt injection all’estrazione di modelli
In altri casi, il bersaglio non è nemmeno una persona, ma il sistema stesso. Interfacce e API di servizi “intelligenti” stressate e interrogate senza sosta finché non lasciano trapelare informazioni che non avrebbero dovuto rivelare. Assistenti che, con una domanda formulata nel modo giusto, vengono convinti a bypassare istruzioni e a restituire dati sensibili. Modelli addestrati, ottimizzati, pagati a caro prezzo, che possono essere “copiati” o replicati più rapidamente di quanto immaginiamo.
E in quasi tutti questi casi, emerge lo stesso denominatore comune: l’attacco non arriva soltanto perché “qualcuno ha sbagliato”, ma perché l’organizzazione non ha riconosciuto per tempo che stava succedendo qualcosa di anomalo.
Il modello della difesa perimetrale: perché sta scricchiolando
Non per incompetenza. Per disallineamento.
Le organizzazioni, infatti, per anni hanno costruito la loro sicurezza su un modello di “difesa perimetrale passiva” – l’idea, cioè, che per essere al sicuro fosse sufficiente costruire muri abbastanza alti (firewall, antivirus, password complesse) che ormai sta scricchiolando. Non perché “la difesa perimetrale” sia inutile, ma perché non è più sufficiente come idea guida.
Il GDPR aveva già previsto tutto: i quattro pilastri della sicurezza sostanziale
È facile raccontare questo salto come una frattura: ieri la sicurezza era un elenco di regole, oggi è un campo di battaglia nuovo. Ma se cambiamo prospettiva, scopriamo che l’Europa aveva già preconizzato questo nuovo approccio molto prima dell’esplosione dell’AI.
Il GDPR già nel 2016 ha provato a mettere le basi per una sicurezza sostanziale, non solo formale. Non sempre con successo applicativo, e spesso con un’attuazione più formale che sostanziale nelle organizzazioni. Ma l’impianto concettuale era già quello giusto. Non ci ha chiesto di conformare le nostre organizzazioni ai dettami di un allegato tecnico; ci ha chiesto di governare il rischio.
Non ci ha detto di adottare misure generiche; ci ha imposto misure appropriate allo “stato dell’arte” e proporzionate al contesto. Non ci ha lasciato rifugiare nell’alibi del fornitore; ha introdotto l’accountability come dovere di essere responsabili e di saper dimostrare le scelte. E non ha trattato gli incidenti come eventi da nascondere; ha creato obblighi di segnalazione e gestione che, se presi sul serio, diventano un acceleratore di maturità organizzativa.
Valutazione del rischio nell’era AI: dall’adozione cieca alla governance consapevole
Se oggi l’AI rende più visibili le fragilità delle organizzazioni, è perché mette pressione proprio su quei quattro pilastri: valutazione del rischio, stato dell’arte, accountability, gestione e notifica degli incidenti. L’AI non inventa il problema; lo amplifica. E, amplificandolo, rende ancora più attuale l’impianto normativo che già puntava a spostare la sicurezza dal “si è sempre fatto così” a un processo continuo di scelta, verifica e rendicontazione.
La valutazione del rischio, per esempio, è il cuore del GDPR quando prescrive l’analisi preliminare dei rischi, quando impone una DPIA nei casi in cui un trattamento – specie se usa nuove tecnologie – è verosimilmente ad alto rischio per i diritti e le libertà delle persone, quando chiede di valutare la gravità di un data breach. Questo non è un vezzo burocratico: è un invito a capire davvero che cosa stiamo facendo prima di farlo.
Nell’era dell’AI, questa logica diventa un antidoto naturale contro la corsa all’adozione cieca. Un sistema che automatizza decisioni, che incrocia dati, che suggerisce azioni, che parla a nome dell’organizzazione, non è “un software come gli altri”: è un pezzo di processo. E ogni pezzo di processo, se sbaglia o viene manipolato, produce conseguenze. La domanda non è “funziona?” ma “quali rischi crea, per chi, con quale probabilità, con quali impatti e con quali contromisure?”.
Stato dell’arte e autenticazione: la sicurezza che cambia ogni mese
Lo “stato dell’arte” è il secondo pilastro e, insieme, la parte più scomoda. Perché lo stato dell’arte non è fisso: si muove. Quello che era adeguato ieri può essere insufficiente domani. Questo vale in modo evidente per l’autenticazione multi-fattore, dove per anni l’SMS è stato considerato un compromesso accettabile e oggi viene spesso sconsigliato in favore di metodi più robusti.
Ma vale ancora di più per la sicurezza dei sistemi AI, che evolve mese per mese: nuove tecniche di manipolazione degli input, nuove modalità di estrazione di informazioni, nuove forme di abuso delle integrazioni. Se la sicurezza è “allo stato dell’arte”, allora la formazione non può essere un rito stanco e ingessato: deve diventare apprendimento continuo e aggiornamento deliberato delle scelte tecniche e organizzative.
Accountability e AI Act: la sicurezza diventa materia di governance
Il terzo pilastro è l’accountability, che nel GDPR non è una parola da convegno ma una disciplina: il titolare è responsabile e deve essere in grado di dimostrare la conformità. L’AI Act prosegue lungo la stessa traiettoria, rendendola ancora più concreta: introduce obblighi lungo il ciclo di vita dei sistemi, rafforza i requisiti di robustezza e cybersecurity per gli impieghi ad alto rischio e, soprattutto, rende più esplicita la catena delle responsabilità tra chi fornisce la tecnologia e chi la introduce nei processi.
Se in passato la sicurezza poteva restare confinata nell’IT, qui diventa materia di governance: di ruoli, di decisioni, di controlli, di responsabilità che risalgono verso il vertice.
Gestione degli incidenti: l’AI rende gli attacchi più credibili e scalabili
Il quarto pilastro è la gestione degli incidenti. Il GDPR non si limita a dire “proteggi i dati”: ti obbliga a riconoscere, valutare e, quando necessario, notificare un data breach entro tempi stretti, spiegando cosa è successo e cosa stai facendo per rimediare. L’AI Act, dal canto suo, prevede obblighi di segnalazione di incidenti gravi per i sistemi ad alto rischio.
In entrambi i casi il messaggio è identico: l’incidente non è un fallimento da nascondere, è un evento da governare, con processi, responsabilità e capacità di apprendere. In un contesto in cui l’AI rende gli attacchi più credibili e più scalabili, la differenza tra un danno contenuto e un disastro spesso non è la tecnologia: è la prontezza organizzativa nel rilevare l’anomalia, nel prendere decisioni e nel comunicare correttamente.
Conoscere, comprendere, dubitare: le tre competenze chiave della nuova sicurezza
Letta così, la “nuova sicurezza” non è un elenco di nuove paure. È uno sforzo culturale che le norme europee hanno provato a instillare da anni: consapevolezza, competenza, rendicontabilità. E oggi vale la pena farlo assorbire davvero dentro l’organizzazione, non lasciarlo nel perimetro degli specialisti. Perché i rischi dell’AI non si manifestano solo nei laboratori: emergono nella routine, nei flussi di lavoro, nelle scelte quotidiane. E quelle scelte non le fa un solo ruolo.
Se il vecchio sistema implicitamente chiedeva di “non fare errori stupidi”, quello nuovo deve essere più sofisticato: conoscere, comprendere, dubitare. Conoscere non significa trasformare ogni dipendente in un esperto, ma costruire un’alfabetizzazione di base: abbastanza per capire il senso dei rischi principali e non sentire termini come ‘prompt injection’ o ‘model extraction’ come gergo alieno.
Comprendere significa ricostruire il contesto: che sistema stiamo usando, quali dati tratta, dove può rompersi. È la differenza tra sapere che il phishing è pericoloso e capire perché una specifica email — pur perfetta nella forma — è sospetta nel contesto della propria azienda. Dubitare, infine, è la competenza più critica nell’era dei deepfake: non paranoia, ma scetticismo operativo. Una telefonata dal CEO che chiede un’azione urgente e fuori procedura: è davvero lui? Un chatbot che risponde in modo perfetto: sta rivelando qualcosa che non dovrebbe?
Ruoli e responsabilità: dal CdA all’operatore, tutti devono fare la loro parte
Questo è il punto che molte organizzazioni stanno ancora sottovalutando: la maturità richiesta non è “tutti esperti”, ma “tutti capaci di fare la loro parte”. I componenti del consiglio di amministrazione devono essere in grado di fare domande sensate su rischi, controlli, dipendenze dai fornitori, monitoraggio e responsabilità.
I responsabili di funzione devono saper tradurre quei rischi in scelte operative: quali dati possono entrare in un sistema, quali no; quali compiti possono essere automatizzati, quali no; come si controllano output e comportamenti anomali; quali misure di continuità servono se il servizio degrada o viene abusato.
Gli amministrativi e gli operatori devono avere gli strumenti per riconoscere quando qualcosa “non torna”: una richiesta urgente fuori procedura, una voce fin troppo perfetta, un chatbot che sembra sapere più del dovuto, un comportamento del sistema che cambia senza spiegazioni. In altre parole: la sicurezza non è più soltanto “non fare”, è “capire perché”.
Formazione continua e differenziata per ruoli: il primo passo concreto
Da dove si comincia, allora, per rendere concreto questo paradigma senza trasformarlo in un’ennesima checklist?
Si comincia ammettendo che la formazione tradizionale – quella che serve solo a ottenere un attestato – non è più sufficiente. E si prosegue costruendo un programma continuo e differenziato per ruoli, che insegni un vocabolario comune e un metodo di lettura del rischio.
Non basta dire “non usare strumenti AI”: bisogna spiegare quali informazioni si possono condividere, quali no, con quali garanzie, e quali alternative esistono quando la risposta è “meglio di no”.
Lavoro interdisciplinare e linguaggio comune: la chiave per la valutazione del rischio
Una valutazione efficace richiede, infatti, competenze distribuite e un lavoro interdisciplinare: il team tecnico deve comprendere le vulnerabilità e le dipendenze; il legale deve tradurre requisiti e responsabilità; il business deve stimare l’impatto operativo e reputazionale; le risorse umane devono capire quali competenze servono e come allenarle; chi gestisce procurement e fornitori deve pretendere evidenze e garanzie coerenti con il rischio. Questo processo funziona solo se le parti parlano un linguaggio comune e hanno una comprensione minima del dominio degli altri. Ed è, di nuovo, formazione: non quella a compartimenti stagni, ma una formazione integrata che collega rischi, processi e decisioni.
Segnalare anomalie senza paura: perché il dubbio deve essere incoraggiato
Si comincia anche creando canali sicuri per segnalare dubbi e anomalie. Se chiedi alle persone di verificare e di dubitare, devi rendere praticabile quel comportamento: niente ridicolizzazione dei falsi allarmi, niente punizioni per chi rallenta un processo per una verifica ragionevole. L’AI aumenta il realismo dell’inganno; le organizzazioni devono aumentare la dignità del dubbio informato.
OWASP, NIST e ISO 42001: strumenti per strutturare le scelte, non checklist
E si comincia, infine, usando strumenti che già esistono per dare struttura alle scelte. Strumenti come l’OWASP Top 10 per LLM, il NIST AI Risk Management Framework o lo standard ISO/IEC 42001 possono supportare questo lavoro: non perché sostituiscano la responsabilità, ma perché aiutano a fare domande migliori e a rendere le scelte documentabili e migliorabili nel tempo. L’importante è usarli come metodo, non come ulteriore checklist da spuntare.
Le organizzazioni resilienti e quelle vulnerabili: la distanza crescente
Guardando avanti, lo scenario più probabile è una distanza crescente tra organizzazioni che hanno fatto il salto trasformativo e organizzazioni che continuano con il business as usual. Le prime avranno più resilienza nel riconoscere e assorbire minacce nuove, più capacità di evitare incidenti che diventano notizia e reputazione distrutta in poche ore, più strumenti per rispondere a richieste di accountability. Le seconde potranno anche ‘andare avanti’ per un po’, ma lo faranno con un debito tecnico e culturale che aumenta — finché un incidente, una scelta sbagliata su un fornitore, o un’integrazione frettolosa con un sistema AI non verificato renderà improvvisamente evidente il costo dell’inerzia.
Cultura organizzativa e sicurezza reale: nessun firewall può sostituire la consapevolezza
Alla fine, la differenza non sarà solo la tecnologia disponibile o il budget allocato alla sicurezza. Sarà la cultura organizzativa. Nessun firewall, per quanto sofisticato, può compensare un management che autorizza l’integrazione di sistemi senza comprenderne rischi e controlli. Nessuna policy password può proteggere da una richiesta urgente veicolata da un deepfake credibile se non esiste una procedura di verifica e un’abitudine al dubbio. Il vecchio copione della sicurezza informatica ha servito bene le organizzazioni. Ma un copione, per definizione, si recita. E quello che serve oggi non è recitare la parte di chi è al sicuro: è esserlo davvero — con consapevolezza, metodo e la capacità di cambiare quando il contesto cambia o quando le analisi degli incidenti ci suggeriscono che stiamo sbagliando.













