Negli ultimi anni, la sicurezza informatica ha smesso di essere una questione per specialisti relegata nei datacenter. Con l’avvento dell’intelligenza artificiale, e in particolare dei modelli autonomi capaci di apprendere e agire senza supervisione costante, ci troviamo di fronte a un passaggio epocale: la nascita di entità digitali in grado di generare attacchi sofisticati, adattivi e strategici, spesso “invisibili” agli strumenti tradizionali.
Quello che una volta era appannaggio esclusivo dell’hacker umano – il cosiddetto pensiero laterale, l’astuzia, la capacità di sfruttare l’imprevedibile – oggi può essere replicato da sistemi autonomi alimentati da reti neurali e agenti intelligenti.
Eppure, paradossalmente, è proprio l’AI che può diventare anche lo scudo più promettente per difendere ciò che altri algoritmi minacciano. È ormai in atto un campo di battaglia invisibile, dove AI attacca, AI difende e l’umano rischia di rimanere spettatore.
Indice degli argomenti
Dalla cyber offensiva tradizionale all’attacco autonomo: cosa sta cambiando davvero
Fino a pochi anni fa (e in minima parte forse ancora oggi), la maggior parte degli attacchi informatici era opera di gruppi umani organizzati – criminali, hacktivisti, spie digitali – che sfruttavano vulnerabilità note o ancora non divulgate (zero-day), spesso con l’aiuto di tool automatizzati, ma comunque amministrati dall’intelligenza umana.
Oggi, questa dinamica sta rapidamente mutando. La disponibilità di modelli generativi open source, capaci di scrivere codice, analizzare documentazione tecnica e simulare comportamenti umani, ha aperto la porta a una nuova generazione di attori malevoli: AI autonome o semi-autonome in grado di portare avanti operazioni di penetrazione, esfiltrazione dati, social engineering e persino sabotaggio senza intervento umano diretto.
Alcuni esempi concreti?
- Sistemi AI in grado di generare exploit per vulnerabilità non documentate dopo aver analizzato automaticamente il comportamento binario di un’applicazione (ciò che fa quindi a livello di sistema).
- Bot intelligenti capaci di simulare interazioni umane credibili sui social o via email, imparando dalle reazioni delle vittime e adattando il linguaggio per ingannarle con maggiore efficacia.
- Attacchi “viventi” che si evolvono dinamicamente dentro infrastrutture cloud, modificando codice, persistenze e obiettivi in risposta al comportamento dei sistemi di sicurezza.
Tutto questo non è più fantascienza: già oggi esistono ambienti sperimentali dove agenti AI riescono a identificare, testare e sfruttare vulnerabilità in modo automatizzato. Alcuni di questi ambienti, come quelli usati nei test DARPA (progetti di ricerca avanzata promossi dall’agenzia statunitensedel Dipartimento della Difesa Defense Advanced Research Projects Agency, nota per essere all’avanguardia nello sviluppo di tecnologie di frontiera, spesso ben prima che entrino nell’uso civile o commerciale) o nei progetti sandbox di Microsoft e Google, mostrano una capacità di adattamento superiore a quella dei sistemi di protezione convenzionali.
L’altra faccia dell’intelligenza: AI per la resilienza dinamica
Se è vero che le AI possono colpire con rapidità, precisione e astuzia, è altrettanto vero che possono essere impiegate come sistemi difensivi attivi, molto più efficaci degli antivirus o dei firewall classici.
Le tecnologie emergenti in questo ambito vanno sotto il nome di resilienza cibernetica adattiva, un concetto che supera l’idea della “difesa perimetrale” e si sposta verso un paradigma ispirato alla biologia: non impedire l’intrusione, ma rilevarla, contenerla, isolarla e reagire in tempo reale, esattamente come fa il sistema immunitario umano.
Alcuni famiglie di strumenti di nuova generazione che si stanno distinguendo per i risultati ottenuti sono:
- AI Sentinel: agenti autonomi distribuiti all’interno delle reti aziendali che monitorano il comportamento dei nodi, identificano pattern anomali e orchestrano contromisure in modo decentralizzato, senza attendere input umani.
- Machine Unlearning: tecniche che permettono ai modelli AI di “dimenticare” velocemente informazioni compromesse o apprese da fonti manipolate.
- Zero Trust AI-aware: evoluzione del paradigma zero trust che integra modelli predittivi in grado di valutare dinamicamente il livello di fiducia nei singoli componenti di una rete, anche sulla base di segnali comportamentali non deterministici.
A rendere tutto ciò possibile è una convergenza tecnica tra reti neurali dinamiche, edge computing e telemetria avanzata. Il dato grezzo, una volta filtrato da modelli semantici locali, viene trasmesso a sistemi AI centrali che orchestrano la risposta in modo strategico, imparando continuamente da ogni incidente.
La sfida più delicata: il controllo e la trasparenza delle AI difensive
L’impiego di intelligenze artificiali per scopi difensivi porta con sé una questione spinosa: chi controlla questi agenti? come garantiamo che non diventino essi stessi vulnerabili?
Una AI autonoma può, per esempio, bloccare un intero sistema per un falso positivo, oppure essere ingannata da un attacco adversarial (input studiati per confonderla). Peggio ancora: può essere manipolata nel tempo, attraverso una lenta deriva del contesto dati, fino a sabotare i suoi stessi meccanismi decisionali.
Ecco perché una nuova area di ricerca — ancora agli albori — sta studiando la cosiddetta resilienza epistemica delle AI difensive: modelli progettati per mantenere una memoria coerente, sottoporsi a verifica incrociata da parte di altri agenti e accettare il rollback autonomo in caso di corruzione interna.
Parallelamente, stanno emergendo tecniche di auditing AI-to-AI, dove più agenti analizzano reciprocamente le decisioni al fine di garantire trasparenza, affidabilità e controllo distribuito. Questo è cruciale in contesti mission-critical come le infrastrutture energetiche, i sistemi bancari o la sanità digitale.
La guerra silenziosa tra AI e il ruolo dell’umano
Ciò che rende questo scenario così affascinante — e inquietante — è la sua assoluta silenziosità. Non esistono esplosioni, virus visibili o allarmi sonori.
Le guerre cibernetiche del futuro saranno combattute tra entità invisibili, intelligenti e velocissime, con esiti che potranno manifestarsi anche mesi dopo l’attacco, sotto forma di blackout digitali, manipolazioni finanziarie o fughe di dati strategici.
In questo contesto, il ruolo umano non può essere quello del controllore onnisciente. Piuttosto, dobbiamo imparare a progettare ecosistemi di fiducia tra agenti autonomi, dove l’umano supervisiona, guida, pone limiti etici e strategici. Serve una nuova cultura: quella dell’ingegneria della fiducia algoritmica.
Un equilibrio instabile, ma non inevitabile
L’intelligenza artificiale, se lasciata a sé stessa, non è né buona né cattiva. È un moltiplicatore di intenzioni. Ciò che cambia, oggi, è la velocità con cui le intenzioni possono prendere forma e impatto nel cyberspazio. Per questo, non possiamo più permetterci di pensare la sicurezza come un software da installare, ma come un ecosistema vivo da coltivare, dove l’evoluzione difensiva deve correre almeno quanto quella offensiva.
La sfida non è più solo tecnica. È culturale, organizzativa, educativa. Sta a noi decidere se assistere passivamente a un conflitto tra intelligenze — oppure diventare gli architetti consapevoli di un equilibrio resiliente tra umani e macchine.












