L’intelligenza artificiale è certamente una tecnologia che riserva giorno per giorno nuove sorprese, tra nuovi attori che entrano nel settore, crescita continua delle capacità, applicazioni innovative; alla stessa velocità si evolve anche lo scenario della sicurezza AI, sia per quanto riguarda le minacce informatiche sia per quanto riguarda le proposte normative.
Indice degli argomenti
La sicurezza AI come leva per una crescita consapevole
Questa rapidità può contribuire a creare barriere all’adozione dell’AI da parte delle imprese. In particolare, come è emerso anche dallo studio Cisco AI Readiness Index 2024, le preoccupazioni riguardo alla sicurezza AI sono nella maggioranza dei casi la principale priorità e anche il principale ostacolo da superare per poter sfruttare pienamente il potenziale dell’AI.
È molto importante evidenziare, però, che anche solo negli ultimi mesi ci sono stati importanti sviluppi in tema di sicurezza AI e sono emersi alcuni trend di rilievo. Il report Cisco “State of AI Security” nasce per evidenziare queste innovazioni e per condividere una serie di spunti pratici per migliorare le strategie di sicurezza AI delle imprese.
Nuove superfici di attacco nell’era dell’intelligenza artificiale
Le tecnologie legate all’AI o da essa abilitate hanno creato una nuova, enorme superficie d’attacco da gestire. Ci sono rischi praticamente in ogni fase del ciclo di vita dello sviluppo di soluzioni, tecnologie, applicazioni basate su AI: la compromissione può essere diretta, oppure avvenire facendo leva “silenziosamente” sulle vulnerabilità nella supply chain.
Gli autori del report giudicano particolarmente preoccupanti alcuni rischi:
- i rischi legati alla compromissione diretta o alle vulnerabilità nella supply chain AI riguardo a modelli, sistemi, applicazioni e infrastrutture per l’intelligenza artificiale;
- la nascita di vettori di attacco dedicati specificamente all’AI, che prendono di mira i Large Language Model e i sistemi AI con varie tattiche (jailbreaking che permette di aggirare le limitazioni poste ai modelli, prompt injection, compromissione o estrazione dei dati…);
- l’utilizzo dell’AI come strumento per automatizzare e moltiplicare la capacità degli attori malevoli, specialmente per quanti riguarda gli attacchi condotti con il social engineering.
Queste minacce possono essere considerate rischi all’orizzonte, più che rischi attuali: ma l’orizzonte può farsi vicino molto rapidamente.
Nel 2024 le nuove minacce che si sono presentate sono state legate soprattutto all’uso dell’AI per amplificare tattiche malevole già esistenti, mentre le minacce in sé legate all’AI per la maggior parte sono state giudicate di livello basso o medio di rischio. Nonostante ciò, si sono già verificati anche casi preoccupanti, nei quali l’AI generativa è stata sfruttata per aumentare la “credibilità” di attacchi di phishing, per esempio con l’utilizzo di deepfake vocali.
In prospettiva, rimane molto complesso far corrispondere alla crescente velocità dell’adozione dell’AI lo sviluppo, l’implementazione e l’adesione a pratiche di sicurezza adeguate, il che moltiplica i potenziali impatti negativi.
Governance e normative: il ruolo chiave della sicurezza AI
Nel 2024 anche il panorama delle policy e normative AI di livello locale e internazionale è stato molto dinamico. In paesi come gli USA l’assenza di una normativa federale ha causato un approccio localizzato, legato ai singoli stati, che ha portato a introdurre più di 700 normative in tema AI nel 2024; allo stesso tempo, si sono visti importanti sviluppi in percorsi internazionali, come l’AI Act dell’Unione Europea, che è entrato in vigore nell’agosto 2024, e accordi di collaborazione come quello siglato tra Regno Unito e Canada proprio sulla sicurezza AI.
Nel 2024, in generale, l’orientamento delle discussioni e azioni sulle policy AI è rimasto principalmente ancorato al tema della sicurezza e alla mitigazione di ogni possibile rischio sociale ed economico associabile all’AI.
Il focus sul tema della sicurezza AI proseguirà, ma i primi “movimenti” del 2025 suggeriscono che vi sarà anche una crescente attenzione per articolare politiche che cerchino di creare un equilibrio efficace tra l’esigenza di sicurezza per l’AI e la volontà di innovare sempre più rapidamente.
A livello internazionale, di questo tema si è discusso a Parigi nell’AI Action Summit e l’argomento si riflette anche in altri ambito come l’AI Opportunities Action Plan del Regno Unito e nei recenti ordini esecutivi emanati dalla Presidenza USA con forte enfasi sull’innovazione.
Anche il nostro paese è orientato in questa direzione; ne è un segnale il contenuto della dichiarazione congiunta USA-Italia diffuso dopo l’incontro tra il Presidente del Consiglio Giorgia Meloni e il Presidente degli Stati Uniti d’America Donald Trump del 17 aprile scorso, in cui si è affermata la volontà di innovare con le tecnologie del futuro (l’AI, ma anche quantum computing, 6G, biotecnologie) e di rafforzare la collaborazione negli ambiti della protezione dei dati.
Cosa dicono le ricerche sulle minacce alla sicurezza AI
Lo studio Cisco riporta anche alcuni importanti risultati dell’attività di ricerca condotta dal team Cisco dedicato alla sicurezza AI. Le analisi, riportate con dettaglio nel report, evidenziano quale forma potrebbero prendere nuove tattiche e nuovi vettori di attacco specificamente legati al modo in cui l’AI funziona e alle sue operazioni più caratteristiche.
È stato dimostrato, per esempio, che con azioni di “jailbreaking algoritmico” portate avanti su modelli linguistici di grandi dimensioni si può riuscire a superare le protezioni di questi modelli, senza supervisione umana. Questa tecnica può essere usata per esfiltrare dati sensibili e per interrompere l’erogazione di servizi AI. Inoltre, prime ricerche riguardo alle attività automatiche di jailbreaking ai danni di modelli di ragionamento avanzato (hanno evidenziato che perfino questi modelli possono cadere vittima di queste tecniche.
Altri rischi sono emersi anche dalle attività di “fine tuning” dei modelli: questo metodo molto diffuso usato per migliorare la rilevanza contestuale dell’AI può avere conseguenze impreviste di cui pochi sono consapevoli, ad esempio un disallineamento dei modelli.
Ulteriori rischi sono legati alla possibilità di “avvelenare” ovvero di contaminare volutamente dataset pubblici e di estrarre i dati usati per il training di Large Language Models.
Strategie concrete per rafforzare la sicurezza dei sistemi AI
A fronte di questo scenario, è chiaro che rendere sicuri i sistemi AI richiede un approccio proattivo e omnicomprensivo. Non si può trascurare nessun elemento.
È necessario impostare una gestione del rischio di sicurezza in tutto il ciclo di vita dell’AI, implementare severi controlli negli accessi, adottare standard di sicurezza AI riconosciuti come, per esempio, NIST AI Risk Management Framework e la MITRE ATLAS matrix.
La gestione del rischio relativo all’AI deve essere anche adattata ai processi specifici delle aziende, in particolare con la progressiva integrazione dell’AI in settori con differenze spesso anche marcate – la sicurezza dell’AI diventerà sempre più dipendente dal contesto di utilizzo. In questo contesto, ma anche in maniera più generalizzata, un aspetto chiave rimane l’educazione del personale e della popolazione, per assicurarsi una migliore comprensione delle potenzialità e criticità relative all’AI.