Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

cyber security

Intelligenza artificiale e sicurezza, le principali tecniche di attacco e difesa

L’Intelligenza artificiale è al centro di nuove tecniche di difesa, per l’individuazione di minacce o per l’orchestrazione della difesa. Ma è usata sempre più spesso anche per nuove tecniche di attacco, come il face swapping. Vediamo di che si tratta

06 Ago 2018

Fabio Battelli

Partner di Deloitte Risk Advisory, Cyber Risk Services


L’intelligenza artificiale nella difesa delle infrastrutture digitali presenta molti vantaggi, ma anche rischi da non sottovalutare. Vediamo come, da un lato l’IA aumenta sensibilmente la capacità di riconoscere, prima ed in maniera più efficace, la minaccia ma, dall’altro offre anche nuove vulnerabilità agli attaccanti.

Monitoraggio cyber minacce, il modello SOC co-gestito

Per fronteggiare gli attacchi più moderni non basta investire in prevenzione, ma è necessario adeguare costantemente le capacità di monitoraggio ed individuazione delle minacce, nonché assicurare una risposta adeguata agli incidenti in caso di potenziale compromissione. Da un lato, soprattutto nel settore finanziario, si è registrata una progressiva affermazione del modello SOC (Security Operations Center) co-gestito, ovvero con un mix di competenze ed infrastrutture tra il SOC interno dell’organizzazione ed il ricorso a SOC di provider esterni; ciò ha consentito ad esempio di ottenere più agevolmente una copertura h24, 365 giorni l’anno, riferita soprattutto al monitoraggio delle minacce di sicurezza.

Dall’altro, la reale efficacia di un SOC, sebbene coadiuvato da ausili esterni, può variare sensibilmente in funzione di svariati fattori, tra i quali:

  • l’adozione di soluzioni tecnologiche adeguate,
  • l’impiego di analisti con skill ed esperienza appropriata,
  • l’impiego di processi e procedure ben strutturati,
  • l’effettiva integrazione con altre strutture interne ed esterne (ad esempio CERT).

Nuove tecniche, nuovi paradigmi, nuove professionalità

In questo scenario, l’evoluzione tecnologica e la volontà dell’industria di fornire soluzioni che possano sempre di più facilitare l’individuazione delle “unknown threat”, rispetto a quelle già note, sta introducendo nuove tecniche e cambi di paradigmi rispetto a qualche anno fa. Tra questi c’è una progressiva e sempre più spinta attenzione ad analizzare flussi enormi di eventi, ricorrendo soprattutto a tecniche di intelligenza artificiale (IA). La definitiva affermazione del machine learning sta accelerando l’adozione della IA, inglobando le stesse in diverse soluzioni di cyber security. Queste tecniche stanno modificando anche le professionalità coinvolte nei processi di monitoraggio e gestione degli incidenti. L’ingresso nei SOC dei cosìddetti data scientist, sta aprendo nuove frontiere nella capacità di individuazione di pattern di attacco non predefiniti, aumentando sensibilmente la capacità di riconoscere, prima ed in maniera più efficace, la minaccia.

AI e orchestration per realizzare l’active defense

La novità ancora più importante investe anche il modo con cui rispondere ad una potenziale compromissione. Attraverso le medesime tecniche, anch’esse basata sull’IA, hanno fatto ingresso sul mercato le soluzioni cosìddette di “orchestration”.

6Le stesse stanno facilitando la vita degli analisti di sicurezza, analizzando e selezionando automaticamente le azioni più appropriate da applicare per contenere la specifica compromissione ed automatizzando “by design” l’esecuzione rapida di numerose tecniche di risposta (dalla chiusura di una connessione malevola agendo sui dispositivi di sicurezza perimetrale, all’arricchimento di informazioni provenienti dalle fonti di intelligence). L’obiettivo finale è realizzare quel paradigma di “active defense” che riduce i tempi di reazione, abbattendo la probabilità che una minaccia possa diventare una reale compromissione.

L’AI come arma di attacco, le tecniche

Fin qui l’IA appare come una interessante opportunità in termini di evoluzione della capacità di difesa, associata primariamente alla possibilità di individuare e gestire la minaccia Cyber in maniera sempre più sofisticata. Come descritto sopra ciò non solo è vero, ma è ormai un trend inarrestabile che vedremo sempre più applicato in futuro. Tuttavia, come spesso capita con gli strumenti di difesa, questi possono diventare anche potenti armi per l’attacco. Oggi l’IA trova applicazioni in svariati ambiti dell’information technology: dal riconoscimento vocale nei call-center, analisi dei dati di marketing per profilare gli utenti, ad applicazioni di sorveglianza per garantire la pubblica sicurezza, mediante il riconoscimento facciale massivo, alla cyber security appunto. Ciascuna di queste applicazioni ha un alleato nell’IA, ma fornisce anche nuove vulnerabilità agli attaccanti.

Gli algoritmi di machine-learning possono essere elusi o, peggio ancora, confusi per raggiungere due obiettivi principali: da un lato neutralizzare le capacità di queste tecniche di analisi, da un lato usarli per modificare i comportamenti. E’ il caso ad esempio degli attacchi che, eludendo gli algoritmi di riconoscimento vocale o facciale basati su machine learning, sono in grado di impersonare un individuo e di impartire azioni malevoli.

Un attacco conosciuto come “face swapping” consente ad esempio ad un attaccante di fornire al motore di AI un video con un volto “fake”, facendogli credere che si tratta del volto della persona che sta cercando. Analogamente un gruppo di ricercatori della Zhejiang University cinese ha scoperto un modo intelligente per attivare un sistema di riconoscimento vocale senza pronunciare una parola, eludendo l’algoritmo di AI alla base ed utilizzando frequenze ad ultrasuono che consentono di impartire qualsiasi comando al sistema. Ciò potrebbe consentire ad esempio ad un attaccante di comandare uno smartphone in “silenzio”, forzandolo ad aprire un sito compromesso ed installando una backdoor.

Il progetto ART di IBM

Tornando alla prospettiva di chi deve proteggersi, già da qualche tempo si stanno studiando nuove tecniche per difendersi dalla potenziale compromissione dei modelli di machine learning. Un valido esempio è costituito dal progetto Adversarial Robustness Toolbox (ART) messo a punto da IBM, in pieno spirito open source. Si tratta di una libreria di strumenti in grado di riprodurre alcuni attacchi noti agli algoritmi di machine learning, con l’obiettivo di verificarne il livello di robustezza e correggere eventuali vulnerabilità prima che sia troppo tardi.

Articolo 1 di 4