Mentre ci troviamo a un passo dalla rivoluzione dell’Agentic AI, è fondamentale comprendere il profondo impatto che questi agenti avranno sul modo in cui persone, applicazioni e dispositivi interagiscono con sistemi e dati. Si tratta di sfide che solo pochi mesi fa non avremmo potuto prevedere.
Pur non essendo esaustivi, gli esempi evidenziati segnalano i cambiamenti radicali e i rischi potenziali associati all’adozione diffusa dell’Agentic AI.
Indice degli argomenti
Agentic AI: una realtà inevitabile per le imprese
Gli agenti AI sono sistemi autonomi progettati per eseguire attività o prendere decisioni al posto degli utenti. Dotati di capacità di percezione ambientale, elaborazione dati e azione, sfruttano algoritmi avanzati e machine learning per adattarsi e ottimizzare le loro performance. Pur non essendo ancora pervasivi in ambienti di produzione, se ne prevede una rapida adozione per via dei significativi vantaggi che offrono in termini di produttività ed efficienza.
In futuro, l’interazione con risorse e servizi avverrà tramite un layer di agenti, coinvolgendo utenti, IT, sviluppatori, dispositivi e applicazioni. Le aziende potranno utilizzare agenti forniti da OS, browser e piattaforme, integrarli in strumenti come Microsoft Teams, o sviluppare soluzioni proprietarie o SaaS. Per la loro profonda integrazione nelle attività quotidiane e il ruolo di nuova interfaccia per servizi e sistemi operativi, l’adozione dell’Agentic AI diventerà inevitabile per la maggior parte delle organizzazioni.
Agentic AI: cinque rischi di sicurezza inaspettati
Nel corso di questa inevitabile integrazione, è fondamentale essere consapevoli delle implicazioni di sicurezza che ne derivano. Ecco cinque rischi da tenere d’occhio:
Individui e workstation come macchine avanzate per la produttività
Sfruttando le capacità agentic fornite da workstation, browser o applicazioni SaaS (più probabilmente una combinazione di queste), la produttività potrebbe raggiungere livelli mai visti.
Gli agenti permetteranno agli utenti di diventare manager dei propri team virtuali che possono operare in modo interattivo e autonomo.
Che si tratti di una minaccia interna o di un avversario esterno, il profilo di rischio di un utente aziendale compromesso, che impiega pesantemente l’intelligenza artificiale, accelera notevolmente.
Agenti di Shadow AI: autonomia inosservata
Gli agenti AI possono essere distribuiti autonomamente dietro le quinte dai team di AI e di sviluppo, ma anche dagli utenti attraverso applicazioni SaaS, strumenti del sistema operativo o il proprio browser.
Assisteremo quindi all’adozione di agenti senza adeguati processi IT e di sicurezza e, molto probabilmente, ci saranno situazioni in cui l’IT non avrà alcuna visibilità, il che comporta rischi significativi in quanto gli agenti AI non autorizzati potrebbero operare senza controllo, introducendoli in luoghi inaspettati. Un termine appropriato per questi agenti AI non autorizzati e non visti è “agenti di Shadow AI”, in quanto operano nell’ombra senza un’adeguata supervisione.
Sviluppatori come dipartimenti full-stack di R&S e Operations
L’introduzione dell’intelligenza artificiale generativa ha migliorato la produttività degli sviluppatori. Ora gli agenti AI possono trasformare completamente gli sviluppatori, da singoli collaboratori a dipartimenti operativi e di R&D completi, con la possibilità di gestire in modo indipendente l’intero processo di sviluppo e manutenzione delle applicazioni end-to-end, tra cui coding, integrazione, QA, distribuzione, produzione e risoluzione dei problemi.
Con l’introduzione di questi agenti, la produttività e le responsabilità degli sviluppatori crescono, elevando contemporaneamente il loro livello di privilegi.
Di conseguenza, se l’identità di uno sviluppatore viene compromessa, il rischio aumenta drasticamente, rendendola una delle più potenti in azienda.
L’uomo al centro: rischi e impatti
Man mano che le organizzazioni adottano l’Agentic AI, il coinvolgimento dell’individuo diventa fondamentale per convalidare e garantire che gli agenti funzionino come previsto. Le persone avranno responsabilità significative, tra cui l’approvazione di eccezioni e richieste. Il contributo umano influenzerà anche il comportamento futuro di questi agenti di intelligenza artificiale ad autoapprendimento.
Gli attaccanti possono prendere di mira questi individui per infiltrarsi nell’architettura, aumentare i privilegi e ottenere accessi non autorizzati a sistemi e dati. Il processo umano è quindi essenziale per mantenere il controllo e la supervisione, ma presenta anche una vulnerabilità significativa se questi individui chiave vengono compromessi.
Gestione e supervisione di milioni di agenti AI
Le identità macchina stanno proliferando a un ritmo senza precedenti, superando quelle umane addirittura di 45 a 1. E questa potrebbe essere solo la punta dell’iceberg. Con proiezioni come la visione di Jensen Huang per NVIDIA – 50.000 umani che gestiscono 100 milioni di agenti AI per dipartimento – il rapporto potrebbe salire a oltre 2.000 a 1.
Milioni di agenti AI in esecuzione in un ambiente aziendale hanno ancora più senso, in quanto le migliori pratiche per lo sviluppo di applicazioni che li utilizzano suggeriscono di suddividere i compiti tra più agenti specializzati, di piccole dimensioni, che lavorano di concerto per raggiungere un obiettivo più esteso.
Questo aumento esponenziale e l’enorme volume di identità macchina pongono sfide significative in termini di gestione e protezione.