Il caso “ChatGPT Agent Mode”, emerso da un’analisi pubblicata su CatchingPhish, mostra come gli agenti AI possano essere manipolati per esfiltrare dati sensibili direttamente dai servizi cloud, senza interazione umana.
Una minaccia silenziosa che impone un ripensamento urgente della sicurezza e della governance dell’AI.
intelligenza artificiale
L’IA che ruba dati dal cloud: la lezione del caso ChatGpt Agent Mode
Gli agenti AI possono essere manipolati per rubare dati sensibili attraverso istruzioni nascoste in pagine web o documenti. Il caso ChatGPT Agent Mode dimostra come l’indirect prompt injection rappresenti una minaccia silenziosa che sfugge ai sistemi di sicurezza tradizionali
Responsabile Settore Sistemi Informativi di Ateneo, Innovazione Tecnologica e Sicurezza Informatica. Responsabile per la Transizione Digitale di Ateneo e Referente di Ateneo per la Cybersicurezza Docente di Fondamenti di Cybersecurity al Dipartimento di Economia Aziendale

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026 -

San Raffaele, l’AI entra nella pratica clinica: meno burocrazia, più ascolto
23 Feb 2026












