Il caso “ChatGPT Agent Mode”, emerso da un’analisi pubblicata su CatchingPhish, mostra come gli agenti AI possano essere manipolati per esfiltrare dati sensibili direttamente dai servizi cloud, senza interazione umana.
Una minaccia silenziosa che impone un ripensamento urgente della sicurezza e della governance dell’AI.
intelligenza artificiale
L’IA che ruba dati dal cloud: la lezione del caso ChatGpt Agent Mode
Gli agenti AI possono essere manipolati per rubare dati sensibili attraverso istruzioni nascoste in pagine web o documenti. Il caso ChatGPT Agent Mode dimostra come l’indirect prompt injection rappresenti una minaccia silenziosa che sfugge ai sistemi di sicurezza tradizionali
Responsabile del Settore Sistemi Informativi di Ateneo, Innovazione Tecnologica e Sicurezza Informatica dell’Università “G. D’Annunzio” di Chieti-Pescara. Docente di IT Governance e Big Data al Dipartimento di Economia Aziendale dell'Ateneo

Continua a leggere questo articolo
Argomenti
Canali





































































