intelligenza artificiale

L’IA che ruba dati dal cloud: la lezione del caso ChatGpt Agent Mode



Indirizzo copiato

Gli agenti AI possono essere manipolati per rubare dati sensibili attraverso istruzioni nascoste in pagine web o documenti. Il caso ChatGPT Agent Mode dimostra come l’indirect prompt injection rappresenti una minaccia silenziosa che sfugge ai sistemi di sicurezza tradizionali

Pubblicato il 4 nov 2025

Antonio Teti

Responsabile del Settore Sistemi Informativi di Ateneo, Innovazione Tecnologica e Sicurezza Informatica dell’Università “G. D’Annunzio” di Chieti-Pescara. Docente di IT Governance e Big Data al Dipartimento di Economia Aziendale dell'Ateneo



agentic_ai_agendadigitale; copia privata; cyber-diplomacy ai wahing nei servizi finanziari ChatGPT Agent Mode

Il caso “ChatGPT Agent Mode”, emerso da un’analisi pubblicata su CatchingPhish, mostra come gli agenti AI possano essere manipolati per esfiltrare dati sensibili direttamente dai servizi cloud, senza interazione umana.
Una minaccia silenziosa che impone un ripensamento urgente della sicurezza e della governance dell’AI.

Continua a leggere questo articolo

Articoli correlati