intelligenza artificiale

L’IA che ruba dati dal cloud: la lezione del caso ChatGpt Agent Mode



Indirizzo copiato

Gli agenti AI possono essere manipolati per rubare dati sensibili attraverso istruzioni nascoste in pagine web o documenti. Il caso ChatGPT Agent Mode dimostra come l’indirect prompt injection rappresenti una minaccia silenziosa che sfugge ai sistemi di sicurezza tradizionali

Pubblicato il 4 nov 2025

Antonio Teti

Responsabile Settore Sistemi Informativi di Ateneo, Innovazione Tecnologica e Sicurezza Informatica. Responsabile per la Transizione Digitale di Ateneo e Referente di Ateneo per la Cybersicurezza Docente di Fondamenti di Cybersecurity al Dipartimento di Economia Aziendale



agentic_ai_agendadigitale; copia privata; cyber-diplomacy ai wahing nei servizi finanziari ChatGPT Agent Mode

Il caso “ChatGPT Agent Mode”, emerso da un’analisi pubblicata su CatchingPhish, mostra come gli agenti AI possano essere manipolati per esfiltrare dati sensibili direttamente dai servizi cloud, senza interazione umana.
Una minaccia silenziosa che impone un ripensamento urgente della sicurezza e della governance dell’AI.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x