l'analisi CERT-AgID

Model Context Protocol: nuovi rischi AI, nuove regole



Indirizzo copiato

Il CERT-AgID analizza i rischi del Model Context Protocol, lo standard che permette agli LLM di interagire con sistemi esterni. L’AI agentica introduce vulnerabilità inedite, tra cui attacchi SSRF, che richiedono controlli espliciti, allowlist restrittive e un approccio alla sicurezza radicalmente diverso da quello tradizionale

Pubblicato il 27 apr 2026

Tommaso Diddi

analista Hermes Bay

Luisa Franchina

Presidente Associazione Italiana esperti in Infrastrutture Critiche



OpenAI Frontier ai basata su agenti Agenti AI in azienda

Il Model Context Protocol è diventato uno degli standard più discussi nel campo dell’intelligenza artificiale applicata. Consente ai modelli linguistici di interagire con sistemi esterni, ampliandone le capacità operative in modo significativo. Ma questa apertura verso l’esterno porta con sé rischi di sicurezza nuovi e ancora poco esplorati, che il CERT-AgID ha analizzato in un recente studio con implicazioni dirette per chi opera in contesti pubblici e critici.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x