Il Model Context Protocol è diventato uno degli standard più discussi nel campo dell’intelligenza artificiale applicata. Consente ai modelli linguistici di interagire con sistemi esterni, ampliandone le capacità operative in modo significativo. Ma questa apertura verso l’esterno porta con sé rischi di sicurezza nuovi e ancora poco esplorati, che il CERT-AgID ha analizzato in un recente studio con implicazioni dirette per chi opera in contesti pubblici e critici.
l'analisi CERT-AgID
Model Context Protocol: nuovi rischi AI, nuove regole
Il CERT-AgID analizza i rischi del Model Context Protocol, lo standard che permette agli LLM di interagire con sistemi esterni. L’AI agentica introduce vulnerabilità inedite, tra cui attacchi SSRF, che richiedono controlli espliciti, allowlist restrittive e un approccio alla sicurezza radicalmente diverso da quello tradizionale
analista Hermes Bay
Presidente Associazione Italiana esperti in Infrastrutture Critiche

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026












