La designazione di Anthropic come “rischio per la catena di approvvigionamento” da parte dell’amministrazione Trump non è una stranezza burocratica. È un sintomo: quello di un vuoto di governance che nessuna democrazia occidentale ha ancora colmato, e che la guerra sta rendendo urgente.
l'approfondimento
Chi governa l’AI in guerra? Il vuoto normativo che pesa sull’Europa
Il caso Anthropic mostra che sull’uso militare dell’intelligenza artificiale non decidono le istituzioni ma contratti, aziende e apparati di sicurezza. Nel vuoto normativo aperto tra Stati Uniti ed Europa, la velocità dell’Ai rischia di trasformare errori e opacità in danni irreversibili
Legal Tech – Compliance Manager

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026













