l’approfondimento

Chi governa l’AI in guerra? Il vuoto normativo che pesa sull’Europa



Indirizzo copiato

Il caso Anthropic mostra che sull’uso militare dell’intelligenza artificiale non decidono le istituzioni ma contratti, aziende e apparati di sicurezza. Nel vuoto normativo aperto tra Stati Uniti ed Europa, la velocità dell’Ai rischia di trasformare errori e opacità in danni irreversibili

Pubblicato il 1 apr 2026

Barbara Calderini

Legal Tech – Compliance Manager



anthropic governo usa
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La designazione di Anthropic come “rischio per la catena di approvvigionamento” da parte dell’amministrazione Trump non è una stranezza burocratica. È un sintomo: quello di un vuoto di governance che nessuna democrazia occidentale ha ancora colmato, e che la guerra sta rendendo urgente.

Il fatto è noto, ma vale la pena ricostruire con precisione. Quando il Pentagono ha chiesto ad Anthropic accesso senza condizioni all’uso militare di Claude, l’azienda ha rifiutato, opponendo i propri vincoli etici interni.

La risposta dell’amministrazione è stata una ritorsione: la società è stata classificata con uno strumento solitamente riservato agli avversari stranieri. Non un avversario, dunque — un alleato scomodo.

La frattura apre una domanda che va ben oltre il caso specifico: chi ha il diritto — e il dovere — di fissare i limiti etici dell’intelligenza artificiale in tempo di guerra? Le istituzioni democratiche, con i loro tempi lunghi e le loro procedure garantiste? O le aziende private che controllano la tecnologia, con le loro policy unilaterali e revocabili?

Oggi la risposta, per difetto, è la seconda. I modelli generativi entrano già nelle decisioni di targeting militare. OpenAI ha firmato accordi con apparati di sicurezza senza clausole vincolanti di supervisione pubblica. Le regole le scrivono i board aziendali, non i parlamenti.

L’Europa osserva. Ha un AI Act, certo — ma pensato per i tempi di pace, non per gestire l’intreccio tra intelligenza artificiale e conflitto armato. Mentre Washington e le sue big tech ridisegnano i confini del lecito, Bruxelles è ferma alla finestra.

È un lusso che ha una scadenza.

Il caso che ha cambiato tutto nell’AI in guerra

Una parola — lawful — ha innescato una crisi istituzionale che ridefinisce i confini tra potere pubblico e potere tecnologico privato.

Il contratto con il Pentagono e la clausola lawful

Nel luglio 2025, Anthropic firmava un contratto da 200 milioni di dollari con il Pentagono[1]. Claude diventava il primo grande modello di AI ad essere schierato nelle reti classificate del governo americano. Era un primato. E sembrava l’inizio di un sodalizio strategico tra la Silicon Valley della sicurezza e lo Stato più potente del mondo.

Sei mesi dopo, quello stesso rapporto si era trasformato in una guerra legale senza precedenti — con il presidente degli Stati Uniti che ordinava al governo federale di smettere di usare la tecnologia di un’azienda americana, e il segretario alla Difesa che la trattava come un avversario straniero.

La rottura non è arrivata all’improvviso. Le tensioni covavano da gennaio 2026, quando il segretario Hegseth aveva emanato un memorandum sulla strategia AI del Dipartimento della Difesa, imponendo che tutti i contratti adottassero la formula standard “qualsiasi uso lecito”. Per la maggior parte dei contractor — Google, xAI, OpenAI — quella clausola non poneva problemi. Per Anthropic era direttamente incompatibile con due salvaguardie che il suo contratto aveva sempre previsto.

Il Pentagono[2] chiedeva pieno controllo sull’AI per uso in operazioni militari, sviluppo di armamenti, raccolta di intelligence e operazioni sul campo di battaglia. Anthropic aveva dichiarato due aree intoccabili: la sorveglianza di massa dei cittadini americani e le armi completamente autonome. Non era una posizione ideologica astratta. Il CEO Dario Amodei voleva garantire che Claude non venisse usato per decisioni di targeting senza coinvolgimento umano[3]: Claude non è immune alle allucinazioni e non è abbastanza affidabile da evitare errori potenzialmente letali — escalation involontarie, missioni fallite — senza il giudizio umano.

L’incontro con Hegseth e la rottura finale

I mesi di trattative si erano cristallizzati in una scena: il 24 febbraio, Hegseth aveva convocato Amodei al Pentagono per un incontro diretto. Era andato in modo cordiale — Hegseth aveva aperto elogiando Claude e dicendo quanto il militare volesse lavorare con Anthropic. Amodei aveva risposto che l’azienda era disposta ad accogliere la maggior parte delle richieste, ma aveva tenuto fermo sulle due linee rosse.

Tre giorni dopo, il Pentagono consegnava nottetempo una bozza di contratto che sembrava accettare le condizioni di Anthropic. Una lettura più attenta rivelava però che il linguaggio legale conteneva escape hatch — clausole che avrebbero dato al governo discrezionalità completa nel disapplicare entrambi i vincoli. Anthropic aveva respinto l’offerta: “Il nuovo linguaggio presentato come compromesso era abbinato a tecnicismi legali che avrebbero permesso di ignorare quelle salvaguardie a discrezione”, dichiarava il portavoce. “Non ci sono stati progressi.”

Il paradosso politico della designazione

Alle 17:01 del 27 febbraio scadeva l’ultimatum. Quella stessa sera, Trump pubblicava su Truth Social l’ordine a ogni agenzia federale di cessare immediatamente l’uso della tecnologia Anthropic. Hegseth decretava su X la designazione come “rischio per la catena di approvvigionamento”. Una misura solitamente riservata alle aziende considerate estensioni di avversari stranieri.

Il paradosso era già scritto nella sequenza degli eventi: nella stessa settimana in cui il governo minacciava di invocare il Defense Production Act per costringere Anthropic a collaborare — perché la tecnologia era troppo essenziale per farne a meno — dichiarava anche che Claude costituiva un rischio acuto per la sicurezza nazionale che richiedeva un’esclusione immediata. Due posizioni logicamente inconciliabili, tenute insieme solo dalla pressione politica. E intanto, ore dopo il ban[4], Claude veniva ancora segnalato in uso nelle operazioni militari in Iran.

Le linee rosse dell’AI in guerra secondo Anthropic

La posizione di Anthropic non è nata con la crisi del febbraio 2026. Affonda le radici nel metodo di addestramento su cui l’azienda riferisce di aver costruito la propria identità fin dalla fondazione.

Cos’è il Constitutional AI e perché conta

Il Constitutional AI — termine coniato dai ricercatori di Anthropic — è un sistema che vorrebbe guidare il modello attraverso un insieme di principi scritti, una sorta di “costituzione”, contro cui il modello valuta i propri output durante l’addestramento, con l’obiettivo di evitare risposte tossiche, discriminatorie o che supportino l’utente in attività illegali o “non etiche”. La differenza rispetto all’approccio standard del settore è tecnica prima ancora che filosofica: invece di affidarsi a etichette umane per identificare gli output dannosi — come nel Reinforcement Learning from Human Feedback (RLHF) — il Constitutional AI userebbe il feedback generato dall’AI stessa, guidata dai principi della costituzione, per selezionare le risposte più sicure. La supervisione umana è rappresentata interamente da un insieme di regole, non da revisori in carne e ossa.

I divieti hardcoded e lo scontro con il Pentagono

Il 22 gennaio 2026 — appena cinque settimane prima della rottura con il Pentagono — Anthropic aveva pubblicato una nuova versione della costituzione di Claude; pare la più ambiziosa mai rilasciata.

Il documento segnava un passaggio da un approccio basato su regole a uno basato su ragionamento: invece di prescrivere comportamenti specifici, la nuova costituzione spiega la logica sottostante ai principi etici, con l’obiettivo che Claude possa costruire autonomamente qualsiasi regola derivandola dalla comprensione dei principi fondamentali. La gerarchia di priorità veniva esplicitata: (1) sicurezza e supporto alla supervisione umana, (2) comportamento etico, (3) rispetto delle linee guida di Anthropic, (4) utilità per l’utente.

La formulazione aggiornata distingue tra comportamenti “hardcoded” — divieti assoluti come fornire assistenza per la produzione di armi biologiche o generare materiale pedopornografico — e comportamenti “soft-coded“, ovvero impostazioni predefinite modificabili da operatori e utenti entro limiti definiti. Ed è proprio in questa architettura che risiede il conflitto con il Pentagono: le due linee rosse che Anthropic si rifiutava di rimuovere — il divieto di utilizzo per sorveglianza di massa domestica e per armi completamente autonome — erano classificate come hardcoded, dunque non negoziabili per definizione costituzionale.

La strategia AI-first dell’amministrazione Trump

Non era una posizione radicale nel panorama del settore. Era, tuttavia, direttamente incompatibile con la visione “AI-first” dell’amministrazione Trump. Il 9 gennaio 2026, il Dipartimento della Difesa aveva pubblicato due memorandum coordinati: il primo, Artificial Intelligence Strategy for the Department of War, delineava sette “Pace-Setting Projects” prioritari e rimuoveva le barriere burocratiche all’integrazione dell’AI; il secondo, Transforming the Defense Innovation Ecosystem to Accelerate Warfighting Advantage, unificava l’ecosistema dell’innovazione difensiva sotto un unico Chief Technology Officer. Per il Pentagono, l’AI non è un semplice programma tecnologico: è un moltiplicatore di potenza bellica. Il memorandum del 9 gennaio lo scrive senza perifrasi — la guerra abilitata dall’AI ridisegnerà il carattere dei conflitti nel prossimo decennio, e gli Stati Uniti devono guidare quella trasformazione. Il 2026 è l’anno zero: ogni componente delle forze armate viene misurata sul suo grado di “AI fitness”, e chi non è al passo viene considerato un rischio strategico.”Diversità, equità, inclusione e ideologia sociale non hanno posto nel Dipartimento della Difesa”. Di conseguenza, veniva ordinato all’Under Secretary for Acquisition di incorporare la clausola standard “any lawful use” in qualsiasi contratto attraverso cui venissero acquisiti servizi AI entro 180 giorni.

Un’analisi del Bloomsbury Intelligence and Security Institute aveva già segnalato il paradosso prima della rottura: la nuova costituzione di Claude era pienamente allineata ai requisiti dell’AI Act europeo per i sistemi ad alto rischio, ma la sua stessa esistenza creava una contraddizione irrisolvibile con le clausole “any lawful use” dei contratti militari americani. L’eccezione per il dispiegamento militare evidenziava una sfida più ampia: mantenere la credibilità come organizzazione focalizzata sulla sicurezza pur perseguendo contratti governativi e una crescita rapida.

La rottura e le conseguenze

Il 27 febbraio 2026, Trump ordina a tutte le agenzie federali di cessare l’uso della tecnologia Anthropic entro sei mesi. Hegseth annuncia contestualmente la designazione come “supply chain risk” e affida a X il tono della comunicazione: “La posizione di Anthropic è fondamentalmente incompatibile con i principi americani. I guerrieri d’America non saranno mai tenuti in ostaggio dai capricci ideologici della Big Tech.” Trump, su Truth Social, accusa l’azienda di voler dettare come dovrebbero operare i militari. Con il 3 marzo, il Pentagono formalizza per iscritto: la designazione è effettiva, si applica a tutti i prodotti Anthropic e alle sue affiliate, e nessun contractor o partner dell’esercito americano è autorizzato a condurre qualsiasi attività commerciale con l’azienda.

La portata giuridica è inedita. Il Pentagono invoca due basi legali — il 10 U.S.C. § 3252 e il Federal Acquisition Supply Chain Security Act del 2018 — entrambe concepite per neutralizzare minacce di avversari stranieri, usate in precedenza contro Huawei e Kaspersky. Mai, fino a quel momento, contro un’azienda americana.

Il paradosso è stridente. Anthropic era stata la prima azienda AI di frontiera a schierare i propri modelli nelle reti classificate del governo federale, nei National Laboratories, e a sviluppare soluzioni personalizzate per la sicurezza nazionale. Claude era dispiegato capillarmente nel Dipartimento della Difesa per applicazioni mission-critical: analisi di intelligence, pianificazione operativa, operazioni cyber. Sul fronte cinese, il track record era ancora più netto[5]: l’azienda aveva rinunciato a centinaia di milioni di dollari di ricavi pur di interrompere l’accesso a Claude da parte di società legate al Partito Comunista Cinese — alcune formalmente designate dal Pentagono come “Chinese Military Companies” — e aveva sostenuto pubblicamente i controlli all’export sui chip.

Fu probabilmente anche questo a rendere la designazione difficile da sostenere sul piano tecnico. Il senatore Mark Warner, vicepresidente del Senate Select Committee on Intelligence, non ci provò nemmeno: bloccare una delle principali aziende AI americane attraverso tutto il governo federale, disse, combinato con la retorica infiammatoria contro quella stessa azienda, solleva serie preoccupazioni sul fatto che le decisioni di sicurezza nazionale siano guidate da un’analisi attenta — o da considerazioni politiche.

Una domanda retorica. Con una sola risposta plausibile.

L’AI già sul campo di battaglia

Quello che rende il caso ancora più urgente è il contesto operativo reale.

Operation Epic Fury e la scala degli attacchi

Il 28 febbraio 2026, gli Stati Uniti e Israele lanciavano “Operation Epic Fury”, l’offensiva coordinata contro l’Iran. Nelle prime 12 ore, le forze alleate eseguivano circa 900 attacchi. Nelle prime 24 ore, il numero saliva a 1.000 obiettivi colpiti. Una scala di operazioni impossibile con la pianificazione militare tradizionale. Richiedeva l’intelligenza artificiale.

Maven, Claude e il targeting assistito

Al centro di questo sistema c’è Palantir’s Maven Smart System, in cui Claude è integrato come livello di elaborazione linguistica. Maven usa algoritmi AI per identificare potenziali obiettivi da dati satellitari e di intelligence, e Claude aiuta i pianificatori militari a classificare le informazioni e a stabilire priorità tra i bersagli. Le applicazioni AI forniscono supporto analitico e di pianificazione; gli esseri umani prendono in ultima istanza le decisioni.

Il funzionamento concreto è stato descritto da Craig Jones, docente di Geografia Politica presso l’Università di Newcastle, esperto di diritto internazionale umanitario, targeting militare e danni di guerra in Medio Oriente, in un’intervista a Democracy Now: Palantir funziona come un sistema stratificato — simile, per complessità, a un videogioco avanzato — capace di integrare ogni tipo di input: la natura del bersaglio, la sua composizione, le variabili di intelligence. Claude opera in background, elaborando quei dati, generando raccomandazioni e restituendo all’operatore i parametri su cui agire. Sul piano operativo, il risultato è drastico: decine di migliaia di ore di lavoro umano vengono compresse in secondi o minuti. Flussi di lavoro e decisioni di targeting — tradizionalmente affidati al giudizio umano — vengono automatizzati in modi che aprono interrogativi profondi sul piano legale, etico e politico.

La supervisione umana dichiarata dai vertici militari

L’ammiraglio Brad Cooper, comandante dell’US Central Command, ha confermato l’impiego su larga scala in un video pubblicato su X l’11 marzo: «I nostri combattenti stanno sfruttando una varietà di strumenti di intelligenza artificiale avanzati.» A quella data, le forze americane avevano già colpito oltre 5.500 obiettivi in Iran. Cooper ha aggiunto: «Saranno sempre gli esseri umani a prendere le decisioni finali su cosa colpire, cosa risparmiare e quando sparare.»

Secondo gli esperti, la scala degli attacchi nella sola prima giornata è risultata circa il doppio di quella dello “Shock and Awe” sull’Iraq nel 2003. Ma è proprio questa velocità — resa possibile dall’intelligenza artificiale — a trovarsi al centro della questione più grave emersa dall’intero conflitto.

La scuola di Minab: quando il dato è obsoleto

Nella stessa prima giornata di “Epic Fury”, un missile ha colpito la scuola elementare femminile Shajareh Tayyebeh nel distretto di Minab, provincia di Hormozgan, nel sud dell’Iran. Secondo testimonianze verificate da analisi satellitari, la scuola è stata colpita tre volte in rapida successione. Il tetto è crollato sugli studenti. I media iraniani hanno riportato almeno 175 vittime, in maggioranza bambine.

La scuola figurava nella lista degli obiettivi americani, e diverse fonti a conoscenza dell’attacco hanno riferito al Washington Post che potrebbe essere stata scambiata per un sito militare. Secondo quanto dichiarato a Axios da una fonte ritenuta attendibile nell’ambito delle risultanze preliminari dell’indagine interna, l’US Central Command aveva fatto affidamento su coordinate di targeting basate su dati obsoleti forniti dalla Defense Intelligence Agency.

La dinamica dell’errore è emersa progressivamente attraverso le immagini satellitari. Fotografie del 2013 mostravano che la scuola e una base dell’IRGC facevano originariamente parte dello stesso compound. Immagini del 2016 rivelavano però che nel frattempo era stata eretta una recinzione a separare i due spazi, con un ingresso distinto per la scuola. Immagini del dicembre 2025 mostravano decine di persone nel cortile scolastico, apparentemente intente a giocare. Il sistema di targeting AI aveva dunque usato coordinate vecchie di anni per colpire una base adiacente, ignorando le immagini più recenti — quelle con i bambini nel cortile. Secondo gli standard NATO, nessun dato anteriore a novanta giorni può essere impiegato nel processo di targeting. Quei dati erano obsoleti da un decennio.

La no-strike list e la catena di responsabilità

Le domande sono arrivate subito. Più di 120 parlamentari democratici hanno scritto a Hegseth chiedendo che il Pentagono chiarisse quale ruolo avesse svolto l’intelligenza artificiale nella selezione dell’obiettivo, se il Maven Smart System fosse stato utilizzato per identificare la scuola come target, e se i sistemi AI fossero stati soggetti a supervisione umana. Ma mentre il Congresso chiedeva risposte, emergeva un dettaglio che spostava il problema a monte: un ex funzionario del Pentagono ha rivelato che sotto la gestione Hegseth l’ufficio preposto all’aggiornamento della no-strike list — il registro dei siti civili da proteggere — era stato drasticamente ridotto, e il lavoro di aggiornamento si era fermato. «Non hanno budget. Stanno solo cercando di mantenere una qualche parvenza della missione.» L’AI aveva elaborato dati obsoleti perché l’infrastruttura umana che avrebbe dovuto aggiornarli era stata smantellata.

Non è una scusante. Per Amnesty International e per gli otto esperti delle Nazioni Unite che hanno chiesto un’indagine indipendente sugli attacchi — che potrebbero configurare gravi violazioni del diritto internazionale umanitario — la catena di responsabilità rimane integra: l’AI amplifica il rischio di questi fallimenti, non li genera autonomamente. Ma amplificarli, in una scuola piena di bambine, è già sufficiente.

Il caso di Minab non è un incidente isolato: è la dimostrazione empirica del rischio sistemico che lo stesso Dario Amodei aveva cercato di mettere per iscritto nel contratto con il Pentagono. Senza guardrail adeguati, la portata degli errori può essere moltiplicata su scala industriale — esattamente come è accaduto nella campagna in Iran, dove in ventiquattro ore sono stati colpiti oltre mille obiettivi. La velocità che l’AI rende possibile non è solo un vantaggio operativo: è anche la misura di quanto in fretta un errore può diventare irreversibile.

La chatbot che sceglie i bersagli: la rivelazione di MIT Technology Review

Un articolo pubblicato il 12 marzo 2026 da MIT Technology Review — basato sulle dichiarazioni di un funzionario del Dipartimento della Difesa che ha chiesto l’anonimato — ha fatto luce sul funzionamento concreto di questi sistemi, rivelando dettagli inediti sul ruolo dei modelli linguistici generativi nella selezione degli obiettivi militari.

Secondo il funzionario, una lista di possibili bersagli può essere inserita in un sistema di AI generativa che il Pentagono sta schierando in ambienti classificati. Il sistema viene quindi interrogato per analizzare le informazioni disponibili e classificare i target per priorità, tenendo conto di variabili come la posizione attuale degli aerei. Gli esseri umani restano formalmente responsabili di verificare e valutare i risultati. OpenAI e xAI potrebbero in futuro essere i modelli impiegati in questo tipo di scenario: entrambe le aziende hanno già raggiunto accordi con il Pentagono per l’uso dei loro modelli in ambienti classificati.

Questo segna una discontinuità tecnica profonda rispetto ai sistemi precedenti. Dal 2017, l’esercito americano lavora sull’iniziativa Maven — un programma “big data” che impiega forme più tradizionali di intelligenza artificiale, in particolare la computer vision, per analizzare immagini e dati raccolti sul campo. Maven è in grado, ad esempio, di passare al setaccio migliaia di ore di riprese aeree da drone e identificare algoritmicamente i bersagli. I soldati interagiscono con il sistema attraverso un’interfaccia a mappa che evidenzia obiettivi potenziali e posizioni amiche. Ciò che il funzionario descrive è qualcosa di diverso: l’AI generativa aggiunta come strato conversazionale, uno strumento con cui l’esercito può interrogare e analizzare dati in forma dialogica, accelerando le decisioni su quali obiettivi prioritizzare.

La differenza non è solo tecnologica — è epistemica. I sistemi di AI generativa che alimentano ChatGPT, Claude e Grok sono costruiti su architetture fondamentalmente diverse da quelle di Maven, molto meno testate in contesti operativi reali. E mentre l’interfaccia di Maven costringeva l’operatore a ispezionare e interpretare direttamente i dati sulla mappa, gli output dei modelli generativi sono più fluidi da consultare ma più opachi da verificare. La raccomandazione arriva già formulata, già sintetizzata, già convincente — e proprio per questo più difficile da contestare nel tempo stretto di una decisione.

Il rischio, insomma, non è la macchina che spara da sola: è la macchina che raccomanda con sicurezza apparente, e l’umano che convalida senza poter davvero controllare. Questo schema è già al centro dell’indagine sull’attacco alla scuola di Minab. Più testate giornalistiche hanno confermato che il missile era americano; l’indagine preliminare ha individuato nell’uso di dati di targeting obsoleti una delle cause parziali. Ma la domanda che resta aperta — e che né il Pentagono né i suoi contractor hanno ancora risposto — è un’altra: se un operatore umano avesse avuto davanti a sé, sulla mappa, le immagini satellitari del dicembre 2025 con i bambini nel cortile, avrebbe premuto lo stesso il tasto? O il sistema ha presentato la raccomandazione in un formato che rendeva quella verifica invisibile, superflua, già fatta?

La risposta del settore: una rivolta inedita

La risposta alla designazione di Anthropic come rischio per la catena di approvvigionamento (supply chain risk) è arrivata da direzioni che l’amministrazione Trump non si aspettava — e con una velocità che ha trasformato una disputa contrattuale in un caso costituzionale di primo piano.

Il 9 marzo 2026, Anthropic depositava due cause federali simultaneamente. La prima — quarantotto pagine — presentata presso il U.S. District Court for the Northern District of California, definiva le azioni del Pentagono “senza eguali e illegittime”. La seconda, più circoscritta, presso il tribunale d’appello federale di Washington D.C., richiedeva la revisione della determinazione. Al centro di entrambe: la violazione del Primo Emendamento — punire un’azienda per aver dichiarato pubblicamente cosa non avrebbe fatto — e la violazione del due process, per non aver ricevuto un’audizione equa prima della designazione. Il CFO di Anthropic ha dichiarato in un documento legale che la società rischia di perdere «centinaia di milioni» di dollari di ricavi nel 2026 a causa delle azioni del governo.

Nella stessa giornata, trentasette ricercatori e ingegneri di OpenAI e Google DeepMind — i due principali concorrenti di Anthropic — depositavano a titolo personale il proprio amicus brief a sostegno dell’azienda. Lavorano per società che potrebbero beneficiare direttamente dell’esclusione di Anthropic dai contratti federali. Eppure hanno detto al tribunale: questa questione vale più della quota di mercato.

Il giorno successivo, Microsoft depositava il proprio brief presso il tribunale federale di San Francisco, chiedendo un’ingiunzione temporanea contro la designazione. Senza un blocco immediato, avvertiva l’azienda, essa e altri fornitori tecnologici sarebbero stati costretti a modificare prodotti e configurazioni contrattuali in uso al Dipartimento della Difesa, rischiando di “ostacolare i combattenti americani in un momento critico”. Microsoft — che ha investito cinque miliardi di dollari in Anthropic e spende circa cinquecento milioni l’anno sui suoi modelli — ha attraversato le linee competitive per sostenere un’azienda che è insieme partner e rivale, argomentando che la designazione minaccia ben più dei contratti di una singola società. La sua posizione era netta: l’AI americana non deve essere usata per condurre sorveglianza di massa domestica né per avviare una guerra senza controllo umano.

Nello stesso giorno depositavano il proprio brief separato ventidue ex alti ufficiali militari: tra loro, due ex segretari della Marina, due ex segretari dell’Aeronautica, un ex segretario dell’Esercito, un ex comandante della Guardia Costiera e il generale Michael Hayden, quattro stelle dell’Air Force ed ex direttore della CIA, della NSA e del DNI. Il loro documento non usava mezzi termini: «Lungi dal proteggere la sicurezza nazionale degli Stati Uniti, la condotta del Segretario minaccia i principi dello stato di diritto che hanno a lungo rafforzato il nostro esercito.» La designazione, scrivevano, equivaleva a una ritorsione contro un’azienda privata che aveva deluso la leadership — un abuso di un’autorità legale concepita per tutt’altri scopi.

Il 13 marzo si aggiungevano i principali gruppi industriali del settore tech con contratti al Pentagono, con un ulteriore brief in cui chiedevano una pausa sulla designazione: il governo, argomentavano, dispone già di strumenti ampi e consolidati per risolvere dispute di procurement. Usare la leva della sicurezza della catena di approvvigionamento per regolare i conti con un fornitore «può generare gravi effetti economici che non sono nell’interesse pubblico».

A completare la coalizione, il 17 marzo quasi centocinquanta ex giudici federali e statali — nominati sia da amministrazioni repubblicane che democratiche — depositavano il proprio brief a sostegno di Anthropic, sottolineando il precedente pericoloso che la vicenda potrebbe creare sull’influenza governativa nelle scelte etiche delle aziende private. Irina Raicu, direttrice del programma di etica di internet alla Santa Clara University, ha sintetizzato la questione con una domanda destinata a restare: “Cosa succede se non vuoi fare qualcosa che ti viene chiesto di fare? C’è un modo per le aziende di mantenere le proprie linee guida etiche e allo stesso tempo contrattare con il governo?”

Non era una domanda retorica. Era la domanda che tutta la vicenda aveva portato in superficie.

Il paradosso OpenAI

La vicenda giudiziaria ha messo in evidenza una frattura ideologica profonda all’interno dello stesso settore. Sam Altman, in un’intervista su X, ha posto la questione in termini netti: “Siamo un’azienda privata, non siamo eletti. Abbiamo expertise tecnologica e ne capiamo i limiti, ma dovreste essere terrorizzati all’idea che un’azienda privata decida cosa è etico o meno nelle aree più importanti.” È la tesi con cui OpenAI ha giustificato la propria firma sul contratto con il Pentagono, accettando le condizioni che Anthropic aveva rifiutato. La logica è coerente: se i guardrail etici non devono essere imposti dai privati, l’unica alternativa è affidarli allo Stato.

Ma la questione è meno lineare di quanto sembri. OpenAI ha dichiarato di aver negoziato tre “linee rosse” — sorveglianza di massa domestica, sistemi d’arma autonomi e decisioni letali automatizzate senza supervisione umana. Queste garanzie, tuttavia, compaiono in un documento FAQ pubblicato il giorno successivo alla firma del contratto. Alla domanda su cosa accadrebbe se il governo violasse i termini, la risposta era: “Come in qualsiasi contratto, potremmo rescindere se la controparte viola i termini. Non ci aspettiamo che accada.” Una clausola difensiva, non un meccanismo di enforcement. La garanzia esiste solo sulla carta — e sulla parola di un’amministrazione che aveva appena usato lo strumento della supply chain designation per punire un’azienda che aveva detto no.

La posta in gioco per l’Europa: AI Act e dual-use

Il caso Anthropic-Pentagono non è solo una questione americana. Pone domande cruciali che, in primis, l’Europa non può ignorare — a partire da una fondamentale: il primo regolamento al mondo sull’intelligenza artificiale si applica all’AI che sceglie i bersagli militari? La risposta, scritta nero su bianco nel testo di legge, è no.

Perché l’AI Act non copre l’uso militare

L’Articolo 2, paragrafo 3 del Regolamento (UE) 2024/1689 è esplicito: il regolamento non si applica ai sistemi di AI immessi sul mercato, messi in servizio o utilizzati “esclusivamente per scopi militari, di difesa o di sicurezza nazionale”, indipendentemente dal tipo di soggetto che svolge tali attività. L’esclusione vale anche quando l’output viene utilizzato all’interno dell’Unione, purché a fini militari o di difesa.

Non si tratta di una lacuna involontaria. Il Considerando 24 esplicita la ratio: la difesa è materia degli Stati, non dell’Unione, e il diritto internazionale pubblico — con le sue convenzioni, i suoi trattati, i suoi protocolli — è indicato dal legislatore europeo come “il quadro giuridico più appropriato” per regolamentare l’uso dell’AI nei contesti militari e letali.

Il problema è che quel quadro non è stato progettato per questo. La Convenzione di Ginevra e il Protocollo Aggiuntivo I enunciano principi — proporzionalità, distinzione tra combattenti e civili, precauzione — che presuppongono un agente umano in grado di valutare, contestualizzare, decidere. Non prevedono audit algoritmici. Non richiedono trasparenza sui dati di addestramento. Non impongono forme misurabili di supervisione umana. Non hanno mai dovuto farlo: sono stati concepiti in un’epoca in cui l’errore di targeting aveva la scala di un plotone, non di un sistema che processa mille obiettivi in ventiquattro ore. È un quadro giuridico del XX secolo applicato a tecnologie del XXI — e lo iato tra i due, come ha mostrato Minab, non è teorico. È già costato vite.

Il buco normativo dei sistemi dual-use

Il punto più critico del Regolamento emerge proprio nella gestione dei sistemi a doppio uso. Un sistema immesso sul mercato per scopi civili che venga successivamente impiegato a fini militari — con o senza modifiche — esce dall’ambito di applicazione del testo, indipendentemente da chi lo utilizzi. È esattamente la fattispecie di Claude: un sistema commerciale, certificato e valutato come strumento civile, progressivamente integrato nelle reti classificate americane e poi nelle operazioni di targeting in Iran e Venezuela. Il Considerando 24 prevede una clausola di salvaguardia parziale: se un sistema sviluppato per scopi militari viene impiegato — in via temporanea o permanente — per finalità civili, umanitarie o di sicurezza pubblica, rientra nell’ambito del Regolamento, e l’entità che lo utilizza è tenuta a garantirne la conformità. Ma il percorso inverso — dal civile al militare — non genera alcun obbligo normativo. La porta si apre in una sola direzione.

Quali meccanismi legali e di governance garantiranno, allora, che lo sviluppo di AI militare sia allineato alle salvaguardie previste per i sistemi civili? La risposta del Regolamento, per quanto scomoda, è netta: nessuno. Il testo stabilisce con precisione le responsabilità dei diversi attori nella catena del valore dell’AI, ma esclude esplicitamente i sistemi militari dall’intero sistema di responsabilità, certificazione e sanzione. La domanda resta senza risposta istituzionale.

Il problema non è solo strutturale — è anche operativo. La Commissione Europea ha pubblicato le prime linee guida sulle pratiche vietate di intelligenza artificiale solo il 4 febbraio 2025, ben oltre le scadenze originarie. Molti Stati membri non hanno ancora designato le autorità competenti per la vigilanza. Il «Brussels Effect» che aveva reso il GDPR uno standard globale de facto — imponendo la conformità anche alle aziende americane che operavano nel mercato europeo — potrebbe non ripetersi con l’AI Act: le pressioni politiche internazionali, la competizione con Stati Uniti e Cina e le richieste di semplificazione normativa hanno già eroso la capacità europea di dettare le regole del gioco tecnologico globale. Il rischio concreto è che l’Europa abbia prodotto il regolamento più ambizioso al mondo sull’intelligenza artificiale, e che questo regolamento non si applichi esattamente ai casi in cui l’intelligenza artificiale è più pericolosa.

Sovranità tecnologica e dipendenza dagli Usa

Il caso Anthropic-Pentagono è accaduto mentre l’Europa stava già facendo i conti con la propria dipendenza strutturale dalla tecnologia americana. L’Unione Europea spende circa trecento miliardi di euro l’anno in spesa militare, ma gran parte della tecnologia strategica — dai sistemi di sorveglianza ai software di comando e controllo — è di produzione statunitense. Solo nel 2025 gli acquisti europei di armamenti americani hanno superato i settanta miliardi di euro. Una quota rilevante della sicurezza europea continua, in pratica, a finanziare l’industria della difesa statunitense — e a consegnare ad essa le chiavi delle proprie infrastrutture critiche.

Sul piano dell’intelligenza artificiale, la dipendenza è ancora più profonda. I modelli che stanno riscrivendo lavoro e produttività — ChatGPT, Gemini, Claude — sono tutti oltreoceano. Perderne l’accesso renderebbe l’Europa irrilevante. In un’economia fondata sulla velocità di elaborazione, un continente tagliato fuori dall’AI americana sarebbe tecnologicamente muto. Non è un’ipotesi accademica: il caso Anthropic ha dimostrato che un fornitore può essere rimosso dall’ecosistema militare americano con un singolo ordine esecutivo, e che i sistemi integrati nelle operazioni — da Maven a Claude — non si sostituiscono in pochi giorni.

La risposta istituzionale europea esiste, ma procede a rilento. La Commissione ha slittato ad aprile la presentazione del cosiddetto Tech Sovereignty Package, che include una nuova normativa su cloud e intelligenza artificiale, la revisione del regolamento sui chip e una roadmap per ridurre la dipendenza tecnologica da Stati Uniti e Cina. Sovranità digitale non significa autarchia tecnologica: significa capacità di scelta, resilienza e controllo sulle infrastrutture critiche. Il 2026 potrebbe essere l’anno in cui Bruxelles trasforma un concetto evocativo in un piano operativo — oppure l’ennesima occasione in cui la strategia è rimasta sulla carta.

Il paradosso più acuto, però, è militare. I vertici delle forze armate europee guardano con preoccupazione crescente alle discussioni sulla “sovranità tecnologica” promosse da Macron e von der Leyen: gli eserciti del continente si basano pesantemente su software, reti e sistemi americani per comunicazioni sicure, intelligence, archiviazione dei dati, comando e controllo. Escludere le aziende statunitensi significherebbe creare lacune operative gravi, frammentazione e nuovi rischi per la cybersicurezza. Come ha sintetizzato un alto ufficiale europeo al Munich Security Forum 2026: “Se hai acquistato Aegis, hai acquistato un sistema di dipendenza.”

L‘Italia, almeno sul piano formale, ha mosso un primo passo. La Strategia della Difesa in materia di Intelligenza Artificiale 2026, approvata dal ministro Crosetto a gennaio, stabilisce come vincolo irrinunciabile il perseguimento della sovranità tecnologica: avere il controllo profondo del ciclo di vita dei modelli AI — dall’addestramento alla comprensione dei loro limiti e bias — viene indicato come l’unico modo per garantire che queste tecnologie operino in conformità con il diritto internazionale umanitario e con i valori costituzionali nazionali. Ma una strategia senza ecosistema industriale e senza modelli europei di frontiera rischia di restare un documento di buone intenzioni.

La vera lezione del caso Anthropic non è tanto tecnica: è politica e industriale insieme. L’intelligenza artificiale non è più un prodotto — è infrastruttura critica. E come ogni infrastruttura critica, vive in bilico tra innovazione, potere e responsabilità. Per l’Europa, che ha costruito la propria strategia AI sull’idea di trustworthy AI, questo equilibrio è oggi particolarmente precario: i principi sono europei, ma i modelli e le infrastrutture su cui quei principi dovrebbero applicarsi sono americani. È una condizione che un osservatore ha sintetizzato con una metafora efficace: fino a quando l’Europa non costruirà le proprie «città digitali» — cloud, semiconduttori, modelli AI — sarà sempre inquilina in casa d’altri. Il Parlamento Europeo ha stimato che l’UE dipende da paesi terzi per oltre l’ottanta per cento dei prodotti, servizi, infrastrutture e proprietà intellettuale digitali. Non è una statistica astratta: è la misura esatta di quanto spazio di manovra l’Europa ha — o non ha — quando le regole del gioco cambiano a Washington.

Supervisione umana nell’Ai in guerra: principio o finzione?

E quando quei contratti vengono eseguiti, il principio che l’Europa aveva posto al centro della propria strategia sull’AI ad alto rischio — il “controllo umano significativo” — si rivela il concetto più sotto pressione nella pratica militare contemporanea. Nelle prime ore dell’operazione contro l’Iran, i sistemi AI hanno generato più di mille potenziali obiettivi in un solo giorno, suggerendo bersagli a una velocità di circa quaranta all’ora — più veloce di quanto qualsiasi squadra umana potesse analizzare in modo indipendente. In questo scenario, l’approvazione umana non è supervisione: è ratifica.

I sistemi di supporto alle decisioni non sparano armi. Elaborano migliaia di input di dati da immagini satellitari, comunicazioni intercettate, dati logistici e social media, individuando pattern molto più velocemente di qualsiasi squadra umana. L’umano preme ancora il bottone. Ma gli esperti avvertono che il vantaggio di velocità che questi sistemi forniscono potrebbe erodere la supervisione umana significativa, trasformandola in mero rubber-stamping.

Le quattro variabili critiche del CICR

Il Comitato Internazionale della Croce Rossa[6] non ha aspettato la guerra in Iran per mettere in guardia. Il 30 settembre 2025, in un intervento al Consiglio di Sicurezza dell’ONU, il CICR aveva già identificato il paradosso con precisione chirurgica. I sistemi AI di supporto alle decisioni possono integrare e analizzare in pochi secondi grandi quantità di dati provenienti da più fonti per produrre raccomandazioni su targeting o detenzione per il comandante; ma la loro velocità e scala, aggravata dall’automation bias, potrebbero portare a una semplice rubber-stamping da parte dell’utente umano, sostituendo il giudizio umano invece di supportarlo.Non era un’ipotesi futuribile. Era la descrizione di un rischio già in corso di materializzazione — nelle stesse settimane in cui Claude veniva integrato nel Maven Smart System e schierato nelle operazioni classificate americane.

Il CICR aveva identificato quattro variabili critiche[7] nell’interazione uomo-macchina che determinano se il controllo umano sia reale o fittizio: la situational awareness — ovvero la conoscenza dello stato del sistema al momento dell’intervento umano; il tempo disponibile per un’intervento umano efficace; l’automation bias, cioè il rischio di eccessiva fiducia dell’utente nel sistema; e il cosiddetto moral buffer, il rischio che gli esseri umani trasferiscano la responsabilità morale al sistema. Nella pratica operativa di Epic Fury — quaranta bersagli suggeriti all’ora, più veloce di quanto qualsiasi squadra umana potesse analizzare in modo indipendente — almeno tre delle quattro variabili erano compromesse per definizione strutturale.

Il CICR aveva avvertito esplicitamente che qualcuno potrebbe pianificare, decidere o lanciare un attacco basandosi esclusivamente sull’output di un sistema AI di supporto alle decisioni, agendo effettivamente come un timbro umano piuttosto che valutando la liceità dell’attacco considerando tutte le informazioni ragionevolmente disponibili. I sistemi AI, aveva precisato, non possono per definizione sostituire la determinazione umana sulla liceità di un attacco: stabilire se un oggetto sia un obiettivo militare deve essere una decisione presa da un essere umano.

La strategia italiana tra principi e limiti operativi

L’Italia, con il documento “IA e Difesa — Strategia della Difesa in materia di Intelligenza Artificiale — Edizione 2026” ha scelto di ancorare la propria strategia a questo principio. Il piano ribadisce il principio del controllo umano significativo su ogni sistema e la piena responsabilità della catena di comando. La strategia stabilisce come vincolo irrinunciabile il perseguimento della sovranità tecnologica: avere il controllo profondo del ciclo di vita dei modelli AI — dal loro addestramento alla comprensione dei loro limiti e bias — è indicato come l’unico modo per garantire che queste tecnologie operino sempre in stretta conformità con il Diritto Internazionale Umanitario, la dottrina e i valori etici e costituzionali nazionali.

È una formula rassicurante. Ma va riempita di contenuto operativo[8]. Mantenere l’uomo nel loop decisionale non significa semplicemente inserire una firma digitale a valle di un algoritmo che ha già filtrato, classificato e prioritizzato obiettivi. Significa progettare architetture in cui la responsabilità rimanga effettivamente attribuibile, in cui la spiegabilità dei modelli non sia una nota a piè di pagina ma una condizione di impiego. L’explainability, tanto celebrata nei documenti, diventa qui un requisito di legittimità. E ancora: l’uomo deve restare al centro come decisore responsabile, non come supervisore distratto di sistemi che operano a velocità inaccessibili alla comprensione umana.

La sfida più acuta che questa strategia dovrà affrontare è quella dell’asimmetria: mentre l’Italia si autoimpone vincoli etici e legali rigorosi, altri attori globali potrebbero non farlo. Il rischio è che l’etica diventi una vulnerabilità tattica anziché un vantaggio strategico. È esattamente il dilemma che il caso Anthropic ha portato in superficie a livello globale: chi applica i principi paga un costo competitivo immediato; chi li ignora ottiene un vantaggio operativo nel breve termine, ma accumula un debito di legittimità che prima o poi presenta il conto — in un’aula di tribunale, davanti al Consiglio di Sicurezza dell’ONU, o su un campo di macerie dove c’era una scuola.

La stessa questione si pone a livello europeo con una dimensione normativa aggiuntiva: l’AI Act richiede meccanismi di verifica e override per i sistemi ad alto rischio, ma quei sistemi — nel momento in cui entrano in un contesto militare — escono dal perimetro del regolamento. Il principio sopravvive sulla carta; sul campo, la velocità dell’algoritmo ha già deciso. Il presidente del CICR e il Segretario Generale dell’ONU hanno lanciato un appello congiunto per la negoziazione di norme internazionali giuridicamente vincolanti sui sistemi d’arma autonomi entro il 2026. La scadenza è quest’anno. Il processo è ancora in corso. E intanto i sistemi sono già dispiegati.

La corsa globale sull’Ai in guerra e il rischio per l’Occidente

Il vero rischio sistemico emerge quando si alza lo sguardo oltre il singolo caso.

L’offensiva cinese del 2026

Mentre il dibattito politico a Washington si concentra sulla regolamentazione restrittiva dei propri campioni nazionali, Pechino ha risposto con un’offensiva coordinata senza precedenti. Nel febbraio 2026, il rilascio[9] simultaneo di modelli di frontiera da parte di Zhipu AI, MiniMax, ByteDance, Alibaba e Moonshot AI non ha rappresentato solo un aggiornamento tecnologico, ma una dichiarazione di indipendenza strategica.

L’offensiva coordinata dei principali laboratori AI cinesi nel febbraio 2026 segna proprio il tramonto della narrativa sul divario tecnologico con l’Occidente e rappresenta una sfida diretta alla leadership americana. Società come Zhipu AI hanno dimostrato che le restrizioni sull’export di chip non hanno fermato il progresso di Pechino. Il modello GLM-5, infatti, non è solo un traguardo tecnico paragonabile a GPT-5.2, ma una pietra miliare politica: è stato addestrato interamente su un’infrastruttura autarchica composta da 100.000 chip Huawei Ascend, dimostrando la piena indipendenza hardware della Cina dalla filiera Nvidia.

Modelli open-weights e nuova competizione strategica

Parallelamente all’indipendenza hardware, l’innovazione architetturale ha permesso di superare i benchmark occidentali in settori critici. Moonshot AI, attraverso il modello Kimi K2.5, ha introdotto la tecnologia Agent Swarm, un sistema di orchestrazione capace di coordinare fino a cento sub-agenti in parallelo, riducendo drasticamente i tempi di esecuzione per compiti complessi. Questa capacità di ragionamento avanzato, confermata dai punteggi record nei test logico-matematici del 2026, sposta il confronto dalla semplice generazione di testo alla risoluzione di problemi sistemici su larga scala.

Il vero rischio strategico per gli Stati Uniti risiede infine nel cambio di paradigma sull’adozione globale dell’intelligenza artificiale. I modelli cinesi di frontiera con pesi aperti (open-weights) sono diventati nel 2026 la scelta più razionale per i settori altamente regolamentati come la difesa, la finanza e la sanità. Potendo eseguire questi modelli sulla propria infrastruttura privata, le organizzazioni ottengono il controllo totale sui dati e l’abbattimento dei costi per token, trasformando le soluzioni di Pechino nello standard per chiunque cerchi sovranità digitale senza compromessi prestazionali.

Il boomerang americano nel caso Anthropic

Ed è in questo contesto che la designazione di Anthropic come rischio per la sicurezza nazionale assume la sua dimensione più paradossale. Come ha scritto Dean Ball[10] — già senior advisor AI della presidenza Trump prima di passare al think tank Foundation for American Innovation — la mossa di Hegseth è “distinctly un-American” e minaccia la vitalità dell’AI americana nel momento esatto in cui stava cercando di allargare la propria base di clienti.Nel suo intervento più diretto, Ball non ha usato eufemismi: “This is simply attempted corporate murder. Non potrei assolutamente raccomandare di investire nell’AI americana ad alcun investitore. Non potrei assolutamente raccomandare di avviare un’azienda AI negli Stati Uniti.”

E in un’intervista a TIME, Ball ha aggiunto una valutazione destinata a rimanere: “Alcune persone nell’amministrazione Trump si sentiranno potenti e soddisfatte, e si massaggeranno i bicipiti quando torneranno a casa la sera. Ma alla fine questo non fa bene agli USA come ambiente stabile per gli affari — e da questo dipende tutto.”

Per l’Europa, che guarda a questo scontro da fuori, la lezione è duplice. Sul piano competitivo: la competizione non è più tra due o tre attori occidentali — è una gara multidimensionale in cui i laboratori cinesi competono su architetture diverse, a prezzi che sottoquotano sistematicamente i concorrenti occidentali, con un ecosistema open-source che cresce più velocemente di quello proprietario americano. Sul piano normativo: il vuoto sulla governance dell’AI militare non è un problema americano — è una condizione strutturale dell’intero Occidente. L’episodio rivela qualcosa di più fondamentale di una disputa tra il governo americano e uno dei suoi contractor tecnologici: mette a nudo i limiti della governance dell’AI, e fin dove l’amministrazione Trump è disposta a spingersi per assicurarsi che le grandi aziende tecnologiche si conformino alle sue richieste. Chi non costruisce regole proprie, finisce per subire quelle degli altri.

Chi governa l’Ai in guerra resta una domanda aperta

Il caso Anthropic ha reso visibile qualcosa che va oltre la cronaca: le decisioni più rilevanti sull’uso militare dell’intelligenza artificiale — per quali scopi, in quali conflitti, con quali dati — non le prendono i parlamenti né i forum multilaterali. Le prendono i contratti di procurement, senza trasparenza, senza responsabilità pubblica, senza rimedio per chi ne subisce le conseguenze.

Gli Stati Uniti hanno scelto un modello: la regulation by contract. Le regole derivano da accordi bilaterali tra governo e vendor, non da statuti. E a differenza delle leggi, vincolano solo chi li ha firmati. Nella pratica, l’enforcement dipende dai controlli tecnici che l’azienda riesce a mantenere una volta che il modello è dispiegato — il che è strutturalmente insufficiente per governare sorveglianza, armi autonome e intelligence.

Il caso Anthropic ha rivelato un limite ancora più duro: i comandanti militari erano diventati così dipendenti da Claude che, se l’azienda avesse ordinato di cessarne l’uso, l’amministrazione avrebbe invocato i propri poteri per trattenere la tecnologia. Nel contesto della sicurezza nazionale, il recesso contrattuale potrebbe semplicemente non essere disponibile.

La risposta necessaria è istituzionale: il Congresso dovrebbe fissare confini statutari per l’uso militare dell’AI; il Pentagono dovrebbe articolare una dottrina sul controllo umano e sull’audit; la società civile dovrebbe partecipare a processi strutturati, non a scontri episodici nelle trattative sui contratti. Se i guardrail possono essere rimossi con la pressione contrattuale, verranno trattati come negoziabili. Se sono fondati nella legge, diventano aspettative stabili.

Per l’Europa, che ha costruito la propria strategia sull’idea di trustworthy AI, questo è il momento della verità — non retorica, ma operativa. Tradurre i principi in architetture di accountability concrete: revisioni legali ricorrenti, catene di responsabilità lungo il ciclo di vita del modello, audit indipendenti, partecipazione attiva alla standardizzazione internazionale.

In un mondo che si governa alla velocità del codice, le dichiarazioni di intenti non bastano. E come ha dimostrato la scuola di Minab, il costo dell’assenza di regole non si misura in quote di mercato. Si misura in altro.

Note


[1]Vedi anche Fortune — “Hegseth to meet with Anthropic CEO as safe AI principles collide with military contracting” Data: 24 febbraio 2026 https://fortune.com/2026/02/24/hegseth-to-meet-with-anthropic-ceo-dario-amodei/

[2]Per approfondimenti: CNN Business — “Pentagon threatens to make Anthropic a pariah if it refuses to drop AI guardrails” Data: 24 febbraio 2026 https://www.cnn.com/2026/02/24/tech/hegseth-anthropic-ai-military-amodei e NPR — “Hegseth threatens to blacklist Anthropic over ‘woke AI’ concerns” Data: 24 febbraio 2026 https://www.npr.org/2026/02/24/nx-s1-5725327/pentagon-anthropic-hegseth-safety

[3]CNBC — “Anthropic CEO Amodei says Pentagon’s threats ‘do not change our position’ on AI” Data: 26 febbraio 2026 https://www.cnbc.com/2026/02/26/anthropic-pentagon-ai-amodei.html

[4]Washington Post — “Anthropic AI used in Iran campaign” (citato indirettamente da MIT Technology Review e TechPolicy.Press) Data: 4 marzo 2026 https://www.washingtonpost.com/technology/2026/03/04/anthropic-ai-iran-campaign/

[5]Nel settembre 2025, Anthropic aveva rilevato una campagna di spionaggio altamente sofisticata condotta dal gruppo GTG-1002 — valutato con alto grado di confidenza come un gruppo sponsorizzato dallo Stato cinese — che aveva manipolato lo strumento Claude Code per tentare di infiltrarsi in circa trenta obiettivi globali, tra cui grandi aziende tecnologiche, istituzioni finanziarie, produttori chimici e agenzie governative. Anthropic ritiene che si tratti del primo caso documentato di cyberattacco su larga scala eseguito senza sostanziale intervento umano. Axios L’agente AI ha eseguito autonomamente l’80-90% delle operazioni tattiche, operando a velocità fisicamente impossibili per operatori umani. https://www.axios.com/2026/03/17/anthropic-pentagon-google-tech

[6]Crf. ICRC al Consiglio di Sicurezza ONU — 30 settembre 2025 ICRC, We cannot let AI be deployed on the battlefield without oversight and regulation, 30 settembre 2025 https://www.icrc.org/en/statement/we-cannot-let-AI-be-deployed-on-battlefield-without-oversight-and-regulation

[7]Crf. ICRC — International Review of the Red Cross, AI and machine learning in armed conflict: A human-centred approach, aggiornato 2021 https://international-review.icrc.org/articles/ai-and-machine-learning-in-armed-conflict-a-human-centred-approach-913

[8]Crf. Rivista AI, IA e difesa 2026, sovranità tecnologica o strategica?, 3 marzo 2026 https://www.rivista.ai/2026/03/03/ia-e-difesa-2026-sovranita-tecnologica-o-strategica/; Formiche.net, Dalla governance ai talenti, le sfide dell’IA per la sicurezza dell’Italia, 16 marzo 2026 https://formiche.net/2026/03/dalla-governance-ai-talenti-le-sfide-dellia-per-la-sicurezza-dellitalia/; ICRC Humanitarian Law & Policy Blog, Deciding under algorithms: artificial intelligence and the protection of civilian infrastructure in armed conflict, 12 marzo 2026 https://blogs.icrc.org/law-and-policy/2026/03/12/deciding-under-algorithms-artificial-intelligence-and-the-protection-of-civilian-infrastructure-in-armed-conflict/

[9]Per approfondire: Chinese AI Spring Festival 2026: Five Major Launches, 29 gennaio 2026 https://www.digitalapplied.com/blog/chinese-ai-spring-festival-2026-model-launches

[10]Dean Ball — citazione estesa su TIME, How Anthropic Became the Most Disruptive Company in the World, 11 marzo 2026 https://time.com/article/2026/03/11/anthropic-claude-disruptive-company-pentagon/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x