L‘intelligenza artificiale è al centro di una guerra intestina, negli Stati Uniti. Ieri si è materializzata la minaccia del Governo Usa ad Anthropic, il cui software di AI Claude è stato il primo a essere usato dal Pentagono a scopi militari, in Venezuela e Iran (ora hanno ottenuto questo compito anche X di Elon Musk e OpenAI).
Entro sei mesi però tutti i soggetti del Governo Usa e le aziende che lavorano con il Governo dovranno chiudere i rapporti con Anthropic.
L’amministrazione Trump l’ha designata infatti supply chain risk, ieri ufficialmente, ed è probabilmente la prima volta che accade per un’azienda americana. Alcune aziende di tecnologia militare (defence tech) hanno già chiuso i ponti con Anthropic, mentre ex funzionari militari, leader politici nel settore tecnologico e accademici hanno criticato aspramente il ban Usa.
Uno scontro che non riguarda solo l’uso militare (presente e futuro dell’AI), ma anche lo stato delle democrazie occidentali.
Indice degli argomenti
Anthropic e Governo Usa, lo scontro spiegato a fondo
Ricordiamo che l’oggetto del contendere è l’utilizzo, da parte del Pentagono, dell’IA di Anthropic per le armi autonome e la sorveglianza di massa degli americani.
In sostanza, armi autonome letali, in grado di identificare, tracciare e uccidere obiettivi senza la partecipazione umana in nessuna fase del processo, e dati raccolti dagli americani quali le domande poste alla chatbot, la cronologia delle ricerche su Google, i movimenti tracciati tramite GPS, le transazioni con carta di credito.
Informazioni da incrociare con altri dettagli sulla vita delle persone.
Anthropic, che già sul suo sito si presenta come “una società di pubblica utilità impegnata a garantirne i benefici e a mitigarne i rischi”, si è rifiutata di assecondare i desiderata del Department of War, (D.o.W.), perché il contratto che lega i due soggetti parla chiaro rispetto a questo tema.
Per tutta risposta, il segretario del D.o.W. Pete Hegseth, e l’amministrazione Trump, non hanno solo rescisso il contratto con Anthropic, ma hanno etichettato l’azienda come un rischio per la supply chain (la catena di approvvigionamento) del governo americano.
Ciò significa che Anthropic non potrà avere alcun tipo di rapporto con ogni soggetto che abbia in essere contratti col governo americano, quindi con le principali aziende tecnologiche che forniscono infrastrutture per i modelli di IA di Anthropic, come Amazon.
Nei giorni successivi, la portata della misura è stata descritta come più ristretta rispetto alla lettura più ampia circolata nelle prime ore: secondo una dichiarazione del CEO Dario Amodei, la designazione “plainly applies only” all’uso di Claude da parte di clienti come parte diretta di contratti con il Department of War, e non a “tutto l’uso” di Claude da parte di soggetti che hanno anche contratti governativi.
Nella stessa dichiarazione, Amodei richiama una base legale (citando 10 USC 3252) che imporrebbe il ricorso ai mezzi meno restrittivi necessari per proteggere la supply chain.
La designazione di rischio per la supply chain è normalmente riservata alle aziende gestite da “nemici” stranieri e, se l’ordine dovesse reggere legalmente, potrebbe rappresentare un colpo mortale per Anthropic.
Anthropic ha annunciato che impugnerà la misura in tribunale, dichiarando di non ritenerla giuridicamente solida.
Per comprendere la portata della decisione, basti considerare che le aziende cinesi di intelligenza artificiale, come DeepSeek, non sono state etichettate come rischiose per la supply chain.
Quindi il governo USA ritiene che Anthropic, un’azienda americana i cui servizi sono stati utilizzati anche negli attacchi militari in Iran, rappresenta una minaccia maggiore di un’azienda cinese legata all’esercito del Paese asiatico.
In questo contesto, alcune big tech hanno iniziato a chiarire le conseguenze operative: un portavoce di Microsoft ha affermato che i legali dell’azienda hanno “studiato” la designazione e concluso che i prodotti Anthropic, incluso Claude, possono restare disponibili ai clienti diversi dal Department of War tramite piattaforme come M365, GitHub e Microsoft’s AI Foundry, e che Microsoft può continuare a lavorare con Anthropic su progetti non legati alla difesa.
Perché Anthropic e Pentagono sono arrivati allo scontro, i precedenti
Durante l’amministrazione Biden, Anthropic ha negoziato un accordo con l’allora Dipartimento della Difesa (come abbiamo visto, ribattezzato da Trump Dipartimento della Guerra) per l’utilizzo del sistema di intelligenza artificiale Claude in contesti classificati, che comportano, cioè, la raccolta di informazioni su operazioni di combattimento e altro in quest’ambito.
Tale accordo è stato ampliato dall’amministrazione Trump nel luglio 2025.
Altri modelli linguistici sono disponibili in contesti non classificati ma, fino a tempi molto recenti, solo Claude poteva essere utilizzato per attività classificate.
Nel contratto stipulato tra l’amministrazione Biden e Anthropic erano previste due restrizioni d’uso.
Claude non poteva essere utilizzato: 1) per la sorveglianza di massa degli americani; 2) per controllare armi autonome letali (cioè con le caratteristiche sopra descritte).
Quando ha negoziato l’accordo ampliato, l’amministrazione Trump ha avuto l’opportunità di proporre la revisione di questi termini, ma non l’ha fatto.
Restrizioni contrattuali e catena di comando
I funzionari di Trump affermano di aver cambiato idea non tanto perché vogliono effettuare una sorveglianza di massa sugli americani o usare armi letali autonome a breve termine, ma perché si oppongono all’idea di limitazioni imposte da un privato all’uso della tecnologia da parte dell’esercito.
Un alto funzionario del Pentagono, Emil Michael (sottosegretario alla ricerca e ingegneria), ha sostenuto pubblicamente che alcune restrizioni operative presenti in contratti commerciali firmati in precedenza avrebbero rischiato di paralizzare missioni militari “in tempo reale”, arrivando a ipotizzare lo scenario in cui un modello potrebbe “fermarsi” nel mezzo di un’operazione se un operatore violasse i termini. Nello stesso quadro, Michael ha detto che l’esercito non accetterà che “una sola azienda” detti politiche “oltre” quanto stabilito dal Congresso.
Il saggio di Ball sui contratti pubblico-privato
Dean Ball, che ha contribuito a elaborare la politica di intelligenza artificiale dell’amministrazione Trump (ora è senior fellow presso la Foundation for American Innovation), nell’immediatezza dell’annuncio di Pete Hegseth ha pubblicato un saggio nel quale scrive che “non sembra corretto che le aziende private possano imporre limitazioni all’uso della tecnologia da parte dell’esercito. Eppure migliaia di aziende private lo fanno. Ogni transazione tecnologica tra un’azienda privata e l’esercito implica un contratto, e questi contratti contengono abitualmente restrizioni all’uso operativo”.
Le restrizioni possono ad esempio prevedere che un sistema non può essere utilizzato in certi Paesi; oppure, come per Starlink di Musk, limitazioni tecnologiche: un tipo di jet da combattimento è certificato solo per l’uso in condizioni determinate, e il suo utilizzo diverso costituisce una violazione; ancora, restrizioni alla proprietà intellettuale (l’appaltatore possiede, e può riutilizzare e rivendere, il know-how e la proprietà intellettuale associati al sistema d’arma X sviluppato con fondi pubblici).
Per certi versi, i termini concordati da Anthropic sono simili a questi.
La posizione dell’azienda sulle armi letali autonome, ad esempio, non è di netta opposizione all’uso di tali armi, ma piuttosto di una valutazione secondo cui gli attuali sistemi di intelligenza artificiale non sono capaci di prendere autonomamente decisioni sulla vita o la morte di un essere umano.
Questo sembra simile al secondo esempio sopra citato (le limitazioni all’uso dei jet da combattimento).
La grande differenza, tuttavia, è che Anthropic utilizza essenzialmente il mezzo contrattuale per imporre alle forze armate quelli che sembrano meno vincoli tecnici e più vincoli politici.
Pensate alla differenza tra “questo jet da combattimento non è certificato per volare oltre una certa altitudine, e se volate oltre tale altitudine, avete violato la garanzia” e “non potete volare con questo jet oltre tale altitudine”).
Continua Ball: “Probabilmente le forze armate non dovrebbero accettare termini come questi, e le aziende private non dovrebbero cercare di imporli.
Ma l’amministrazione Biden ha accettato quei termini.
Così quella Trump, finché non ha cambiato idea.
Questo da solo dovrebbe chiarire una cosa: termini come questi non costituiscono una violazione delle norme sugli appalti della difesa.
Non esiste una legge che dica “i termini contrattuali tra l’esercito e il settore privato possono avere limitazioni tecniche, ma non limitazioni politiche”, anche perché il confine è difficile da tracciare.
Il contratto non era illegale, solo forse imprudente, probabilmente solo a posteriori”.
L’accordo controverso del Governo Usa con OpenAI
Nelle stesse ore dello scontro con Anthropic, il Pentagono ha siglato anche un accordo con OpenAI per l’uso dei propri modelli in contesti classificati. Dopo le critiche e i timori di utilizzi in sorveglianza domestica, Sam Altman ha ammesso il problema di pr e dichiarato che OpenAI sta lavorando con il Department of War per inserire aggiunte all’accordo “per rendere i principi molto chiari”.
Inclusa un’affermazione secondo cui i servizi OpenAI non verrebbero usati da agenzie di intelligence del Department of War (ad esempio, la NSA), e che eventuali servizi a tali agenzie richiederebbero una modifica successiva del contratto.
Ban di Trump ad Anthropic, una minaccia alla democrazia
Dalla vicenda, Ball trae conclusioni generali piuttosto drastiche sullo stato della democrazia negli Stati Uniti.
Ciò nonostante la sua appartenenza storica e acclarata all’universo repubblicano e la collaborazione con l’Amministrazione Trump, che ha lasciato solo per dedicarsi ad altro e senza alcuna rimostranza o polemica.
Ball inquadra il pesante contenzioso tra Anthropic e il governo USA in termini di civiltà.
La decisione del Pentagono è “una sorta di rantolo di morte per la vecchia repubblica, l’espressione esteriore di un organismo che ha gettato la spugna; è un ripudio della proprietà privata e della libertà di parola, due dei principi fondamentali degli Stati Uniti”.
“Nell’America di oggi il potere esecutivo è diventato così inarrestabile che il presidente e i suoi funzionari possono fare ciò che vogliono”.
Un portavoce della Casa Bianca ha commentato la posizione dell’ex membro dello staff di Trump con una nota nella quale si legge: “nessuna azienda ha il diritto di interferire nei processi decisionali chiave per la sicurezza nazionale”.
Ma Ball vede la pressione esercitata dall’amministrazione Trump sull’industria tecnologica come un segnale del declino degli Stati Uniti “che si manifesta da decenni e che la rivoluzione dell’intelligenza artificiale potrebbe solo accelerare”.
Sul particolare che Anthropic ha imposto le sue restrizioni durante un’emergenza per la sicurezza nazionale, commenta: “viviamo in uno stato di emergenza infinita e perpetua, di guerra perpetua. È semplicemente cancerogeno”.
Nel mezzo della disputa, centinaia di lavoratori del settore tech hanno firmato una lettera aperta che chiede al Dipartimento di ritirare la designazione e al Congresso di valutare se sia appropriato usare “autorità straordinarie” contro un’azienda americana, sostenendo che punire un’azienda per non aver accettato modifiche contrattuali stabilisce un precedente pericoloso.
La lettera di esperti e politici al Congresso Usa contro il ban
Quasi 30 tra ex funzionari della difesa e dell’intelligence, leader politici nel settore tecnologico e accademici hanno firmato una lettera indirizzata ai membri del Congresso contro il ban.
La lettera è stata firmata da ex funzionari di alto rango ed attuali esperti di tecnologia di tutto lo spettro politico e invita il Congresso a stabilire politiche chiare che regolino l’uso dell’IA per la sorveglianza interna e i sistemi d’arma letali autonomi, le due questioni al centro del conflitto.
“L’uso di questa autorità contro un’azienda americana nazionale è un profondo allontanamento dal suo scopo previsto e costituisce un precedente pericoloso”, si legge nella lettera. “Le designazioni di rischio per la catena di approvvigionamento esistono per proteggere gli Stati Uniti dall’infiltrazione di avversari stranieri, ovvero aziende legate a Pechino o Mosca, non da innovatori americani che operano in modo trasparente nel rispetto dello Stato di diritto”.
Tra i firmatari della lettera figurano l’ex direttore della CIA Michael Hayden, il vice ammiraglio in pensione della Marina Donald Arthur e l’ex vice segretario alla Difesa Diana Banks Thompson, oltre a numerosi altri membri delle forze armate. Anche gli esperti di tecnologia e istruzione Lawrence Lessig e Randi Weingarten sono nella lista, insieme a membri di vari think tank specializzati in tecnologia.
La lettera sottolinea che preoccuparsi delle armi completamente autonome e della sorveglianza di massa delle armi è una cosa molto comune.
“Non si tratta di posizioni marginali. Il divieto di armi letali completamente autonome è coerente con le leggi sui conflitti armati, compresi i principi di distinzione e proporzionalità codificati nelle Convenzioni di Ginevra. Il divieto di sorveglianza di massa interna si basa sul Quarto Emendamento e sugli obblighi vincolanti degli Stati Uniti ai sensi del Patto internazionale sui diritti civili e politici”.
La lettera sottolinea inoltre che inserire un’azienda americana nella lista nera indebolisce la competitività degli Stati Uniti, avvertendo che “non è un mercato su cui un imprenditore o un investitore serio possa costruire”.
Origini di Anthropic e coerenza della linea sulla sicurezza dell’IA, rapporti con Trump
L’azienda è stata fondata da Dario Amodei e dalla sorella Daniela nel 2021.
L’hanno creata dopo una serie di disaccordi con i dirigenti di OpenAI, dove lavoravano, su come la loro intelligenza artificiale dovesse essere finanziata, sviluppata e rilasciata.
Hanno fondato Anthropic insieme ad altri 15 ex dipendenti di OpenAI che condividevano le loro opinioni.
Il gruppo aveva supervisionato la creazione dei grandi modelli linguistici di OpenAI, come ChatGPT.
In Anthropic hanno sviluppato Claude, ma non lo hanno reso fruibile fino a quando OpenAI non ha dato il via al boom dell’intelligenza artificiale con ChatGPT.
Sui pericoli dell’intelligenza artificiale, Amodei ha dimostrato di avere le idee chiare ed è rimasto coerente (anche se ha smussato col tempo le sue convinzioni più estreme).
Ha sempre espresso la preoccupazione che l’intelligenza artificiale possa essere utilizzata per diffondere disinformazione, alimentare la sorveglianza di massa o abilitare armi autonome.
In un’intervista del 2023, il fondatore di Anthropic ha affermato che c’era una probabilità dal 10 al 25 percento che l’IA potesse distruggere l’umanità.
Poi ha cercato di prendere le distanze da questa affermazione, proclamandosi “non catastrofista”.
I fratelli Amodei, e molti dei co-fondatori di Anthropic, hanno legami con una comunità che si impegna a garantire che l’intelligenza artificiale venga sviluppata e implementata in modo sicuro.
Questa comunità ritiene che l’intelligenza artificiale potrebbe in futuro trovare una cura per il cancro o risolvere il problema del cambiamento climatico, ma teme che possa fare cose che i suoi creatori non avevano previsto e causare gravi danni alle persone.
Riguardo alle idee politiche, hanno affermato che le loro opinioni politiche sono separate da quelle sull’intelligenza artificiale.
Tuttavia, Amodei è stato un sostenitore di Kamala Harris e non ha nascosto il suo disprezzo per Trump.
In un recente post Daniela Amodei ha affermato che la morte dei manifestanti a Minneapolis “non è ciò che l’America rappresenta”.
Se così stanno le cose, la rottura tra Anthropic e il Pentagono non sorprende più di tanto.
In parallelo alla dimensione politica del conflitto, è esplosa anche una polemica su un memo interno attribuito ad Amodei e poi trapelato, che lo stesso CEO ha successivamente ridimensionato scusandosi per il tono e sostenendo che quel testo non rifletteva valutazioni “ponderate” ed era già superato dagli eventi. Sul fronte operativo, resta inoltre lo scarto tra la versione di Anthropic (che parla di conversazioni “produttive” per una transizione ordinata) e la dichiarazione pubblica di Emil Michael, secondo cui “non” esiste alcuna negoziazione attiva con Anthropic.
L’eccesso rilevato da molti, tra i quali l’ex collaboratore di Trump, è nella misura drastica assunta dal governo USA, che avrebbe potuto limitarsi a rescindere il contratto.
Ma neanche questo sbocco può stupire.
Trump e i suoi hanno fatto della ritorsione contro i nemici o presunti tali la cifra del loro stile di governo.
Ciò considerato, la linea seguita in questa vicenda, che mira a distruggere una delle aziende più floride nel campo dell’IA, ha una sua, sia pur deprecabile, coerenza.


















