ai militare

Anthropic e Pentagono, è scontro aperto: qui si gioca il futuro



Indirizzo copiato

Il braccio di ferro tra Anthropic e la Difesa americana pone una domanda scomoda: chi decide come viene usata una tecnologia potenzialmente letale, il produttore o chi la compra? Il Pentagono ha fissato un ultimatum su cui Dario Amodei di Anthropic dichiara di non voler cedere. Vediamo che c’è in ballo

Pubblicato il 27 feb 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor

Alessandro Longo

Direttore agendadigitale.eu



claude cowork plugin

C’è un paradosso al cuore della crisi che sta scuotendo il mercato dell’intelligenza artificiale per la difesa americana: il modello più avanzato disponibile sulle reti classificate del Pentagono appartiene all’unica azienda che ha osato dire no ai generali. Anthropic, la società di San Francisco fondata da ex ricercatori di OpenAI con la missione esplicita di sviluppare un’AI sicura, si trova ora al centro di uno scontro ad alta tensione con il segretario alla Guerra Pete Hegseth, che ha fissato un ultimatum destinato a ridefinire i rapporti di potere tra Silicon Valley e Washington.

L’ultima posizione di Dario Amodei, a capo di Anthropic, è di ieri e rifiuta di cedere sui due punti in questione: ribadisce il no alla possibilità di usare la sua IA per sorveglianza domestica di massa e per uccidere in modo autonomo.

Amodei rimane però aperto al dialogo.

Il termine ufficiale dell’ultimatum scade venerdì 27 febbraio 2026 alle 17:01 ora della costa est. Se Anthropic non avrà accettato di rimuovere i propri guardrail – cosa che ora sembra improbabile – i limiti tecnici che impediscono a Claude di essere utilizzato per la sorveglianza di massa dei cittadini americani e per armi autonome letali senza supervisione umana, il Dipartimento della Guerra (DoW) ha annunciato le contromisure: o invocare il Defense Production Act (DPA) per costringere l’azienda a cedere il proprio modello al governo, o designarla come rischio per la catena di approvvigionamento.

La stessa etichetta normalmente riservata ad aziende cinesi come Huawei. Lo ha confermato a più fonti giornalistiche un alto funzionario del Pentagono.

Il raid su Caracas che ha cambiato tutto

La crisi ha un’origine precisa: la notte tra il 2 e il 3 gennaio 2026, quando le forze speciali americane hanno condotto un’operazione a Caracas catturando il presidente venezuelano Nicolás Maduro. Secondo quanto riportato dal Wall Street Journal, citando fonti a conoscenza dell’operazione, Claude, il modello di Anthropic, sarebbe stato impiegato durante l’operazione attiva, e non solo nella fase preparatoria.

Axios ha precisato esplicitamente questa distinzione, citando due fonti con diretta conoscenza della situazione. L’accesso sarebbe avvenuto tramite la piattaforma di Palantir Technologies, partner storico del Pentagono.

La rivelazione ha innescato una reazione immediata in casa Anthropic. Secondo la ricostruzione di Axios e The Hill, un dirigente di Anthropic avrebbe contattato un dirigente di Palantir per chiedere se e come Claude fosse stato impiegato nel raid.

La domanda, formulata in modo tale da lasciare intendere che l’azienda avrebbe potuto disapprovare l’utilizzo, è stata giudicata allarmante dal lato Palantir, che ha prontamente informato il Pentagono. Anthropic ha contestato questa ricostruzione: un portavoce ha dichiarato che l’azienda “non ha discusso dell’uso di Claude per operazioni specifiche con il Dipartimento della Guerra” e non ha sollevato preoccupazioni con partner del settore “al di fuori di ordinarie discussioni su questioni strettamente tecniche.”

Il gelo si è propagato immediatamente ai vertici del DoW. Un alto funzionario dell’amministrazione ha dichiarato ad Axios: “Qualsiasi azienda che mettesse a rischio il successo operativo dei nostri soldati sul campo è una realtà con cui dobbiamo riconsiderare il rapporto.”

Il portavoce del Pentagono Sean Parnell ha confermato pubblicamente la revisione: “La nostra nazione richiede che i propri partner siano disposti ad aiutare i nostri militari a vincere in qualsiasi combattimento.”

L’ultimatum: la riunione del 24 febbraio

Martedì 24 febbraio, Dario Amodei, CEO di Anthropic, è stato convocato al Pentagono. Secondo Axios, la delegazione del DoW era inusualmente ampia: oltre a Hegseth erano presenti il vice segretario Steve Feinberg, il sottosegretario alla Ricerca e Ingegneria Emil Michael, il sottosegretario all’Acquisizione Michael Duffey, il portavoce Sean Parnell e il consigliere legale generale Earl Matthews.

Una composizione che segnalava quanto il governo trattasse la questione come una priorità di sicurezza nazionale. Sulla dinamica dell’incontro le versioni divergono. Un alto funzionario del DoW ha che la riunione non è stata calda e cordiale; una seconda fonte l’ha invece descritta come cordiale, senza voci alzate, con Hegseth che avrebbe anche elogiato le capacità di Claude.

Quel che è certo, perché confermato da più testate inclusa CBS News, è che Hegseth ha fissato il termine perentorio: accettare le condizioni del Pentagono entro le 17:01 di venerdì 27 febbraio.

CBS News, inoltre, ha riportato che Hegseth ha usato un’analogia concreta: quando il governo acquista un aereo da Boeing, il produttore non ha voce in capitolo su come viene impiegato; lo stesso principio, ha sostenuto, dovrebbe valere per i modelli di AI.

Amodei ha ribadito le due posizioni irrinunciabili di Anthropic: nessun uso di Claude per la sorveglianza di massa dei cittadini americani; nessun uso per sistemi d’arma completamente autonomi, ossia in cui sia la macchina, non un essere umano, a prendere le decisioni letali finali, senza coinvolgimento umano.

Anthropic, nel comunicato successivo alla riunione, ha dichiarato di aver condotto conversazioni in buona fede per continuare a supportare la missione di sicurezza nazionale del governo in linea con ciò che i nostri modelli possono fare in modo affidabile e responsabile.

Le due armi del Pentagono: DPA e supply chain risk

Le minacce sul tavolo sono due, con meccanismi giuridici molto diversi. La prima è l’invocazione del Defense Production Act (DPA), una legge degli anni Cinquanta originariamente concepita per mobilitare l’industria in caso di emergenza nazionale.

Secondo le fonti sentite da Axios e NPR, invocare il DPA consentirebbe al Pentagono di obbligare Anthropic a rendere disponibile il proprio modello alle forze armate, anche contro la volontà dell’azienda. Come ha spiegato un alto funzionario del DoW a NPR, in questo scenario Claude verrebbe usato punto e basta.

Il DPA, ha chiarito Axios, non eliminerebbe automaticamente le salvaguardie tecniche, ma costringerebbe Anthropic a modellare il sistema secondo le esigenze militari. L’ultima applicazione rilevante del DPA risale alla pandemia di Covid-19: usarlo contro un’azienda tech americana per ottenere accesso a un modello di AI sarebbe un caso senza precedenti. Anthropic potrebbe contestare la misura in tribunale, con esito incerto.

La seconda opzione è più radicale sul piano commerciale: designare Anthropic come rischio per la catena di approvvigionamento. Si tratta di uno status normalmente riservato ad aziende legate a potenze straniere ostili, il caso più noto è Huawei. Applicarlo a un’azienda americana di primo piano sarebbe un’anomalia storica.

Le conseguenze sarebbero a cascata: il contratto da 200 milioni verrebbe rescisso, e tutte le imprese che collaborano con il Pentagono sarebbero obbligate a certificare che Claude non rientra nei propri flussi di lavoro.

Va tenuto presente, per capire i rapporti di forza reali, secondo TIME Anthropic ha raccolto a febbraio 30 miliardi di dollari in nuovi investimenti, raggiungendo una valutazione di 380 miliardi, con ricavi annualizzati in crescita di 10 volte anno su anno. Il contratto da 200 milioni con il Pentagono è commercialmente marginale per l’azienda, il che rende la posizione di principio di Amodei economicamente sostenibile, almeno nel breve periodo.

Il Pentagono sembra stia già preparando il terreno per questa seconda opzione: il DoW ha contattato Boeing e Lockheed Martin per chiedere una valutazione della propria esposizione al modello di Anthropic.

Boeing ha risposto, tramite un portavoce, che la sua divisione difesa non ha contratti attivi con Anthropic. Il Pentagono ha fatto sapere di star “predisponendo l’esecuzione di qualsiasi decisione che il segretario potrebbe prendere venerdì riguardo ad Anthropic.”

Le alternative a Claude: esistono ma l’integrazione richiede tempo

La situazione ha una contraddizione al suo interno che le fonti stesse faticano a nascondere. Claude è probabilmente il principale modello AI commerciale avanzato attualmente operativo sulle reti classificate del Pentagono. Le alternative esistono ma richiedono tempo per poter essere integrate.

Nell’estate del 2025, il Pentagono ha assegnato contratti up to $200 million a quattro aziende: Anthropic, Google, OpenAI e xAI. Google e xAI sono già sulla piattaforma GenAI.mil. OpenAI ha annunciato a febbraio l’accesso di ChatGPT alla stessa piattaforma.

La differenza fondamentale è che queste tre aziende hanno accettato la clausola richiesta dal Pentagono: uso per tutti gli scopi legali, senza restrizioni per singoli casi d’uso. xAI ha siglato l’accordo per i sistemi classificati il 23 febbraio, un giorno prima dell’ultimatum ad Anthropic.

La questione di principio: chi controlla le linee rosse?

Al di là degli aspetti contrattuali, lo scontro investe una domanda di principio che tornerà in ogni democrazia dotata di AI militare: chi ha il diritto di stabilire come viene usata una tecnologia potenzialmente letale, il produttore privato o lo Stato?

Il Pentagono ha articolato la propria posizione su più livelli. Emil Michael, sottosegretario alla Ricerca e Ingegneria, ha detto pubblicamente che le restrizioni di Anthropic potrebbero creare una dinamica in cui si inizia a usare un modello, ci si abitua al suo funzionamento, e poi, nel momento in cui ce ne fosse urgente bisogno, si scopre di non poterlo usare.

Anthropic ribatte che le proprie restrizioni non ostacolano operazioni militari legali, ma impediscono due tipologie specifiche di abuso che l’azienda considera intrinsecamente pericolose: la sorveglianza domestica di massa e le decisioni di fuoco senza supervisione umana.

Claude non è immune da hallucinations e non è abbastanza affidabile da evitare errori potenzialmente letali, come escalation involontarie o identificazioni errate di bersagli senza giudizio umano.

La politica della paura: “woke AI” come arma retorica

L’amministrazione Trump ha incorniciato lo scontro in termini ideologici, etichettando le salvaguardie di Anthropic come woke AI. Il dibattito riflette la più ampia tensione tra la politica AI dell’amministrazione Trump, orientata a rimuovere quelle che definisce regolamentazioni eccessive che frenano l’innovazione e la posizione di Anthropic.

Va precisato che anche Google, OpenAI e le altre aziende mantengono policy interne sulla sicurezza AI ancora in evoluzione: il quadro non è quello di un unico bastione contro chi ha già ceduto, ma di una gamma di posizioni che si stanno ridefinendo sotto pressione concorrenziale e politica.

Tensioni interne: dimissioni e revisione della Responsible Scaling Policy

Lo scontro con il Pentagono coincide con segnali di tensione interna. Il 9 febbraio Mrinank Sharma, responsabile del team di ricerca sulle salvaguardie di Anthropic (Safeguards Research Team), si è dimesso pubblicando su X un’analisi preoccupante: “Il mondo è in pericolo. E non solo a causa dell’AI, o delle armi biologiche, ma da una serie di crisi interconnesse che si stanno dispiegando in questo preciso momento.”

Ha aggiunto di aver osservato, durante il proprio lavoro, quanto sia difficile “lasciare che i propri valori governino davvero le proprie azioni”.

Il 25 febbraio, nel pieno dello scontro con il Pentagono, Anthropic ha pubblicato una versione radicalmente riscritta della propria Responsible Scaling Policy (RSP), il documento fondativo sulla sicurezza AI dell’azienda.

TIME ha ottenuto un’intervista esclusiva con Jared Kaplan, chief science officer e co-fondatore, che chiarisce la portata del cambiamento: l’azienda ha eliminato l’impegno centrale che aveva preso nel 2023, ossia non addestrare mai un sistema AI senza poter garantire in anticipo l’adeguatezza delle misure di sicurezza.

“We felt that it wouldn’t actually help anyone for us to stop training AI models”, ha dichiarato Kaplan. “We didn’t really feel, with the rapid advance of AI, that it made sense for us to make unilateral commitments… if competitors are blazing ahead.”

La motivazione strutturale è quella di chi ha perso la scommessa istituzionale: le regolamentazioni nazionali e internazionali che Anthropic sperava di ispirare non si sono materializzate, l’amministrazione Trump ha scelto la deregulation, e restare fermi avrebbe significato perdere rilevanza senza ridurre il rischio complessivo.

Chris Painter, direttore della policy di METR, organizzazione non profit specializzata nella valutazione dei rischi dei modelli AI, ha letto la nuova policy su richiesta di Anthropic e ha offerto la lettura forse più lucida: il cambiamento “shows Anthropic believes it needs to shift into triage mode with its safety plans, because methods to assess and mitigate risk are not keeping up with the pace of capabilities.”

E ha aggiunto: “This is more evidence that society is not prepared for the potential catastrophic risks posed by AI.” Un giudizio che pesa, perché viene da chi non ha interessi nel dibattito commerciale.

Il contesto competitivo: chi ha già accettato le condizioni del Pentagono

Anthropic non è la prima azienda a fare i conti con la pressione del Pentagono. Nel 2018 Google fu costretta ad abbandonare il contratto Project Maven, l’analisi di filmati di droni con machine learning, dopo una rivolta interna dei dipendenti.

Nel 2024, Google ha fatto marcia indietro, eliminando le restrizioni sull’uso dell’AI per scopi di difesa. Oggi è attiva su contratti classificati e non classificati con il DoW, con Gemini indicato da fonti interne come principale alternativa a Claude.

OpenAI ha rimosso nel 2024 il divieto esplicito di uso militare e bellico, ma il suo coinvolgimento diretto in contratti classificati del DoW resta indiretto: i suoi modelli vengono usati da Microsoft per attività di difesa altamente classificate, senza che OpenAI sia parte diretta di quei contratti.

xAI di Elon Musk ha accettato senza riserve la clausola “tutti gli scopi legali” e, insieme a SpaceX, partecipa a gare per tecnologie di sciami di droni. Un funzionario del Pentagono ha confermato a CBS News che Grok è disponibile per contesti classificati.

Tre possibili scenari nello scontro Anthropic-Pentagono

Al momento in cui scriviamo Anthropic mantiene una posizione pubblica conciliatoria, dichiarando di condurre conversazioni in buona fede.

Axios segnala che, dietro le quinte, permane l’ambiguità strategica: il Pentagono vuole punire Anthropic ma non vuole perdere Claude.

Così ha scritto Amodei ieri: “Non possiamo in buona coscienza accogliere la loro richiesta”.

“È prerogativa del Dipartimento selezionare gli appaltatori più in linea con la propria visione. Tuttavia, dato il valore sostanziale che la tecnologia di Anthropic offre alle nostre forze armate, speriamo che riconsiderino la loro decisione. La nostra forte preferenza è quella di continuare a servire il Dipartimento e i nostri combattenti, con le due garanzie richieste”.

“Qualora il Dipartimento decidesse di escludere Anthropic, lavoreremo per consentire una transizione graduale verso un altro fornitore, evitando qualsiasi interruzione della pianificazione militare in corso, delle operazioni o di altre missioni critiche. I nostri modelli saranno disponibili alle condizioni estese che abbiamo proposto per tutto il tempo necessario”.

“Restiamo pronti a continuare il nostro lavoro a sostegno della sicurezza nazionale degli Stati Uniti”.

Tre scenari sembrano plausibili. Il primo: un compromesso tecnico, con Anthropic che sviluppa una versione del modello per uso militare priva delle restrizioni contestate, biforcando la propria linea di prodotti. Questo salverebbe contratto e, almeno formalmente, la coerenza dei principi aziendali.

Il secondo: la resa, con l’accettazione della clausola tutti gli usi legali. Un esito che consoliderebbe il controllo del Pentagono sull’AI militare, ma a costo di reputazione, talenti ricercatori e credibilità istituzionale. Sembra improbabile.

Il terzo: lo scontro aperto, con il Pentagono che designa Anthropic come rischio per la catena di approvvigionamento o invoca il DPA. Quest’ultimo esito aprirebbe un contenzioso legale senza precedenti, costringendo i tribunali americani a pronunciarsi su una domanda finora evasa: può il governo federale obbligare un’azienda privata a rimuovere le salvaguardie di sicurezza incorporate nel proprio prodotto?

Le implicazioni per l’Europa e la governance globale dell’AI

Per l’Europa, il caso Anthropic ha una rilevanza che supera le dinamiche interne americane. Aggiungiamo una precisazione importante: l’AI Act europeo, all’articolo 2, esclude esplicitamente dal proprio campo di applicazione i sistemi AI utilizzati esclusivamente per scopi militari, di difesa e di sicurezza nazionale.

L’AI Act, quindi, non vieta le pratiche in discussione nel caso Anthropic-Pentagono, perché non ha giurisdizione su quell’ambito. L’uso militare dell’AI in Europa resta regolato principalmente dal diritto internazionale umanitario, dal diritto nazionale dei singoli Stati membri, dalle norme di procurement e dai regolamenti interni delle forze armate.

Sul fronte dual-use e civile: alcune delle pratiche discusse nel caso americano, in particolare la sorveglianza biometrica di massa in spazi pubblici, sono vietate in contesti non militari dall’AI Act, con perimetri e eccezioni complessi.

Il rischio per l’Europa è più indiretto: se gli Stati Uniti normalizzano l’uso dei foundation model senza salvaguardie per applicazioni militari, si creerebbe una pressione competitiva sulle aziende europee che sviluppano o acquistano AI per la difesa che potrebbe generare una potenziale divergenza nelle norme di interoperabilità nelle alleanze NATO.

Le imprese europee che usano modelli americani in contesti dual-use dovranno muoversi in un quadro in cui le policy del modello potrebbero cambiare sotto pressione governativa americana. C’è anche una questione di precedente internazionale più ampio.

Conclusione: la Silicon Valley non può ignorare il campo di battaglia

Lo scontro tra Hegseth e Amodei non è una disputa contrattuale. Si tratta della prima battaglia aperta per definire chi ha l’ultima parola sulle regole di ingaggio dell’AI militare: i governi eletti, con il loro mandato democratico e la responsabilità costituzionale sulla conduzione delle guerre, oppure le aziende private che quelle tecnologie hanno costruito e che, spesso meglio dei generali, ne conoscono i limiti tecnici.

Nessuna delle due risposte è priva di rischi. Un governo con accesso illimitato a sistemi AI senza guardrail è esposto a escalation involontarie, a errori operativi amplificati dalla velocità dell’AI, e al rischio di abusi su cui è difficile fare trasparenza.

Un’azienda privata con potere di veto su operazioni militari statali non risponde a nessun mandato democratico e potrebbe essere influenzata da interessi commerciali o visioni individuali dei fondatori.

Quello che sembra certo, alla vigilia della scadenza di venerdì, è che questo caso farà scuola. Le prossime ore diranno se Anthropic è davvero l’azienda che vuole essere oppure no.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x