intelligenza artificiale

Trump “blocca” Anthropic, ma è solo il primo round: ecco perché



Indirizzo copiato

Il Pentagono impone restrizioni severe alle aziende che forniscono AI per scopi militari, minacciando sanzioni e colpisce Anthropic. Ma i rapporti tra le aziende AI e il Governo, per usi militari e non solo, sono così complessi e interdipendenti che la vicenda non può certo finire qui

Pubblicato il 2 mar 2026

Alessandro Longo

Direttore agendadigitale.eu

Marco Santarelli

Analista investigativo su reti informative e sicurezza internazionale 



trump anthropic

“Non ne abbiamo bisogno, non lo vogliamo e non faremo più affari con loro!”, ha scritto Trump venerdì in un post su Truth Social contro Anthropic.

Venerdì il presidente ha così ordinato a tutte le agenzie federali di smettere immediatamente di utilizzare Anthropic.

E’ la prima volta nella Storia che gli Usa esercitano questa pressione escludente contro un’azienda americana. Al tempo stesso, Anthropic non è un’azienda qualsiasi. E’ chiave per gli interessi militari del Governo, tanto che ne ha usato il modello Claude, con il software Palantir, per l’attacco all’Iran.

L’escalation era prevista.

L’approccio del segretario alla Difesa degli Stati Uniti, Pete Hegseth, sull’uso dell’intelligenza artificiale sul campo di battaglia è sempre più intransigente. Il Pentagono, infatti, sta imponendo alle aziende tecnologiche fornitrici termini ben definiti, il cui mancato rispetto può portare a sanzioni severe alle aziende stesse.

Con Anthropic, azienda produttrice della famiglia di modelli Claude, il Pentagono è andato allo scontro, con un ultimatum del 24 febbraio scorso, minacciando importanti penali se non avesse accettato i termini stabiliti sull’uso dell’intelligenza artificiale a scopo militare.

Nell’incontro tra Hegseth e Dario Amodei, amministratore delegato di Anthropic, quest’ultimo ha sottolineato che i suoi modelli, sviluppati per il Department of War USA in partnership con la società di dati Palantir e il fornitore di servizi cloud Amazon Web Services, non devono essere utilizzati né per la sorveglianza di massa interna né per le armi autonome.

Hegseth, in risposta, ha ribadito la necessità di avere piena libertà di utilizzo di questi modelli, restando in termini legali, e ha minacciato di rescindere l’accordo con Anthropic entro il 27 febbraio se le condizioni del Pentagono non fossero state accettate, con l’ulteriore conseguenza di essere etichettata, Anthropic, come un rischio della catena di approvvigionamento e che il governo avrebbe potuto invocare il Defence Protection Act (DPA), che conferisce al presidente l’autorità di obbligare le aziende a svolgere attività di sicurezza nazionale.

Un’ora prima dalla scadenza dell’ultimatum, fissata per le ore 17:01 di venerdì 27 febbraio, il presidente Trump ha reso pubblica la decisione.

L’ordine a tutte le agenzie governative federali di smettere immediatamente di utilizzare gli strumenti di Anthropic, definendo quest’ultima di “estrema sinistra e woke” e parlando di “errore disastroso” in riferimento alla decisione dell’azienda di non accettare le richieste del Pentagono.

Anthropic e Governo Usa, una dipendenza complicata

L’aver minacciato misure così drastiche evidenzia quanto il Pentagono sia dipendente da Anthropic, che fornisce uno dei migliori modelli disponibili attualmente, a detta di ex funzionari della difesa legati alla Silicon Valley.

Anthropic e il Dipartimento della Difesa americano hanno un accordo del valore di non più di 200 milioni di dollari, cifra abbastanza irrisoria se si pensa che il fatturato aziendale annualizzato a febbraio è stato di 14 miliardi di dollari.

Ciò non toglie che impedire l’utilizzo dei modelli Claude a tutti i fornitori del Pentagono sarebbe particolarmente impattante sul laboratorio di intelligenza artificiale. Solitamente questo tipo di misura è riservata ad aziende legate a potenze nemiche, così come l’invocazione del DPA in situazioni limite, come la pandemia di Covid-19.

Dario Amodei, a capo di Anthropic, ha dichiarato che “in un ristretto numero di casi, crediamo che l’AI possa minare, anziché difendere, i valori democratici”, pertanto alcuni suoi usi sono “semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile”.

Amodei ha aggiunto anche che nell’accordo con il Pentagono non sono stati mai previsti i due casi d’uso delle loro tecnologie come l’uso sul campo per armi autonome e per la sorveglianza di massa domestica, per cui non andrebbero considerati: “In buona coscienza non possiamo accogliere la loro richiesta. È prerogativa del dipartimento selezionare gli appaltatori più in linea con la loro visione. Ma dato il valore sostanziale che la tecnologia di Anthropic fornisce alle nostre forze armate, speriamo che ci ripensino”.

Oltre l’ultimatum del Pentagono: il ruolo di Claude nei contratti difesa

Anthropic, azienda fondata nel 2021 con sede a San Francisco e conosciuta soprattutto per il chatbot Claude, è stata la prima società di AI a fare contratti da centinaia di milioni di dollari con il Pentagono per la gestione di documenti secretati e legati alla sicurezza nazionale, per questo i suoi sistemi sono usati da numerosi fornitori dell’esercito degli Stati Uniti, integrati direttamente nei loro servizi o utilizzati per svilupparli.

Rispetto ad altri colossi del settore tecnologico che sviluppano strumenti di intelligenza artificiale, come Meta, Alphabet e OpenAI, Anthropic si è sempre distinta per una maggiore attenzione ai dati degli utenti e cautele nello sviluppo di sistemi che potrebbero essere pericolosi per la collettività.

Le preoccupazioni su una militarizzazione degli strumenti AI non riguardano solo Anthropic, ma anche OpenAI. Entrambe, infatti, temono di poter perdere ricercatori validi all’interno del team di lavoro, che non condividono l’ideologia dell’amministrazione Trump.

OpenAI ha accettato accordo con il Pentagono ma il fondatore Sam Altman assicura di avere messo nei modelli guardrail contro gli usi stessi etici vietati da Anthropic.

I dettagli non sono chiari, né l’efficacia di questi paletti, in particolare in un Paese dove non ci sono regole per limiti etici all’AI. Almeno in Europa c’è l’AI Act (tanto criticato da Trump), che però pure non pone limiti agli usi militari e ha tante eccezioni in ambito usi per la sicurezza pubblica.

Droni, big tech e nuove scelte dopo l’ultimatum del Pentagono

A differenza degli altri colossi tecnologici, Elon Musk sta cambiando rotta. Se inizialmente si era scagliato contro i “robot killer”, al momento con SpaceX e xAI sta partecipando alla gara del Pentagono per la realizzazione di una tecnologia di sciami di droni.

Anche Google, dopo aver abolito le restrizioni sull’uso dell’AI per scopi di difesa nel 2024, oggi sta accettando contratti per lavori riservati e non per il Pentagono. Ricordiamo che nel 2018, a seguito di una rivolta interna all’azienda, ha dovuto rinunciare al progetto Project Maven con il Pentagono che sfruttava l’apprendimento automatico per analizzare le riprese dei droni.

Se per le aziende tecnologiche risulta complesso poter controllare il reale uso che verrà fatto dei propri strumenti, dal canto suo il Dipartimento della Difesa dovrebbe costruire una solida base di fiducia con i fornitori, garantendo di operare nella legalità, così da avere accesso illimitato alle tecnologie.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x