intelligenza artificiale

Amodei contro Trump: lo scontro sul futuro dell’AI etica



Indirizzo copiato

Anthropic vuole limitare l’uso della sua AI da parte del Pentagono. Niente sorveglianza domestica né armi autonome. Il Governo Trump minaccia di trattare l’azienda come un nemico. In gioco c’è la via per un uso etico dell’AI. Mancano leggi complete contro gli usi più anti-democratici dell’AI da parte di uno Stato

Pubblicato il 20 feb 2026

Alessandro Longo

Direttore agendadigitale.eu



anthropic pentagono

“Non vogliamo che la nostra AI sia usata per la sorveglianza domestica”, ossia nel nostro Paese. “Non vogliamo che la nostra AI serva a uccidere persone dentro armi autonome”. Due richieste di buon senso, di etica base per un Paese democratico, parrebbe. La dice lunga, dei tempi che corrono, che siano la pietra dello scandalo che ha messo in crisi i rapporti tra il Pentagono – il Governo Trump – e Anthropic di Dario Amodei.

Il confronto è un passaggio delicato nel rapporto tra intelligenza artificiale e potere pubblico. Al centro non c’è solo un contratto da 200 milioni di dollari tra Anthropic e il Dipartimento della Difesa statunitense, che rischia di saltare, ma una questione più ampia: chi decide come l’AI può essere usata in ambito militare, e con quali limiti. E quali norme abbiamo per impedire che questo sia ridotto a un braccio di ferro tra un’azienda e una singola autorità pubblica.

Purtroppo lo scenario dei pesi e contrappesi istituzionali è desolante, in questo ambito.

Scontro Pentagono-Anthropic (Trump-Amodei): perché

Secondo quanto ricostruito dal New York Times, il Pentagono avrebbe chiesto alle principali aziende di AI – tra cui OpenAI, Google e xAI – di accettare una clausola che consente “qualsiasi uso legale” dei modelli da parte dell’esercito.

Anthropic ha rifiutato di firmare senza due esclusioni: niente sorveglianza di massa interna agli Stati Uniti e niente impiego in armi autonome senza un controllo umano significativo.

Il Dipartimento della Difesa, guidato dal segretario Pete Hegseth, avrebbe reagito minacciando di classificare Anthropic come “supply chain risk”, una categoria finora riservata a imprese considerate a rischio per la sicurezza nazionale, come aziende cinesi o russe (Huawei, Kaspersky). Se applicata, la misura limiterebbe drasticamente l’uso dei modelli Claude nei sistemi governativi.

Sarebbe un problema anche per un Amazon o Google di turno usare tecnologia Anthropic (ad esempio per programmare con l’AI) toccando dati e servizi del Pentagono.

AI militare e posta in gioco politica nel braccio di ferro Anthropic Pentagono

Il punto formale è contrattuale. Il punto sostanziale è politico e strategico.

Anthropic, fondata nel 2021 da ex dirigenti di OpenAI, si è presentata fin dall’inizio come società “safety-first”. Amodei ha più volte espresso timori sull’uso dell’AI per la sorveglianza domestica e per sistemi d’arma autonomi. In un saggio pubblicato nel 2026, ha definito “del tutto illegittimo” l’uso dell’AI per propaganda e controllo di massa interni.

Si veda anche la costituzione di Claude.

Il Pentagono, da parte sua, sostiene di operare entro i limiti della legge e di aver bisogno di strumenti avanzati per analisi di intelligence, pianificazione operativa e gestione dei dati classificati. Secondo fonti citate dalla stampa americana, Claude sarebbe già stato utilizzato in sistemi classificati, anche tramite integrazione con la piattaforma di Palantir Technologies.

Il conflitto nasce da qui: per l’amministrazione Trump l’AI è un acceleratore strategico da usare senza vincoli ulteriori rispetto alla legge vigente; per Anthropic alcune applicazioni, pur legali, restano inaccettabili.

È importante distinguere tra fatti e interpretazioni. Primo fatto: il Pentagono ha chiesto clausole più ampie di utilizzo. Secondo fatto: Anthropic ha chiesto limitazioni specifiche. L’interpretazione – avanzata da diversi osservatori – è che lo scontro abbia anche una dimensione ideologica: Amodei è stato vicino a figure dell’amministrazione Biden e ha criticato l’allentamento delle restrizioni sull’export di chip verso la Cina e così è stato considerato troppo “woke” per l’attuale amministrazione.

Lo scontro sarebbe in questa lettura un test di lealtà al Governo Trump.

Equilibri industriali nell’AI militare, che fanno le altre big tech

Mentre Anthropic si oppone sui due punti chiave, altre aziende hanno adottato un approccio diverso.

  • OpenAI ha dichiarato pubblicamente di voler collaborare con il Dipartimento della Difesa per “usi legittimi” dell’AI, mantenendo proprie policy interne.
  • Google, dopo le proteste dei dipendenti che nel 2018 portarono al ritiro dal progetto Maven, è tornata a lavorare con il Pentagono su sistemi non classificati.
  • Amazon, attraverso Aws e servizi come Bedrock, fornisce infrastruttura cloud su cui vengono eseguiti diversi modelli, compresi quelli di Anthropic.

Oggi le principali aziende statunitensi di AI collaborano con il governo federale su progetti militari o di sicurezza nazionale. Cambia il grado di vincolo che intendono mantenere sui propri modelli.

Sul piano industriale, la posta in gioco è anche reputazionale. Per una società come Anthropic, che ha costruito il proprio marchio sulla sicurezza, accettare un uso senza restrizioni potrebbe compromettere la credibilità verso clienti e investitori. Per OpenAI e Google, rinunciare ai contratti governativi significherebbe lasciare spazio a concorrenti in un settore strategico.

Vuoto normativo sull’AI militare e armi autonome

Lo scontro americano si inserisce in un contesto globale ancora incerto.

In Europa è stato approvato l’AI Act, che introduce un sistema di classificazione del rischio e vieta alcune pratiche, come la sorveglianza biometrica di massa in tempo reale in spazi pubblici (con eccezioni per la sicurezza). Tuttavia, il regolamento esclude esplicitamente gli usi militari dal suo ambito di applicazione. Questo significa che l’AI Act non disciplina direttamente le armi autonome.

A livello internazionale non esiste ancora un trattato vincolante che vieti i cosiddetti “lethal autonomous weapons systems”. Le discussioni in sede Onu vanno avanti da anni, ma senza un accordo definitivo e continuano a fallire (anche di recente).

Alcuni Stati chiedono un bando totale; altri sostengono che bastino linee guida sul “controllo umano significativo”. Gli Usa non vogliono limiti e non solo con Trump: da sempre.

Di fatto, la scelta su come integrare l’AI nei sistemi d’arma resta nelle mani dei singoli governi e, indirettamente, delle aziende che sviluppano la tecnologia.

AI militare e fragilità democratica

Un elemento che colpisce, nel dibattito statunitense, è la scarsa visibilità pubblica del caso. Organizzazioni per i diritti civili come l’American Civil Liberties Union o l’Electronic Frontier Foundation hanno storicamente contestato programmi di sorveglianza governativa. Finora, però, non si è vista una mobilitazione paragonabile a quella che accompagnò il caso Snowden o il progetto Maven.

Le ragioni possono essere diverse: la complessità tecnica del tema, la frammentazione delle battaglie sui diritti digitali, la polarizzazione politica. È un dato di fatto, tuttavia, che oggi una parte rilevante del dibattito sui limiti dell’AI militare si svolga dentro negoziati tra aziende e governo, più che in Parlamento o nell’opinione pubblica.

Ed è qui che emerge una fragilità democratica. Se l’unico argine alla sorveglianza di massa o all’uso di armi autonome è la policy interna di un’azienda privata, il sistema di pesi e contrappesi appare debole. Le policy possono cambiare con un nuovo amministratore delegato o con una diversa pressione politica.

Oltre il caso Anthropic nell’AI militare

Ridurre la vicenda a un braccio di ferro tra Amodei e Trump rischia di essere fuorviante. La questione centrale è più ampia: chi stabilisce i confini dell’AI militare in ambito militare e con quali strumenti giuridici.

Oggi la risposta, negli Stati Uniti, sembra essere: l’esecutivo e il mercato. Il Congresso non ha ancora approvato una legge organica che disciplini l’uso dell’AI da parte delle forze armate. In Europa, l’AI Act lascia fuori il settore militare ma vieta l’uso dell’intelligenza artificiale per la sorveglianza (almeno questo).

A livello globale, manca un accordo sulle armi autonome.

Al momento non ci sono leggi internazionali – e in parte nemmeno nazionali – sugli usi più odiosi dell’intelligenza artificiale per la tenuta democratica.

E questo, più del conflitto personale tra Amodei e Trump, è il dato che merita attenzione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x