Lo scontro Governo Usa (Difesa) e Anthropic assume ormai rilievo costituzionale. Tocca diritti fondamentali che pertengono anche noi europei, anche se sarà deciso in primo luogo nelle corti americane. Tipico contro senso ed effetto collaterale in quest’era in cui l’innovazione usata ovunque è prodotta perlopiù da aziende americane.
A conferma di una tensione su equilibri in definizione, con regole ancora poco chiare, Trump starebbe cercando di tagliare il nodo gordiano con nuovi interventi dall’alto.
L’amministrazione Trump ha adesso elaborato regole rigide per i contratti civili sull’intelligenza artificiale che impongono alle aziende di consentire “qualsiasi uso lecito” dei propri modelli, ha riferito venerdì il Financial Times.
Com’è noto, il Pentagono ha qualificato Anthropic come supply-chain risk dopo il rifiuto della società di autorizzare un uso di Claude per “all lawful uses”, cioè per ogni impiego ritenuto lecito dall’amministrazione militare. Quel rifiuto toccava due linee rosse: sorveglianza di massa sugli americani e impiego in sistemi d’arma pienamente autonomi.
Il 9 marzo 2026 Anthropic ha reagito in giudizio, sostenendo che la designazione fosse illegittima e lesiva della libertà di espressione e del giusto procedimento; nei giorni successivi il caso ha attirato l’intervento di altri operatori del settore, fra cui Microsoft, e ha finito per spostare il baricentro della discussione dall’etica aziendale alla struttura costituzionale del potere esecutivo federale.
Indice degli argomenti
Il caso Anthropic e l’uso della supply chain come leva
Il punto, allora, non coincide con il consueto attrito fra sicurezza nazionale e innovazione privata. Qui affiora qualcosa di più delicato.
L’esecutivo federale, davanti al rifiuto di un fornitore di rimuovere alcuni vincoli d’uso, ha scelto di attivare uno strumento costruito per la gestione del rischio nella catena di approvvigionamento militare. La norma invocata, il 10 U.S.C. § 3252, nasce per fronteggiare minacce che investono l’integrità dei sistemi e la sicurezza della supply chain. Il lessico della disposizione rimanda all’alterazione, al sabotaggio, all’interferenza ostile.
La controversia Anthropic, invece, si colloca su un terreno differente: non un’infiltrazione avversaria nella catena tecnologica, ma un dissenso frontale sull’ampiezza dei poteri che il Pentagono pretende di esercitare attraverso l’AI. Proprio qui si apre la prima controversia legale seria: l’uso di una categoria normativa pensata per il rischio di compromissione esterna come leva per colpire una posizione politico-giuridica del fornitore.
Le nuove linee guida USA sui contratti
Una bozza delle linee guida visionata dal FT afferma che i gruppi di AI che cercano di fare affari con il governo devono concedere agli Stati Uniti una licenza irrevocabile a usare i loro sistemi per tutti gli scopi leciti.
Le indicazioni della General Services Administration si applicherebbero ai contratti civili e fanno parte di uno sforzo più ampio, esteso a tutto il governo, per rafforzare il procurement dei servizi di AI, ha riferito il giornale, aggiungendo che la misura rispecchia quelle che il Pentagono sta valutando per i contratti militari.
“Sarebbe irresponsabile nei confronti del popolo americano e pericoloso per la nostra nazione mantenere un rapporto commerciale con Anthropic”, ha dichiarato via email a Reuters Josh Gruenbaum, commissario del Federal Acquisition Service, una controllata della GSA che aiuta il governo federale ad acquistare software.
“Su indicazione del Presidente, la GSA ha terminato l’accordo OneGov con Anthropic, ponendo fine alla sua disponibilità per i rami esecutivo, legislativo e giudiziario attraverso i contratti pre-negoziati della GSA”, ha aggiunto Gruenbaum.
La Casa Bianca non ha risposto immediatamente alle richieste di commento di Reuters.
La bozza della GSA impone ai contractor di “non codificare intenzionalmente giudizi partitici o ideologici negli output dei sistemi di intelligenza artificiale”, ha riportato il FT.
Richiede inoltre alle aziende di dichiarare se i loro modelli siano stati “modificati o configurati per conformarsi a un quadro normativo o di compliance di un governo non federale degli Stati Uniti o di natura commerciale”, ha aggiunto il giornale.
Poi, per chiudere il cerchio sul caso specifico, la Casa Bianca sta preparando un ordine esecutivo che impone formalmente al governo federale di eliminare l’AI di Anthropic dalle sue operazioni, secondo quanto riferito ad Axios da fonti vicine alla questione.
Dal procurement alla ritorsione istituzionale
Una lettura costituzionale più esigente porta a vedere in questa torsione un problema di funzione. Il diritto degli appalti pubblici, specie in ambito militare, attribuisce all’amministrazione margini ampi di selezione e di esclusione. Quel margine, però, conserva un limite di struttura: la scelta del contraente resta ancorata alla protezione dell’interesse pubblico tipico della disciplina, cioè affidabilità, sicurezza, continuità, capacità esecutiva.
Quando il potere di procurement comincia a operare come sanzione per una presa di posizione su un tema di interesse pubblico, la controversia esce dall’orbita della discrezionalità tecnica e entra in quella della ritorsione istituzionale. Reuters riporta che Anthropic fonda il ricorso proprio su questa idea, collegando la designazione a dichiarazioni pubbliche aggressive dell’amministrazione e alla volontà di punire il rifiuto opposto su sorveglianza interna e armi autonome. In questa luce, il Primo Emendamento entra nel caso non come ornamento teorico, ma come criterio di qualificazione del potere esercitato.
Il profilo più denso, tuttavia, riguarda il Quinto Emendamento e il controllo del procedimento. Un provvedimento tanto gravoso, capace di produrre effetti reputazionali, economici e sistemici, richiede una base fattuale coerente e una procedura che consenta un contraddittorio reale. Reuters segnala che diversi studiosi hanno giudicato fragile la posizione del governo proprio perché il Pentagono avrebbe continuato a utilizzare Claude, anche in contesti operativi recenti, mentre contemporaneamente lo qualificava come rischio per la sicurezza nazionale. Una simile frattura interna al discorso amministrativo rende più difficile sostenere la razionalità della misura. Nel lessico del diritto pubblico statunitense, qui si intravede il terreno dell’arbitrary and capricious review e, insieme, quello di un due process impoverito da formule securitarie troppo elastiche. Il diritto costituzionale americano conosce bene la deferenza giudiziale in materia di sicurezza nazionale; conosce meno, e sopporta peggio, l’uso di quel vocabolario per coprire incoerenze fattuali e finalità improprie.
Perché il caso Anthropic riapre la sorveglianza interna
Eppure il contenzioso non esaurisce il suo rilievo nella difesa di Anthropic. La vera questione, qui, riguarda il modello di governo della sorveglianza interna nell’età dell’intelligenza artificiale. Le ricostruzioni giornalistiche convergono su un dato decisivo: il punto di rottura fra Pentagono e Anthropic ha riguardato il desiderio del governo di utilizzare il modello per analizzare grandi masse di dati commerciali sugli americani, in un contesto normativo che resta opaco e frammentario. Anche Bloomberg ha descritto il caso come occasione per riportare sotto i riflettori una pratica solo debolmente regolata: l’acquisto, da parte del governo statunitense, di dati disponibili sul mercato, come cronologie di navigazione e dati di localizzazione, e il loro trattamento algoritmico su scala. Qui il problema costituzionale si fa molto più serio del singolo litigio contrattuale.
L’amministrazione non chiede soltanto uno strumento più potente. Chiede la possibilità di trasformare archivi dispersi e formalmente acquistabili in una capacità sistematica di ricostruzione della vita sociale.
Da questo angolo visuale, il Quarto Emendamento torna al centro. La giurisprudenza più recente, in particolare Carpenter v. United States, ha già mostrato una crescente sensibilità verso il potere conoscitivo che deriva dall’aggregazione dei dati digitali. Il valore di quel precedente sta meno nella specificità del dato di localizzazione e più nella logica che lo sorregge: quando la tecnologia consente una ricostruzione continua, minuta e retrospettiva dell’esistenza individuale, il confine fra semplice accesso informativo e ricerca costituzionalmente rilevante si assottiglia fino quasi a dissolversi.
L’AI complica ulteriormente il quadro, perché rende l’inferenza più profonda del dato originario. Il mercato vende frammenti; il modello restituisce identità, comportamenti, vulnerabilità, relazioni. La difficoltà costituzionale nasce proprio qui: un sistema di garanzie concepito per singoli atti di acquisizione rischia di restare disarmato davanti a un apparato che produce conoscenza totalizzante per correlazione, predizione e classificazione.
L’ambiguità del diritto positivo federale aggrava il quadro. Executive Order 12333 e la disciplina interna del Dipartimento della Difesa mantengono riferimenti alla tutela dei diritti degli U.S. persons, ma nello stesso tempo autorizzano attività di intelligence e forme di assistenza che, una volta combinate con strumenti di AI e con l’acquisto di dati commerciali, possono espandere enormemente la capacità di analisi interna senza il livello di visibilità pubblica e di controllo giurisdizionale che il costituzionalismo richiederebbe. Che questo vuoto esista appare confermato, indirettamente, dalla scelta di OpenAI di inserire nel proprio accordo col Dipartimento una clausola aggiuntiva che esclude espressamente la sorveglianza domestica degli U.S. persons e persino l’uso di informazioni personali acquistate commercialmente.
Una simile cautela contrattuale ha un significato preciso: il limite non sta già tutto nella legge; il limite va scritto nel contratto, perché la legge non tranquillizza abbastanza. Sul piano costituzionale, una situazione del genere porta con sé un paradosso difficilmente accettabile: le garanzie delle libertà civili finiscono affidate alla forza negoziale del singolo fornitore.
Armi autonome e limiti delle direttive interne
L’altro versante del caso, quello delle armi autonome, conduce alla medesima conclusione. La DoD Directive 3000.09 del 2023 richiede livelli appropriati di giudizio umano sull’uso della forza e stabilisce procedure di test, validazione e legal review. Il testo, però, resta una direttiva amministrativa. La sua natura, da sola, suggerisce prudenza: una direttiva organizza il potere esecutivo, ma non sostituisce la legge come sede della decisione politica fondamentale.
Sul punto, Dario Amodei non si oppone in linea di principio a un siffatto uso, ma dice che l’AI non è ancora pronta a decisioni autonome di kill-chain.
In un ambito in cui l’automazione può incidere sul rapporto fra decisione umana, uso della forza e responsabilità pubblica, la dipendenza da fonti interne all’amministrazione lascia aperta una domanda costituzionale elementare: fino a che punto una materia tanto sensibile può essere governata da policy revocabili, accordi commerciali e prassi tecniche, senza un intervento legislativo espresso del Congresso?
Che cosa il caso Anthropic dice sul potere esecutivo
Da qui prende forma il punto decisivo. La controversia Anthropic non mostra un’azienda che pretende di sostituirsi allo Stato.
Mostra, piuttosto, uno Stato che, in assenza di un quadro legislativo più denso, tenta di ottenere attraverso il contratto e attraverso l’esclusione amministrativa ciò che non ha ancora definito con sufficiente precisione nella legge. Il problema costituzionale non coincide con la presenza di guardrail aziendali, ma con il fatto che quei guardrail si trovino a occupare lo spazio lasciato vuoto dal legislatore.
In un ordinamento fedele alla separazione dei poteri, i limiti alla sorveglianza interna algoritmica e all’autonomia letale dovrebbero discendere da decisioni legislative, sindacabili e pubblicamente intelligibili, non da scontri episodici fra Pentagono e fornitori dell’infrastruttura cognitiva.
Per questo la notizia, letta fino in fondo, assume un significato più ampio del contenzioso pendente. Il caso Anthropic costringe a guardare il punto in cui il costituzionalismo statunitense oggi appare più esposto: la possibilità che il potere esecutivo, sotto la formula della sicurezza nazionale, converta un’infrastruttura di dati acquistati sul mercato e trattati da modelli generativi in una capacità di osservazione interna assai più penetrante di quella che il diritto aveva immaginato.
Quando, in più, il dissenso del fornitore viene affrontato mediante una blacklisting measure ricavata dal diritto della supply chain, la controversia assume il volto di una doppia deviazione: verso la sorveglianza senza sufficiente legge e verso la sanzione senza adeguata tipicità. È precisamente in questo scarto che la vicenda smette di appartenere alla cronaca tecnologica e comincia a interrogare il diritto costituzionale nel suo nucleo più classico: chi decide i limiti del potere, con quali forme, e sotto quale controllo.









