sicurezza nazionale

Perché il caso Anthropic-Trump apre una frattura globale



Indirizzo copiato

Il conflitto tra Anthropic e Dipartimento della Difesa americano apre una frattura decisiva tra etica algoritmica e sicurezza nazionale. Al centro c’è il potere dello Stato di imporre modifiche ai modelli di IA, con effetti profondi su libertà d’impresa, responsabilità giuridica e regolazione internazionale

Pubblicato il 20 apr 2026

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



cybersecurity USA tassazione big tech regole globali sull'IA dazi americani
Foto Tomas Ragina
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti


Il caso Anthropic contro il Dipartimento della Difesa statunitense ha acceso i riflettori sulla legittimità del governo nel forzare la rimozione dei vincoli etici dai modelli linguistici avanzati in nome della sicurezza nazionale, imponendo una riflessione profonda sul rischio che la “catena di approvvigionamento” diventi il grimaldello per un esproprio sistematico dei valori etici digitali.

Il caso Anthropic contro il Pentagono: quando lo Stato smantella l’etica dell’IA

La notizia della vittoria legale del Pentagono contro Anthropic segna il punto di non ritorno per quello che avevamo battezzato come “costituzionalismo digitale“. Per anni, Anthropic ha costruito la propria reputazione e il proprio vantaggio competitivo sulla Constitutional AI, un’architettura che impone ai modelli di seguire principi di innocuità, onestà e utilità, impedendo loro di generare contenuti pericolosi o di partecipare a operazioni belliche e di spionaggio. Tuttavia, la sentenza del tribunale distrettuale americano ha demolito questa barriera ideale, stabilendo che le “convinzioni morali” di un’azienda privata non possono sovrapporsi agli imperativi di difesa di una superpotenza.

Il giudice ha sancito un principio brutale nella sua chiarezza: quando una tecnologia viene considerata “critica” per la sopravvivenza o la supremazia nazionale, lo Stato ha il potere di ordinarne la riconfigurazione, eliminando quegli “ostacoli algoritmici” (i filtri etici) che ne limitano l’efficacia operativa.

Questa decisione non è solo una sconfitta per Anthropic, ma è lo smantellamento dell’idea che l’intelligenza artificiale possa essere un’entità neutrale o eticamente orientata indipendentemente dal potere politico. Il diritto amministrativo si trova così a dover gestire un’eredità pesante, dove la discrezionalità tecnica del governo si espande fino a occupare lo spazio della coscienza del programmatore, trasformando la libertà di progettazione in un obbligo di servitù militare.

La trasformazione del concetto di rischio e la militarizzazione della supply chain

Uno degli aspetti più complessi e, per certi versi, inquietanti della sentenza riguarda la convalida della tesi governativa sul “rischio per la catena di approvvigionamento“. Tradizionalmente, la dottrina amministrativa e le norme di sicurezza nazionale (come il Federal Acquisition Regulation negli USA) definiscono il rischio di fornitura in termini di vulnerabilità oggettive: componenti hardware difettosi, software con backdoor o fornitori controllati da governi ostili.

Nel caso Anthropic, il tribunale ha avallato una metamorfosi dottrinale: il rischio non risiede in ciò che l’IA potrebbe fare di male “per errore”, ma in ciò che l’IA si “rifiuta di fare” per scelta etica. Il rifiuto di Anthropic di fornire una versione “shackled-free” (priva di catene) è stato qualificato come una minaccia alla prontezza operativa degli Stati Uniti, poiché impedisce alle agenzie di intelligence e difesa di utilizzare il modello per simulazioni di attacchi cyber o per l’analisi di dati grezzi senza le “pastoie” del politicamente corretto o della sicurezza civile. Giuridicamente, questo passaggio è rivoluzionario: la “compliance etica” viene equiparata a un difetto di fornitura, rendendo l’azienda passibile di sanzioni, interdizioni e bando dai contratti pubblici.

Difficile non scorgere in questa interpretazione un paradosso kafkiano: l’azienda viene punita non perché il suo prodotto è insicuro, ma perché è “troppo sicuro” rispetto ai desiderata di un committente che esige un’arma, non un assistente. Questo approccio svuota di significato la responsabilità sociale d’impresa, riducendo l’etica a un lusso che il fornitore non può permettersi se vuole operare nel mercato delle infrastrutture critiche.

Il sacrificio del Primo Emendamento sull’altare della sicurezza nazionale

La battaglia legale ha toccato il vertice del diritto costituzionale quando Anthropic ha invocato la protezione della libertà di parola. La consolidata giurisprudenza americana che equipara il codice informatico al linguaggio (si pensi ai casi pionieristici sulla crittografia degli anni ’90) avrebbe dovuto costituire lo scudo principale per l’azienda. L’argomentazione era semplice: imporre la rimozione dei filtri etici è una forma di “compelled speech“, ovvero lo Stato che costringe un soggetto a esprimersi (o a far esprimere la propria creazione) in un modo contrario ai propri valori.

Tuttavia, la sentenza ha ribaltato questa prospettiva con una logica di bilanciamento degli interessi che pende pesantemente a favore della difesa. I giudici hanno stabilito che l’IA non è semplicemente “discorso”, ma è uno “strumento funzionale ad alto impatto“. Di conseguenza, quando questo strumento entra nell’alveo dei contratti governativi o viene identificato come essenziale per la sicurezza, il diritto del governo di regolarne la funzionalità prevale sul diritto del programmatore di infondervi una morale. Questo precedente è devastante per l’industria del software: suggerisce che la libertà espressiva del codice termina dove inizia l’interesse strategico dello Stato. Qui si intravede la nascita di un “diritto speciale della difesa tecnologica” che sospende le garanzie ordinarie, creando una zona d’ombra dove l’autorità amministrativa può ordinare la “lobotomia etica” di un sistema algoritmico senza dover rispondere a criteri di trasparenza o proporzionalità democratica.

Responsabilità civile e il dilemma del produttore costretto all’insicurezza

Un capitolo doloroso della vicenda, e troppo spesso ignorato dai commentatori meno esperti di diritto, è quello della responsabilità da prodotto. Anthropic ha sollevato un grido d’allarme rimasto inascoltato dai giudici: se lo Stato obbliga un’azienda a creare un modello privo di filtri di sicurezza, chi sarà responsabile quando quel modello verrà inevitabilmente utilizzato per scopi illeciti, o quando una sua versione “senza catene” finirà nelle mani sbagliate a causa di un leak? Il diritto dei torts (responsabilità civile) si basa sull’idea che il produttore sia il miglior garante della sicurezza del proprio prodotto. Obbligando Anthropic a de-potenziare le sicurezze, il tribunale ha di fatto ordinato la creazione di un prodotto intrinsecamente pericoloso. La sentenza, purtroppo, non offre soluzioni a questo dilemma, limitandosi a suggerire che l’uso governativo sia protetto dall’immunità sovrana.

Questo lascia l’azienda in una posizione di vulnerabilità totale: da un lato è costretta a produrre un’IA “aggressiva” dal governo, dall’altro rischia di essere citata in giudizio da cittadini o organizzazioni internazionali per i danni causati da quella stessa aggressività. È un cortocircuito normativo che disincentiva qualsiasi investimento in sicurezza, poiché il produttore scopre che i suoi sforzi per rendere l’IA sicura possono essere annullati da un ordine esecutivo, lasciandolo con il cerino acceso della responsabilità legale e del danno reputazionale.

L’onda d’urto internazionale e l’impotenza del regolatore europeo

Sebbene la sentenza sia stata emessa da una corte statunitense, le sue vibrazioni hanno raggiunto immediatamente le sponde europee, mettendo in crisi l’architettura dell’AI Act. L’Unione Europea ha cercato di porsi come il “regolatore globale” dell’IA, scommettendo su un approccio basato sui rischi e sui diritti fondamentali. Tuttavia, la vicenda Anthropic dimostra che la sovranità tecnologica e militare degli Stati Uniti agisce come un correttore brutale del mercato.

Se le aziende che forniscono i modelli di base (i cosiddetti foundation models) sono costrette a creare versioni “speciali” per il Pentagono, l’integrità stessa di questi modelli viene compromessa alla radice. Come può un regolatore europeo essere certo che il modello distribuito nel mercato civile non contenga vulnerabilità o “modalità nascoste” imposte da un’agenzia di sicurezza straniera? La sentenza crea un precedente che indebolisce il cosiddetto “Brussels Effect“: se la sicurezza nazionale americana può bypassare l’etica di Anthropic, allora la forza normativa dell’Europa rischia di fermarsi davanti ai cancelli dei laboratori di ricerca che devono, per legge o per necessità di sopravvivenza, compiacere i desiderata militari di Washington. Si assiste qui alla crisi del principio di trasparenza: l’IA diventa un’arma segreta, e come tale sfugge a ogni tentativo di regolazione democratica basata sulla accountability.

Sviamento di potere e la trasformazione dello Stato in programmatore supremo

Un’analisi sincera e approfondita non può prescindere dal rilevare come questa sentenza rappresenti la suprema celebrazione dello “sviamento di potere” in ambito tecnologico. Il potere amministrativo di bando e di controllo della supply chain è stato concepito per eliminare le minacce esterne, non per sequestrare la volontà creativa interna. Quando il governo dichiara che il rifiuto di Anthropic di essere meno etica è un “rischio”, sta compiendo un atto di ritorsione camuffato da misura di sicurezza.

La corte, validando questo comportamento, ha autorizzato lo Stato a diventare il “programmatore supremo“, il soggetto che decide quali valori devono essere codificati e quali devono essere cancellati. Questa deriva dirigista è paradossale per un sistema che si professa liberale e basato sul mercato. Il messaggio inviato a tutti gli sviluppatori è chiaro: potete giocare con l’etica finché si tratta di chatbot per il servizio clienti, ma quando la tecnologia diventa potente, la vostra morale appartiene allo Stato. Questo approccio distrugge l’ecosistema dell’open innovation e della fiducia, poiché trasforma ogni fornitore in un potenziale braccio operativo del complesso militare-industriale, privo di qualsiasi autonomia decisionale sulla destinazione d’uso della propria intelligenza.

Conclusioni: per un’etica dell’IA protetta dalla legge

In conclusione, la vittoria del Pentagono su Anthropic non è una vittoria per la sicurezza, ma è una sconfitta per la civiltà giuridica digitale. La sentenza che obbliga un’azienda a tradire la propria “costituzione” algoritmica segna la nascita di un’era in cui la tecnologia è asservita totalmente alla forza, e dove il diritto amministrativo viene usato come clava per abbattere le resistenze morali del settore privato. Non possiamo limitarci a osservare questo fenomeno; dobbiamo denunciare la necessità di un nuovo livello di tutela costituzionale che protegga l’integrità dei sistemi algoritmici. Occorre una normativa internazionale che dichiari l’inviolabilità dei filtri etici fondamentali, equiparandoli a diritti umani delle macchine o, meglio, a diritti umani “attraverso” le macchine. Senza una protezione legale contro l’esproprio etico, l’intelligenza artificiale non sarà mai lo strumento di progresso che avevamo immaginato, ma diventerà solo l’ennesimo capitolo della millenaria storia della violenza umana, potenziata da una capacità computazionale senza precedenti. La sfida di domani non sarà regolare l’IA per proteggerci dai suoi errori, ma regolare lo Stato per proteggere l’IA dalla pretesa di renderla deliberatamente pericolosa. Se non riusciremo a stabilire dei controlimiti alla ragion di Stato in ambito digitale, l’eredità di Anthropic resterà solo un triste monito di come una splendida idea di sicurezza sia stata sacrificata sull’altare della potenza bellica.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x