Il 27 febbraio 2026 il presidente Donald Trump ha annunciato di aver ordinato a “ogni agenzia federale” di cessare immediatamente l’uso delle tecnologie di Anthropic, con un periodo di sei mesi per completare il phase-out presso il Dipartimento della Difesa e le amministrazioni che utilizzano i suoi sistemi nei processi critici[1].
L’annuncio è arrivato all’indomani di un ultimatum del Pentagono: o Anthropic avrebbe accettato di rimuovere le limitazioni sull’uso militare dei propri modelli di AI, consentendone un impiego sostanzialmente illimitato, oppure sarebbe stata considerata un rischio per la sicurezza della supply chain.[2]
Qualche ora dopo, il segretario alla Difesa Pete Hegseth ha effettivamente designato Anthropic come “supply-chain risk”, una qualifica solitamente riservata a società di Paesi rivali, che comporta il divieto per i contractor del settore difesa di utilizzare i suoi prodotti nei progetti collegati al Pentagono. In un post su Truth Social, Trump ha definito Anthropic una “AI fuori controllo” gestita da “left-wing nut jobs” e ha promesso che il governo “non avrà più bisogno” dei suoi servizi, presentando la decisione come risposta alla volontà dell’azienda di imporre vincoli etici ai militari.
Indice degli argomenti
Il caso Anthropic tra dati personali, potere pubblico e diritti
Come affermato dal matematico Clive Humby, l’IA generativa[3] nasce e si sviluppa in un contesto in cui i dati personali sono diventati “il nuovo petrolio” dell’economia digitale e l’individuo rischia di vivere in un “castello di vetro”, per usare l’espressione di Stefano Rodotà: esposto, profilato, osservato in ogni sua azione online e offline.
In questo quadro, decisioni come quella contro Anthropic non riguardano solo un fornitore di AI, ma toccano l’equilibrio tra potere pubblico, diritti fondamentali e mercato dei dati; dunque, parlano direttamente anche al modello europeo di protezione dei dati e di regolazione dell’AI.
Dal modello Biden alla svolta Trump: due stagioni dell’AI policy USA
Per una corretta collocazione sistematica del caso, occorre richiamare l’Executive Order 14110, firmato da Joe Biden il 30 ottobre 2023, volto a delineare una cornice organica per uno sviluppo dell’intelligenza artificiale qualificato come “safe, secure and trustworthy”. L’ordine prevedeva, inter alia, obblighi di condivisione con il governo dei risultati dei test di sicurezza relativi ai modelli di frontiera, l’elaborazione di linee guida da parte del NIST in materia di red teaming[4], nonché misure dirette alla mitigazione dei rischi sistemici e delle vulnerabilità. A ciò si aggiungevano interventi concernenti la tutela della privacy, la non discriminazione, la sicurezza informatica, i diritti dei lavoratori e la concorrenza.
Nel dettaglio, l’Executive Order 14110[5] ha assolto a tre funzioni principali: in primo luogo, ha previsto l’istituzione della figura del Chief AI Officer presso le principali agenzie federali, con compiti di governance interna; in secondo luogo, ha rafforzato il ruolo delle autorità antitrust — quali la Federal Trade Commission e il Dipartimento di Giustizia (Antitrust Division) — nella vigilanza sui fenomeni di concentrazione e sulle pratiche anticoncorrenziali nel settore dell’intelligenza artificiale; in terzo luogo, ha sollecitato le agenzie federali a valutare l’impatto dei sistemi automatizzati su ambiti sensibili quali i diritti civili, l’accesso alle prestazioni sociali, la giustizia penale, l’immigrazione e l’occupazione.
Come evidenziato anche in dottrina, il Regolamento generale sulla protezione dei dati rappresenta, nel contesto europeo, un passaggio analogo in chiave “fundamental rights oriented”, segnando il superamento di un approccio meramente market-driven a favore del riconoscimento del diritto alla protezione dei dati personali quale diritto fondamentale, autonomo ma strettamente connesso alla tradizionale tutela della privacy. Tale impostazione ha influenzato anche il dibattito statunitense in materia di intelligenza artificiale; tuttavia, negli Stati Uniti gli strumenti normativi risultano tuttora più frammentati e maggiormente esposti alla discrezionalità dell’esecutivo, a differenza del modello europeo fondato su un regolamento direttamente applicabile.
L’insediamento di Donald Trump nel gennaio 2025 ha segnato una significativa discontinuità: mediante un nuovo Executive Order, la Casa Bianca ha revocato l’EO 14110, ritenuto idoneo a imporre “costi e burocrazia soffocanti” a un settore considerato strategico per la leadership globale degli Stati Uniti.
Il successivo ordine del dicembre 2025, intitolato “Ensuring a National Policy Framework for Artificial Intelligence”[6], ha ribadito l’obiettivo di un assetto regolatorio “pro-innovazione”, impegnando il Dipartimento di Giustizia a contestare le normative statali giudicate eccessivamente onerose e affermando esplicitamente la volontà di eliminare gli ostacoli alla leadership nazionale nel settore dell’intelligenza artificiale.
Come cambia la governance americana dell’AI
In tale rinnovato contesto, più che alla costruzione di un corpus normativo organico, la governance dell’intelligenza artificiale appare affidata in larga misura alla discrezionalità dell’esecutivo, secondo una logica che combina deregolamentazione generale e interventi selettivi — talora particolarmente incisivi — nei confronti di singoli operatori. In questa prospettiva, il caso Anthropic non si configura come un episodio isolato, bensì come espressione di una più ampia strategia nella quale la sicurezza nazionale è utilizzata quale leva per orientare il mercato e per delimitare il perimetro di accettabilità delle condotte dei fornitori di intelligenza artificiale[7].
Dentro lo scontro Pentagono-Anthropic: cronologia di una rottura
Anthropic, fondata nel 2021 da ex dirigenti di OpenAI, si è rapidamente affermata come uno dei principali sviluppatori di modelli linguistici avanzati — in particolare la serie Claude — caratterizzando la propria attività per una marcata attenzione ai profili di sicurezza e alla mitigazione dei rischi estremi. A partire dal 2024, i suoi sistemi sono stati adottati da diverse agenzie federali e dal Dipartimento della Difesa per applicazioni di analisi testuale, assistenza alla redazione e supporto operativo, nonché da primari operatori del settore tecnologico privato.
Nel 2025, Anthropic ha concluso un contratto pluriennale con il Pentagono per l’impiego dei modelli Claude in reti classificate; tuttavia, in sede di rinnovo, la società ha subordinato la prosecuzione del rapporto all’accettazione di due condizioni ritenute non negoziabili: da un lato, il divieto di utilizzo dei propri modelli per attività di sorveglianza di massa nei confronti di cittadini statunitensi e per sistemi d’arma completamente autonomi; dall’altro, l’impegno a garantire un “controllo umano significativo” nelle decisioni di targeting e di ingaggio. Il Dipartimento della Difesa ha qualificato tali clausole come eccessivamente restrittive, sostenendo che le forze armate devono poter impiegare l’intelligenza artificiale in tutte le modalità consentite dal diritto internazionale umanitario e dalla normativa interna, senza che un operatore privato introduca unilateralmente ulteriori limitazioni.
All’esito di una fase negoziale — nel corso della quale, secondo fonti giornalistiche, sembrava profilarsi una soluzione di compromesso volta a ridimensionare, ma non eliminare, i divieti — la tensione è ulteriormente cresciuta quando l’amministratore delegato Anthony Amodei ha pubblicamente ribadito l’impossibilità, “in coscienza”, di acconsentire a un utilizzo illimitato dei modelli in tali contesti. A fronte di ciò, il Segretario alla Difesa Pete Hegseth ha prospettato possibili “conseguenze” in caso di mancato adeguamento delle condizioni contrattuali, mentre il Presidente Donald Trump ha progressivamente politicizzato il confronto, accusando la società di voler “ricattare” il Dipartimento della Difesa.
Da tale dinamica è scaturita una sequenza di interventi coordinati: l’adozione di un ordine presidenziale di phase-out, la designazione di Anthropic quale “supply chain risk”, la comunicazione ai contraenti del settore difesa del divieto di utilizzo dei suoi prodotti e l’emanazione di direttive rivolte alle amministrazioni civili per l’interruzione dell’impiego dei relativi sistemi nei servizi interni. In tale contesto, il Dipartimento del Tesoro, la Federal Housing Finance Agency e il Dipartimento di Stato — che aveva denominato “StateChat” un chatbot interno basato sui modelli della società — hanno annunciato la migrazione verso soluzioni alternative, frequentemente individuate in ChatGPT quale opzione di riferimento.
Il caso Anthropic e il vantaggio competitivo di OpenAI
Poche ore dopo il bando nei confronti di Anthropic, OpenAI ha annunciato la conclusione di un accordo con il Dipartimento della Difesa per la fornitura dei propri modelli — inclusi GPT-4.1 e successivi — destinati all’impiego in reti classificate, con applicazioni che spaziano dall’analisi di intelligence al supporto decisionale operativo. Tale intesa consente a OpenAI di consolidare la propria posizione quale partner privilegiato del governo federale in una fase in cui numerose amministrazioni sono chiamate a sostituire, in tempi ristretti, infrastrutture di intelligenza artificiale già integrate nei processi operativi e negli strumenti di lavoro quotidiani.
L’amministratore delegato Sam Altman ha espresso pubblicamente sostegno alle “red lines” indicate da Anthony Amodei, affermando che anche OpenAI rifiuterà contratti che prevedano attività di sorveglianza di massa o lo sviluppo di sistemi d’arma completamente autonomi, e precisando che tali limiti sono stati formalizzati in apposite clausole contrattuali con il Pentagono. La differenza rilevante risiede tuttavia nel fatto che, nel caso di OpenAI, tali clausole sono state accettate dal governo, integrate nelle policy interne e presentate come standard applicabili — almeno in linea teorica — all’insieme dei fornitori di intelligenza artificiale operanti nel settore della difesa.
Allo stesso tempo, il trasferimento forzato dei contratti pubblici da Anthropic verso altri operatori — in primis OpenAI e, in misura minore, Google — appare suscettibile di rafforzare ulteriormente assetti di tipo oligopolistico nel mercato dell’intelligenza artificiale generativa, anche alla luce del fatto che tali soggetti esercitano un controllo significativo su infrastrutture cloud, piattaforme digitali e servizi essenziali per la trasformazione tecnologica. Ne consegue che una decisione formalmente giustificata da esigenze di sicurezza nazionale è idonea a produrre effetti diretti sulla struttura concorrenziale del mercato, determinando un rafforzamento dell’operatore percepito come maggiormente allineato — o, quantomeno, più capace di negoziare — con le priorità dell’esecutivo.
Le azioni legali di Anthropic e il primo stop del giudice
Il 9 marzo 2026, Anthropic ha proposto due distinti ricorsi in sede federale: il primo dinanzi al tribunale distrettuale del Northern District of California, il secondo dinanzi alla Corte d’Appello del District of Columbia, contestando sia la designazione quale “supply chain risk” sia l’ordine presidenziale emanato da Donald Trump volto alla cessazione dei rapporti con tutte le agenzie federali.
Nel ricorso presentato in California, la società sostiene che l’azione del Dipartimento della Difesa si ponga in violazione dell’Administrative Procedure Act (APA), in quanto la designazione sarebbe stata adottata in assenza del rispetto delle garanzie procedurali previste, quali una valutazione trasparente del rischio, un’adeguata motivazione, la notifica al soggetto interessato e la possibilità per quest’ultimo di partecipare al procedimento. Anthropic deduce, inoltre, che il bando integri una forma di ritorsione illegittima in risposta alle proprie posizioni in materia di sorveglianza di massa e sistemi d’arma autonomi, in violazione del Primo Emendamento della Costituzione statunitense. Secondo la prospettazione attorea, l’intervento pubblico sarebbe finalizzato a compromettere in modo significativo il valore economico della società, nonché a dissuadere altri operatori dal negoziare limiti all’utilizzo delle proprie tecnologie.
Quanto alla quantificazione del pregiudizio, la società fa riferimento a “centinaia di milioni di dollari” di ricavi a rischio nel breve periodo, evidenziando altresì come la qualificazione quale rischio per la supply chain possa determinare effetti reputazionali tali da indurre anche clienti privati a interrompere i rapporti commerciali.
Un primo riscontro in sede giurisdizionale è intervenuto il 26 marzo 2026, quando la giudice federale Rita Lin ha disposto la sospensione temporanea dell’efficacia del bando, rilevando come le misure adottate dal governo appaiano orientate a “cripple Anthropic” e a disincentivare il dibattito pubblico sulle criticità sollevate dall’azienda in ordine all’impiego militare dell’intelligenza artificiale. Nell’ordinanza, il giudice qualifica tali interventi come una “classica ritorsione di Primo Emendamento”, osservando che, ove si fosse trattato di un ordinario contenzioso contrattuale, il Dipartimento della Difesa si sarebbe limitato a non rinnovare il contratto, senza attivare una sequenza di decisioni eccedente quanto ragionevolmente necessario per la tutela della sicurezza nazionale.
La decisione non definisce il merito della controversia, ma evidenzia come una parte della magistratura sia orientata a sottoporre a rigoroso scrutinio l’utilizzo — potenzialmente punitivo — di qualificazioni quali “supply chain risk”, in particolare quando esse incidono su operatori nazionali per ragioni che intrecciano esigenze di sicurezza e forme di dissenso di natura politico-valoriale.
Etica aziendale, ritorsione regolatoria e separazione dei poteri
Il caso solleva una questione di fondo: se un’impresa possa legittimamente rifiutarsi di fornire servizi per determinate finalità — quali la sorveglianza di massa o lo sviluppo di sistemi d’arma autonomi — senza esporsi al rischio di essere destinataria di misure statali di carattere eccezionale, eccedenti la mera perdita del contratto.
La risposta che sembra emergere, quantomeno alla luce della reazione iniziale dell’amministrazione Donald Trump, appare intrinsecamente ambivalente: positiva sul piano formale — in quanto nessun operatore economico può essere coattivamente obbligato a concludere un contratto — ma negativa sul piano sostanziale, laddove il rifiuto venga interpretato come una minaccia alla sicurezza nazionale o come un tentativo di imporre allo Stato un autonomo sistema di vincoli etico-normativi. In tale contesto si colloca il concetto di “ritorsione regolatoria”, inteso quale utilizzo di strumenti giuridici predisposti per finalità generali — quali la tutela della supply chain da interferenze esterne, i poteri speciali (golden power) o misure di natura emergenziale — al fine di colpire soggetti che assumono determinate posizioni politiche o valoriali.
Qualora l’autorità giudiziaria dovesse accertare che la ratio effettiva del bando non risiede nella gestione di un rischio tecnico, bensì nella volontà di sanzionare una posizione critica in ordine all’impiego dell’intelligenza artificiale, ciò potrebbe determinare la formazione di un precedente di rilievo, idoneo a rafforzare la tutela di quegli operatori che intendano fissare proprie “red lines” nell’utilizzo delle tecnologie sviluppate.
Sul versante europeo, come ricostruito in dottrina, la giurisprudenza della Corte di giustizia — a partire dalle pronunce “Digital Rights Ireland”[8], “Tele2 Sverige”[9] e “Ligue des droits humains”[10] — ha progressivamente delineato un limite invalicabile rispetto a pratiche di sorveglianza di massa e conservazione generalizzata dei dati giustificate da esigenze di sicurezza, imponendo un rigoroso scrutinio di proporzionalità.
In tale prospettiva, il contenzioso che coinvolge Anthropic può essere interpretato come il tentativo — nel contesto statunitense — di trasporre una logica analoga nell’ambito dell’intelligenza artificiale: anche la sicurezza nazionale non può legittimare l’adozione di misure di carattere punitivo nei confronti di soggetti che sollevino criticità in ordine ai limiti giuridicamente ammissibili della sorveglianza algoritmica.
La dimensione concorrenziale: AI, antitrust e “campioni nazionali”
Sul piano concorrenziale, l’effetto immediato del bando consiste nel riorientamento di una quota significativa della domanda pubblica di intelligenza artificiale verso un numero ristretto di fornitori alternativi, in particolare OpenAI e Google.
Tale dinamica si inserisce in un contesto nel quale il Dipartimento di Giustizia statunitense è impegnato in un articolato contenzioso antitrust nei confronti di Google e di altri grandi operatori tecnologici, nell’ambito del quale si discute anche della possibilità di introdurre limitazioni agli investimenti in imprese concorrenti nel settore dell’intelligenza artificiale — tra cui Anthropic, partecipata dalla stessa Google — al fine di ridurre i conflitti di interesse e contenere fenomeni di concentrazione del potere economico.
Per Anthropic, l’eventuale imposizione di restrizioni all’afflusso di nuovi capitali da parte di Google, unitamente alla perdita accelerata di contratti pubblici e agli effetti reputazionali derivanti dalla designazione quale “supply chain risk”, rischia di tradursi in una significativa compressione della capacità competitiva nel medio periodo. Più in generale, la combinazione tra un enforcement antitrust selettivo e l’adozione di misure di sicurezza nazionale dirette nei confronti di un singolo operatore può produrre effetti paradossali, finendo per rafforzare proprio quei “campioni nazionali” che la retorica antimonopolistica dichiara di voler contenere.
In tale prospettiva, emerge una questione di fondo per i regolatori — anche europei — relativa alla reale finalità delle politiche pubbliche: se, cioè, esse siano effettivamente orientate alla promozione di un ecosistema pluralistico e competitivo di fornitori di intelligenza artificiale, ovvero piuttosto al consolidamento di un numero limitato di grandi operatori strettamente allineati alle priorità strategiche dei governi.
Copyright, web scraping e potere contrattuale
Parallelamente, Anthropic è stata coinvolta in un ulteriore fronte di rilievo, relativo al rapporto tra l’addestramento dei modelli di intelligenza artificiale e la tutela del diritto d’autore. Nel 2025, la società ha concluso un accordo transattivo con un ampio gruppo di autori ed editori che avevano promosso un’azione giudiziaria per l’utilizzo non autorizzato di opere protette nell’addestramento dei modelli Claude; l’intesa presenta un valore potenziale fino a 1,5 miliardi di dollari, articolato in pagamenti dilazionati e royalty future.
La dottrina ha dedicato particolare attenzione al fenomeno del web scraping quale tecnica di raccolta dei dati funzionale all’addestramento dei modelli generativi, evidenziando come una quota significativa del traffico Internet globale sia ormai riconducibile a bot impiegati per la raccolta massiva di informazioni destinate ad alimentare sistemi di intelligenza artificiale, inclusi i large language model. In tale contesto, vengono frequentemente richiamati i principali dataset pubblici utilizzati — quali Common Crawl, LAION e archivi open — nonché le criticità sottese alla retorica dell’“open Internet”, dietro la quale possono celarsi trattamenti illeciti di dati personali, in particolare quando contenuti provenienti da social network o servizi digitali sono riutilizzati in assenza di una base giuridica adeguata.
L’esperienza applicativa conferma tali criticità: il Garante per la protezione dei dati personali ha già adottato provvedimenti d’urgenza nei confronti di sistemi quali Replika[11], ChatGPT[12] e DeepSeek[13], sollevando rilievi in materia di trasparenza, basi giuridiche del trattamento, tutela dei minori e sicurezza dei dati, oltre a emanare linee guida specifiche sul web scraping e sull’intelligenza artificiale generativa, nelle quali si raccomanda l’adozione di misure tecniche e organizzative idonee a limitare la raccolta indiscriminata di dati.
In tale scenario, accordi transattivi di dimensioni miliardarie — come quello concluso da Anthropic con autori ed editori — evidenziano come soltanto operatori dotati di ingenti risorse finanziarie siano in grado di “internalizzare” il rischio giuridico, acquistando una sostanziale stabilità legale su scala sistemica, mentre i soggetti di minori dimensioni rimangono esposti a rischi significativamente più elevati e potenzialmente sproporzionati.
Il caso Anthropic letto alla luce dell’AI Act europeo
L’AI Act adotta un approccio fondato sul rischio, vietando talune pratiche qualificate come di “rischio inaccettabile” — quali il social scoring generalizzato, la manipolazione comportamentale aggressiva, l’estrazione indiscriminata di immagini ai fini del riconoscimento facciale e i sistemi di valutazione emotiva in contesti sensibili — e imponendo requisiti particolarmente stringenti per i sistemi classificati come “ad alto rischio”.
In tale ultima categoria rientrano, tra gli altri, i sistemi destinati a essere impiegati in ambiti quali infrastrutture critiche, istruzione, occupazione, accesso a servizi essenziali, applicazione della legge, migrazione e gestione delle frontiere, per i quali sono previsti obblighi in materia di gestione del rischio, governance dei dati, trasparenza, supervisione umana e registrazione delle attività.
Con specifico riferimento alla sorveglianza biometrica, l’AI Act vieta l’utilizzo generalizzato in tempo reale nei luoghi pubblici a fini di law enforcement, ammettendo esclusivamente deroghe circoscritte — quali la ricerca di vittime di reati gravi, la prevenzione di minacce terroristiche o la cattura di sospetti di reati di particolare gravità — comunque subordinate ad autorizzazione giudiziaria e al rispetto dei principi di necessità e proporzionalità.
La giurisprudenza europea richiamata in dottrina — dalle pronunce Digital Rights Ireland e Tele2 Sverige fino a Ligue des droits humains — ha già chiarito che forme di sorveglianza e conservazione dei dati su larga scala, prive di criteri selettivi, risultano incompatibili con gli articoli 7 e 8 della Carta dei diritti fondamentali dell’Unione europea, nonché con i principi sanciti dal Regolamento generale sulla protezione dei dati.
Tuttavia, l’AI Act esclude espressamente dal proprio ambito di applicazione i sistemi di intelligenza artificiale utilizzati esclusivamente per finalità militari, di difesa o di sicurezza nazionale, rimettendo agli Stati membri la disciplina di tali settori[14].
Tale esclusione — prevista dall’articolo 2, paragrafo 3, e richiamata nel Considerando 24 — è stata oggetto di rilievi critici in dottrina e da parte della società civile, che l’hanno qualificata come un potenziale “vuoto normativo”, suscettibile di trasformare il comparto militare-industriale in un’area caratterizzata da una tutela attenuata dei diritti digitali.
È stato altresì evidenziato come, anche al di fuori dell’ambito strettamente militare, l’Unione europea sia già confrontata con fenomeni riconducibili alla c.d. “digital mass surveillance”[15], in particolare nel contesto delle smart cities, ove l’impiego di sistemi di videosorveglianza avanzata, sensori IoT e tecnologie di tracciamento della mobilità rischia di determinare una progressiva normalizzazione di modelli di controllo pervasivo.
Le pronunce della Corte di giustizia e delle giurisdizioni nazionali in materia di riconoscimento facciale, smart cities e conservazione dei dati confermano l’esistenza di una marcata resistenza, nell’ordinamento europeo, nei confronti di forme di sorveglianza indiscriminata, resistenza che appare destinata a costituire un parametro interpretativo imprescindibile anche nella fase di attuazione dell’AI Act.
Italia tra strategia AI, difesa e protezione dei dati
Sul versante civile, l’Italia si è dotata, nel 2024, di una Strategia nazionale per l’Intelligenza Artificiale 2024–2026, la quale individua specifiche priorità nei settori della pubblica amministrazione, della sanità, della mobilità, della giustizia, dell’industria e dell’istruzione, prevedendo altresì misure in materia di governance, formazione, ricerca e sperimentazione attraverso sandbox regolatorie.
Il documento evidenzia espressamente l’esigenza di assicurare l’allineamento dell’impiego dell’intelligenza artificiale agli standard europei di tutela dei diritti fondamentali, nonché di promuovere un ecosistema competitivo, valorizzando il ruolo delle PMI, delle start-up e delle forme di collaborazione tra settore pubblico e privato.
Sul piano della difesa, il Ministero competente ha adottato nel 2026 la strategia “AI and Defence”[16], nella quale l’intelligenza artificiale è qualificata come elemento “indispensabile” per il futuro della sicurezza nazionale, prevedendone un’integrazione progressiva nei processi di addestramento, pianificazione, analisi delle minacce, logistica e cooperazione industriale.
Tra i principi guida emergono, in particolare, il mantenimento di un controllo umano significativo sulle decisioni operative, la responsabilità di comando, il rispetto del diritto internazionale umanitario e il perseguimento della c.d. “sovranità digitale”[17], da realizzarsi mediante il rafforzamento delle capacità interne di sviluppo, validazione e gestione dei sistemi di intelligenza artificiale.
La dottrina evidenzia come, in parallelo, l’ordinamento italiano abbia progressivamente consolidato — anche attraverso l’applicazione del Regolamento Generale sulla Protezione dei Dati (GDPR), del Codice in materia di protezione dei dati personali e della giurisprudenza — una concezione della protezione dei dati quale “bene comune”[18], funzionale non soltanto alla tutela individuale, ma anche al corretto funzionamento delle istituzioni democratiche nell’ecosistema digitale.
In tale prospettiva, anche l’impiego dell’intelligenza artificiale in ambito difensivo deve essere interpretato alla luce di un necessario bilanciamento tra esigenze di sicurezza nazionale e salvaguardia dei diritti fondamentali, evitando che il richiamo alla sicurezza si traduca in una compressione indiscriminata degli spazi di dissenso o di autodeterminazione tecnologica degli operatori.
Tre piste operative per l’Europa (e per l’Italia)
A partire dalla vicenda che ha coinvolto Anthropic e OpenAI, nonché dal quadro teorico ricostruito in dottrina, emergono alcune direttrici di riflessione operativa rilevanti per il contesto europeo e italiano.
In primo luogo, appare opportuno circoscrivere l’impiego estensivo degli strumenti di sicurezza economica nei confronti di operatori nazionali. Misure quali la designazione quale “supply chain risk” o l’esercizio dei poteri speciali (golden power) sono state concepite per fronteggiare minacce connesse a interferenze estere, spionaggio o controllo di asset strategici; tuttavia, il caso statunitense evidenzia come un loro utilizzo nei confronti di imprese domestiche, motivato da divergenze relative a clausole etiche o a scelte di policy aziendale, possa tradursi in una forma di ritorsione regolatoria, idonea a disincentivare l’adozione di meccanismi volontari di limitazione e responsabilizzazione nell’impiego dell’intelligenza artificiale.
In secondo luogo, si pone l’esigenza di integrare in modo sistematico requisiti di sicurezza, etica e protezione dei dati all’interno delle procedure di procurement pubblico. Piuttosto che demandare ai singoli operatori la definizione di clausole etiche — con il rischio di generare conflitti asimmetrici con le amministrazioni — i capitolati di gara potrebbero prevedere standard minimi in materia di sicurezza, trasparenza, supervisione umana, protezione dei dati personali e rispetto dei diritti fondamentali. Un simile approccio risulterebbe coerente sia con l’impostazione del Regolamento generale sulla protezione dei dati, che impone principi di liceità, minimizzazione, proporzionalità e accountability by design, sia con la logica risk-based dell’AI Act[19].
Infine, risulta centrale il rafforzamento dei meccanismi di controllo e di ricorso avverso decisioni esecutive in materia di intelligenza artificiale[20]. L’intervento della giudice Rita Lin evidenzia l’importanza di un sindacato giurisdizionale effettivo su provvedimenti che incidono in modo significativo sull’attività degli operatori del settore, specialmente quando si intrecciano valutazioni di sicurezza nazionale e profili attinenti alla libertà di espressione. Nel contesto europeo, il ruolo delle Corti costituzionali, dei giudici amministrativi, delle autorità indipendenti — quali il Garante per la protezione dei dati personali — nonché, a livello sovranazionale, della Corte di giustizia dell’Unione europea e delle autorità di protezione dei dati, potrebbe essere ulteriormente valorizzato al fine di evitare che il richiamo alla sicurezza nazionale si trasformi in una clausola generale idonea a comprimere o neutralizzare ogni forma di controllo giurisdizionale, come già evidenziato in dottrina e dalla società civile[21].
Bibliografia
VEGA L. E. R., SCAFFARDI L., SPIGNO I. (a cura di), I diritti fondamentali nell’era della digital mass surveillance, Editoriale Scientifica, Napoli, 2021.
NOVELLI C., FLORIDI L., GAUR A., Two futures of AI regulation under the Trump administration, 2025.
DI BELLO B., Ai pro. Progettare, creare e comunicare con l’intelligenza artificiale generativa, Hoepli, Milano, 2024.
FLORA M., MAGGI L., Intelligenza artificiale generativa. Opportunità e sfide legali, Pacini Editore, Pisa, 2024.
MODUGNO F., I “nuovi diritti” nella giurisprudenza costituzionale, Giappichelli, Torino, 1995.
RAZZANTE R. (a cura di), Manuale sull’intelligenza artificiale, Giappichelli, Torino, 2024.
RAZZANTE R., AI e tutela dei diritti fondamentali, in Dirittifondamentali.it, 2024.
RUFFOLO U., AMIDEI A., Diritto dell’Intelligenza Artificiale. Proprietà industriale e intellettuale. CorpTech. Giustizia Predittiva. Transumanesimo. AI generativa. Metaverso, LUISS University Press, Roma, 2024.
SIMONCINI A. (a cura di), Sistema delle fonti e nuove tecnologie. Il ruolo delle autorità indipendenti, Giappichelli, Torino, 2023.
Note
[1] Vedi https://www.abc.net.au/news/2026-02-28/us-president-orders-six-month-phaseout-of-anthropic-technology/106400088.
[2] Vedi https://www.bbc.com/news/articles/cn48jj3y8ezo.
[3] M. FLORA, L. MAGGI, Intelligenza artificiale generativa. Opportunità e sfide legali, Pacini Editore, Pisa, 2024. Vedi anche DI BELLO B., Ai pro. Progettare, creare e comunicare con l’intelligenza artificiale generativa, Hoepli, Milano, 2024 e RUFFOLO U., AMIDEI A., Diritto dell’Intelligenza Artificiale. Proprietà industriale e intellettuale. CorpTech. Giustizia Predittiva. Transumanesimo. AI generativa. Metaverso, LUISS University Press, Roma, 2024.
[4] Per un approfondimento si veda, tra gli altri, PREVITI L., Pubblici poteri e cybersicurezza: il lungo cammino verso un approccio collaborativo alla gestione del rischio informatico, in Federalismi.it, 25, 2022.
[5] Executive Order 14110, Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, Joe Biden, 30 ottobre 2023, disponibile online presso il sito ufficiale della Casa Bianca.
[6] Ensuring a National AI Policy Framework, Ensuring a National Policy Framework for Artificial Intelligence, Donald Trump, 2025, disponibile online presso fonti ufficiali del governo degli Stati Uniti.
[7] Per un approfondimento si veda, C. Novelli, L. Floridi, A. Gaur, Two futures of AI regulation under the Trump administration, 2025, https://digi-con.org/two-futures-of-ai-regulation-under-the-trump-administration/.
[8] Cfr. CGUE, 8 aprile 2014, Digital Rights Ireland Ltd, C-293/12 e C-594-12, dove la Corte ha dichiarato invalida la Direttiva 2006/24/CE sulla conservazione dei dati, che obbligava gli ISP a conservare per lunghi periodi i dati di traffico e localizzazione degli utenti. Quest’ultima obbligava gli operatori di telecomunicazioni a conservare i dati relativi al traffico e alla localizzazione degli utenti per un periodo compreso tra 6 mesi e 2 anni, al fine di combattere reati gravi, come il terrorismo e la criminalità organizzata.
[9] Cfr. CGUE, 21 dicembre 2016, Tele2 Sverige AB, C-203/15, caso in cui la società in questione aveva smesso di conservare i dati di localizzazione e traffico in seguito alla decisione Digital Rights Ireland. Ciò fece si che l’autorità svedese gli ordinasse di continuare a farlo, in conformità con la legge nazionale. Questo fu il motivo dell’impugnazione da parte di Tele2, la quale sosteneva che la conservazione richiesta dalla norma nazionale violasse i diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’UE.
[10] Cfr. CGUE, Ligue des droits humains c. Conseil des ministers, C-511/18, 2020 dove la Corte di Giustizia dell’Unione Europea (CGUE) ha dichiarato illegittima la sorveglianza di massa e la conservazione indiscriminata dei dati personali da parte delle autorità pubbliche, in violazione degli artt. 7 e 8 della Carta dei Diritti Fondamentali dell’UE e del Regolamento (UE) 2016/679 (GDPR). La Corte ha affermato che il trattamento dei dati per finalità di sicurezza deve rispettare il principio di proporzionalità e garantire basi giuridiche solide, limiti temporali stringenti e controlli indipendenti. La pronuncia ha avuto un impatto sulle Smart Cities, in particolare sull’uso della videosorveglianza avanzata e del riconoscimento facciale, escludendo il monitoraggio indiscriminato della popolazione. Tale orientamento ha influenzato la successiva regolamentazione dell’Artificial Intelligence Act, stabilendo criteri più stringenti per l’uso delle tecnologie di sorveglianza nelle amministrazioni pubbliche.
[11] Cfr. GPDP, provvedimento del 2 febbraio 2023, n. 39 [doc. web n. 9852214]
[12] Cfr. GPDP, provvedimento del 30 marzo 2023, n. 112 [doc. web n. 9870832], nello specifico OpenAI avrebbe trattato dati personali per l’addestramento di ChatGPT senza aver previamente identificato una base giuridica conforme alle disposizioni del GDPR. Oltre a ciò, gli utenti non sarebbero stati adeguatamente informati circa le modalità e le finalità del trattamento dei loro dati personali e, infine, la piattaforma avrebbe consentito l’accesso a minori di 13 anni senza implementare sistemi efficaci per verificarne l’età, esponendoli a contenuti potenzialmente inappropriati.
[13] Cfr. GPDP, provvedimento del 30 gennaio 2025, n. 33 [doc. web n. 10098477].
[14] R. RAZZANTE (a cura di), Manuale sull’intelligenza artificiale, Giappichelli, Torino, 2024.
[15] L. E. R. VEGA, L. SCAFFARDI, I. SPIGNO (a cura di), I diritti fondamentali nell’era della digital mass surveillance, Editoriale Scientifica, Napoli, 2021, nello specifico questo termine è generalmente utilizzato per riferirsi a sistemi di raccolta e/o accesso su larga scala. Tuttavia, la terminologia impiegata per descrivere tali operazioni è estremamente variegata. «Intelligence can be collected with technical means and at large scale. This surveillance technique is referred to in different ways, including “signals intelligence”, tegic survillance, “bulk investigatory powers”, “mass digital surveillance” and ‘storage of data on a generalised basis», FRA (EUROPEAN UNION AGENCY FOR FUNDAMENTAL RIGHTS), Surveillance by intelligence services: fundamental rights safeguards and remedies in the EU Volume I: Member States’ legal framework, 2017.
[16] Cfr. AI and Defence, Ministero della Difesa, https://www.difesa.it/assets/allegati/90197/ia_e_difesa_2026.pdf. Il documento intitolato “AI e Difesa: Strategia di Difesa sull’Intelligenza Artificiale” – fortemente promosso dal Ministro della Difesa, Guido Crosetto – rappresenta un quadro globale e ambizioso che definisce una linea d’azione da attuare immediatamente e completare entro un lasso di tempo limitato, finalizzato all’integrazione sistemica e sistematica dell’IA nel settore della difesa.
[17] A. SIMONCINI (a cura di), Sistema dele fonti e nuove tecnologie. Il ruolo elle autorità indipendenti, Giappichelli, Torino, 2023
[18] F. MODUGNO, I “nuovi diritti” nella giurisprudenza costituzionale, Giappichelli, Torino, 1995. La natura multiforme della riservatezza è stata evidenziata, mettendo in luce il suo rapporto con le diverse modalità di esercizio del potere, anche da S. RODOTÀ, La «privacy» tra individuo e collettività, in Pol. dir., 1974, il quale osserva che in ognuna delle istituzioni in cui si svolge la personalità umana «variano gli equilibri tra interessi privati e pubblici», con conseguente variazione delle modalità di esercizio del potere; e «chi non si culla nell’attesa di palingenesi, allora, deve essere in grado di compiere analisi e proporre soluzioni che tengano conto di tutte quelle variabili».
[19] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, 13 giugno 2024, Artificial Intelligence Act, art. 5 (Prohibited AI Practices), disponibile online: https://artificialintelligenceact.eu/article/5/.
[20] RAZZANTE R., AI e tutela dei diritti fondamentali, in Dirittifondamentali.it, 2024.
[21] Per un approfondimento si veda, RAZZANTE R., AI e tutela dei diritti fondamentali, in Dirittifondamentali.it, 2024.













