intelligenza artificiale

Il Governo Usa certificherà l’AI più potente: una sveglia per l’UE



Indirizzo copiato

Cinque aziende dominano l’AI frontier e hanno accettato test volontari con CAISI del Governo Usa prima del rilascio, mentre il Pentagon porta i modelli sui classified network. Quali implicazioni per l’UE e le nostre aziende

Pubblicato il 6 mag 2026

Fabio Lalli

ceo ICONICO | Innovation & Digital Transformation



accordi USA valutazione AI frontier
WASHINGTON DC 2016-05-15 Högsta domstolen i USA (The Supreme Court of the United States) har sitt säte i Washington DC Foto Jonas Ekströmer / TT / kod 10030
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Cinque aziende controllano oggi la quasi totalità dello sviluppo di intelligenza artificiale frontier nel mondo, e ieri tutte e cinque hanno accettato di consegnare i propri modelli al governo degli Stati Uniti per una valutazione preventiva al rilascio.

Il tema deve preoccupare noi europei. Vediamo perché.

Accordo aziende AI con Governo USA per accesso in anteprima a modelli AI frontier

Google DeepMind, Microsoft, xAI hanno firmato nuovi accordi con il Center for AI Standards and Innovation (CAISI), l’ufficio del Department of Commerce che dipende dal NIST, mentre OpenAI e Anthropic, che lavoravano già con quello stesso ufficio dal 2024 sotto l’amministrazione Biden quando si chiamava AI Safety Institute, hanno rinegoziato i propri accordi per allinearli alle priorità del Trump AI Action Plan. È un perimetro che, su carta, sembra completare l’architettura di sorveglianza dell’AI negli USA, e va letto insieme a un secondo annuncio di pochi giorni prima, il 1° maggio, quando il Pentagon ha firmato deal paralleli con otto aziende per portare i loro modelli sui propri classified network. I due eventi formano un dittico, e separati dicono molto meno di quanto dicano insieme.

Il primo dato da fissare con precisione è la natura giuridica dell’accordo. Si tratta di impegni volontari, senza base statutaria, dai quali ciascuna azienda può ritirarsi quando vuole. Non esiste oggi una legge federale che imponga la valutazione pre-rilascio, e CAISI non ha l’autorità di bloccare o ritardare il deployment di un modello. Quello che è stato firmato è un protocollo di information-sharing che permette al governo di accedere ai modelli, talvolta in versioni con i guardrail di sicurezza ridotti, per testarne le capacità in ambienti classificati. Il Direttore di CAISI Chris Fall l’ha descritto come una scienza della misurazione indipendente e rigorosa, necessaria per capire l’AI di frontiera e le sue implicazioni di sicurezza nazionale.

Il problema della fiducia, quando manca il contratto

Quando un sistema di sorveglianza è interamente costruito su collaborazione volontaria, il rischio non è che le aziende mentano deliberatamente, è che il perimetro di ciò che condividono venga negoziato caso per caso, dietro le quinte, con asimmetrie informative che il pubblico non vedrà mai. Le cinque aziende coinvolte hanno tutte interesse a che la valutazione governativa avvenga, perché un timbro pubblico di sicurezza è un asset reputazionale e commerciale, soprattutto con clienti istituzionali e governi alleati che acquistano AI per usi sensibili. Hanno tutte interesse, allo stesso tempo, a che la valutazione non rallenti il time-to-market, non esponga capacità competitive a rivali, non generi precedenti regolatori vincolanti.

L’incentivo è dunque positivo verso la cooperazione superficiale e negativo verso la trasparenza profonda. Un’azienda può consegnare il modello, partecipare ai test, condividere i risultati, e nello stesso tempo ritirarsi dall’accordo il giorno in cui CAISI volesse pubblicare un’analisi che lei considera dannosa per il proprio posizionamento. Senza una norma di legge che obblighi alla valutazione e renda obbligatorio il rendiconto pubblico dei risultati, la collaborazione resta un gentleman’s agreement che dipende dalla strategia di business dei partecipanti più che da un meccanismo istituzionale stabile. Il bias inevitabile è verso un’oversight conveniente per chi vi partecipa.

CAISI, le sue dimensioni, le sue dipendenze e le valutazioni sui modelli AI

Chi è CAISI in concreto. È un ufficio con meno di duecento persone, costruito in meno di due anni, originariamente come AI Safety Institute sotto Biden e oggi rifocalizzato sotto Trump come Center for AI Standards and Innovation con un mandato esplicito di sicurezza nazionale. Ha completato finora oltre 40 valutazioni di modelli, alcune su sistemi non ancora rilasciati al pubblico. È il singolo punto di accesso governativo per il testing dei modelli frontier americani, e questa concentrazione, da sola, è un fatto politico che merita di essere osservato senza retorica.

Un ufficio di questa dimensione, che valuta sistemi sviluppati da aziende con risorse di ricerca cento volte superiori, dipende strutturalmente dalla cooperazione delle aziende stesse: per i tool di valutazione, per le metodologie, per l’accesso ai sistemi interni di addestramento e di red-teaming. La domanda di fondo è chi sta valutando chi, e con quali standard. Se le metriche di sicurezza, le red team practices, le definizioni di capacità rischiosa, vengono in larga misura proposte e poi raffinate in dialogo con i laboratori che producono i modelli, la separazione tra controllore e controllato si assottiglia fino a diventare difficile da distinguere.

L’asimmetria competitiva che nessuno racconta

C’è poi un effetto di selezione che la struttura volontaria amplifica. CAISI ha cinque clienti, e li ha scelti seguendo l’evoluzione del mercato: i grandi laboratori frontier americani. I laboratori più piccoli, le startup, i progetti open source, i laboratori cinesi o europei, restano fuori dal perimetro. È una scelta operativa razionale, perché un ufficio piccolo deve concentrare le risorse dove c’è il maggior rischio sistemico, però il risultato di sistema è che il timbro federale di “modello valutato” diventa un vantaggio competitivo asimmetrico, accessibile solo a chi ha già scala sufficiente per stare nel club. Per un nuovo entrante, dimostrare al mercato istituzionale di avere un livello di sicurezza paragonabile a quello dei big diventa significativamente più difficile, perché manca proprio l’infrastruttura pubblica di valutazione.

Accordo Pentagono e aziende AI. Il caso che mette alla prova il modello

Quattro giorni prima dell’annuncio CAISI, il 1° maggio, il Department of War (la nuova denominazione secondaria del Department of Defense sotto l’Executive Order 14347 del settembre 2025) ha firmato accordi paralleli con otto aziende per dispiegare le loro capacità AI sui classified network del dipartimento, ai livelli Impact Level 6 e 7, per “lawful operational use”. Le otto sono SpaceX (che si è fusa con xAI), OpenAI, Google, Nvidia, Reflection, Microsoft, Amazon Web Services e Oracle. Va letto come il pendant operativo dell’accordo CAISI: prima si valutano i modelli prima del rilascio, poi gli stessi modelli si dispiegano sull’infrastruttura militare sensibile, in entrambi i casi senza vincoli statutari. Il comunicato del Department of War cita oltre 1,3 milioni di personale che ha già usato la piattaforma GenAI.mil, generando decine di milioni di prompt e centinaia di migliaia di agenti in cinque mesi.

C’è un’azienda che, in questa lista, manca in modo molto vistoso, ed è Anthropic. Fino a qualche mese fa Claude era l’unico modello frontier disponibile sui classified network del Pentagon. Poi, il 27 febbraio 2026, il Presidente Trump ha ordinato a tutte le agenzie federali di cessare immediatamente l’uso della tecnologia di Anthropic, e il Pentagon ha designato l’azienda come “supply chain risk“, una categoria normalmente usata per fornitori legati ad avversari stranieri https://www.congress.gov/crs-product/IN12669. La causa scatenante è stata il rifiuto di Anthropic di accettare lo standard “all lawful purposes” preteso dal dipartimento, perché l’azienda non voleva firmare un accordo che permettesse l’uso di Claude per la sorveglianza domestica di massa o per lo sviluppo di sistemi d’arma autonomi. Anthropic ha fatto causa in Federal Court, un giudice in California ha emesso un’injunction preliminare a marzo, la Court of Appeals della D.C. Circuit l’ha sospesa l’8 aprile https://www.congress.gov/crs-product/IN12669.

Il dato più rivelatore è che, nello stesso periodo in cui ufficialmente Anthropic veniva trattata come rischio per la sicurezza nazionale, la NSA stava usando il suo modello più avanzato, Mythos, e la Casa Bianca stava lavorando in privato a un’executive action per riportare Anthropic dentro il perimetro federale. Il New York Times ha riportato, il 1° maggio, che alcune delle aziende firmatarie avrebbero ottenuto safeguards contrattuali simili a quelli che Anthropic chiedeva sui droni autonomi e sulla sorveglianza, pur restando formalmente dentro lo standard “any lawful use” del Pentagon. La differenza, in questa lettura, sta meno nelle red line e più nella disponibilità a non scriverle nero su bianco. Per chi osserva la dinamica regolatoria, il modello volontario regge fino a quando un fornitore prova a usarlo come leva negoziale: in quel momento il sistema rivela di poggiare meno sulle regole e più sul rapporto di forza tra Big Tech e amministrazione.

In Europa, dove l’AI Act incontra l’AI frontier USA: che fare

In Europa, dove l’AI Act introduce categorie di rischio e obblighi statutari, la traiettoria regolatoria è opposta nella forma e nei meccanismi di enforcement. È legittimo discutere quale dei due modelli funzioni meglio in pratica, e l’evidenza empirica oggi non basta per sentenziare in modo definitivo, però la differenza filosofica è netta: oversight basato su impegno volontario rinegoziabile contro oversight basato su conformity assessment obbligatorio. Le aziende che operano in entrambi i mercati si trovano a gestire due regimi paralleli, ed è plausibile che le pratiche più stringenti dell’uno migrino, almeno in parte, anche nell’altro, perché chi costruisce un modello frontier non lo fa due volte.

Cosa dovrebbe pensare un decisore aziendale italiano

Per chi guida una funzione tecnologica, di compliance o di rischio in un’azienda italiana che adotta modelli AI di provider americani, il punto operativo è che il livello di garanzia pubblica oggi disponibile sui modelli frontier dipende da accordi che possono essere ritirati senza preavviso, e da relazioni che, come dimostra il caso Anthropic, possono essere riformattate brutalmente quando il fornitore prova a porre dei limiti contrattuali. Una clausola di vendor risk dovrebbe esplicitamente prevedere cosa succede se il provider esce dal protocollo CAISI, che effetti ha sulla certificabilità del workflow interno che usa quel modello, come si gestiscono le transizioni tra versioni testate e versioni non testate, e cosa accade se il provider viene designato supply chain risk dal governo americano per ragioni geopolitiche. Sono domande che fino a tre mesi fa erano al massimo accademiche e che oggi sono operative, perché il fatto stesso che esista un protocollo apre la possibilità che il protocollo venga interrotto.

C’è un secondo livello, più strategico, che riguarda la sovranità del dato e dei modelli usati nelle infrastrutture critiche. Se cinque aziende americane costituiscono il backbone dell’AI frontier mondiale, e se la loro relazione con il governo americano si formalizza, anche solo su base volontaria, in un protocollo di national security testing, qualunque azienda non americana che basi processi decisionali su quei modelli deve fare i conti con un fatto geopolitico: il modello che usa è soggetto a un processo di valutazione governativa il cui scopo dichiarato è la sicurezza nazionale degli Stati Uniti. Non significa che il modello sia compromesso, significa che la sua governance ha una dimensione politica che non è più ignorabile.

A valle di una lettura di questo tipo ci si pone una domanda: l’Europa, e l’Italia dentro l’Europa, ha intenzione di costruire una propria infrastruttura di valutazione indipendente, con personale qualificato e capacità tecnica di stress-testing equivalente a quella di CAISI, oppure accetterà che i modelli che entreranno nelle proprie pubbliche amministrazioni e nei propri ospedali siano già stati certificati altrove, secondo criteri pensati per altri obiettivi?

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x