AI militare

Le Big tech “armano” gli Usa, altro fronte di rischio per la sovranità UE



Indirizzo copiato

Washington integra i modelli generativi nella macchina militare e accelera la saldatura tra Pentagono e big tech. Il caso Anthropic mostra i costi del dissenso, mentre l’Europa procede con strumenti frammentati e senza una filiera comune per l’AI militare operativa. La sovranità digitale diventa anche sovranità militare oltre che economica

Pubblicato il 19 mar 2026

Alessandro Longo
Alessandro Longo

Direttore agendadigitale.eu



big tech militare
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

A Washington il rapporto tra Pentagono e grandi aziende dell’intelligenza artificiale è entrato in una fase nuova.

Gli Stati Uniti non stanno più comprando solo software dalle big tech AI: stanno incorporando i modelli nella propria infrastruttura militare, ed è proprio qui che si apre il divario con l’Europa. Uno svantaggio competitivo da risolvere, per noi.

Il Dipartimento della Difesa statunitense sta mettendo in pratica la strategia diffusa a gennaio 2026, l’obiettivo di diventare una forza militare “AI-first”, con agenti per il battle management, supporto alle decisioni dalla pianificazione della campagna fino alla kill chain e sistemi capaci di trasformare intelligence in capacità operative “in hours not years”.

In questi giorni: OpenAI ha annunciato un accordo per portare i propri modelli in ambienti classificati, xAI ha raggiunto un’intesa per Grok nei sistemi classificati e Google è tornata a lavorare con il Pentagono su agenti destinati, almeno in questa fase, a reti non classificate.

Gli Stati Uniti stanno trattando i modelli generativi come una componente della propria base militare, non come un semplice servizio esterno. È una svolta che chiude, almeno in parte, la stagione aperta nel 2018 da Project Maven, quando Google decise di non rinnovare il contratto dopo le proteste interne di migliaia di dipendenti. Otto anni dopo, la traiettoria è opposta: più integrazione, meno distanza simbolica tra Silicon Valley e difesa.

AI Big tech nella Difesa Usa: dalla sperimentazione alla filiera operativa

La strategia del gennaio 2026 descrive un impiego che tocca il comando, l’analisi, la simulazione, l’intelligence e la logistica. Il lessico del documento è esplicito: “battle management”, “decision support”, “kill chain execution”, “turning intel into weapons”. In parallelo, Reuters ha riferito il 12 febbraio che il Pentagono stava spingendo OpenAI, Anthropic, Google e xAI a espandere i loro strumenti sulle reti classificate, riducendo le restrizioni d’uso.

Va però ricordato che il Pentagono non parte da un vuoto normativo interno: i principi etici del Dipartimento della Difesa sull’AI e il percorso di Responsible AI restano formalmente in vigore. La novità del 2026 sta piuttosto nel modo in cui l’urgenza operativa tende a comprimere quelle cautele dentro una logica di superiorità militare accelerata.

Questo spostamento ha due effetti immediati.

Il primo è operativo: comprime il tempo tra raccolta dei dati, interpretazione e azione.

Il secondo è industriale: crea una dipendenza crescente da pochi fornitori capaci di offrire modelli, infrastruttura, sicurezza, aggiornamenti e personale con le clearance necessarie.

Il caso Palantir è utile per capire il passaggio: a maggio 2025 il Pentagono ha aumentato di 795 milioni di dollari il valore del contratto per Maven Smart System, il software che ormai funge da piattaforma di integrazione tra dati, modelli e decisioni operative.

C’è poi un passaggio ancora più delicato. Secondo un’inchiesta pubblicata da MIT Technology Review il 17 marzo 2026, il Pentagono starebbe discutendo la creazione di ambienti sicuri in cui consentire alle aziende di addestrare versioni dei loro modelli su dati classificati.

Il Dipartimento della Difesa non aveva confermato il piano al momento della pubblicazione, quindi questo punto va trattato come un’indicazione di lavoro, non come una decisione già esecutiva. Se però il progetto andasse avanti, i modelli non si limiterebbero a interrogare dati sensibili, ma imparerebbero pure da quei dati.

Anthropic è il punto di rottura

Dire che Anthropic è “l’eccezione” in questo disegno è corretto solo in parte.

Nel giugno 2025 aveva lanciato i modelli Claude Gov per clienti della sicurezza nazionale americana, già distribuiti in ambienti classificati; a febbraio 2026 rivendicava una partnership da 200 milioni di dollari con il Dipartimento della Difesa e la creazione di un advisory council dedicato a sicurezza nazionale e settore pubblico. E’ stata la prima azienda AI a collaborare con la Difesa.

La rottura è arrivata nelle ultime settimane. Anthropic sostiene di aver rifiutato di eliminare alcune salvaguardie: il divieto di usare Claude per sorveglianza domestica di massa e per armi completamente autonome. Trump ha classificato l’azienda come “supply chain risk” il 3 marzo, avviando una finestra di sei mesi per il phase-out dei prodotti Anthropic dai sistemi del Pentagono e dalle reti dei contractor. Al momento c’è uno scontro legale tra azienda e GOverno.

Gli utenti militari però considerano Claude più affidabile di alcune alternative e che la sua rimozione da sistemi come Maven potrebbe richiedere una nuova certificazione lunga 12-18 mesi. In altre parole, Anthropic è l’eccezione sul piano politico e contrattuale, ma è anche la prova di quanto a fondo l’AI commerciale sia già entrata nella macchina militare americana.

AI militare, big tech e Governo: che cosa guadagnano gli Stati Uniti

La prima conseguenza per la capacità militare americana è un aumento della velocità. Se i modelli vengono collegati a grandi volumi di immagini, report, intercettazioni, dati logistici e documenti storici, possono alleggerire una parte del lavoro oggi svolto da analisti umani: classificare segnali, ricostruire contesto, mettere in relazione eventi lontani nel tempo, preparare ipotesi operative. È esattamente il tipo di vantaggio che il Pentagono descrive nei suoi documenti: meno attrito tra informazione e decisione.

La seconda conseguenza: quando i modelli vengono adattati a casi d’uso militari, il vantaggio competitivo non sta solo nella qualità del modello di base. Sta nella combinazione tra dati riservati, infrastrutture certificate, feedback dagli utenti militari e possibilità di iterare rapidamente. Chi entra in questo circuito migliora i propri sistemi in un ambiente che nessun concorrente esterno può replicare facilmente. Per questo l’eventuale addestramento su dati classificati, se sarà davvero autorizzato, avrebbe un peso notevole: sposterebbe il baricentro dalla semplice fornitura di modelli alla coproduzione di capacità militare.

La terza conseguenza riguarda la struttura del mercato. Più il Pentagono integra pochi modelli nelle proprie reti classificate, più crescono i costi di uscita. Il caso Anthropic lo mostra bene: anche dopo la rottura, il sistema fatica a sostituire Claude senza perdere tempo, continuità e affidabilità percepita. Questo rafforza il potere contrattuale delle aziende che riescono a entrare in filiera e mette in secondo piano molte imprese che non hanno la scala, i data center, il personale autorizzato o la capacità di gestire ambienti ad alta classificazione.

Il riassetto del mercato, inoltre, è già in corso: dopo la rottura con Anthropic, OpenAI si sta rafforzando nell’accesso alle agenzie federali e della difesa attraverso AWS, su lavoro sia classificato sia non classificato. È un segnale ulteriore del fatto che la competizione si gioca ormai su modelli, cloud e compliance classificata insieme.

Naturalmente il vantaggio non è privo di rischi. Reuters ha ricordato che i modelli possono generare errori convincenti in contesti dove l’errore ha conseguenze letali. L’inchiesta di MIT Technology Review aggiunge un rischio specifico del training su dati classificati: che informazioni riservate, una volta incorporate nel modello, riemergano in contesti impropri.

Washington sembra disposta a correre una parte di questo rischio perché considera l’AI ormai un moltiplicatore di forza, soprattutto nei confronti della concorrenza con la Cina.

Ma la scelta implica un problema di governance che resta aperto: come separare davvero automazione, supporto decisionale e responsabilità umana in catene operative sempre più compresse.

L’Europa si muove, ma con un’altra scala e un’altra architettura

In Europa sarebbe sbagliato dire che non esiste nulla. La Commissione europea ha presentato nel 2025 il White Paper for European Defence – Readiness 2030; il Programma di lavoro 2026 dell’European Defence Fund vale poco più di 1 miliardo di euro; accanto all’EDF va ricordato anche SAFE, il nuovo strumento europeo da fino a 150 miliardi di euro in prestiti per il procurement comune.

La Nato, con DIANA, ha una rete di oltre 200 accelerator site e test centre e nel 2026 ha selezionato 150 innovatori.

Sul lato industriale esistono attori come Helsing, che si definisce una società di difesa nativa software, sta consegnando droni all’Ucraina e lavora a sistemi aerei autonomi con una filiera europea.

Resta però in Europa il classico problema di frammentazione industriale, scarsa competizione tra Paesi.

Lo dice anche il documento della Commissione: la base industriale europea della difesa ha “structural weaknesses”, non produce sistemi e equipaggiamenti nella quantità e alla velocità richieste dagli Stati membri, resta troppo frammentata e ha sofferto di sottoinvestimento. Lo stesso testo insiste sulla necessità di ordini stabili e pluriennali per dare alle imprese segnali credibili di domanda.

Sull’apprendimento operativo le differenze sono enormi. Gli Stati Uniti stanno usando guerra reale, reti classificate e procurement accelerato come un unico ciclo di feedback. L’Europa ha eccellenze industriali e startup valide, ma non ha ancora un circuito comparabile che unisca utenti finali, dati sensibili, contratti rapidi e distribuzione su larga scala. Helsing è il segnale più chiaro di una possibile traiettoria europea, ma per ora resta un’eccezione rilevante, non il perno di un sistema continentale integrato.

In più, una cornice normativa disallineata. L’AI Act, infatti, non si applica ai sistemi usati esclusivamente per fini militari, di difesa o sicurezza nazionale; e il quadro si complica quando sistemi nati per questi usi vengono poi impiegati anche per finalità civili, umanitarie, di law enforcement o di sicurezza pubblica.

Restano aperti anche i negoziati internazionali sulle armi autonome in sede ONU, con pressioni crescenti per arrivare a regole vincolanti su sistemi che riducono o eliminano il controllo umano nell’uso della forza.

Insomma, gli Stati Uniti stanno costruendo capacità militare AI attorno a un mercato interno enorme, a un singolo compratore federale e a contractor che possono scalare in fretta dal software al teatro operativo. L’Europa, invece, ha più centri decisionali, più regole di procurement, più vincoli nazionali e meno campioni nel campo dei modelli di frontiera già inseriti in reti classificate militari.

Le conseguenze per la sovranità digitale (militare) dell’Europa

La conseguenza probabile è una dipendenza più forte da stack americani, sia sul lato cloud sia sul lato modelli, proprio mentre Bruxelles parla di autonomia strategica. Se il vantaggio statunitense si consolida dentro ambienti classificati, replicarlo dall’esterno diventa più difficile. L’Europa rischia di comprare strumenti già addestrati, testati e certificati secondo esigenze americane, adattandoli dopo.

La sovranità digitale diventa un fatto di sovranità militare (oltre che economica).

Servono scelte su procurement, dati classificati, standard di interoperabilità, sovranità del cloud, responsabilità nell’uso operativo. L’Europa ha iniziato a muoversi con il fondo da 1,006 miliardi dell’EDF 2026, con SAFE e con il White Paper sulla difesa, ma il ritmo resta diverso da quello americano. Se resterà così, il Continente rischia di avere norme, progetti e prototipi senza avere una vera filiera di dispiegamento.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x