scenari

AI, la stretta USA per la sicurezza nazionale impatta sul mondo



Indirizzo copiato

La Casa Bianca valuta una revisione governativa dei nuovi modelli di intelligenza artificiale, mentre il Pentagono stringe accordi con le grandi aziende tecnologiche. Sullo sfondo cresce la competizione militare tra Stati Uniti, Cina, Russia e altri Paesi sulle armi autonome

Pubblicato il 7 mag 2026

Antonino Mallamaci

avvocato, Co.re.com. Calabria



politica USA AI
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Si profila una possibile inversione di tendenza nella linea dell’amministrazione americana sull’intelligenza artificiale. La Casa Bianca starebbe valutando un meccanismo di verifica preventiva per i modelli più avanzati, un’ipotesi discussa — secondo fonti di stampa — anche con dirigenti di Anthropic, Google e OpenAI.

Secondo Bloomberg, che rilancia il New York Times, funzionari della Casa Bianca avrebbero illustrato ad alcuni dirigenti di Anthropic, Google e OpenAI piani allo studio su una possibile revisione governativa dei nuovi modelli di IA, mentre il Center for AI Standards and Innovation del NIST dichiara di poter fungere “da principale punto di contatto per l’industria all’interno del governo degli Stati Uniti per facilitare i test e la ricerca collaborativa relativi allo sfruttamento e alla protezione del potenziale dei sistemi di intelligenza artificiale commerciali”.

A cosa è dovuto questo capovolgimento? Sembra che il fattore scatenante sia stato l’annuncio del rilascio, da parte di Anthropic, di Mythos, nuovo e potente modello di intelligenza artificiale.

Intelligenza artificiale militare, la Casa Bianca cambia approccio

Tra le ipotesi allo studio sembra possa prevalere un processo di revisione simile a quello in corso di realizzazione in Gran Bretagna, il cui obiettivo è garantire che i modelli di intelligenza artificiale soddisfino standard di sicurezza predeterminati dal governo.

Dalla sua rielezione, Trump ha puntato molto sull’IA, ritenendone lo sviluppo essenziale per la sfida geopolitica con la Cina. Con uno dei primi provvedimenti ha abrogato una procedura normativa di Biden che richiedeva agli sviluppatori di IA di effettuare valutazioni di sicurezza e di redigere rapporti sui modelli di IA con potenziali applicazioni militari.

In un intervento di qualche mese fa, ha definito il settore dell’IA come “un bellissimo bambino appena nato”, aggiungendo: “Dobbiamo far crescere questo bambino e lasciarlo prosperare. Non possiamo fermarlo con la politica. Non possiamo fermarlo con regole sciocche e stupide”. Le regole, secondo il presidente avrebbero dovuto essere “più geniali persino della tecnologia stessa”.

Ora Trump, evidentemente, ha cambiato idea, spinto anche dalle crescenti preoccupazioni per l’impatto dell’IA su occupazione, prezzi dell’energia, istruzione, privacy e salute mentale. Su questo tema democratici e repubblicani si sono trovati d’accordo, come raramente accade. Un sondaggio ha rilevato che il 50% dei repubblicani e il 51% dei democratici si sono detti più preoccupati che entusiasti del crescente utilizzo dell’intelligenza artificiale nella vita quotidiana.

Mythos di Anthropic e il timore di attacchi informatici basati sull’IA

La politica di Trump al riguardo ha iniziato a cambiare, come abbiamo già accennato, quando Anthropic ha annunciato Mythos. Questo è un modello, secondo la società di Dario Amodei, così efficace nell’individuare le vulnerabilità di sicurezza nei software che potrebbe portare a una “resa dei conti” nel campo della sicurezza informatica. La Casa Bianca vuole evitare ripercussioni politiche se si dovesse verificare un pesante attacco informatico basato sull’intelligenza artificiale. Per anticipare modelli come Mythos, alcuni funzionari stanno spingendo per un sistema di revisione che darebbe al governo il diritto di accesso prioritario ai modelli, senza però bloccarne la diffusione.

Il repentino mutamento di strategia del governo americano sull’IA ha destato anche qualche allarme nelle aziende americane leader del settore, ciò in quanto un’eccessiva supervisione governativa rallenterebbe l’innovazione rispetto alla Cina. I dubbiosi sul nuovo corso fanno pure riferimento alla posizione del vicepresidente Vance espressa l’anno scorso in un convegno sull’IA a Parigi. Rivolgendosi ai funzionari del settore e del governo, aveva sottolineato che “un’eccessiva regolamentazione potrebbe stroncare un settore in rapida trasformazione proprio nel momento in cui sta decollando”. E, addirittura: “Il futuro dell’IA non si conquisterà preoccupandosi eccessivamente della sicurezza”.

Accordi del Pentagono sull’IA per le reti classificate

Mentre è in corso il dibattito di cui abbiamo dato conto, il Dipartimento della Guerra (già della Difesa) ha annunciato la stipula di accordi con 8 aziende operanti nel settore dell’IA: SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services e Oracle, quest’ultima aggiunta dopo rispetto alle prime sette. Esse sono chiamate ad “implementare le loro capacità avanzate di IA sulle reti classificate del Dipartimento per un utilizzo operativo lecito”. Il particolare che salta immediatamente agli occhi è l’assenza di Anthropic.

Questa è la naturale conseguenza delle divergenze col Pentagono sull’utilizzo dei suoi prodotti per sorveglianza di massa e armi autonome, sfociata nell’inserimento della società dei fratelli Dario e Daniela Amodei nella supply-chain risk. Della questione se ne stanno ora occupando i giudici. Tornando agli accordi, essi “accelerano la trasformazione delle forze armate statunitensi in una forza combattente incentrata sull’IA”. In tal modo sarà accresciuta la capacità dei militari USA di mantenere la superiorità decisionale in tutti gli ambiti della guerra.

Le funzionalità IA saranno usate nelle reti classificate di livello 6 (IL6) e livello 7 (IL7) (IL6 è un livello elevato per i sistemi di dati e informazioni all’interno del Dipartimento della Difesa. Viene utilizzato per i sistemi che contengono dati considerati critici per la sicurezza nazionale e che richiedono la massima protezione contro accessi o manipolazioni non autorizzati. IL7 è la classificazione di sicurezza più rigorosa per gli ambienti di cloud computing, progettata per gestire informazioni top secret, altamente sensibili o di importanza critica per la sicurezza nazionale).

L’utilizzo dell’IA, secondo il dipartimento, consentirà nuove funzionalità “nei suoi tre pilastri fondamentali: operazioni belliche, intelligence e gestione operativa”. Dal comunicato del dipartimento guidato da Pete Hegseth, si evince come la vicenda Anthropic abbia inciso sulla scelta, ma anche la sintonia totale tra governo e aziende di IA messe sotto contratto: “Il Dipartimento continuerà a costruire un’architettura che impedisca la dipendenza da un singolo fornitore di IA e garantisca flessibilità a lungo termine per le Forze Congiunte… Il Dipartimento della Guerra e questi partner strategici condividono la convinzione che la leadership americana nell’IA sia indispensabile per la sicurezza nazionale”. La chiosa è molto americana: l’IA servirà a rafforzare “il nostro Arsenale della Libertà”.

Non solo gli USA puntano sull’IA in ambito militare

Durante una parata militare a Pechino, mesi fa, si sono visti diversi modelli di droni in grado di volare autonomamente a fianco di caccia. Secondo funzionari della difesa e dell’intelligence statunitensi, il programma per i droni da combattimento USA senza pilota era in ritardo rispetto a quello cinese e anche rispetto a quello russo. La risposta è arrivata poco tempo dopo, quando Anduril, una start-up di tecnologia per la difesa, ha iniziato la produzione di droni autonomi con intelligenza artificiale, apparentemente simili a quelli della Cina.

La dimostrazione di forza militare cinese e la contromossa statunitense si inseriscono in una crescente corsa globale agli armamenti incentrata su armi e sistemi di difesa autonomi basati sull’IA. Questa tecnologia è progettata per funzionare senza o con ridotto supporto umano quando decide se colpire un bersaglio in movimento o difendersi da un attacco.

Queste armi includono droni in grado di identificare e colpire obiettivi senza comando umano, aerei da combattimento a pilotaggio automatico che coordinano attacchi a velocità e altitudini raggiungibili solo da pochi piloti, sistemi centralizzati gestiti dall’IA che analizzano le informazioni per raccomandare rapidamente obiettivi per gli attacchi aerei.

Armi autonome, la corsa tra USA, Cina, Russia e altri Paesi

La corsa annovera tra i concorrenti non solo USA e Cina, ma anche Russia e Ucraina. India, Israele, Iran e altri Paesi stanno investendo nell’intelligenza artificiale in ambito militare, mentre Francia, Germania, Gran Bretagna e Polonia si stanno riarmando sollecitati dalle sparate di Trump sulla NATO.

Secondo Palmer Luckey, fondatore di Anduril, Russia, Cina e Stati Uniti stanno sviluppando armi basate sull’IA a scopo di deterrenza e per la (!!!!) “distruzione mutua assicurata”. L’escalation è stata paragonata agli albori dell’era nucleare, quando il potere distruttivo della bomba atomica costrinse le grandi potenze a una situazione di precario e pericoloso equilibrio. Ma c’è una bella differenza: le implicazioni delle armi nucleari sono ben note, le capacità militari dell’IA stanno solo ora iniziando a essere conosciute.

A detta degli esperti, questa tecnologia, che non ha bisogno di fermarsi, mangiare, bere o dormire, è destinata a rivoluzionare la guerra rendendo le battaglie più rapide e imprevedibili. Cina e Russia stanno sperimentando l’utilizzo dell’IA per prendere decisioni sul campo di battaglia in autonomia, secondo fonti USA. La Cina sta sviluppando sistemi per decine di droni autonomi in grado di coordinare gli attacchi senza intervento umano, mentre la Russia sta costruendo i droni Lancet, capaci di sorvolare una zona e individuare autonomamente i bersagli.

Il quadro complessivo è reso maggiormente comprensibile leggendo dichiarazioni di Putin del 2017 (chiunque avesse primeggiato nell’intelligenza artificiale “sarebbe diventato il dominatore del mondo”) e di Xi Jinping nel 2024 (la tecnologia sarebbe stata il “principale campo di battaglia” della competizione geopolitica).

Sistemi autonomi e investimenti militari nell’intelligenza artificiale

In questo quadro si inseriscono le iniziative e le dichiarazioni del segretario alla guerra USA, Pete Hegseth. Il Pentagono ha richiesto oltre 13 miliardi di dollari per i sistemi autonomi nel suo ultimo bilancio, e la cifra spesa nell’ultimo decennio, comunque di molti miliardi, è difficile da quantificare perché i finanziamenti sono stati distribuiti su molti programmi.

La Cina ha utilizzato incentivi finanziari per stimolare l’industria privata a sviluppare capacità di intelligenza artificiale. La Russia, invece, ha investito in programmi relativi a droni e sistemi autonomi, sfruttando la guerra in Ucraina per testarli e perfezionarli sul campo di battaglia. Liu Pengyu, portavoce dell’ambasciata cinese a Washington, ha dichiarato che la Cina ha proposto quadri normativi internazionali per la regolamentazione dell’intelligenza artificiale in ambito militare e ha auspicato “un atteggiamento prudente e responsabile”.

Come abbiamo visto, le dinamiche possono ricordare la Guerra Fredda, ma gli esperti avvertono che l’era dell’IA è diversa. Le startup e gli investitori ora svolgono un ruolo importante anche in ambito militare, al pari di università e governi. La tecnologia dell’IA si sta diffondendo sempre di più, con una spietata corsa all’innovazione e senza un punto di arrivo ben definito. Le questioni etiche relative all’affidamento di decisioni di vita o di morte alle macchine vengono messe in secondo piano dalla corsa alla costruzione.

L’unico accordo importante sulle armi basate sull’intelligenza artificiale tra Cina e Stati Uniti è stato raggiunto nel 2024, un impegno non vincolante a mantenere il controllo umano sulla decisione di utilizzare armi nucleari. Altri Paesi, come la Russia, non hanno preso alcun impegno.

Ma già nel 2016, nel sud della Cina, un fornitore ha fatto volare insieme 67 droni. Un filmato li mostrava distruggere addirittura un lanciamissili. Nel 2014, i russi si erano posti l’obiettivo di rendere autonomo il 30% della propria potenza di combattimento entro il 2025. Nel 2018, l’esercito russo ha testato un veicolo armato senza pilota in Siria. Sebbene il carro armato non abbia avuto successo, perdendo il segnale e mancando i bersagli, l’episodio è indicativo delle risalenti ambizioni di Mosca.

Dal Progetto Maven a Palantir, il ruolo della Silicon Valley

Negli USA, negli anni scorsi si pose un problema. L’esercito stava raccogliendo una quantità di dati talmente elevata – filmati di droni, immagini satellitari, segnali intercettati – che nessuno era in grado di dar loro un senso compiuto. Nel 2017 è stato creato il Progetto Maven per integrare l’IA nei sistemi militari. Uno degli obiettivi era collaborare con la Silicon Valley per sviluppare un software in grado di elaborare rapidamente immagini, come i filmati dei droni, a fini di intelligence.

Il progetto Maven, ora una piattaforma Palantir, ha svolto un ruolo nella guerra con l’Iran. Quando la notizia del Progetto Maven si diffuse all’interno di Google, i dipendenti protestarono, affermando che un’azienda che aveva promesso di “non essere malvagia” non avrebbe dovuto contribuire a identificare i bersagli per gli attacchi dei droni. Google alla fine si ritirò dal progetto.

Ma questi scrupoli non se li è fatti, e non se li fa certamente, Peter Thiel. Nel 2019 la sua Palantir ha acquisito Maven. Anduril, che abbiamo già incontrato sopra, fornisce al governo federale torri di sensori basate sull’intelligenza artificiale lungo il confine meridionale degli Stati Uniti.

In Cina, Pechino ha spinto le aziende tecnologiche commerciali a collaborare con la Difesa nell’ambito di una strategia denominata “fusione civile-militare”. Le imprese private sono state coinvolte in appalti militari, ricerche congiunte e altre attività con le istituzioni della Difesa. Le aziende che sviluppano droni e imbarcazioni senza equipaggio hanno riscontrato una crescente domanda militare per le loro tecnologie.

Ucraina, Iran e Cina: l’IA militare diventa operativa

L’invasione russa dell’Ucraina nel 2022 ha trasformato la teoria in realtà. In inferiorità numerica, di armamenti e risorse, l’Ucraina ha resistito grazie a un arsenale improvvisato di tecnologia a basso costo. Droni amatoriali sono stati utilizzati per attaccare le posizioni russe in prima linea, diventando col tempo più letali dell’artiglieria e, in alcuni casi, acquisendo capacità autonome. Imbarcazioni telecomandate hanno tenuto impegnata la flotta russa del Mar Nero.

Anche la Russia si è adattata. Il suo drone Lancet, inizialmente pilotato da esseri umani, ha integrato funzionalità di puntamento autonomo. Negli ultimi mesi, l’Ucraina ha iniziato a condividere i dati provenienti dai campi di battaglia con Palantir e altre aziende, affinché i sistemi di intelligenza artificiale possano imparare a combattere meglio.

In Europa, dove i governi mirano a ridurre la dipendenza dall’esercito americano, la guerra in Ucraina ha avuto una forte risonanza. Germania, Francia, Italia, Gran Bretagna e Polonia hanno annunciato lo sviluppo di un sistema di difesa aerea congiunto per proteggersi dai droni.

Anche la Cina ha fatto progressi. Norinco, uno dei principali produttori di armamenti, ha presentato diverse armi dotate di intelligenza artificiale. Uno dei suoi sistemi ha mostrato un’intera brigata, con veicoli blindati e droni, controllati e gestiti dall’IA. Un altro velivolo è un drone a reazione da 16 tonnellate in grado di rilasciare in volo decine di droni più piccoli.

Una settimana dopo l’attacco USA-Israele all’Iran, un alto funzionario del Pentagono ha offerto in un evento streaming uno spaccato di come si presenta la guerra computerizzata. Un’immagine satellitare mostrava un magazzino. Con un clic del mouse, un agente ha selezionato in tempo reale una fila di camion, parcheggiati all’esterno, da colpire. In pochi secondi, il software di IA ha suggerito un’arma, calcolato il fabbisogno di carburante e munizioni, valutato i costi. Poi è partito l’attacco.

Si trattava della versione moderna del Progetto Maven, gestito da Palantir e basato su un’intelligenza artificiale commerciale. Il sistema analizzava informazioni provenienti da diverse fonti, generava elenchi di obiettivi classificati per priorità e raccomandava armi, eliminando il lasso di tempo tra l’identificazione di un obiettivo e la sua distruzione. Integrato con una versione militare di Claude di Anthropic, Maven ha contribuito a generare migliaia di obiettivi nelle prime settimane della campagna contro l’Iran.

Cameron Stanley, responsabile per l’intelligenza artificiale e il digitale del Dipartimento della Guerra USA, ha affermato entusiasta che “l’intervento umano si riduceva a “clic sinistro, clic destro, clic sinistro”. Emelia Probasco, ricercatrice della Georgetown University, ha espresso il dubbio che le affermazioni sulle capacità di Maven potrebbero essere esagerate, e che gran parte del vantaggio americano potrebbe essere stato determinato dalla mole di dati e dalle competenze delle persone.

La Probasco ha anche scoperto che la Cina stava cercando di replicare il Joint Fires Network. Si tratta di un programma americano creato per collegare sensori e armi a livello globale, in modo che un drone da una parte del mondo possa coordinare un attacco dall’altra.

Deterrenza, escalation e rischi delle armi basate sull’IA

Negli USA, il clima che si respira con riferimento alla guerra e all’utilizzo dell’IA in quest’ambito è reso plasticamente da un episodio (oltre alla cacciata di Anthropic per voler limitare l’uso della sua tecnologia per le armi automatizzate). Alla Hill & Valley Forum, una conferenza annuale fondata per creare un ponte tra la Silicon Valley e il governo, dirigenti del settore tecnologico, investitori e funzionari governativi hanno applaudito tantissimo i relatori che chiedevano alle aziende tecnologiche di concedere all’esercito un accesso illimitato all’IA.

Hanno applaudito pure un rappresentante di Anduril quando ha sostenuto che il potenziamento degli armamenti basati sull’IA potesse prevenire guerre di vasta portata. È, come abbiamo visto, la stessa logica della Guerra Fredda. “Anche i conflitti tra superpotenze si attenueranno se si costruiranno infrastrutture in grado di dissuadere efficacemente dalla guerra”.

Ma la deterrenza presuppone la razionalità, mentre le armi basate sull’intelligenza artificiale sono progettate per agire più velocemente della ragione umana. In esercitazioni risalenti al 2020, alcuni ricercatori hanno sperimentato come i sistemi autonomi potrebbero accelerare l’escalation ed erodere il controllo umano, con risultati a dir poco allarmanti.

In uno scenario, un sistema gestito da Stati Uniti e Giappone ha risposto al lancio di un missile dalla Corea del Nord lanciando autonomamente un contrattacco inaspettato. In un rapporto degli analisti della RAND Corporation, organizzazione SSL di ricerca che collabora con le forze armate, c’è la spiegazione di quanto accaduto: “La velocità dei sistemi autonomi ha portato a un’escalation involontaria”.

Il generale Shanahan, che ha contribuito al progetto Maven e ora è ricercatore presso il Center for a New American Security, ha affermato che la corsa che ha contribuito ad avviare gli toglie il sonno, e che i governi devono stabilire confini chiari prima che la tecnologia sfugga al loro controllo. “Esiste il rischio di un’escalation in cui rischiamo di impiegare sistemi non testati, non sicuri e non collaudati, perché ognuno di noi avrà la sensazione che l’altra parte ci stia nascondendo qualcosa”.

Il 27 gennaio scorso, le lancette dell’Orologio dell’Apocalisse sono state spostate a 85 secondi dalla mezzanotte, il punto più vicino alla catastrofe globale mai registrato. I rischi? Tensioni nucleari, cambiamento climatico e intelligenza artificiale. Le lancette possono essere spostate all’indietro? Non ci resta che sperare di avere la necessità di verificarlo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x