AI, difesa e Big Tech

Perché l’AI sta cambiando il concetto stesso di sicurezza nazionale



Indirizzo copiato

L’intelligenza artificiale entra nel cuore della sicurezza nazionale, tra modelli capaci di individuare vulnerabilità, sistemi d’arma da rendere interoperabili e dipendenza crescente dalle Big Tech. Il confine tra difesa e offesa, pubblico e privato, innovazione e controllo diventa sempre più fragile

Pubblicato il 8 mag 2026

Alessandro Curioni

Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity – Data Protection



Drone,Group,Control,System,,High-tech,Technology,,Military,Technology,,Background,,3d
drone group control system, high-tech technology, military technology, background, 3d rendering, abstraction
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Da tempo si discute di intelligenza artificiale come si tratta di una nuova infrastruttura economica: più produttiva, più efficiente, forse troppo invasiva, comunque destinata ad aumentare la capacità competitiva di chi la possiede. Si tratta di un approccio che ha caratterizzato tutte le tecnologie connesse al digitale.

Tuttavia, nel caso specifico gli Stati si sono accorti con un certo anticipo che il problema non è soltanto industriale, ma geopolitico.

Non conta più solo quanto sia potente il modello, ma chi lo controlla, dentro quale alleanza viene sviluppato, a quali sistemi viene collegato e contro quali avversari può essere orientato.

L’intelligenza artificiale sta diventando una nuova forma di potenza nazionale. Non sostituisce portaerei, satelliti, reti elettriche e sistemi d’arma; li attraversa, li connette, li rende più rapidi o più vulnerabili. Quando, poi, una tecnologia è capace di trovare vulnerabilità, coordinare apparati militari e comprimere i tempi della decisione, smette di essere soltanto innovazione per diventare territorio conteso.

Intelligenza artificiale e sicurezza nazionale, il cambio di fase

Due notizie, apparentemente distanti, raccontano lo stesso cambio di fase. Da un lato la Casa Bianca sta valutando un processo di revisione per i modelli di intelligenza artificiale ritenuti rischiosi sul piano della sicurezza informatica. Il caso è quello di Mythos, un sistema capace di individuare vulnerabilità con un’efficacia tale da renderlo utile per la difesa, ma forse ancora più interessante per chi volesse passare all’attacco.

Dall’altro lato, l’esercito americano chiede ai produttori di sistemi d’arma di aprire le interfacce software dei propri apparati, così da renderli interoperabili e integrabili con nuovi strumenti, compresi quelli basati su intelligenza artificiale. Radar, batterie antimissile, sensori e piattaforme di comando devono parlarsi meglio e più in fretta. L’esigenza è comprensibile: sul campo, un sistema chiuso è spesso un sistema lento. Tuttavia, ogni apertura è anche una soglia, e come tale, prima o poi, deve essere sorvegliata.

Il filo che unisce le due vicende è sottile solo in apparenza. L’AI entra nel cuore della sicurezza nazionale: da una parte come strumento da controllare, dall’altra come tecnologia da integrare nei sistemi militari. Lo Stato prova a mettere ordine proprio mentre scopre di dipendere da soggetti privati che possiedono il sapere necessario. È qui che la questione smette di essere tecnica e diventa politica: quando la potenza passa dal ferro al software, il vero arsenale non è più soltanto nei depositi, ma nei modelli che imparano a leggere il mondo.

Stato, contractor militari e Big Tech

Il secondo elemento riguarda il triangolo che si sta formando tra Stato, contractor militari e grandi corporation tecnologiche. Per decenni la relazione industriale della difesa è stata relativamente chiara, almeno nella sua architettura generale. Da una parte c’era il governo, con le sue esigenze strategiche, le sue procedure, i suoi segreti e il suo potere di acquisto. Dall’altra c’erano i contractor, incaricati di costruire missili, radar, aerei, satelliti, sistemi di comando e tutto quanto serve a trasformare una dottrina militare in oggetti funzionanti. Un rapporto complesso, costoso, spesso opaco, ma fondato su un principio comprensibile: lo Stato ordinava, l’industria della difesa produceva.

Ora in quel rapporto entra un terzo soggetto. Non un fornitore qualsiasi, non l’ennesima azienda chiamata a consegnare una componente, ma chi detiene il sapere necessario a far parlare tra loro i sistemi e, soprattutto, a farli dialogare con l’intelligenza artificiale. Le Big Tech non portano soltanto capacità di calcolo, piattaforme cloud, modelli linguistici o software di integrazione. Portano il codice culturale e tecnico del nuovo ambiente operativo. In altri termini, non vendono soltanto i cacciaviti digitali, ma decidono anche la forma che devono avere le viti.

Questo cambia l’equilibrio. Il contractor tradizionale costruisce il sistema d’arma; la società tecnologica costruisce l’ecosistema nel quale quel sistema dovrà muoversi, comunicare, aggiornarsi e forse decidere più rapidamente e la differenza è enorme. Nel primo caso il fornitore consegna un oggetto, per quanto sofisticatissimo. Nel secondo contribuisce a definire il linguaggio comune tra oggetti diversi e chi stabilisce il linguaggio, in fondo, controlla anche gran parte della conversazione.

Lo Stato si trova così in una posizione curiosa: vuole integrare, accelerare, modernizzare, ma per farlo deve appoggiarsi a soggetti privati che hanno accumulato competenze difficilmente replicabili dentro le strutture pubbliche. Per molti anni la politica ha guardato le grandi piattaforme tecnologiche come si guarda un cavallo molto veloce: lasciamolo correre, purché vinca per noi. Oggi scopre che quel cavallo non corre soltanto nella nostra scuderia, conosce altri fantini, frequenta altri mercati e soprattutto non ama troppo le briglie.

Il punto non è demonizzare le Big Tech, esercizio comodo e spesso sterile. Il punto è riconoscere che la sovranità, quando dipende da infrastrutture cognitive private, cambia natura. Non basta più possedere l’arma, né averne finanziato lo sviluppo. Occorre capire chi governa gli strati software che la rendono utile, interoperabile e aggiornabile, perché nella guerra digitale il confine tra fornitore e partner strategico diventa sottile e, quando scompare, anche la domanda “chi comanda davvero?” smette di essere retorica.

Disclosure e segreto militare nell’ecosistema AI

A questo triangolo si aggancia il tema forse più spinoso: la disclosure. Per rendere interoperabili sistemi d’arma diversi, per collegarli a piattaforme di comando evolute, per consentire a strumenti di intelligenza artificiale di analizzare, correlare e suggerire azioni, bisogna aprire qualcosa. Bisogna mostrare interfacce, descrivere formati, spiegare flussi, fornire dati, rendere leggibili architetture che per loro natura erano nate per essere opache. La parola “integrazione” suona rassicurante, quasi amministrativa, ma in realtà significa che un pezzo di segreto deve uscire dalla stanza blindata. Nel caso il problema non è soltanto chi vede quelle informazioni, ma cosa diventano una volta viste. Nel mondo tradizionale un documento classificato resta un documento: può essere copiato, rubato, fotografato, ma conserva una sua forma. Nell’ecosistema dell’intelligenza artificiale l’informazione può trasformarsi in addestramento, parametro, correlazione, inferenza; quindi smettere di essere un documento e diventare una competenza incorporata in un modello. A quel punto non basta più chiedersi dove sia archiviato il segreto, quanto piuttosto in che cosa si sia trasformato.

Il rischio è particolarmente rilevante perché molte delle tecnologie coinvolte non nascono in un recinto esclusivamente militare. Le grandi piattaforme di AI hanno usi civili, clienti commerciali, infrastrutture globali, catene di fornitura complesse, personale distribuito, partnership mutevoli. Anche quando esistono ambienti segregati, cloud classificati, controlli di accesso e procedure rigorose, rimane un dato politico prima ancora che tecnico: una quota crescente di conoscenza strategica passa attraverso soggetti il cui baricentro non coincide necessariamente con quello dello Stato.

In apparenza si tratta di proteggere informazioni militari; in realtà si tratta di tutelare il significato operativo di quelle informazioni. Un’interfaccia software può raccontare molto più di quanto sembri: dice come un sistema riceve ordini, quali dati considera affidabili, con quale velocità reagisce, quali dipendenze ha, dove potrebbe incepparsi. È il vecchio libretto di istruzioni, ma scritto per chi sa leggere tra le righe, un’arte in cui l’intelligenza artificiale, per definizione, tende a eccellere.

La questione diventa allora semplice da formulare e difficilissima da risolvere: quanta parte del funzionamento profondo dei sistemi d’arma gli stati sono disposti a condividere per renderli più efficienti? Con quali garanzie possono evitare che quella conoscenza, una volta assorbita da piattaforme riutilizzabili anche altrove, diventi un patrimonio meno controllabile di quanto immaginino? Perché il segreto militare, quando entra in un modello, assomiglia a una goccia d’inchiostro versata nell’acqua: si può sapere da dove è caduta, ma non sempre si può dire fin dove arriverà.

Il dual use dell’intelligenza artificiale

Il quarto passaggio è quello del dual use, espressione elegante con cui spesso proviamo a rendere presentabile una verità scomoda: alcune tecnologie sono utili tanto a chi protegge quanto a chi aggredisce. Un martello può piantare un chiodo o rompere una vetrina. La differenza, come sempre, non sta nell’oggetto ma nella mano che lo impugna. Con l’intelligenza artificiale applicata alla ricerca di vulnerabilità, però, la questione diventa più insidiosa, perché la mano potrebbe essere molto lontana, molto veloce e magari neppure facilmente identificabile. Un modello capace di individuare falle nei sistemi informatici può essere presentato come uno strumento difensivo. In fondo, se scopro una vulnerabilità prima dei criminali, posso correggerla. Il ragionamento fila, almeno sulla carta. Tra trovare una vulnerabilità e costruire un exploit che la sfrutti possono passare pochi giorni, talvolta meno. Viceversa, tra individuare una vulnerabilità e distribuire una patch efficace su tutti i sistemi interessati possono passare mesi, qualche volta anni. In metafora: l’attaccante deve infilare un cacciavite nella serratura giusta. Il difensore deve cambiare le serrature di un intero condominio, convincendo tutti gli inquilini ad aprire la porta al fabbro.

Questa è l’asimmetria vera. Non riguarda soltanto la potenza dello strumento, ma la diversa velocità con cui offesa e difesa possono trasformare la conoscenza in azione. Chi attacca può selezionare il bersaglio, scegliere il momento, usare la falla finché resta tale e poi sparire. Chi difende deve verificare, sviluppare, testare, distribuire, aggiornare, documentare, evitare che la correzione rompa sistemi essenziali. Nelle infrastrutture critiche, nei sistemi industriali, negli apparati militari e in tutto ciò che non può permettersi di spegnersi per “fare un aggiornamento”, questa lentezza non è sciatteria, ma soltanto il prezzo della realtà.

Per questo oggetti come Mythos sembrano collocarsi in una zona grigia ancora più problematica del normale dual use. Formalmente possono servire alla difesa, ma praticamente offrono un vantaggio immediato a chi vuole passare all’attacco. Il tema non è bloccare la ricerca delle vulnerabilità; sarebbe assurdo, oltre che inutile. Piuttosto si tratta di governare la velocità con cui quella capacità viene resa disponibile, a chi viene concessa, con quali limiti, sotto quale supervisione e con quali obblighi di responsabilità. Quando l’intelligenza artificiale accelera la scoperta delle debolezze rischia anche di allargare lo scarto tra chi vede il buco e chi deve riparare il muro. In questo senso il dual use diventa quasi un eufemismo. Non siamo davanti a una tecnologia neutra che può prendere due strade equivalenti. Siamo al cospetto di uno strumento che, per la struttura del mondo in cui opera, corre più facilmente e in discesa verso l’uso offensivo e molto più faticosamente e in salita verso la protezione collettiva.

La sovranità quando il potere diventa software

La conclusione è che l’intelligenza artificiale sta costringendo lo Stato a misurarsi con una contraddizione che ha coltivato per anni. Da un lato ha lasciato correre le grandi piattaforme tecnologiche perché andavano nella direzione giusta: innovazione, crescita, superiorità industriale, capacità computazionale, influenza globale. Dall’altro oggi scopre che quella libertà ha prodotto soggetti privati tanto necessari quanto difficili da controllare. Mettere il guinzaglio a chi possiede il know-how non è impossibile, ma richiede una forza politica, tecnica e culturale che non si improvvisa con un ordine esecutivo.

Il punto non è scegliere tra apertura e chiusura, tra innovazione e sicurezza, tra mercato e Stato. Sarebbe troppo comodo, quindi quasi certamente sbagliato. Il punto è accettare che ogni integrazione ha un costo, ogni automazione trasferisce potere, ogni modello abbastanza capace da difenderci è anche capace da metterci in pericolo. La vecchia distinzione tra civile e militare, pubblico e privato, difesa e offesa, inizia a somigliare a una mappa disegnata prima dell’alluvione: utile per capire dove stavano le strade, ma non più per decidere dove passare adesso.

Servono regole, ma soprattutto servono competenze pubbliche in grado di capire ciò che si vuole regolare. Senza questa condizione, la supervisione rischia di diventare una cerimonia: moduli, comitati, dichiarazioni solenni e poca capacità reale di incidere. Per governare l’intelligenza artificiale applicata alla sicurezza nazionale non basta convocare chi la produce. Bisogna essere in grado di contraddirlo.

La vicenda di Mythos e quella dei sistemi d’arma da rendere interoperabili raccontano dunque lo stesso futuro: un mondo in cui la potenza non sta più soltanto nei missili, nei radar o nei data center, ma nelle relazioni invisibili che li collegano. E proprio lì, in quello spazio senza parate e senza bandiere, si giocherà una parte decisiva della sovranità, perché il potere, quando diventa software semplicemente si aggiorna.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x