AI

Intelligenza artificiale in guerra: cosa fa già e cosa potrà fare (se non la fermiamo)



Indirizzo copiato

La guerra in Iran mostra come l’ia militare sia già dentro i workflow operativi. Dalle immagini al comando e controllo fino alla logistica emergono benefici concreti ma anche limiti tecnici e giuridici che tengono l’uomo al centro dell’uso della forza

Pubblicato il 9 mar 2026

Alessandro Longo

Direttore agendadigitale.eu



Intelligenza artificiale guerra

La guerra in Iran è il primo banco di prova del 2026 per l’ia militare usata in un conflitto tra Stati. Dall’inizio dell’offensiva del 28 febbraio, vediamo strumenti già inseriti nei workflow operativi: analisi automatizzata delle immagini, supporto al targeting, pianificazione, cyber defense, logistica. Il caso esplode mentre il Pentagono riorganizza la propria filiera software attorno a Maven e ai modelli generativi, con ricadute dirette per fornitori come Palantir, OpenAI e Anthropic.

Utile tracciare un confine. Dove l’ia è già utile e magari fondamentale; dove resta solo assistenza, e dove invece è ancora inutilizzabile per limiti tecnici, giuridici e politici.

Indice degli argomenti

Dove l’ia militare entra nei workflow e nello stack industriale

Mettiamo le mani avanti; il robot che decide da solo chi uccidere ancora (per fortuna) è fantascienza. L’uso reale dell’ia è più prosaico: classificare immagini, fondere dati da sensori diversi, suggerire priorità operative, aiutare i comandanti a pianificare, far arrivare rifornimenti dove serviranno domani invece che dove servivano ieri.

Dati, integrazione e procurement come problema industriale

La guerra, con l’ia, un po’ come già l’economia, sta diventando un problema industriale di dati, software, integrazione e procurement. Le forze armate non stanno comprando “una super-ai” universale: stanno comprando stack di prodotti, modelli, middleware, cloud classificati, sensori, workflow e interfacce uomo-macchina. Le aziende che contano in ambito militare, oltre ai produttori di droni, missili e altro hardware, sono sempre più anche i fornitori di piattaforme dati, modelli linguistici, sistemi di geoint, cyber defense e logistica predittiva.

Immagini e geoint: dalla detection alla compressione della kill chain

Tra gli ambiti più maturi c’è l’analisi di immagini e video. La National Geospatial-Intelligence Agency spiega che Maven integra computer vision e AI nei workflow analitici militari per rilevare, identificare, caratterizzare ed estrarre oggetti e caratteristiche da immagini e video. L’obiettivo non è sostituire l’analista, ma ridurre il tempo necessario a trovare un oggetto, segnalare attività anomale quasi in tempo reale e scalare l’analisi su quantità di dati che una squadra umana non riuscirebbe a processare. La stessa NGA dice che Maven produce grandi volumi di detection, ha generato milioni di label e alimenta altre piattaforme operative.

Kill chain: compressione nelle fasi iniziali

Questo è già uso operativo dell’ia sul campo di battaglia: comprimere la kill chain nelle sue fasi iniziali. In pratica, l’algoritmo aiuta a cercare in immagini satellitari, video full-motion, infrarosso, radar e altri feed i mezzi, le strutture, i movimenti e le anomalie che meritano attenzione. L’essere umano resta, almeno formalmente, nel passaggio che distingue l’oggetto trovato dal target legittimo.

Shadow fleet e selezione delle anomalie

La stessa logica viene ormai applicata anche fuori dal campo di battaglia in senso stretto. Nei paesi Nato, ha spiegato l’ammiraglio francese Pierre Vandier, responsabile dell’innovazione digitale dell’Alleanza, sistemi di ia vengono usati per seguire la cosiddetta shadow fleet russa: milioni di miglia quadrate scandagliate più volte al giorno per individuare petroliere sospettate di trasferimenti illegali di carburante in mare. Le immagini vengono poi collegate all’identità delle navi per un monitoraggio più ravvicinato e per eventuali interventi. È un buon esempio di come la computer vision militare serva non solo a “trovare bersagli”, ma prima ancora a selezionare anomalie rilevanti dentro una massa ingestibile di traffico, immagini e segnali.

È una differenza meno spettacolare di quella che si vede nei film, ma è quella che cambia davvero tempi e scala delle operazioni.

Targeting e ia militare: point of interest, lawful target e controllo umano

L’analisi degli obiettivi è il punto più sensibile. Qui l’ia viene usata per tre compiti distinti. Il primo è il riconoscimento: trovare mezzi, lanciamissili, depositi, piste, postazioni, pattern di attività. Il secondo è la correlazione: collegare quell’oggetto con segnali provenienti da altre fonti, per esempio geolocalizzazione, intercettazioni, metadati, movimenti precedenti. Il terzo è la priorità: suggerire quali elementi meritano attenzione prima di altri in base a rischio, valore operativo, probabilità di conferma e tempo disponibile.

Query, alert e collegamenti in tempo quasi reale

Vediamo meglio che cosa significhi davvero “supporto al targeting”. Come accade ormai anche con l’ia di uso civile, l’operatore può scavare dentro i risultati con query molto specifiche: per esempio chiedere al sistema di individuare tutti i lanciatori missilistici rilevati vicino a un ospedale, oppure impostare alert automatici del tipo “avvisami ogni volta che qualcuno scatta una foto vicino a questa base militare”. Il valore operativo non sta solo nel riconoscere un oggetto, ma nel collegarlo in tempo quasi reale a pattern, luoghi, comportamenti e soglie di rischio che altrimenti richiederebbero molte più ore di lavoro umano.

Il confine giuridico tra interesse e bersaglio

Qui però serve precisione terminologica. L’ia può aiutare a individuare un “point of interest”. Non equivale, da sola, a stabilire un “lawful target”. Il passaggio giuridico e operativo che separa le due cose richiede contesto, proporzionalità, distinzione tra civile e combattente, valutazione del danno collaterale e regole d’ingaggio. Sono elementi che un sistema statistico può assistere, ma non chiudere in modo affidabile e autonomo. Per questo il DoD, nella direttiva 3000.09 aggiornata nel 2023, richiede “appropriate levels of human judgment over the use of force” e collega l’uso di questi sistemi a test, verifica, sicurezza, cyber-resilienza e conformità al diritto dei conflitti armati.

Supporto cognitivo e bias negli staff

Un ulteriore punto emerso nella letteratura recente è che l’ia può essere usata anche per ridurre alcuni bias umani nei processi di intelligence preparation of the battlefield. Un report RAND del 2024 non sostiene che l’ia risolva il problema, ma che possa aiutare gli staff a costruire una comprensione più completa dell’ambiente operativo e a evidenziare alternative che un processo umano può trascurare. Anche qui, però, il valore è di supporto cognitivo, non di sostituzione del giudizio.

Scarlet Dragon e riduzione drastica del lavoro manuale

Un esempio spesso citato negli ambienti militari americani arriva dalla serie di esercitazioni Scarlet Dragon. Secondo Emelia Probasco, senior fellow del Center for Security and Emerging Technology di Georgetown, il 18th Airborne Corps dell’esercito statunitense, usando software sviluppato con Palantir, ha raggiunto in quelle prove un livello di efficienza nel targeting paragonato ai migliori precedenti operativi americani in Iraq, ma con un organico molto più ridotto: circa 20 persone invece di oltre 2.000. Il punto non è che l’algoritmo “decida”, ma che restringa il campo, ordini le priorità e riduca drasticamente il lavoro manuale necessario per arrivare a una lista di obiettivi da verificare.

Droni in ambienti disturbati: autonomia parziale e resilienza al jamming

Un secondo ambito reale è l’autonomia parziale di droni e munizioni, soprattutto per navigazione, inseguimento e resilienza al jamming. Sul terreno ucraino, che è oggi il laboratorio più osservato, l’ia viene usata per mantenere il lock visivo su un target, compensare la perdita del collegamento radio, correggere la traiettoria e proseguire la missione in ambienti dove gps e comunicazioni vengono disturbati. Reuters ha documentato nel novembre 2025 l’uso crescente di sistemi di questo tipo da parte di operatori ucraini, insieme al fatto che Kiev continua a sostenere che l’autorizzazione allo strike resti umana.

Il nodo del controllo umano significativo

Questa è una forma di autonomia militare molto diversa dall’idea di “killer robot” del dibattito pubblico. Il software non formula una strategia generale; esegue meglio una parte molto circoscritta del compito: seguire, correggere, arrivare. È anche uno dei motivi per cui la distinzione regolatoria tra sistemi assistiti, semi-autonomi e pienamente autonomi è così difficile da tracciare. L’ICRC insiste proprio su questo punto: quando un’arma seleziona e applica forza su target senza intervento umano nel momento decisivo, il nodo diventa il controllo umano significativo e la compatibilità con il diritto internazionale umanitario.

Comando, controllo e pianificazione: l’ia come copilota degli staff

La parte meno visibile e forse più trasformativa riguarda il comando e controllo. Il DoD e i partner industriali stanno spingendo su sistemi che sintetizzano intelligence, generano riassunti, propongono corsi d’azione, assemblano bozze di ordini operativi e presentano raccomandazioni verificabili. Il progetto Thunderforge va esattamente in questa direzione: usare modelli generativi per aiutare i comandi a pianificare movimenti di navi, aerei e altre risorse, con l’idea dichiarata di supportare e non sostituire la decisione umana.

Tempi, effetti a catena e coreografia operativa

Il vantaggio qui è soprattutto nei tempi. Prima dell’adozione di questi strumenti, una volta definita l’ossatura di un’operazione, comandanti e specialisti costruivano piani di missione in esercizi che potevano durare settimane, tra documenti, revisioni e aggiornamenti incrociati. Oggi i vertici militari sostengono che l’ia possa comprimere quella stessa attività in pochi giorni. Il motivo è semplice: ogni modifica nella pianificazione produce effetti a catena. Se una nuova informazione sposta un obiettivo più lontano, possono cambiare piattaforme, armi, equipaggi, rotte di volo e consumi di carburante. Fino a poco tempo fa l’aggiornamento di tutte queste variabili era lento e in parte soggettivo; ora i modelli possono ricalcolare quasi istantaneamente come ogni variazione si propaghi dentro la coreografia operativa.

Barriere all’ingresso, ambienti classificati e lock-in

Per il business questo è il segmento con la barriera all’ingresso più alta e il lock-in più forte. Integrare un llm con dati classificati, regole di sicurezza, interfacce auditabili, workflow militari, sistemi legacy e requisiti di accredito molto severi. La competizione non è soltanto tra modelli, ma tra piattaforme in grado di stare dentro ambienti mission-critical. È il motivo per cui procurement, cloud sovrani, certificazioni e supply chain stanno diventando centrali quanto l’algoritmo.

Logistica: l’area dove l’ia può dare il ritorno più immediato

Se si guarda ai benefici misurabili, la logistica è forse il caso d’uso più solido. L’U.S. Army descrive la predictive logistics come il passaggio da un modello reattivo a uno proattivo: gli algoritmi analizzano dati storici, trend correnti e piani operativi per prevedere domanda di munizioni, carburante, pezzi di ricambio e servizi; monitorano salute dei mezzi per anticipare guasti; ottimizzano il posizionamento delle scorte e le rotte di distribuzione in base a minacce e interruzioni. In altri termini, l’ia non serve solo a colpire meglio, ma a non restare senza carburante, ruote, batterie o missili nel momento sbagliato.

Teatro indo-pacifico e logistica sotto attacco

Il punto è ancora più netto nei teatri dove la logistica è bersaglio. In un paper pubblicato dall’Army nel gennaio 2026 sul teatro indo-pacifico, l’ia viene descritta come uno strumento per prevedere consumi, preposizionare rifornimenti, usare veicoli autonomi per il resupply in aree negate, ottimizzare le rotte con dati su minacce, terreno e meteo, e coordinare persino operazioni over-the-shore quando porti e infrastrutture vengono degradati o colpiti. È un uso meno controverso del targeting, ma strategicamente decisivo: una forza che vede tutto e non riesce a rifornirsi perde comunque.

Domanda industriale: sensori, pipeline e cyber-protezione

Qui c’è anche una lezione industriale. La guerra assistita da ia genera domanda non solo di modelli, ma di sensori, data pipeline, gemelli digitali, manutenzione predittiva, software di demand forecasting, sistemi di orchestrazione e cyber-protezione delle reti logistiche. In altre parole, molti use case militari dell’ia assomigliano a versioni estreme di problemi già noti in manifattura, energia, telecomunicazioni e supply chain.

Guerra elettronica e cyber: dove l’ia aiuta a reagire alla velocità del segnale

Spettro elettromagnetico e contromisure adattive

Nella guerra elettronica l’ia serve soprattutto a leggere più in fretta un ambiente elettromagnetico caotico e a adattarsi. La strategia del DoD sulla superiorità nello spettro elettromagnetico, pubblicata nel 2020, insiste sulla necessità di pianificare e sincronizzare electronic warfare, spectrum management e cyber operations. DARPA, con il programma BLADE, lavora esplicitamente su capacità di contrasto a minacce wireless nuove e dinamiche in ambienti tattici. Qui il valore dell’ia è classificare segnali, riconoscere interferenze, adattare contromisure e mantenere comunicazioni e sensori funzionanti in condizioni avverse.

Cyber: triage, detection e risposta rapida

Nel cyber il quadro è simile: molta automazione, molta triage, poca autonomia piena affidabile. Anche i contratti di frontiera recenti con il DoD mettono tra gli usi ammessi il supporto alla cyber defense proattiva, mentre restano controversi gli impieghi offensivi o quelli che allarghino troppo il perimetro della sorveglianza. Per questo il valore operativo maggiore, oggi, è nella detection di anomalie, nella riduzione dei falsi positivi, nella prioritizzazione degli alert e nella risposta rapida, non in agenti che gestiscano da soli campagne offensive complesse.

Che cosa l’ia non può fare, almeno non in modo affidabile

Il primo limite è tecnico: i sistemi attuali non sono abbastanza robusti, spiegabili e prevedibili da poter selezionare e ingaggiare autonomamente bersagli umani in contesti complessi con affidabilità sufficiente. Lo dicono, con motivazioni diverse, il DoD attraverso i suoi requisiti di test e human judgment, l’ICRC attraverso la richiesta di controllo umano significativo, Anthropic nel suo scontro con il governo Usa e OpenAI nella clausola contrattuale resa pubblica la scorsa settimana.

Limite ambientale: dato sporco e avversario che inganna

Il secondo limite è ambientale. Un modello addestrato bene in laboratorio può degradare rapidamente con fumo, polvere, immagini incomplete, mimetizzazione, decoy, segnali spoofati, sensori danneggiati, disturbo gps, meteo ostile o tattiche inattese dell’avversario. In guerra il dato non è mai pulito e l’avversario lavora attivamente per ingannare il sistema. Per questo il DoD insiste su verification, validation e test realistici anche contro azioni avversarie.

Limite cognitivo: opacità e rischio di escalation

Il terzo limite è cognitivo. I modelli generativi sono utili per sintetizzare, cercare, simulare, redigere e collegare informazioni, ma continuano a soffrire di opacità del ragionamento, errori grossolani (allucinazioni) e difficoltà a distinguere ciò che sanno da ciò che inferiscono. Nel dominio militare, dove una correlazione sbagliata può trasformarsi in un errore letale o in un’escalation, questo limite pesa più che in altri settori. Evidenti a tutti gli esperti quanto ora sarebbe pericoloso spostare il giudizio dagli esseri umani ai sistemi automatici. C’è grave rischio di decisioni sbagliate o escalation non intenzionali.

Trattati, CCW e procurement responsabile

Sul piano normativo non esiste ancora un trattato globale vincolante che disciplini in modo completo l’uso dell’ia in guerra. Il tavolo negoziale più citato resta quello della Convention on Certain Conventional Weapons, ma gli esperti sentiti da Nature e lo stesso ICRC descrivono il processo come lento rispetto alla velocità di adozione tecnologica. SIPRI, nel report del febbraio 2026 sulla responsible procurement of military AI, sposta infatti l’attenzione sul procurement: se gli Stati non riescono a regolare l’esito finale, possono almeno imporre requisiti di responsabilità, audit, testabilità e governance al momento dell’acquisto.

Stati Uniti, Europa e paradosso dell’AI Act

Negli Stati Uniti il vincolo principale non è un divieto assoluto, ma un insieme di policy: direttiva 3000.09, principi etici del DoD, pathway sulla responsible ai, processi di test e revisione legale delle armi. In Europa c’è un paradosso: l’AI Act è il principale testo regolatorio civile sull’ia, ma esclude i sistemi usati esclusivamente per finalità militari, di difesa o sicurezza nazionale. Questo significa che una parte rilevante della governance militare dell’ia resta fuori dal perimetro dell’AI Act e viene rimessa a diritto internazionale umanitario, Stati membri, politiche Nato e regole di procurement.

Palantir: perché è diventata un’infrastruttura, non solo un fornitore

L’azienda americana Palantir in tutto questo è un caso eccezionale. Occupa punto di intersezione tra piattaforma dati, prodotto operativo e contractor militare. Nel maggio 2024 il DoD ha assegnato a Palantir un contratto da 480 milioni di dollari per un prototipo del Maven Smart System, con completamento atteso nel 2029. Nel settembre 2024 l’azienda ha dichiarato che il sistema supporta consapevolezza del battlespace, integrazione globale, force management, contested logistics, joint fires e targeting. In parallelo, Palantir ha vinto anche il contratto dell’U.S. Army per TITAN, la ground station di intelligence e targeting basata su data fusion e ai.

Dorsale, supply chain strategica e dipendenza dai foundation model

La sua forza è fornire la dorsale che fa parlare tra loro fonti diverse, utenti diversi e applicazioni diverse in ambienti classificati. Reuters scrive che Palantir detiene contratti legati a Maven con valore potenziale superiore a 1 miliardo di dollari e che, dopo lo scontro tra Pentagono e Anthropic, deve sostituire Claude e ricostruire parte del software. È una lezione anche per il mercato: nella difesa, la dipendenza da un modello foundation esterno può diventare un rischio di supply chain strategica. Nel lungo periodo può portare a una spinta verso modelli open gestiti dal Governo o a una presa più forte, legale, sui modelli closed di aziende private (come già sembra voler fare il Governo Trump su Anthropic)

Integrazione certificata e moat infrastrutturale

Altra lezione: nella Difesa come nel business, il vantaggio competitivo sta nell’integrazione certificata, nella capacità di distribuire modelli in ambienti ad alta sicurezza, nella governabilità del dato e nell’aderenza ai workflow operativi. Il modello conta, ma il moat vero è l’infrastruttura software che lo rende usabile, auditabile e sostituibile.

Supporto decisionale sì, delega piena della forza no

L’ia è già dentro la guerra quando serve a cercare oggetti, fondere segnali, suggerire priorità, simulare corsi d’azione, pianificare movimenti, proteggere reti, prevedere consumi e instradare convogli. Non è ancora, in modo affidabile e legittimo, il soggetto che decide da solo chi è un bersaglio umano legittimo e quando aprire il fuoco senza controllo umano significativo. Lo stesso si potrebbe dire ancora per molte applicazioni business critiche. Dove però gli agenti dovrebbero assumere il controllo decisionale completo prima, per ovvie differenze regolatorie ed etiche rispetto all’ambito militare.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x