Il 28 febbraio 2026 un missile Tomahawk statunitense ha colpito la scuola elementare Shajarah Tayyebeh nella città iraniana di Minab. Secondo un’indagine preliminare del Pentagono citata dal New York Times l’attacco non è stato intenzionale: il bersaglio era una base navale dei Pasdaran situata accanto all’edificio. Il problema è nato da dati di targeting obsoleti forniti dalla Defense Intelligence Agency e utilizzati dal Central Command per generare le coordinate del missile. I dati hanno confuso la scuola con l’obiettivo militare adiacente.
Il bilancio indicato dalle autorità iraniane è di almeno 175 morti, in gran parte bambini. Il caso è utile per mostrare una questione spesso sottovalutata. Anche le armi più precise restano dipendenti dalla qualità dei dati e dai processi che portano alla selezione del bersaglio. E l’AI militare non ci aiuta a risolvere il problema. Un’AI che uccide (o aiuta a uccidere), con dati sbagliati o processi erronei, rischia di essere solo più veloce e letale nell’uccidere innocenti.
Motivi che supportano i paletti posti da Anthropic al Governo Usa.
Indice degli argomenti
Come un errore di targeting può colpire con precisione
Precisione delle armi e degli algoritmi non significa precisione delle informazioni, insomma. Garbage in garbage out, come nei sistemi AI aziendali e nei modelli llm, solo che in questo caso muoiono bambini.
Il Tomahawk è considerato uno dei sistemi d’arma più accurati nell’arsenale statunitense. Il missile usa navigazione satellitare, sistemi di guida inerziale e mappe digitali del terreno per colpire coordinate specifiche con un margine di errore molto ridotto.
Questo livello di precisione però riguarda la fase finale dell’attacco: arrivare esattamente nel punto indicato.
Se le coordinate di partenza sono sbagliate o obsolete, l’arma colpisce comunque con precisione. Solo che colpisce il bersaglio sbagliato.
Secondo le informazioni citate nell’indagine preliminare, il database di targeting indicava l’edificio come parte della base militare iraniana. In realtà la struttura era stata convertita in scuola anni prima. Analisi satellitari citate dal New York Times mostrano che tra il 2013 e il 2016 l’area era stata trasformata: torri di guardia rimosse, ingressi civili aperti, campi sportivi e aree gioco costruite.
Il sistema di targeting, però, continuava a classificare l’edificio come obiettivo militare.
I database che decidono il bersaglio
Il caso richiama un errore storico dell’intelligence americana. Nel 1999, durante la guerra in Kosovo, un bombardamento della NATO colpì l’ambasciata cinese a Belgrado. L’indagine stabilì che la CIA aveva fornito coordinate sbagliate basate su mappe obsolete, identificando l’edificio come sede di un’agenzia militare jugoslava.
All’epoca il direttore della CIA George Tenet spiegò al Congresso che la manutenzione dei database di intelligence era diventata sempre più difficile con personale e risorse limitate.
A distanza di quasi trent’anni, il problema resta simile: la difficoltà non è solo raccogliere informazioni, ma mantenerle aggiornate e verificabili.
Dove l’errore di targeting incontra l’intelligenza artificiale
Negli ultimi anni le agenzie militari statunitensi hanno introdotto sistemi di analisi automatica per gestire la massa crescente di dati provenienti da satelliti, droni e sensori. Uno dei progetti più noti è Maven Smart System, sviluppato con il supporto del Pentagono per analizzare immagini e individuare oggetti o strutture rilevanti.
Secondo funzionari citati nell’indagine, modelli di AI generativa come Claude di Anthropic non producono direttamente liste di obiettivi. Possono però lavorare insieme a piattaforme di analisi geospaziale per evidenziare “punti di interesse” nelle immagini e nei dataset che gli analisti militari esaminano.
In altre parole, l’AI aiuta a filtrare e ordinare informazioni. La decisione finale sul bersaglio resta formalmente umana.
Questo non elimina il problema di fondo: se il dato di partenza è sbagliato o incompleto, i sistemi AI possono solo amplificare l’errore.
Verifiche umane e catena delle responsabilità
Ci sono anche problemi nei processi. La catena di targeting militare coinvolge diverse agenzie: la Defense Intelligence Agency produce dati di intelligence, la National Geospatial-Intelligence Agency analizza immagini satellitari, i comandi operativi verificano e trasformano queste informazioni in coordinate per gli attacchi.
Ogni passaggio dovrebbe includere controlli incrociati. In situazioni di guerra, soprattutto nelle fasi iniziali di un conflitto, queste verifiche possono essere accelerate o saltate.
Gli investigatori stanno cercando di capire perché il dato obsoleto non sia stato controllato prima del lancio del missile.
Il punto critico è che la velocità dei sistemi moderni — e l’uso crescente di analisi automatica — può ridurre ulteriormente il tempo dedicato alla verifica umana.
Perché l’errore di targeting svela il limite delle armi smart
L’espressione “arma intelligente” è spesso usata per indicare sistemi di precisione guidati da satelliti, sensori o algoritmi.
Da qui la domanda: come fanno a colpire innocenti? Ammettendo buona fede di chi spara, il caso in questione mostra una risposta plausibile.
Il processo di selezione del target resta un sistema complesso di dati, analisi e decisioni umane.
Il caso della scuola di Minab mostra che la vulnerabilità principale non è nella tecnologia del missile, ma nell’infrastruttura informativa che lo guida: database, immagini satellitari, classificazione degli edifici, aggiornamento delle mappe.
Finché queste informazioni restano incomplete o obsolete e i processi contorti non aiutano a correggere l’errore, o anzi lo rendono più probabile, i rischi per i civili innocenti saranno sempre ineludibili.
La soluzione sarebbe quindi rallentare, aumentare i controlli, non delegare le decisioni all’AI. Proprio la via opposta a quella cui ora spinge la corsa agli armamenti AI.








