Armi autonome

La guerra “esternalizzata” all’IA: ecco il caos etico



Indirizzo copiato

I moderni eserciti hanno impiegato centinaia di anni per evolversi nel distinguere le inevitabili e incolpevoli tragedie della guerra dagli atti di malvagità. L’esternalizzazione di una parte del giudizio umano agli algoritmi metterà in discussione tutte queste leggi e dottrine

Pubblicato il 19 ott 2023

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



intelligenza artificiale guerra

Con l’ascesa dell’apprendimento automatico (Machine Learning) in campo militare, negli ultimi anni, si è dato il via a un cambiamento di paradigma nel modo in cui le forze armate più avanzate utilizzano i computer per contribuire a plasmare le decisioni cruciali della battaglia o della stessa guerra, fino alla “decisione finale”. Con gli strumenti decisionali basati sull’apprendimento automatico si ha una sorta di maggiore “competenza apparente” rispetto agli strumenti tradizionali “non intelligenti”; ecco perché si è più propensi a demandare a loro un maggior numero di decisioni possibili sul campo.

Uccisioni, distruzioni, bersagli annichiliti. Premere o non premere il grilletto? Questo è il dilemma.

Definire l’atto “umano” della guerra

Da un punto vista etico-legale, il ruolo delle decisioni del soldato, in questioni di vita o di morte, è preminente e indispensabile. Fondamentalmente, sono queste decisioni a definire l’atto “umano” della guerra. Non dovrebbe sorprendere, quindi, che gli Stati e la società civile abbiano affrontato la questione delle armi autonome intelligenti (in grado di selezionare e sparare su obiettivi senza alcun input umano) come una questione alquanto preoccupante. A maggio scorso, dopo quasi un decennio di discussioni, si è deciso a livello internazionale che i militari che utilizzano tali armi dovrebbero limitare la durata, la portata geografica e la scala dell’operazione per rispettare le leggi di guerra. Ovviamente, col condizionale non si va da nessuna parte. Ma siamo di fronte, quantomeno, a un riconoscimento del fatto che un essere umano deve avere un ruolo “da qualche parte e qualche volta” nel processo immediato (e intelligente?) che porta all’eliminazione fisica di un obiettivo umano.

Ma le armi autonome intelligenti che sostituiscono completamente il processo decisionale umano devono, probabilmente, ancora essere utilizzate nel mondo reale. Persino i droni e le navi autonome messe in campo dagli Stati Uniti e da altre potenze di medesimo livello sono utilizzati sotto stretta supervisione umana. Nel frattempo, i sistemi intelligenti che si limitano a guidare la mano che preme il grilletto (ad esempio dei droni) sono entrati a far parte del kit di strumenti degli eserciti più avanzati al mondo. E sono diventati (silenziosamente) abbastanza sofisticati da sollevare nuovi interrogativi, più difficili da risolvere rispetto alle ben note controversie sui “robot assassini” e, ogni giorno che passa, sempre più urgenti: cosa significa quando una decisione è solo in parte umana e in parte generata da una macchina? E quando si parla di eticità nelle uccisioni?

Un soldato alla ricerca di cecchini nemici potrebbe, ad esempio, farlo attraverso “l’Assault Rifle Combat Application System”, un mirino venduto dall’azienda israeliana Elbit Systems. Secondo una scheda tecnica dell’azienda, il dispositivo – che è alimentato dall’Intelligenza Artificiale – è in grado di rilevare un bersaglio umano a una distanza di oltre seicento metri, nonché di identificarlo ad una distanza pari alla lunghezza di un campo da calcio. Un altro mirino invece, costruito dall’azienda israeliana Smartshooter, secondo tale azienda potrebbe anche essere inserito in una mitragliatrice telecomandata a distanza.

L’Intelligenza Artificiale nella pianificazione di un attacco

Gli strumenti di supporto alle decisioni che si trovano a una distanza maggiore dal campo di battaglia possono essere altrettanto decisivi. Sembra che il Pentagono abbia utilizzato l’Intelligenza Artificiale nella sequenza di analisi di intelligence e di decisioni che portano a un potenziale attacco, un processo noto come “kill chain” (catena di uccisione), anche se non sono stati resi dettagli al pubblico.

Nell’ambito della guerra ucraina, invece, l’esercito di Kiev utilizza il programma proprietario GIS Arta che accoppia ogni obiettivo russo noto sul campo di battaglia con l’unità di artiglieria che, secondo l’algoritmo, è nella posizione migliore per “sparargli contro”. Il quotidiano britannico The Times ha paragonato questo programma all’algoritmo dell’azienda di trasporto automobilistico privato Uber per l’abbinamento tra autisti e passeggeri, notando che in tal modo si riduce significativamente il tempo che intercorre tra l’individuazione di un obiettivo e il momento in cui questo si trova sotto una raffica di fuoco. Dall’altra parte delle barricate, anche la Russia sostiene di avere un proprio sistema di comando e controllo alimentata dall’Intelligenza Artificiale. Tuttavia, non vi sono dettagli in merito.

La gamma di giudizi che entrano nel processo decisionale militare, tuttavia, è vasta. E non sempre è necessaria una super-intelligenza artificiale per eliminarle con mezzi automatizzati. Esistono strumenti per prevedere i movimenti delle truppe nemiche, strumenti per capire come colpire un determinato obiettivo e strumenti per stimare la quantità di danni collaterali che probabilmente ricadranno sui civili nelle vicinanze. Nessuno di questi espedienti può essere definito alla stregua di un “robot assassino”. Ma la tecnologia non è priva di pericoli. Come qualsiasi computer complesso, uno strumento basato sull’Intelligenza Artificiale potrebbe avere problemi in modi insoliti e imprevedibili.

E non è chiaro se l’uomo coinvolto nel processo decisionale sarà sempre in grado di sapere quando le risposte sullo schermo sono giuste o sbagliate. Nella loro incessante efficienza, questi strumenti potrebbero anche non lasciare abbastanza tempo e spazio agli esseri umani per determinare se ciò che stanno facendo è legale. In alcune aree, potrebbero raggiungere livelli talmente sovrumani da far perdere completamente qualcosa di ineffabile nell’atto di guerra.

Conclusioni

Alla fine le forze armate prevedono di usare l’Intelligenza Artificiale per ricucire molti di questi strumenti individuali in un’unica rete automatizzata che colleghi ogni arma, comandante e soldato a tutti gli altri. Non una catena di uccisioni, ma, come ha iniziato a chiamarla il Pentagono, una “rete” di uccisioni. E in questa rete, non è chiaro quanto la decisione dell’uomo possa essere, in realtà, una decisione vera e propria. Gli incidenti, d’altronde, capitano. Ed è qui che le cose si complicano. I moderni eserciti hanno impiegato centinaia di anni per evolversi nel distinguere le inevitabili e incolpevoli tragedie della guerra dagli atti di malvagità, di furia mal indirizzata o di grave negligenza. Anche oggi, questo rimane un compito difficile. L’esternalizzazione di una parte del giudizio umano ad algoritmi costruiti, in molti casi, intorno al principio matematico dell’ottimizzazione metterà in discussione tutte queste leggi e dottrine in un modo fondamentalmente nuovo. E, a quel punto, non ci sarà etica che tenga.

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3