Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Intelligenza artificiale

I robot vanno in guerra, pro e contro: il dibattito

Le Nazioni Unite divise tra favorevoli e contrari ai sistemi AWS nei conflitti armati. I robot, grazie alla precisione chirurgica della tecnologia, potrebbero risparmiare molte vite umane. Sostituire le persone con umanoidi potrebbe però portare a una pericolosa deresponsabilizzazione dell’azione militare

22 Nov 2017

Federica Merenda

Scuola Superiore Sant’Anna – Pisa


Uno sciame di piccoli droni delle dimensioni di una libellula irrompe in un’aula universitaria, si sparpaglia puntando alcuni studenti e li insegue, facendosi esplodere una volta raggiunto il contatto.

Non è la scena di un film di fantascienza né di una puntata di Black Mirror, ma parte di un cortometraggio che è stato proiettato pochi giorni fa alle Nazioni Unite in occasione di un evento organizzato dalla Campaign to stop killer robots, una coalizione internazionale di ONG che promuovono l’adozione di una Convenzione per la messa al bando preventiva dei Lethal Autonomous Weapons Systems (LAWS), sistemi di armi automatiche già disponibili tecnologicamente ma non ancora utilizzati contro esseri umani, che sarebbero in grado di puntare un obiettivo e lanciare un attacco armato letale senza necessità di intervento umano.

Venerdì scorso si è conclusa a Ginevra la prima sessione del Group of Governmental Experts (GGE) della Convention on Conventional Weapons, che ha visto la partecipazione di 86 Stati, di cui 22 si sono espressi in favore dell’adozione di un documento che proibisca l’utilizzo dei LAWS.

Sebbene i lavori del GGE in sede di Nazioni Unite sembrino procedere a rilento, il consenso tra gli Stati su un tale divieto è in aumento ed un dibattito vivace sulle implicazioni etiche e giuridiche dell’utilizzo di sistemi AWS nei conflitti armati esiste ormai da almeno una decina di anni.

Tale dibattito si è particolarmente sviluppato a seguito dell’adozione da parte di Human Rights Watch del rapporto Losing Humanity. A case against killer robots, pubblicato nel 2012, che mette in guardia contro i rischi legati alla sostituzione con AWS di soldati in carne ed ossa.

Lo sviluppo degli AWS pone infatti delle questioni complesse e controverse che potrebbero spingere, se non ad un divieto assoluto del loro utilizzo, ad un ripensamento radicale di quei regimi del diritto internazionale che si attivano in situazioni di conflitto armato, tra cui il diritto internazionale umanitario ed il diritto penale internazionale, entrambi sviluppati principalmente per evitare il ripetersi di orrori come quello che hanno caratterizzato il secondo conflitto mondiale.

I sostenitori dello sviluppo di tali tecnologie e del loro impiego in scenari bellici evidenziano come la precisione chirurgica di cui gli AWS sarebbero in grado nel momento di lancio dell’attacco, grazie alla loro capacità di processare più informazioni contemporaneamente e più velocemente di un essere umano, porterebbe ad un’importante diminuzione delle casualties, risparmiando vite preziose di civili che eviterebbero cosi di essere coinvolti da operazioni contro obiettivi militari.

Inoltre, gli studiosi che si sono schierati a favore dell’introduzione negli eserciti di AWS sottolineano come a causa della propria mancanza di istinto di sopravvivenza, un AWS potrebbe addirittura dimostrarsi più “umano” di un essere umano.

Non provando emozioni, i robot non odiano, non soffrono paura né stanchezza e non commetterebbero stupri, risultando pertanto da questo punto di vista più adatti dei soldati in carne ed ossa al rispetto del principio di umanità.

D’altro canto, il diritto internazionale umanitario si fonda su principi che richiedono una valutazione comparativa di elementi contingenti e talvolta incommensurabili che non si prestano ad essere tradotti in linguaggio algoritmico.

L’identificazione del giusto livello di forza armata da utilizzare in ogni specifico caso non può infatti facilmente essere ridotta ad una valutazione quantitativa, ma include un elemento di discrezionalità che consente e anzi richiede la presa in considerazione di questioni morali che solo un essere umano può porsi, e rispetto alle quali questi dovrà assumersi una responsabilità che verrà valutata nel caso si contesti la commissione di crimini internazionali: quale valore si attribuisce alla vita o alla sofferenza del nemico o alla vita o alla sofferenza di civili che potrebbero essere coinvolti dall’attacco? Come rendere tale valore commensurabile rispetto al vantaggio militare atteso dall’attacco – che, circolarmente, è un elemento della stessa definizione di obiettivo militare secondo le Convenzioni di Ginevra ed i loro protocolli addizionali?

L’ostacolo principale nell’impiego degli AWS consisterebbe pertanto nella loro inabilità a compiere scelte che siano il risultato di un processo deliberativo propriamente detto, presupponendo questo l’impiego di un tipo di razionalità umana non traducibile nella mera razionalità logico-matematica dell’intelligenza artificiale.

Un’importante conseguenza dell’assenza di un tale processo deliberativo consisterebbe nell’impossibilità del sussistere dell’elemento di responsabilità dell’azione, venendo meno del tutto i presupposti necessari alla qualificazione di un atto come crimine internazionale, non potendo in alcun modo costituirsi una mens rea.

Essendo cosi stralciata la possibilità di individuare una responsabilità diretta per eventuali crimini commessi, è stato suggerito di istituire per gli AWS un modello di responsabilità penale simile a quello previsto nel caso della command responsibility, ovvero la responsabilità dei superiori per i crimini commessi dai propri sottoposti e legato ai concetti di recklessness e negligenza, prevedendo simili forme di liability per coloro che hanno programmato il dispositivo e per i generali che ne hanno autorizzato l’utilizzo.

In questo modo, azioni altrimenti costituenti crimini di guerra, crimini contro l’umanità o genocidi potrebbero verificarsi per mano degli AWS, senza che esista un soggetto a cui tale azione potrebbe essere imputata direttamente.

La sostituzione di esseri umani, soggetti pensanti, giudicanti e moralmente e giuridicamente responsabili, con AWS potrebbe pertanto portare ad una pericolosa deresponsabilizzazione dell’azione militare.

In aggiunta a tali considerazioni, esperti tra cui Christof Heyns, che è stato Relatore Speciale delle Nazioni Unite sulle esecuzioni extragiudiziali, sommarie o arbitrarie, hanno avanzato l’ipotesi che la stessa decisione di schierare AWS in un conflitto potrebbe rappresentare di per sé una violazione del diritto alla vita essendo l’uccisione di esseri umani da parte di robot costitutivamente arbitraria.

Il dibattito rimane aperto e tanto più urgente quanto più armi come gli AWS una volta sviluppati, a causa della facile riproducibilità e del basso costo delle tecnologie necessarie per la loro messa a punto, potrebbero facilmente finire in possesso di gruppi armati disposti ad utilizzarli indiscriminatamente.

Articoli correlati

LinkedIn

Twitter

Whatsapp

Facebook

Google+

Link