tecnologie belliche

Intelligenza artificiale e droni in guerra: in Ucraina il dado è tratto

L’invasione dell’Ucraina ci sta dimostrando che il “piccolo” può mettere in serie difficoltà il “grande” con il sapiente uso di armi intelligenti di ultima generazione e droni. Il dado è ormai tratto: sempre più si va verso una guerra “remota e senza volto”. Ma di fianco ai vantaggi, ci sono anche rischi inevitabili

23 Mar 2022
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

Mettendo (per un momento) da parte il lato umano e umanitario della vicenda, l’attuale conflitto in Ucraina ci permette di tirare le somme sull’uso e sulla reale efficacia della tecnologia di ultima generazione in campo bellico: intelligenza artificiale, droni semi o full autonomous.

Ancora oggi – nonostante gli esempi vietnamiti e afghani del passato – siamo abituati a percepire l’aggressione del “paese più grande” come inarrestabile e inevitabile. Tuttavia, non sempre è così. Così come i Việt Cộng contro gli statunitensi e i Mujaheddin contro i sovietici, l’aggressione del “più grande” può essere respinta e, perfino, ribaltata.

Droni per la difesa: quali norme per un uso sicuro? Proposte e prospettive

E se si pensa che a oggi vi è un arsenale di tecnologia (relativamente economica) a disposizione di qualunque esercito, le cose si fanno più chiare per tutti noi.

Prendiamo l’attualissimo esempio ucraino, che vede l’esercito di Kiev fronteggiare le truppe di Mosca a suon di Javelin e di (temibili) droni di fabbricazione turca “Bayraktar TB2”. Gli stessi droni turchi che hanno permesso l’anno scorso all’Azerbaigian di sbaragliare l’esercito armeno, peraltro.

Droni che l’Ucraina controlla ora con la rete satellitare Starlink offerta gratis da Elon Musk.

Le “armi autonome letali” con l’intelligenza artificiale

Siamo arrivati a un primo grande banco di prova di strumenti finora usati in contesti più limitati.

  • I droni sono stati adoperati per classiche operazioni di sorveglianza, ricognizioni, mappatura dall’alto; fin dai tempi dei palloni aerostatici nei cieli francesi dell’800, avere la una visuale superiore ha dato un vantaggio tattico.
  • Un altro uso è nella guerra ibrida al terrorismo, con azioni mirate degli Usa per colpire capi jihadisti e a volte anche con vittime innocenti, per errori fatti dai militari, in molti dei quali riportati da Afghanistan da organizzazioni non governative.

Negli ultimi anni Stati Uniti, Cina, Russia, Regno Unito, Israele e Turchia hanno aumentato gli investimenti in questo campo. Stanno “aggressivamente” progettando armi con intelligenza artificiale che possono colpire ed eliminare gli obiettivi da centinaia o migliaia di chilometri di distanza mediante una sorta di “joystick” (quasi come fosse un videogioco). Il set di armi iper-tecnologiche includono flotte di navi fantasma, carri armati e veicoli terrestri, missili guidati dall’intelligenza artificiale e, soprattutto, aerei e droni. Le “Armi Autonome Letali” (“Lethal Autonomous Weapons” o “LAW”) sono già state utilizzate, peraltro, in alcune operazioni offensive verso taluni obiettivi in passato. Ad esempio, nel marzo 2021 un drone turco Kargu-2 venne usato in Libia per ingaggiare attacchi autonomi contro diversi obiettivi terrestri (soldati e mezzi).

digital event
Quali sono le opportunità dell’Intelligenza Artificiale nelle nostre vite e nelle nostre attività?
Blockchain
Intelligenza Artificiale

In realtà, le armi autonome che uccidono “senza una decisione umana” hanno ormai centinaia di anni. Le mine terrestri e navali, ad esempio, sono utilizzate da secoli. Sistemi di difesa missilistica come gli statunitensi Patriot e Vulcan Phalanx operano da decenni in maniera autonoma contro obiettivi in volo od in mare. C’è da dire che questi sistemi sono in gran parte di natura difensiva. E più passano gli anni, più ci si rende conto che il “Rubicone” che separa la difesa dall’attacco è stato superato: in poche parole, si va verso armi offensive dotate di un’intelligenza artificiale potenziata per decisioni più complesse. Si può solo immaginare il futuro (non lontano) dei campi di battaglia in cui i robot e i sistemi autonomi sono più numerosi dei soldati in carne ed ossa. E forse, chi lo sa, potrebbe non essere totalmente negativo come approccio bellico.

I vantaggi dei robot da guerra

L’attrazione che diversi paesi hanno verso i droni “intelligenti”, verso i robot “killer” nonché verso i sistemi militari autonomi è chiara: usarli per fare il “lavoro sporco” così da non perdere soldati “preziosi” che possono essere impiegati diversamente (così come non arruolare piloti professionisti per pilotare attrezzature da miliardi di dollari!). I robot, detto “papale papale”, non vanno in bagno, non hanno bisogno di acqua né di mangiare. Certo, l’intelligenza artificiale ha i suoi pregiudizi (bias) ma, a detta degli estimatori dell’uso dell’intelligenza artificiale “offensiva”[1], tali bias, tali errori dei robot, saranno più prevedibili dei comportamenti umani (con poco riguardo, peraltro, alla crescente imprevedibilità del comportamento proprio dei sistemi complessi). Infine, i robot possono essere addestrati istantaneamente, e sostituirli è molto più veloce ed economico che sostituire dei soldati “umani”. La cosa più importante per i governi di taluni paesi è che il “costo politico” dell’uso di robot e di armi automatiche è molto più basso. Non ci sarebbero filmati di soldati catturati o cadaveri bruciati, di piloti in ginocchio in un campo innevato che implorano pietà!

Verso una guerra “più remota e senza volto”

Si va verso una guerra “più remota e senza volto” (se si eccettuano tutti i pesanti contraccolpi umanitari, sia chiaro). L’intelligenza artificiale impiegata sulle armi di nuova generazione, alla fin fine, è solo il prossimo passo logico lungo questo percorso. Permette alle armi robotiche di operare su una scala più ampia, reagendo senza bisogno di input umani. E ciò rende la logica militare più cristallina: non avere o non impiegare armi dotate di intelligenza artificiale metterà qualsiasi esercito in grande svantaggio nel prossimo futuro (ma anche nel presente a quanto pare…).

Se l’intelligenza artificiale uccide, senza controllo umano: ecco i punti chiave del dibattito

L’intelligenza artificiale sta livellando il “campo di gioco”, permettendo ai sistemi bellici di evolversi alla stessa velocità di qualsiasi prodotto di consumo tecnologico in vendita. La scelta di non usare l’intelligenza artificiale sul campo di battaglia diventerà simile a una cattiva decisione commerciale, anche se ci saranno ripercussioni morali tangibili.

Intelligenza artificiale, guerra e moralità

I sostenitori delle armi autonome ed intelligenti affermano che i robot e i droni muniti di intelligenza artificiale potrebbero dimostrarsi molto più “morali” delle loro controparti umane. Essi sostengono che un robot od un drone programmato per non colpire donne o bambini non commetterebbe errori in battaglia. Inoltre, sostengono che la “logica programmatica” dei droni e dei robot possiede una certa capacità di ridurre la questione morale di base a “decisioni binarie”. Per esempio, un drone dotato di intelligenza artificiale e munito di sensori visivi di ultima generazione potrebbe decidere istantaneamente di non sparare a un veicolo dotato di una Croce Rossa mentre sfreccia verso un posto di blocco. Tuttavia, queste linee di pensiero non sono condivisibili con facilità.

Con quanta “moralità” degli esseri umani possono programmare i robot per evitare di sbagliare? Quanta freddezza o quanta umanità deve avere un robot sul campo di battaglia? E poi, quando è difficile discernere se un avversario segue una “bussola morale” o meno, come nel caso dei freddi combattenti ISIS, è meglio affidarsi alla fredda logica del robot guerriero oppure del robot capace di provare emozioni? Cosa succede se un’organizzazione terroristica non statale sviluppa robot letali che permettono loro di avere un grande vantaggio sul campo di battaglia? È un rischio che il mondo dovrebbe essere disposto a correre per svilupparli? Tante domande, ancora poche risposte.

Rischi inaccettabili dell’IA in guerra

D’altronde ci sono rischi chiari e al contempo inaccettabili, come nel caso in cui i robot si trovino ad operare autonomamente in un ambiente pieno di soldati e civili. Si consideri l’esempio dei droni russi che volano in copertura aerea e fanno fuori tutto ciò che si muove a terra. I danni collaterali e le morti di innocenti non combattenti sarebbero orribili. In diversi casi, i sistemi automatizzati hanno dato informazioni errate che gli operatori umani hanno sfatato appena in tempo per evitare uno scambio nucleare (si pensi alla famosa storia del tenente colonnello Stanislav Petrov che il 26 settembre 1983 evitò una escalation nucleare). Con l’intelligenza artificiale, peraltro, le decisioni vengono prese troppo velocemente perché gli esseri umani possano correggerle. Di conseguenza, errori catastrofici sarebbero inevitabili. Inoltre, se alle armi dotate di intelligenza artificiale si associa un costo irrisorio le cose non possono che peggiorare. Si pensi ai droni economici che possono essere dotati di armi standard, con i loro sensori che possono essere collegati a sistemi di intelligenza artificiale remota “fatti in casa” per identificare e colpire determinati obiettivi (i terroristi, ad esempio, potrebbero colpire con molta facilità).

Conclusioni

Attualmente ci troviamo a un bivio. L’invasione russa in Ucraina ha dimostrato ancora una volta che anche le grandi potenze possono mettere da parte la moralità per narrazioni nazionali che sono convenienti per alcuni autocrati e classi politiche. Così come ha dimostrato che il “piccolo” può mettere in serie difficoltà il “grande” con il sapiente uso di armi intelligenti di ultima generazione. La prossima grande guerra sarà probabilmente vinta o persa in parte grazie all’uso diffuso dei sistemi di intelligenza artificiale. Ma cosa si può fare per questa minaccia incombente? Un divieto totale sull’uso di tecnologie basate sull’intelligenza artificiale sarebbe stato l’ideale (a mo’ di Convenzione di Ginevra); tuttavia, ora sarebbe impossibile e controproducente attuarlo. Per esempio, un tale divieto “ammanetterebbe” l’Alleanza Atlantica nei futuri combattimenti globali, rendendo i soldati Nato vulnerabili. Un divieto di applicare i sistemi di intelligenza artificiale alle armi di distruzione di massa, forse, è più realistico. Tuttavia, il Rubicone è stato attraversato, il dado è tratto e abbiamo ben poche scelte per opporci ad aggressioni mondiali senza l’uso di sistemi intelligenti.[2]

I droni usati da media e NGO per testimonianze in un conflitto

I droni sono usati anche dai media o dalle ONG per monitorare situazioni critiche a scopi umanitari, durante conflitti, guerre civili, rappresaglie di Stato.
Offrono la promessa di poter monitorare indipendentemente i campi di battaglia mentre si svolge l’azione militare.
In questo senso, e spesso amplificato dai social media, i droni sono diventati un altro strumento per chi cerca di utilizzare le moderne tecnologie per “sorvegliare la sorveglianza”; per tenere d’occhio ciò che fanno i vari militari del mondo e testimoniare l’ingiustizia.

Leggi sotto per comprendere portata e limiti di tutto questo.

  1. Tesi sostenuta nel libro “The Driver in the Driverless Car: How Our Technology Choices Will Create the Future” di Vivek Wadhwa e Alex Salkever.
  2. Artificial Intelligence and the Future of War. The National Interest. https://nationalinterest.org/blog/techland-when-great-power-competition-meets-digital-world/artificial-intelligence-and-future
WHITEPAPER
Intelligenza Artificiale nel Marketing: quello che i CMO devono sapere
CRM
Intelligenza Artificiale
@RIPRODUZIONE RISERVATA

Articolo 1 di 4