L’intelligenza artificiale nel settore militare: vantaggi, rischi e tutele necessarie - Agenda Digitale

l'approfondimento

L’intelligenza artificiale nel settore militare: vantaggi, rischi e tutele necessarie

Quali sono le principali applicazioni di intelligenza artificiale in ambito militare? Quali sono i vantaggi e quali i rischi? Facciamo il punto

22 Set 2021

Il settore militare, insieme a quello civile e industriale, risulta essere uno degli ambiti in cui l’intelligenza artificiale sta evolvendosi con maggiore velocità e questo comporta tutta una serie di considerazioni, riflessioni e preoccupazioni dal punto di vista operativo, legale ed etico.

In ambito militare, l’AI rappresenta una delle principali aree di investimento. Il Segretario alla Difesa USA, Lloyd Austin III, ha recentemente dichiarato che stanzierà 1.5 mld di dollari per l’hub di intelligenza artificiale del Dipartimento della Difesa nei prossimi cinque anni. Austin ha affermato anche che il raggiungimento della leadership nell’ambito dell’intelligenza artificiale permetterà alle forze armate statunitensi di aumentare il futuro vantaggio tecnologico, sia nel campo delle decisioni basate sui dati, sia per quanto riguarda la collaborazione uomo-macchina.

Ma quali sono le principali applicazioni di intelligenza artificiale in ambito militare?

La guerra cibernetica nell’età ibrida: tecnologie, strategie e priorità

Intelligenza artificiale in ambito militare: gli effetti

In ambito militare, vi sono dei settori in cui l’AI ha già provocato importanti effetti, i quali sono destinati ad essere implementati nel prossimo futuro.

WHITEPAPER
Scopri gli strumenti da adottare per una completa digitalizzazione e diventare azienda data-driven
Big Data
Data Management

In particolare, per quanto riguarda le attività di C4ISR (Command, Control, Communications, Computers, Intelligence, Surveillance and Reconnaissance), le unità combattenti utilizzano già sistemi autonomi abilitati dall’intelligenza artificiale per svolgere compiti ritenuti “dull, dirty, dangerous or dear”. Inoltre, forniscono supporto informativo per la definizione delle course of action in scenari di conflittualità complessi. In tale contesto, la fusione dei dati raccolti da sistemi AI e la loro categorizzazione, fornisce agli analisti di intelligence una maggiore capacità di TCPED (tasking, collecting, processing, exploiting, disseminating).

La capacità di raccogliere autonomamente informazioni tramite droni, sensori terrestri e spaziali, e persino nel cyberspazio, permette di aumentare ulteriormente la quantità di dati generati. Questo volume di dati (big data) dovrà essere analizzato in tutto o in parte da macchine che utilizzano l’IA[1], ed alcune di queste analisi dovranno essere fatte su piattaforme ISR dispiegate sul campo a causa delle limitazioni di larghezza di banda che rendono impossibile trasferire grandi quantità di dati verso centri di elaborazione dati centralizzati.

L’impiego di sistemi di intelligenza artificiale nel processo C4ISR permette, quindi, una migliore gestione del ciclo informativo e delle conoscenze acquisite, con un rilevante vantaggio anche in termini di analisi di intelligence. Vantaggio che, a cascata, si ripropone poi in tutte le successive fasi operative.

L’intelligenza artificiale può contribuire, inoltre, al rilevamento, identificazione e monitoraggio dei rischi CBRN attraverso l’integrazione di sensori e la fusione dei relativi dati, nonché al miglioramento degli ormai noti sistemi autonomi quali UAV, UGV, AUV etc., attraverso l’implementazione di sistemi di deep learning.

Oltre a questi impieghi, di natura prettamente militare, l’AI è destinata ad incidere fortemente nei campi dell’image recognition, text analysis, game playing, self-driving cars, con importanti applicazioni anche nel settore oggetto di studio.

I benefici dell’IA in ambito warfare

Per quanto riguarda i benefici che l’AI può apportare in ambito “warfare”, secondo uno studio condotto da RAND Corporation, i cui analisti hanno intervistato una serie di esperti in materia, questi possono essere classificati nelle seguenti categorie[2]:

  • Velocità nell’assumere le decisioni: questo rappresenta uno dei principali vantaggi che l’AI può apportare in uno scenario operativo, con particolare riferimento al cd. ciclo OODA (Observ, Orient, Decide, Act) . L’OODA loop, conosciuto anche come ciclo di Boyd, rappresenta un modello di pensiero da applicare nell’ambito di un processo decisionale che permette al decisore (non solo in ambito militare, ma oggi anche nel settore privato) di valutare le situazioni in modo razionale anche alla presenza di condizioni caotiche. I primi due elementi (Observ, Orient) si riferiscono alla fase di rilevamento e identificazione degli obiettivi, mentre gli altri due (Decide, Act) intervengono al momento dell’ingaggio e della eliminazione degli obiettivi nemici. Fondamentalmente, l’obiettivo del ciclo OODA è quello di anticipare le mosse dell’avversario, o meglio, anticipare e completare il proprio OODA loop eliminando gli obiettivi del rivale prima che questi possa completare il proprio. L’Intelligenza Artificiale può aiutare ad assumere le decisioni necessarie per conseguire un vantaggio temporale sulle enemy course of action, raggiungendo così i propri obiettivi prima dell’avversario.
  • Utilizzo dei Big Data: come noto con tale termine si fa riferimento all’enorme mole di dati provenienti da diversi dispositivi che non possono essere memorizzati o gestiti dalla memoria di un solo computer, sia a causa della velocità della loro generazione, che per i vari formati in cui possono essere acquisiti o trasmessi. Dare un senso a questa immensa quantità di dati è praticamente impossibile per un essere umano, ma sistemi di AI possono contribuire ad analizzare ed elaborare tali dati con rapidità e precisione a vantaggio dell’attività di intelligence prima e di quella operativa dopo.
  • Miglioramento del targeting e della visione: come notato dai soggetti intervistati, uno dei settori dove il sovraccarico dei dati comporta maggiori problemi è quello relativo all’elaborazione delle immagini. Con il progressivo incremento di telecamere per la videosorveglianza, i dati che vengono generati necessitano di essere analizzati ed elaborati in modo automatico ed efficace. I sistemi AI possono contribuire a migliorare la velocità e la qualità dell’analisi di tali immagini con interessanti applicazioni in ambito militare soprattutto (ma non solo) per quanto concerne le operazioni condotte da sistemi autonomi e nell’ambito di operazioni antiterrorismo.
  • Miglioramento dell’accuratezza e della precisione: le macchine, in generale, possono avere un’accuratezza e una precisione maggiori di quelle umane. I sistemi di AI possono contribuire a migliorare la precisione dei sistemi autonomi impegnati in attività operative nonché l’elaborazione dei dati forniti dai vari sensori che costituiscono l’Internet of Things (IoT) e l’Internet of Military Things (IoMT). Inoltre, tali sistemi possono concorrere al perfezionamento delle attività di Modeling and Simulation con importanti avanzamenti anche per ciò che concerne le attività addestrative.
  • Abilità nell’operare in ambienti A2/AD (Anti-Access/Aerea-Denial): taluni Stati hanno implementato le proprie capacità volte ad impedire la proiezione delle forze nemiche in determinate aree nell’ambito dei domini terrestre, marittimo o aereo. Queste capacità vengono definite come A2/AD. In questo contesto, i sistemi AI possono contribuire a penetrare tali ambienti, attraverso la sinergia con le piattaforme ISR, riducendo anche l’esposizione degli esseri umani coinvolti nell’operazione.
  • Miglioramento delle operazioni di deception e di information warfare: nell’ambito della conflittualità ibrida, che oggi rappresenta il principale scenario operativo all’interno del quale si confrontano le grandi potenze, l’informazione risulta essere l’arma più efficace per minare le capacità dell’avversario in tutti i domini di ingaggio ad esso riconducibili. La manipolazione dell’informazione è essenziale per orientare il sentiment di una popolazione ed indurla a compiere azioni in contrasto con gli obiettivi dei propri governi. Nel prossimo futuro, grazie a sistemi di Intelligenza Artificiale, potrebbe essere possibile avere agenti autonomi che generano frammenti di testo, o brevi conversazioni, per persuadere un pubblico target a credere ad una particolare narrazione di importanza geopolitica o militare. Già oggi tali sistemi permettono di analizzare le grandi quantità di dati che le persone rilasciano online al fine di adattare specifici messaggi volti ad influenzare le loro scelte, nonché di creare immagini, audio o video falsi, ma particolarmente accurati, di persone che potrebbero essere utilizzati per condizionare un determinato gruppo di persone. Questa, ovviamente, può essere considerata un’applicazione a tratti immorale anche se particolarmente vantaggiosa all’interno di un moderno scenario conflittuale.

I rischi dell’IA in ambito militare

L’utilizzo di sistemi di Intelligenza Artificiale, però, non porta con sé solo vantaggi. Anche i rischi sono molti e possono essere classificati all’interno di tre categorie: etici e legali, operativi e strategici.

A causa dell’economicità del presente elaborato si analizzeranno, di seguito, solo i rischi di natura legale.

I riferimenti normativi

Dal punto di vista giuridico, il riferimento normativo da prendere in considerazione per affrontare il tema della compliance legale dei sistemi AI è innanzitutto il Diritto dei Conflitti Armati, o Diritto Internazionale Umanitario, o diritto bellico (ius in bello). Questo ramo del diritto, codificato nelle quattro Convenzioni di Ginevra del 1949 e nei due Protocolli Aggiuntivi del 1977, persegue l’obiettivo di disciplinare la conduzione delle ostilità e minimizzare le conseguenze per coloro che non partecipano al conflitto (i civili) o per coloro che hanno smesso di parteciparvi (feriti, i malati, i prigionieri di guerra, gli internati, i naufraghi e il personale sanitario e religioso). L’impiego delle nuove tecnologie, e segnatamente dei cosiddetti sistemi AWS (Autonomous Weapons System), nell’ambito di conflitti armati, deve fare i conti con la necessità di essere compliant alle norme previste dal LOAC (Law Of Armed Conflict).

Tra i principi chiave del Diritto Internazionale Umanitario ricordiamo il principio di distinzione, di proporzionalità e di precauzione. Principi, questi, orientati a minimizzare il più possibile il rischio di danni ai civili e ad impedire che vengano condotte azioni ritenute sproporzionate rispetto al perseguimento di obiettivi militari. Inoltre, l’art. 36 del I Protocollo Aggiuntivo stabilisce che “Nello studio, messa a punto, acquisizione o adozione di una nuova arma, di nuovi mezzi o metodi di guerra, un’Alta Parte contraente ha l’obbligo di stabilire se il suo impiego non sia vietato, in talune circostanze o in qualunque circostanza, dalle disposizioni del presente Protocollo o da qualsiasi altra regola del diritto internazio­nale applicabile a detta Alta Parte contraente”.

I sistemi d’arma autonomi: quesiti e riflessioni

Lo sviluppo di nuovi sistemi d’arma basati sull’impiego di nuove tecnologie deve quindi rispettare il combinato disposto delle norme appartenenti al Diritto dei Conflitti Armati. Quando si introducono nuovi sistemi d’arma, la loro legalità deve essere valutata attraverso una ricognizione dei criteri previsti dal diritto. Occorrerà, in particolare, verificare se le nuove armi rispettano tali criteri e se sono proibite da convenzioni internazionali specifiche, come la Convenzione sulle armi chimiche, la Convenzione sulle armi biologiche o la Convenzione su certe armi convenzionali; o se l’impiego di tali armi causerebbe lesioni superflue o sofferenze inutili, nonché danni diffusi, gravi e a lungo termine all’ambiente naturale in violazione dell’art. 35 I Protocollo addizionale; o ancora se tali armi possono porre in essere attacchi indiscriminati in violazione dell’art. 51 I Protocollo addizionale; e infine se tali armi siano coerenti con i principi di umanità e con i precetti della pubblica coscienza, secondo quanto previsto dalla cd. clausola Martens posta alla base di tutto il Diritto dei Conflitti Armati.

L’uso di sistemi basati sull’intelligenza artificiale ha sollevato dei quesiti e delle riflessioni sulla capacità di tali sistemi di rispettare le norme volte a disciplinare i conflitti armati. In particolare, ci si è chiesti se gli agenti autonomi siano in grado di rispettare i principi di precauzione, necessità, proporzionalità e distinzione. Taluni sostengono che i sistemi d’arma autonomi, ad esempio, non sarebbero in grado di soddisfare il principio della proporzionalità perché il rispetto di tale requisito, per restare all’interno della legalità del conflitto, richiede una valutazione soggettiva, effettuata caso per caso, del danno derivante da possibili effetti collaterali a fronte dell’importanza dell’obiettivo militare. Tale valutazione, sostengono i critici, necessita più di una mera analisi e valutazione di dati quantitativi ma, al contrario, comporta una valutazione di natura qualitativa ed etica che solo un essere umano può effettuare[3]. Inoltre, compiere una corretta distinzione tra un combattente, che ad esempio in un contesto di conflittualità asimmetrica non indossa l’uniforme, ed un civile o un soldato ferito che si sta arrendendo, richiede qualcosa in più rispetto all’elevata capacità di elaborazione dei dati provenienti da sensori che determinati sistemi possono avere. Interviene, in questo caso, la capacità di valutare l’intenzione umana, che ricomprende anche l’interpretazione di indizi sottili e dipendenti dal contesto, come il tono di voce, le espressioni facciali o il linguaggio del corpo[4]. Sebbene oggi i nuovi sistemi autonomi guidati dall’intelligenza artificiale siano particolarmente avanzati e riescano ad effettuare prestazioni di altissimo livello, l’impiego degli stessi all’interno di uno scenario conflittuale dovrà essere compliant con tutti i principi posti alla base del diritto dei conflitti armati.

Di chi è la responsabilità delle azioni dei sistemi autonomi

In tale contesto emerge anche un problema di responsabilità. Chi è responsabile delle azioni realizzate da sistemi autonomi guidati dall’AI? I progettisti, i produttori, i programmatori o gli operatori/utenti finali? Taluni ritengono che siano gli utenti finali a dover essere ritenuti responsabili delle azioni illecite compiute da tali sistemi. L’art. 35 del I Protocollo Addizionale stabilisce che “In ogni conflitto armato, il diritto delle Parti in conflitto di scegliere metodi e mezzi di guerra non è illimitato”.

Nel caso in cui i sistemi d’arma AI agiscano in piena autonomia, senza alcun controllo umano, la responsabilità delle loro azioni sarebbe riconducibili a coloro, di regola alti comandanti militari o vertici politici, che hanno deciso di impiegare tali sistemi all’interno di uno scenario operativo. Questi avranno la responsabilità penale individuale per qualsiasi potenziale grave violazione del DIU. Inoltre, gli Stati di appartenenza potrebbero incorrere nella responsabilità dello Stato per tali gravi violazioni che potrebbero essere loro imputabili. Inoltre, anche le capacità di targeting del sistema AI sono fortemente connesse alle loro caratteristiche di progettazione e programmazione.

I prossimi step necessari

Maggiore è l’autonomia di cui dispongono, più elevati devono essere gli standard di progettazione e programmazione per soddisfare i requisiti del DIU. Al fine di rendere più chiaro il quadro normativo all’interno del quale poter utilizzare i nuovi sistemi d’arma guidati dall’intelligenza artificiale, sarebbe auspicabile definire nuovi protocolli destinati a disciplinare l’impiego di tali sistemi tenendo conto del progresso della tecnica e dei nuovi scenari applicativi. Sarebbe, inoltre, opportuno prevedere degli standard di progettazione degli AWS, con relativo riconoscimento della responsabilità degli Stati per la violazione di tali standard. Ancorché il diritto internazionale esistente fornisca un quadro giuridico appropriato sarebbe comunque utile prevedere una revisione delle norme del DIU al fine di rendere più chiare determinate questioni relative all’impiego di nuove tecnologie, come ad esempio gli aspetti relativi alla responsabilità. Oltre a ciò, gli stessi Stati dovrebbero procedere all’elaborazione di proprie dottrine per l’impiego dell’intelligenza artificiale all’interno di uno scenario di conflittualità. Per fare questo sarà necessario, innanzitutto implementare il concetto di Legal Interoperability[5], portato avanti dalla NATO, al fine di creare un quadro giuridico coerente e condiviso tra tutti i membri dell’Alleanza in tema di applicazione di tali sistemi.

Per raggiungere tali obiettivi, e per configurare una cornice giuridica chiara, sarà poi indispensabile prevedere una forte sinergia tra giuristi e tecnici i quali, attraverso una stretta collaborazione, dovranno trovare il giusto punto di equilibrio tra tecnica e diritto al fine di rendere i nuovi sistemi guidati dall’intelligenza artificiale compliant alla legge, ma anche ai principi etici che, in ogni caso, devono sempre guidare la conduzione delle operazioni all’interno di uno scenario bellico, tradizionale, asimmetrico o ibrido.

Note

  1. Szabadföldi I., Artificial Intelligence in Military Application – Opportunities And Challenges, Land Forces Academy Review, 2021
  2. Rand Corporation, Military Applications of Artificial Intelligence, Ethical Concerns in an Uncertain World, 2020
  3. HRW and International Human Rights Clinic, 2012.
  4. HRW and International Human Rights Clinic, 2015.
  5. S.Hill, N.Marsan, Artificial Intelligence and Accountability: A Multinational Legal Perspective, NATO S&T Organization,
INFOGRAFICA
Orientati tra le opportunità del Piano Nazionale Transizione 4.0
Big Data
IoT
@RIPRODUZIONE RISERVATA

Articolo 1 di 4