Intelligenza artificiale in campo militare: stato dell’arte, scenari e ruolo dell’Italia - Agenda Digitale

Guerra e AI

Intelligenza artificiale in campo militare: stato dell’arte, scenari e ruolo dell’Italia

I modelli di Intelligenza Artificiale stanno trovando molti usi in campo bellico, con armi e sensori controllati a distanza. Ma ci sono ancora molti limiti e dubbi etici. Ecco il punto sull’AI usata in guerra e il ruolo del nostro Paese

17 Dic 2020
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

L’Intelligenza Artificiale è tra le tante tecnologie che promettono di cambiare il “volto della guerra” per gli anni a venire: lo dimostrano, recenti avvenimenti quali la recente uccisione dello scienziato iraniano Mohsen Fakhrizadeh che aveva un ruolo nel programma nucleare del Paese. È stata utilizzata una mitragliatrice a controllo satellitare dotata di Intelligenza Artificiale.

Ma anche il conflitto tra l’Armenia e l’Azerbaigian, per il possesso della regione del Nagorno-Karabakh: l’esercito azerbaigiano ha utilizzato droni dotati di AI.

Ci sono, insomma, già oggi svariate applicazioni che consentono a sistemi autonomi di condurre missioni, di sorvegliare un territorio, di automatizzare i compiti e di prendere le migliori e più rapide decisioni possibili da far impallidire qualsiasi militare. Vi sono tuttavia alcune sfide – e punti deboli – che attendono l’Intelligenza Artificiale applicata al campo militare. Facciamo il punto sullo stato dell’arte e gli scenari futuri.

Le applicazioni dell’AI in campo militare

Le prestazioni militari di questi sistemi possono renderli molto utili per compiti come, ad esempio: l’identificazione automatica di un carro armato russo T-90 con un’immagine satellitare; droni per l’identificazione di obiettivi umani di “alto valore” in mezzo alla folla utilizzando il riconoscimento facciale; la traduzione di testi in codice ovvero la generazione di testo da utilizzare nei vari contesti operativi.

WHITEPAPER
Computer quantistico: i player principali e la supremazia quantistica
Intelligenza Artificiale
Realtà virtuale

Ci sono robot in grado di scendere nei tunnel per esplorazione o per ripulire i campi minati.

Le aree di applicazione in cui l’Intelligenza Artificiale ha avuto più successo sono quelle in cui sono presenti grandi quantità di dati, come Imagenet, Google Translate e la generazione di testo. L’Intelligenza Artificiale è anche molto capace di dare il suo massimo in aree come i sistemi di raccomandazione (che aiutano la persona nelle sue scelte), il rilevamento di anomalie, i sistemi di previsione e i giochi competitivi.

Un sistema di Intelligenza Artificiale in campo militare potrebbe assistere le forze armate nell’individuazione delle frodi nei suoi servizi di appalto, prevedendo quando i sistemi di armamento saranno compromessi a causa di problemi di manutenzione, o sviluppando strategie vincenti nelle simulazioni di conflitti. Tutte queste applicazioni e altre ancora possono essere moltiplicatori di forza nelle operazioni quotidiane e nei vari teatri bellici presenti e futuri.

I Paesi più avanzati nell’uso di questi sistemi sono Usa, Russia, Cina, Israele, Corea del Sud e Regno Unito.

Un esempio attuale: il caso dello scienziato iraniano Fakhrizadeh

Secondo il vicecomandante del Corpo delle Guardie della Rivoluzione Islamica Ali Fadavi, per assassinare lo scienziato iraniano Mohsen Fakhrizadeh è stata utilizzata una mitragliatrice a controllo satellitare dotata di Intelligenza Artificiale.

Lo scorso 27 novembre, Mohsen Fakhrizadeh stava guidando su un’autostrada fuori dalla capitale iraniana Teheran scortato da undici Guardie della Rivoluzione, quando – a debita distanza – una mitragliatrice “intelligente” ha “zoomato” sul suo volto e ha sparato tredici colpi con grande precisione. La mitragliatrice, montata su un pickup Nissan, ha concentrato il fuoco solo sul volto dello scienziato iraniano in modo che sua moglie, nonostante fosse a soli venticinque centimetri di distanza da lui, non venisse colpita. Inoltre, sempre secondo fonti iraniane, il comando era stato impartito via satellite e utilizzando una telecamera avanzata dotata di Intelligenza Artificiale. Inoltre, non è stato trovato nessun soggetto sospetto nei dintorni. In definitiva, solo una guardia del corpo è rimasta ferita intercettando d’istinto i colpi diretti allo scienziato iraniano.

Dopo l’attacco sono emersi vari resoconti della morte dello scienziato, con il ministero della difesa di Teheran che, inizialmente, affermò che si trattava di uno scontro a fuoco con le guardie del corpo dello scienziato, mentre l’agenzia di stampa Fars sosteneva che lo avesse ucciso una mitragliatrice automatica telecomandata, senza citare alcuna fonte. Ciò che è stato dichiarato dai mass media iraniani è che l’arma è di fabbricazione israeliana. E questa dichiarazione, unito al mancato riscontro da parte di Tel Aviv – e alla dichiarazione di un alto funzionario dell’amministrazione Trump ai media statunitensi che dietro l’operazione ci fosse il Mossad, l’agenzia di intelligence israeliana –, non fa altro che buttare benzina sul fuoco sul già caldo scenario mediorientale. L’uccisione di Fakhrizadeh e i recenti attacchi ai gruppi sostenuti dall’Iran sono visti da alcuni analisti come un tentativo da parte di Israele di innescare una risposta militare da parte dell’Iran, fornendo un valido casus belli e non lasciando all’amministrazione del presidente eletto degli Stati Uniti Joe Biden alcuna via per rientrare nell’accordo nucleare iraniano, che Trump abbandonò 2018.[2]

Uno sguardo ai droni nel recente conflitto del Nagorno-Karabakh

Il recente conflitto che ha coinvolto l’Armenia e l’Azerbaigian, per il possesso della regione del Nagorno-Karabakh, ha visto l’utilizzo di droni “intelligenti” da parte dell’esercito di Baku. Mentre i grandi del pianeta si dividono su come “spartirsi” l’influenza sulla regione del Caucaso, gli occhi degli esperti di Intelligenza Artificiale in campo militare sono tutti sull’immenso valore della tecnologia utilizzata, un dato di fatto in quasi tutte le battaglie del XXI secolo. E proprio l’eredità di questo breve conflitto ci insegna che il possesso di armi all’avanguardia può fare la differenza ai nostri giorni.

Con la fine del conflitto, l’esercito (meglio equipaggiato) dell’Azerbaigian è stato ampiamente considerato il vincitore della “partita”, perché ha riconquistato porzioni chiave del Nagorno-Karabakh e ha costretto le forze armene a ritirarsi da aree strategicamente importanti. Aree che deteneva da un ventennio. Questo risultato è stato possibile solo perché l’Azerbaigian, armato di sistemi aerei senza equipaggio a basso costo e ad alta tecnologia – ossia i droni, acquistati dalla Turchia e da Israele – è stato in grado di accumulare una serie di impressionanti vittorie sul campo di battaglia, riuscendo a distruggere i carri armati e le attrezzature dell’era sovietica in dotazione all’esercito armeno. La proliferazione dei droni azeri si è rivelata una svolta, lasciando l’Armenia – già vincitrice sull’Azerbaigian nel 1994 nella medesima regione contesa – con poche opzioni militari praticabili.

Questo ha portato il primo ministro armeno Nikol Pashinyan a fare concessioni elevate che hanno scatenato proteste diffuse in tutto il suo Paese. L’esercito azero ha operato con piccoli gruppi di fanteria mobile dotati di armature leggere e alcuni carri armati moderni israeliani, sostenuti dai droni di fabbricazione turca Bayraktar TB2, da munizioni di fabbricazione israeliana, da artiglieria a lungo raggio e da missili moderni. Inoltre, le informazioni in mano agli azeri sono state fornite da droni di produzione israeliana e turca, che hanno anche fornito al comando militare di Baku un quadro preciso e in tempo reale della situazione del campo di battaglia in costante evoluzione.

Tuttavia, gli osservatori militari e gli analisti stranieri hanno un profondo timore che guerre condotte con droni telecomandati ed armamenti dotati di Intelligenza Artificiale, possano portare le battaglie ad un livello di efferatezza molto elevata, poiché verrebbe meno la componente umana. Così come si è concordi nel ritenere che una miriade di nazioni medio-piccole possono improvvisamente essere in possesso di veicoli e armi in grado di infliggere perdite significative anche ad un nemico più potente, e con un rischio relativamente basso per sé stessi. Gli analisti hanno anche indicato il recente conflitto tra Armenia e Azerbaigian come un altro esempio di come i carri armati e altri veicoli tradizionali da combattimento a terra non siano più i fattori decisivi sul campo di battaglia. Si pensi che l’Azerbaigian rilasciava regolarmente sui social media filmati di carri armati armeni in fiamme colpiti da droni. Infine, il conflitto ha anche sottolineato la necessità di sistemi difensivi in grado di combattere gli “sciami” di piccoli droni armati e di proteggere i veicoli terrestri e le truppe a terra.[3]

Come l’esercito italiano usa l’intelligenza artificiale

Tuttavia, dai droni turco-israeliani ai loro sistemi di contrasto il passo è breve. A fine ottobre scorso si è conclusa un’esercitazione nell’ambito del progetto Prometeo, con l’obiettivo di formare e addestrare gli operatori anti drone dei reparti controaerei dell’Esercito Italiano e di condurre attività di sperimentazione finalizzate allo sviluppo e ricerca di nuovi sistemi, sempre più performanti ed efficaci, per il contrasto a questa minaccia.

Nell’ambito del progetto sono stati messi in campo corsi e attività di sperimentazione che consentiranno il soddisfacimento delle esigenze formative e di professionalità necessarie per poter dotare l’Esercito Italiano di unità controaerei prontamente impiegabili in ogni tipologia di scenario, compreso quello con droni.

L’esercitazione ha consentito ai frequentatori del corso di acquisire la preparazione e le conoscenze necessarie per utilizzare i sistemi C-M/M APR Anti Drone Detecting and Dysabling System (AD3S) e Drone Dome, nonché per comprendere i processi di schieramento di un sistema antidrone in operazioni di combattimento, missioni di pace e sicurezza interna. Nel corso delle attività addestrative sono stati presentati nuove piattaforme di contrasto ai droni “nemici”, tra i quali il fucile jammer “WATSON”, nonché il “Drone Hunter” e il “GPS SPOOFING”.[4]

Ma le novità in “Casa Italia” non finiscono qui. Il Bel Paese sta progettando di acquistare fino a otto nuovi velivoli Gulfstream G-550 e di costruire un hub di manutenzione per velivoli simili operati da altre nazioni del Mediterraneo. I piani, che sono stati delineati in documenti forniti al Parlamento Italiano, rafforzeranno la capacità dell’Italia nel campo dell’intelligence in quanto il Mediterraneo è diventato un punto di riferimento per le tensioni regionali che riguardano, ad esempio, Turchia ed Egitto sul campo libico.

Il velivolo, che nasce come aereo business, sarà convertito in “aereo spia” grazie al supporto della ditta israeliana Elta Electronics Industries. Con le opportune modifiche, l’aereo – dotato di un sofisticato sistema multi-sensore che gli consente di svolgere missioni di sorveglianza aerea, comando, controllo e comunicazioni strumentale – sarà cruciale per la supremazia aerea e il supporto alle forze di terra italiane ed alleate.

Con un massimo di dieci G-550 in flotta, l’Italia realizzerebbe un’operazione di manutenzione che non solo servirebbe i propri aerei, ma sarebbe in grado di offrire servizi all’intera flotta di Gulfstream operante in Europa e in Medio Oriente, con la realizzazione di duecento posti di lavoro.[5][6]

L’AI dell’esercito USA

L’esercito più potente del mondo è anche il più avanzato nell’uso di IA.

Ha 7mila droni volanti e 12mila droni terrestri per esplorare, sorvegliare un territorio e identificare nemici. Ad esempio un cane robot per vigilare come una sentinella sulle basi e in grado di correre 32 km senza sosta.

O Black Hornet, un “calabrone” di 33 grammi che è un mini-drone di esplorazione con telecamere terminche.

I punti deboli dell’intelligenza artificiale in campo militare

Restano alcuni problemi da risolvere nell’uso dell’AI in ambito bellico.

L’accesso ai dati

La prima è che gli sviluppatori hanno bisogno di accedere ai dati. Molti sistemi di Intelligenza Artificiale sono addestrati utilizzando dati che sono stati etichettati da qualche sistemista esperto (ad esempio, etichettature di scene che includono una batteria di difesa aerea). I grandi dataset sono spesso etichettati da aziende che utilizzano metodi manuali. Ottenere questi dati e condividerli è una sfida, soprattutto per un’organizzazione che preferisce secretare i dati e limitarne l’accesso “agli estranei”.

Un esempio di dataset militare può essere quello con immagini prodotte da sistemi a visione termica ed etichettate da esperti per descrivere gli eventuali sistemi d’arma presenti nell’immagine. In questo caso, l’impossibilità di condividere questo con gli sviluppatori preposti non porterebbe ad un utilizzo efficace dell’Intelligenza Artificiale abbinata al dataset di riferimento.

Dimensioni e lentezza dei sistemi di AI

I sistemi di Intelligenza Artificiale sono anche vulnerabili quando diventano molto grandi e, di conseguenza, suscettibili di problemi di dimensionalità nonché di lentezza. Per esempio, addestrare una tecnologia a riconoscere le immagini di ogni possibile sistema d’arma esistente comporterebbe migliaia di categorie da utilizzare. Tali sistemi richiederebbero un’enorme quantità di potenza di calcolo e molto tempo dedicato a queste risorse. E poiché si sta addestrando un modello, il migliore richiederebbe una quantità infinita di queste immagini per essere completamente accurato. Questo è qualcosa che al momento non si può ottenere.

AI e regole “umane”

Inoltre, mentre si addestrano questi sistemi di Intelligenza Artificiale, spesso si cerca di costringerli a seguire regole “umane” come le regole della grammatica. Tuttavia, gli esseri umani spesso ignorano queste regole, il che rende difficile lo sviluppo di sistemi di Intelligenza Artificiale di successo per cose come l’analisi delle emozioni e il riconoscimento vocale. Infine, i sistemi di Intelligenza Artificiale possono funzionare bene in domini controllati e incontestabili. Tuttavia, la ricerca sta dimostrando che in condizioni di avversità, i sistemi di Intelligenza Artificiale possono essere facilmente ingannati, con conseguenti errori.

La capacità di elaborazione delle immagini

Ignorando gli sforzi del nemico per sconfiggere i sistemi di Intelligenza Artificiale che potrebbero essere impiegati, ci sono limiti a questi modelli apparentemente “superumani”. La capacità di elaborazione delle immagini da parte di sistemi dotati di Intelligenza Artificiale non è molto robusta quando si tratta di immagini diverse dal suo dataset di addestramento. Ad esempio, immagini in condizioni di scarsa illuminazione, con un’angolazione ad angolo ottuso o parzialmente oscurate. A meno che questi tipi di immagini non siano presenti nel dataset di addestramento, il modello potrebbe fare fatica (o non riuscire) ad identificare accuratamente il contenuto.

Le chatbot che potrebbero aiutare le missioni di informazione-operazione sono limitate a centinaia di parole e, quindi, non possono sostituire completamente un essere umano che può scrivere diverse pagine alla volta.

I sistemi di previsione, come lo strumento di previsione meteorologica Watson di IBM, lottano contro i problemi di dimensionalità e la disponibilità dei dati di input a causa della complessità dei sistemi che stanno cercando di modellare. La ricerca può portare alla soluzione di alcuni di questi problemi, ma pochi di essi saranno risolti con la rapidità prevista o desiderata.

L’incapacità dell’AI di svolgere più compiti contemporaneamente

Un altro semplice punto debole dei sistemi di Intelligenza Artificiale è la loro incapacità di svolgere più compiti contemporaneamente.

Un essere umano è in grado di identificare un veicolo nemico, decidere un sistema d’arma da impiegare contro di esso, prevedere il suo percorso, e poi ingaggiare il bersaglio. Questo insieme abbastanza semplice di compiti è attualmente impossibile da realizzare per un sistema di Intelligenza Artificiale. Nella migliore delle ipotesi, si potrebbe costruire una combinazione di sistemi dove i singoli compiti sono assegnati a modelli separati. Questo tipo di soluzione, anche se fattibile, comporterebbe un costo enorme per il rilevamento e la potenza di calcolo, per non parlare dell’addestramento e dei test del sistema. Molti sistemi di Intelligenza Artificiale non sono nemmeno in grado di trasferire il loro “apprendimento” all’interno dello stesso dominio. Ad esempio, un sistema addestrato ad identificare un carro armato russo T-90 molto probabilmente non sarebbe in grado di identificare un carro armato cinese Type 99 MBT, nonostante siano entrambi dei carri armati ed entrambi i compiti assegnati siano il riconoscimento delle immagini. Molti ricercatori stanno lavorando per consentire ai sistemi di trasferire il loro apprendimento in maniera automatica, ma sono ancora lontani anni dalla produzione.

Comprensione degli input e del contesto

I sistemi di Intelligenza Artificiale sono anche molto carenti nella comprensione degli input e del contesto al loro interno. I sistemi di riconoscimento di Intelligenza Artificiale non capiscono cosa sia l’immagine, ma semplicemente imparano le texture e i gradienti dei pixel dell’immagine stessa. Date le scene con gli stessi gradienti, i sistemi di Intelligenza Artificiale identificano prontamente porzioni dell’immagine in modo errato. Questa mancanza di comprensione può portare a classificazioni errate che gli esseri umani non farebbero, come ad esempio identificare una comune barca che transita su un lago come un veicolo anfibio BMP-1 di fabbricazione sovietica.

L’incapacità di spiegare come il sistema prende le decisioni

Questo porta ad un’altra debolezza di questi sistemi: l’incapacità di spiegare come hanno preso le loro decisioni. La maggior parte di ciò che accade all’interno di un sistema di Intelligenza Artificiale è una scatola nera e c’è ben poco che un essere umano possa fare per capire come il sistema prende le sue decisioni. Questo è un problema critico per i sistemi ad alto rischio come quelli che prendono decisioni “impegnative” o i cui risultati possono essere utilizzati in processi decisionali critici. La capacità di controllare un sistema e di capire perché ha commesso un errore è giuridicamente e moralmente importante. Inoltre, le questioni relative al modo in cui si valutano le responsabilità nei casi in cui l’Intelligenza Artificiale è coinvolta sono questioni ancora aperte. Ci sono stati molti esempi di sistemi di Intelligenza Artificiale che hanno preso decisioni sbagliate basate su pregiudizi (bias) nascosti in aree come l’approvazione dei prestiti e la determinazione della libertà condizionale. Purtroppo, spiegare alcuni comportamenti dell’Intelligenza Artificiale sarà ancora difficile per molti anni a venire.

Correlazione e causalità

I sistemi di Intelligenza Artificiale fanno anche fatica a distinguere tra correlazione e causalità. Il famigerato esempio spesso utilizzato per illustrare la differenza è la correlazione tra morti per annegamento e le vendite di gelati, entrambi in estate. Un sistema di Intelligenza Artificiale alimentato con statistiche su questi due elementi non saprebbe che i due modelli sono correlati solo dal fattore “stagionale” e potrebbe concludere che per prevenire le morti per annegamento bisognerebbe limitare le vendite di gelati. Questo tipo di problema potrebbe manifestarsi in un sistema di prevenzione delle frodi militari che viene alimentato con dati sugli acquisti mensili. Un tale sistema potrebbe erroneamente concludere che le frodi aumentano a settembre, quando la spesa aumenta, quando in realtà è solo una funzione delle abitudini di spesa di fine anno.

Il “contrattacco cibernetico”

Anche senza queste “debolezze” dell’Intelligenza Artificiale, il principale settore di cui i paesi dovrebbero occuparsi al momento è quello del “contrattacco cibernetico”. Bisogna presumere che i potenziali avversari cercheranno di ingannare o rompere qualsiasi sistema di Intelligenza Artificiale accessibile utilizzato. Si tenterà di ingannare i motori di riconoscimento delle immagini e i sensori; i cyberattacchi cercheranno di eludere i sistemi di rilevamento delle intrusioni; e i sistemi logistici saranno alimentati con dati alterati per intasare le linee di alimentazione con falsi requisiti. Tali attacchi possono essere suddivisi in quattro categorie: evasione, inferenza, avvelenamento ed estrazione. È stato dimostrato che questi tipi di attacchi sono facili da realizzare e spesso non richiedono competenze informatiche di rilievo.

Gli attacchi di evasione

Gli attacchi di evasione tentano di ingannare un sistema di Intelligenza Artificiale nella speranza di evitare il rilevamento, ad esempio nascondendo un attacco cibernetico, o convincendo un sensore che un carro armato è uno scuolabus (e, quindi, non va attaccato). L’abilità primaria di sopravvivenza del futuro può essere la capacità di nascondersi dai sensori di Intelligenza Artificiale. Di conseguenza, i militari potrebbero aver bisogno di sviluppare un nuovo tipo di mimetizzazione “con Intelligenza Artificiale” per sconfiggere il nemico, perché è stato dimostrato che semplici tecniche di offuscamento come il posizionamento strategico di un dato dispositivo può ingannare il sistema dotato di Intelligenza Artificiale.

Gli attacchi di inferenza

Gli attacchi di evasione sono spesso preceduti da attacchi di inferenza che acquisiscono informazioni sul sistema di Intelligenza Artificiale che possono essere utilizzate per consentire attacchi di evasione.

Gli attacchi di avvelenamento

Gli attacchi di avvelenamento, invece, prendono di mira i sistemi di Intelligenza Artificiale durante l’addestramento per raggiungere il loro intento. In questo caso la minaccia sarebbe l’accesso del nemico ai dataset utilizzati per addestrare i sistemi delle forze armate. Possono essere inserite immagini errate di veicoli per ingannare i sistemi di puntamento o dati di manutenzione manipolati per classificare un guasto imminente del sistema come normale funzionamento dello stesso. Date le vulnerabilità delle catene di fornitura, ciò non sarebbe inimmaginabile, considerando anche che sarebbe difficile da rilevare.

Gli attacchi di estrazione

Gli attacchi di estrazione, infine, sfruttano l’accesso all’interfaccia dell’Intelligenza Artificiale per imparare abbastanza sul funzionamento dei sistemi, così da creare un modello parallelo del sistema. Se i sistemi di Intelligenza Artificiale non sono al sicuro da utenti non autorizzati, allora questi ultimi potrebbero prevedere le decisioni prese dagli stessi sistemi e utilizzare tali previsioni a loro vantaggio. Si potrebbe immaginare un nemico che preveda come un sistema non presidiato dall’Intelligenza Artificiale risponderà a certi stimoli visivi ed elettromagnetici e quindi influenzerà il suo percorso e il suo comportamento.

Il futuro dell’intelligenza artificiale per la guerra

L’Intelligenza Artificiale avrà certamente un ruolo nelle future applicazioni militari. Sono molte le aree di applicazione in cui aumenterà la produttività, ridurrà il carico di lavoro degli utenti e opererà più rapidamente degli esseri umani. La ricerca in corso continuerà a migliorare la sua capacità e resilienza. I militari non possono, in pratica, ignorare questa tecnologia.

Poiché se un paese non la accettasse, lo farebbero i propri nemici. Tuttavia, collocare sistemi di Intelligenza Artificiale vulnerabili in ambiti controversi e renderli responsabili di decisioni critiche può portare a risultati disastrosi.

In questo momento, gli esseri umani devono rimanere responsabili delle decisioni chiave.

Le aree migliori in cui investire

Data l’alta probabilità che i sistemi di Intelligenza Artificiale esposti vengano attaccati e l’attuale mancanza di resilienza nelle tecnologie di Intelligenza Artificiale, le aree migliori per investire sono quelle che operano in domini non contestati (in campo militare). Gli strumenti di Intelligenza Artificiale che sono strettamente supervisionati da esperti umani o che hanno input e output sicuri possono fornire valore alle forze armate di un paese, alleviando al contempo le preoccupazioni circa le sue vulnerabilità interne.

Esempi di tali sistemi sono gli strumenti diagnostici per l’acquisizione di immagini mediche, le applicazioni di previsione degli errori di manutenzione e i programmi di rilevamento delle frodi. Tutti questi sistemi possono fornire valore in campo militare, limitando al contempo il rischio di attacchi da parte di nemici, dati di parte, incomprensione del contesto e altro ancora.[1]

  1. Artificial Intelligence is the future of warfare (just not in the way you think). Modern War Institute. https://mwi.usma.edu/artificial-intelligence-future-warfare-just-not-way-think/#:~:text=Artificial%20intelligence%20is%20among%20the,warfare%20for%20years%20to%20come.&text=Visions%20exist%20of%20AI%20enabling,better%2C%20quicker%20decisions%20than%20humans.
  2. Iran says nuclear scientist killed by ‘artificial intelligence’ machine gun. Middle East Eye. https://www.middleeasteye.net/news/iran-says-top-nuclear-scientist-killed-artificial-intelligence-machine-gun
  3. Drones, use of AI offer taste of 21st century conflict in Armenia-Azerbaijan clash. The Washington Times. https://www.washingtontimes.com/news/2020/nov/15/azerbaijan-uses-drones-ai-beat-back-armenia/
  4. Al Centro di Eccellenza di Sabaudia addestramento per operatori anti drone e sperimentazione di nuovi sistemi tecnologici. Esercito Italiano. http://www.esercito.difesa.it/comunicazione/Pagine/prometeo2020_201030.aspx
  5. Italy lays out plans to buy up to eight new sensor-loaded Gulfstreams. Defense News. https://www.defensenews.com/global/europe/2020/12/02/italy-lays-out-plans-to-buy-up-to-eight-new-sensor-loaded-gulfstreams/
  6. L’Italia a caccia di nuovi aerei spia. Inside Over. https://it.insideover.com/guerra/litalia-a-caccia-di-nuovi-aerei-spia.html

E-Guide
Fashion e luxury retail: nuove strategie grazie ad AI e customer experience
Fashion
Intelligenza Artificiale
@RIPRODUZIONE RISERVATA

Articolo 1 di 2