Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

gli scenari

Intelligenza Artificiale per la pubblica sicurezza: utilizzi e rischi sociali

Sono numerosi i potenziali utilizzi dell’intelligenza artificiale per la sicurezza pubblica, nella prevenzione del crimine e in ambito militare. Ma il contro altare sono rischi sociali importanti, per la democrazia e i nostri diritti civili. Temi sui quali c’è un crescente dibattito. Ecco il quadro

16 Gen 2019

Danilo Benedetti

Security Solutions Architect

3D illustration. Artificial intelligence connections and nucleus in concept of interconnected neurons. Abstract background with binary numbers neural network and cloud computing.

La discussione sulle applicazioni di intelligenza artificiale negli ambiti della sicurezza pubblica e della difesa e sui rischi ad esso connessi negli ultimi anni ha lasciato i recinti dell’accademia e dei centri di ricerca per approdare su quotidiani e riviste, tratteggiando l’ombra di un “grande fratello” elettronico prossimo venturo, di “killer robot” fino ad adombrare potenziali rischi esistenziali per l’umanità stessa. Cerchiamo qui di esaminare le applicazioni, gli scenari e i possibili rischi.

Intelligenza artificiale e pubblica sicurezza

In generale, abbiamo visto che le applicazioni di intelligenza artificiale esprimono la loro massima utilità ed efficacia nella ricerca e individuazione di specifici “pattern” all’interno di database con grandissime moli di dati.

E’ evidente quindi la sua impiegabilità, ad esempio come supporto alle indagini, nell’ambito della pubblica sicurezza. Alcune applicazioni di intelligenza artificiale, peraltro di dominio pubblico da alcuni anni, quali il riconoscimento facciale, quello della voce o la ricerca in documenti non strutturati, sono utilizzate nell’ambito della pubblica sicurezza, potenziando o rendendo più veloci alcuni aspetti di un’indagine.

Ad esempio, il riconoscimento dei volti può essere utilizzato per rendere più veloce l’identificazione di un ricercato di cui sono note le sembianze, andando a confrontare la foto o l’identikit in possesso degli inquirenti con il database di foto su patenti, carte d’identità e passaporti[1].

Per quanto riguarda le conversazioni, è necessario distinguere tra riconoscimento del parlato (speech recognition) e riconoscimento della voce (voice recognition). Nel primo caso si tratta di tecnologie in grado di convertire la lingua parlata in parole scritte, che è quanto si fa nelle intercettazioni telefoniche tradizionali. Nel secondo caso, invece, si usa la traccia vocale per identificare il parlatore, e può essere usato ad esempio nell’ambito di intercettazioni ambientali. Si tratta dunque di tecnologie rivolte ad usi differenti, ma che permettono una maggiore facilità di accesso e un maggiore campo di utilizzo per i sistemi di intercettazione vocale. Per dare un’idea delle potenzialità aperte dal riconoscimento del parlato, possiamo fare riferimento alle rivelazioni di Edward Snowden, grazie alle quali sappiamo ad esempio che tale tecnologia (si veda qui[2] e qui[3]) è stata usata per trascrivere conversazioni intercettate, per abilitare la ricerca tramite parole chiave su intercettazioni vocali e infine per “evidenziare” conversazioni in cui apparivano più parole considerate rilevanti.

IA e prevenzione del crimine (scopi e criticità)

Un ulteriore ambito di utilizzo dei sistemi di intelligenza artificiale è rappresentato dai cosiddetti sistemi di prevenzione del crimine, il cui scopo è analizzare volumi enormi di dati per identificare comportamenti potenzialmente a rischio, in maniera analoga a quanto si fa, su scala meno ambiziosa, per la rilevazione delle frodi o degli attacchi informatici. Chiaramente l’obiettivo non è quella di avere un sistema alla “Minority report”, dove un’unita speciale anticrimine era in grado di arrestare le persone prima che commettessero un crimine, grazie alle doti divinatorie di tre “Precog”, mutanti con capacità, appunto, precognitive, piuttosto l’obiettivo è realizzare un sistema software in grado di identificare i casi che presentano pattern di comportamento più a rischio. Un esempio di questo genere è citato dal Wall Street Journal già nel 2015, con l’annuncio che un certo numero di città statunitensi avevano iniziato dei test per il software, sviluppato da una grande multinazionale giapponese, finalizzato proprio alla prevenzione del crimine basandosi sull’analisi dei dati provenienti dai vari database Federali, incrociati con informazioni tratte, ad esempio, dai social network.

Un altro esempio è costituito dalle cosiddette “crime map” o mappe del crimine, piuttosto diffuse ad esempio negli Stati Uniti. Queste utilizzano i dati relativi a crimini e arresti degli anni passati, con informazioni relative ad esempio al consumo di droga, per generare una mappa della città con indicate le aree a più alta densità criminale. Tali mappe sono utilizzate per regolare i presidi della polizia, incrementandoli in quelle aree dove viene segnalata la più alta probabilità del ripetersi di crimini.

Un simile tool ha però degli importanti difetti: il primo è che esso si limita a “rappresentare il passato”, senza la capacità di individuare prontamente nuovi trend, quindi la sua capacità predittiva è limitata. Il secondo tema è legato, ancora una volta, alla qualità dei dati disponibili, ovvero dei report di polizia e delle denunce fatte, e il terzo è che, se usato senza le dovute cautele, può riprodurre e approfondire la polarizzazione preesistente su un territorio, generando delle profezie che si auto-avverano. Una maggiore presenza poliziesca in un’area è probabile che generi una maggiore rilevazione di crimini, che vengono quindi riportati nel database del software che genera la crime map, il quale indicherà proprio nell’area già presidiata una maggiore probabilità del verificarsi di eventi criminosi, spingendo ad un ulteriore incremento del presidio da parte dell forze di polizia, in una spirale che si autoalimenta. Proprio in virtù di questo rischio, l’uso delle crime map è stato anche criticato negli Stati Uniti, in quanto può rappresentare un potenziale strumento di discriminazione verso le minoranze, specialmente di colore, in quanto è stato dimostrato che questi sistemi tendono a identificare le zone abitate prevalentemente da persone di colore come più a rischio, rinforzando così per il processo visto sopra, un polarizzazione di giudizio magari preesistente[4].

Maggiore sicurezza vs limitazione delle libertà civili

Se l’adozione di queste tecnologie predittive e di controllo porta con se la promessa di poter garantire una maggiore sicurezza ai cittadini, molti si interrogano sui rischi per le libertà civili che una massiccia adozione di queste tecnologie può comportare. Ad esempio, il perfezionamento delle capacità di accesso a dati non testuali, unito alla possibilità di raccogliere e mantenere per periodi di tempo lunghi registrazioni audio, conversazioni telefoniche, immagini di telecamere a circuito chiuso e, in generale, ogni altro tipo di evidenza che, prima dell’avvento dell’Intelligenza Artificiale, doveva essere analizzata esclusivamente da persone in carne e ossa, se da una parte facilita il compito delle polizie di tutto il mondo, dall’altra parte si presta ad usi (e abusi) per quegli Stati che abbiano interesse a limitare la libertà dei propri cittadini. Purtroppo qualche esempio di questo distopico futuro non ha tardato a manifestarsi: paesi come la Cina stanno già integrando queste capacità – accesso ad estesissime basi di dati, registrazione delle attività, riconoscimento facciale – per limitare o reprimere gli esponenti dell’opposizione al regime[5].

Le capacità offerte dall’Intelligenza Artificiale in questo campo sono ancora una volta bivalenti: da una parte la promessa di una maggiore sicurezza ed efficacia della Polizia non può che essere benvenuta dai cittadini, ma d’altro canto sono evidenti gli usi potenzialmente rischiosi e antidemocratici che possono esserne fatti. Il trade-off tra sicurezza e privacy è sempre lo stesso: siamo disposti ad abbandonare un po’ della nostra privacy per una maggiore sicurezza? Prima di rispondere affermativamente, è bene riflettere che l’aumento di sicurezza potrebbe essere momentaneo, se non illusorio, mentre la perdita della privacy rischia di divenire permanente.

Ovviamente di pari passo agli sviluppi per proteggere dati, infrastrutture e persone, procedono anche le applicazioni potenziali delle tecniche di IA per potenziare le capacità offensive degli apparati militari. Vedremo nel prossimo capitolo alcuni esempi di impieghi dell’Intelligenza Artificiale in ambito militare o per effettuare attacchi legati alla sfera politica e sociale di un paese.

Intelligenza artificiale e scenari per la Difesa

Se allarghiamo lo sguardo a scenari più ampi, ci accorgiamo che l’intelligenza artificiale è ormai considerata un elemento di enorme valenza strategica e un terreno su cui le potenze USA, Russia e Cina hanno dichiarato di essere pronte a competere. La situazione è stata ben riassunta da Vladimir Putin in un discorso tenuto in occasione dell’inizio dell’anno accademico 2017-18, nel quale il Presidente russo, parlando dell’intelligenza artificiale ha affermato: “Chi sviluppa la migliore, governa il mondo”[6].

Sul fronte statunitense iniziano ad essere di pubblico dominio le riflessioni sui potenziali impatti strategici legati agli sviluppi dell’Intelligenza Artificiale. Ad esempio, nel 2016 il Department of Defence (DoD) ha pubblicato uno studio circa l’impiego di sistemi autonomi, in particolare basati su Intelligenza Artificiale, in ambito militare[7]. Sulla stessa linea di riflessione, il centro studi Belfer di Harvard ha pubblicato nel 2017 uno studio per delineare le politiche governative da applicare per sfruttare e governare gli effetti militari legati a queste tecnologie[8]. Lo studio valuta che l’introduzone di sistemi basati sull’Intelligenza Artificiale per impieghi militari potranno avere un impatto sugli equilibri strategici analogo a quello prodotto dallo sviluppo dell’arma nucleare. Simili analisi non sono prese alla leggera: uno studio più recente[9] mostra infatti come la spesa annuale per la ricerca nel campo dell’intelligenza artificiale da parte del Department of Defence (DoD) sia radoppiata nel quinquennio 2012 – 2017, passando da 400  a 800 milioni di dollari.

Anche la Cina si sta muovendo per raggiungere la leadership – civile e militare – in questo ambito tecnologico. A luglio 2017 il Consiglio di Stato cinese ha varato una strategia per raggiungere la leadership nel settore dell’IA entro il 2030. Il piano punta ad utilizzare queste tecnologie per rafforzare la crescita economica, grazie alle ricadute industriali, e contribuire a gestire efficacemente la società cinese. Il governo cinese non trascura però gli aspetti militari, riconoscendo che le tecnologie basate su IA avranno un ruolo critico nello sviluppo del proprio potenziale bellico. Va infatti sottolineato che il piano prevede esplicitamente una integrazione tra usi civili e militari, privilegiando le ricerca di quelle tecnologie che si prestano ad un “doppio uso”.

Lo sviluppo dei “robot killer”

L’elemento più minaccioso di queste ricerche, e di certo quello che più preoccupa l’opinione pubblica, è lo sviluppo dei cosiddetti “Robot Killer”, ovvero macchine che, potenziate dalle tecnologie rese possibile dall’impiego di algoritmi di intelligenza artificiale, possano essere “rilasciate” su un campo di battaglia per raggiungere autonomamente degli obiettivi con minima o nulla supervisione umana.

La definizione che il Department Of Defence (DoD) degli Stati Uniti dà di questi sistemi è la seguente: un sistema d’arma che, una volta attivato, può selezionare e attaccare i propri bersagli senza la necessità di ulteriori interventi da parte di un operatore umano. Sono inclusi anche i sistemi d’arma nei quali l’uomo funge da supervisore, progettati in modo tale che l’operatore possa bloccarne il funzionamento, ma che possono comunque selezionare e attacare i bersagli senza necessità di ulteriori azioni dell’operatore dopo la loro attivazione[10].

In realtà l’impiego di sistemi automatici/autonomi in campo militare non è una novità: si possono citare ad esempio i missili “fire and forget” capaci di seguire autonomamente un aereo nemico per abbatterlo, mentre il pilota che li ha lanciati può dedicarsi ad altri bersagli o lasciare il campo di battaglia, oppure le bombe, non a caso dette “intelligenti”, in grado di governare la propria traiettoria di caduta per colpire un bersaglio con una precisione altrimenti impossibile, o infine, ad un livello tecnologico molto meno avanzato, le stesse mine antiuomo.

I sistemi citati sono sistemi in cui il controllo dell’operatore umano è detto “in the loop”: il sistema automatico non può iniziare l’attacco senza il preventivo consenso dell’uomo, che quindi è un elemento chiave nel ciclo (loop) rilevazione, analisi, decisione, azione. Lo scenario paventato da molti prevede invece un controllo “out of the loop” da parte dell’uomo, che può quindi rilasciare sul campo di battaglia un sistema d’arma veramente autonomo nella scelta e l’ingaggio di bersagli, mentre il supervisore umano si limita a verificare, durante l’azione o al termine di essa, che il sistema abbia agito secondo parametri operativi (o etici) preimpostati, ovvero rispettando le regole di ingaggio.

Sistemi di questo tipo sono considerati da più parti potenzialmente molto pericolosi per l’umanità, tanto che una loro messa al bando è stata richiesta fin dal 2012[11]. Allo stato attuale però il raggiungimento di un accordo sul loro bando preventivo sembra del tutto irrealizzabile, anche perché non sono ancora chiari gli scenari di utilizzo, che in alcuni casi potrebbero rivelarsi meno letali, in termini di potenziali vite umane perdute, di una forza armata interamente convenzionale. E’ certo però che le spinte verso lo sviluppo di sistemi completamente autonomi sul campo di battaglia sono forti: i potenziali vantaggi della loro applicazione riguardano un minor impiego di risorse umane, intese sia come soldati sia come operatori dei sistemi stessi; una maggiore resistenza agli attacchi di tipo elettronico, perché un sistema controllato remotamente da un operatore umano è maggiormente suscettibile ad interferenze sul canale di controllo e a cyber attacchi. Infine, sistemi a controllo diretto potrebbero presto rivelarsi troppo lenti per competere contro sistemi d’arma interamente autonomi.

Alla luce degli innumerevoli vantaggi tattici e strategici che i sistemi d’arma autonomi paiono rappresentare, è difficile pensare che gli sforzi tesi a limitarne la ricerca e lo sviluppo possano, nel breve, avere successo, soprattutto quando esempi di applicazione reale stentano ancora a manifestarsi. Probabilmente sarà solo quando i primi sistemi veramente autonomi saranno realizzati e noti al grande pubblico, che il movimento per la loro messa al bando riceverà una spinta forse determinante, in maniera analoga a quanto avvenne con il proliferare dell’arma nucleare.

I pericoli del deepfake

Accanto alle applicazioni più prettamente militari dell’Intelligenza Artificiale, devono essere però almeno citati altri scenari di impiego ostile ma non necessariamente militare. Sono ormai largamente diffuse applicazioni di sistemi di Intelligenza Artificiale in grado di creare contenuti audio-video artificiali e realistici, capaci ad esempio di alterare le espressioni del volto e i movimenti della bocca di un individuo e altri capaci di generare audio con discorsi apparentemente pronunciati da qualsiasi persona, purché sia disponibile un quantitativo di audio originale sufficientemente esteso. Già oggi è possibile creare dei prodotti audio-video contraffatti, i cosiddetti “deepfake”, utilizzando applicazioni gratuite reperibili in rete.

Queste tecnologie sono potenzialmente in grado di alterare profondamente il legame fra prove audio-video e verità, e rendono dunque possibili scenari in cui attacchi combinati, ad esempio cyber-attacchi alle infrastrutture informatiche o atti di terrorismo, affiancati dalla diffusione di notizie false supportate da contenuti mediatici contraffatti, possano essere usati per diffondere il panico e minacciare la stabilità degli Stati[12]. Inoltre questo tipo di contraffazioni si presta ad attacchi contro le catene di comando, inclusa quella militare, perché la trasmissione di ordini e informazioni può essere esposta al rischio di falsificazione.

Intelligenza Artificiale: una minaccia esistenziale?

Prima di concludere il capitolo, è opportuno accennare alla cosiddetta “minaccia esistenziale” che lo sviluppo di un’intelligenza artificiale “completa” potrebbe rappresentare, a detta di alcuni, per l’intera umanità. Il tema, peraltro già dibattuto in numerose opere di fantasia (si pensi a film come “Generazione Colossus”, “The Matrix”, “Terminator”, per citare solo tre fra i più noti), è recentemente tornato sotto i riflettori dopo che personaggi molto in vista, ad esempio Elon Musk[13], CEO di Tesla, o il fisico di fama mondiale Stephen Hawking[14], hanno dichiarato che lo sviluppo dell’intelligenza artificiale potrebbe portare alla fine dell’umanità.

I rischi citati sono di due tipi differenti: da una parte il rischio che la “corsa agli armamenti” dotati di crescente autonomia possa portare ad un vero scontro armato, dovuto magari alla percezione della necessità di sfruttare un significativo vantaggio strategico. L’altro tipo di rischio paventato è legato allo sviluppo di una intelligenza talmente superiore a quella umana da divenire, di fatto, l’arbitro della futura esistenza dell’umanità stessa. Qui discuteremo questo secondo punto di vista, senza prendere posizione circa le argomentazioni tecnologiche e filosofiche sulla reale possibilità che una Intelligenza Artificiale “generalista” possa essere sviluppata, possibilità sulla quale sono stati espressi anche molti, fondati dubbi[15].

Il rischio di una corsa agli armamenti rappresenta uno scenario classico, nel quale gli avversari si aspettano di trarre un vantaggio strategico significativo dallo sviluppo di tecnologie belliche. Chi per primo ritenesse di averlo ottenuto, potrebbe essere tentato di sfruttare il momento per attaccare i propri avversari e azzerare la loro possibilità di raggiungere i medesimi risultati. Un’eventualità del genere non è peregrina: dopo la fine della seconda guerra mondiale gli Stati Uniti, che tra il 1945 e il 1949 erano l’unica potenza dotata della capacità di costruzione di armi nucleari, vagliò l’ipotesi di un “first strike” contro l’Unione Sovietica per impedire a quest’ultima di dotarsi in futuro della stessa capacità. Ovviamente in quel caso il tipo di attacco avrebbe avuto conseguenze devastanti per tutti, e i costi umani e politici sarebbero stati enormi anche per gli stessi Stai Uniti, che infatti non andarono oltre un dibattito teorico.

Nel caso dello sviluppo a fini offensivi di sistemi basati sull’intelligenza artificiale, invece, si potrebbero presentare scenari molto meno “costosi” in termini etici: si pensi ad armamenti in grado di distruggere i sistemi informatici dell’avversario, magari in maniera selettiva, alla capacità di procedere all’eliminazione mirata dei ricercatori di punta delle nazioni avversarie, oppure a sistemi supportati dall’intelligenza artificiale in grado di ottenere per via politica la rinuncia a questo filone di ricerca. Se i costi – materiali e d’immagine – di un simile attacco fossero sufficientemente bassi, ciò renderebbe molto più attraente lo scenario di un attacco preventivo. Di contro, una nazione che temesse i suoi avversari prossimi al raggiungimento di queste capacità, potrebbe ricorrere ad una guerra preventiva per impedire l’ottenimento di un tale vantaggio strategico.

Nello scenario paventato da Hawking, invece, il rischio di cui si parla è relativo alla possibilità che la tecnologia giunga a creare un sistema in grado di evolvere e migliorarsi autonomamente, accrescendo le proprie capacità cognitive fino a divenire una “superintelligenza”, con capacità, velocità di esecuzione e obiettivi completamente al di fuori del controllo umano. Questa paura può essere fatta risalire all’osservazione del matematico Irving John Good nel 1960:

Definiamo come superintelligente una macchina che può superare tutte le capacità intellettuali di ogni uomo, non importa quanto intelligente. Poiché la progettazione di macchine è una di queste attività intellettuali, una macchina superintelligente potrebbe progettare macchine con prestazioni ancora superiori. Senza dubbio ci sarebbe allora una ‘esplosione di intelligenza che lascerebbe irrimediabilmente indietro la capacità intellettiva dell’uomo. Così la prima macchina superintelligente rappresenterebbe l’ultima invenzione che uomo avrebbe bisogno di fare, purché la macchina si riveli abbastanza docile da indicarci come tenerla sotto controllo[16].”

In realtà nessuno sa quali sarebbero le capacità di una simile superintelligenza. Alcuni autori usano come termine di paragone la differenza fra l’intelligenza umana e quella di un animale con capacità cognitive generali meno sviluppate[17]. Oggi il destino di molte specie animali con capacità cognitive generali limitate rispetto a quelle umane, dipende in larga misura dalle azioni dell’uomo, il quale può provocare (e ha provocato più volte in passato) estinzioni di intere specie animali, a volte anche solo come risultato indiretto delle proprie azioni: si pensi alle specie a rischio di estinzione a causa della sparizione di interi habitat, cancellati per fare spazio ad attività umane quali l’agricoltura o l’edificazione. Una superintelligenza potrebbe dunque porre la nostra specie in una situazione analoga.

Per questo motivo cominciano ad apparire ricerche[18] e petizioni[19] che delineano i potenziali problemi causati dallo sviluppo di sistemi intelligenti sempre più capaci e autonomi, e suggeriscono delle politiche o direttrici di ricerca prioritarie per garantire che gli effetti di tali tecnologie siano benefici per l’umanità e possano mantenersi tali.

Conclusioni

Le tecnologie basate sull’intelligenza artificiale sembrano destinate a crescere di importanza e di capacità. Al momento assistiamo al proliferare di intelligenze limitate, capaci, di fare una cosa sola alla volta – giocare a scacchi, riconoscere volti, capire semplici frasi, tradurre – ma da molte parti si pensa e si teme che un giorno tale linea di sviluppo finisca per superare una sorta di soglia invisibile, creando una intelligenza artificiale generale, con capacità analoghe o superiori a quelle umane. C’è chi definisce questa la “discontinuità”, ovvero un momento dirompente per la nostra specie al di là del quale l’evoluzione della storia sarà completamente diversa e impredicibile rispetto ai nostri canoni attuali.

Un elemento su cui riflettere è che l’introduzione di sistemi intelligenti, capaci di migliorare l’efficacia di un singolo attacco – cyber o tradizionale – richiedono una risposta ugualmente basata sull’intelligenza artificiale, o per migliorare la capacità di rilevamento dell’attacco, o per fronteggiare un numero superiore di attacchi. Questo significa che, a meno di limiti operativi non ancora individuati che costituiscano un limite allo sviluppo delle capacità dell’intelligenza artificiale, l’impiego di sistemi autonomi ed intelligenti è destinato ad aumentare molto velocemente.

Questo cambiamento necessiterà, assai probabilmente, di un adattamento a livello sociale e politico e non solo tecnologico, per permettere alla società di gestire tale transizione raccogliendone i benefici potenziali senza esserne travolta. Adattamenti a livello giuridico e normativo sono auspicabili per favorire l’impiego e lo sviluppo di simili tecnologie per aumentare il benessere e la sicurezza delle persone, ed al contempo escludere o almeno limitare i possibili effetti negativi sulla privacy e sui diritti.

___________________________________________________________________

  1. Si veda, ad esempio, la dsclosure dell’FBI sul tema della ricerca per immagini, reperibile qui: https://www.fbi.gov/news/testimony/law-enforcements-use-of-facial-recognition-technology
  2. Una valutazione dell’utilizzo di tecnologie di Speech Recognition fatta dalla Nationa Security Agency (NSA) può essere trovata qui: https://theintercept.com/2015/05/05/nsa-speech-recognition-snowden-searchable-text/
  3. Fracesco Vitali “L’oro nero dei dati”, con in appendice Danilo Benedetti “Come si fa un’intercettazione” su Limes di Luglio 2014 “A che servono i servizi”.
  4. Per una discussione della polarizzazione di questi sistemi, si veda ad esempio questo articolo su Businessinsider: http://www.businessinsider.com/predictive-policing-discriminatory-police-crime-2016-10?IR=T
  5. “China’s brave new world of AI”, su Forbes, 30 agosto 2018.
  6. Cfr. Ad esempio Corriere della Sera Tecnologia del 4 settembre 2017.
  7. Department of Defense, Defense Science Board: “Summer Study on Autonomy”
  8. Harvard Kennedy School, Belfer Center: “Artificial Intelligence and National Security”, luglio 2017
  9. Harvard Kennedy School, Belfer Center: “Artificial Intelligence and National Security” pag 5, aprile 2018
  10. “A weapon system that, once activated, can select and engage targets without further intervention by a human operator. This includes human-supervised autonomous weapon systems that are designed to allow human operators to override operation of the weapon system, but can select and engage targets without further human input after activation.” U.S. DEP’T OF DEF., Directive 3000.09, AUTONOMY IN WEAPON SYSTEMS 13-14, 2 Novembre 2012, reperibile qui: http://www.dtic.mil/whs/directives/corres/pdf/300009p.pdf
  11. “Losing Humanity. The Case against Killer Robot”. Human Right Watch, Novembre 2012. https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots
  12. Belfer. Cit. Pag 33
  13. “Elon Musk, da intelligenza artificiale rischi guerra mondiale”, articolo su Ansa.it TLC del 5 settembre 2017.
  14. “Stephen Hawking warns artificial intelligence could end mankind”, articolo su BBC Technology del 2 dicembre 2014: http://www.bbc.co.uk/news/technology-30290540
  15. Si veda ad esempio “Should we be afraid of AI?” di Luciano Floridi, reperibile qui: https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible
  16. Ciatata nell’articolo “Intelligence Explosion” di Wikipedia: https://en.wikipedia.org/wiki/Intelligence_explosion. La traduzione è dell’A.
  17. “Superintelligence: Paths, Dangers, Strategies” di Nick Bostrom
  18. Belfer, cit.
  19. “research priorities for robust and beneficial artificial intelligence”, Future of Life institute: https://futureoflife.org/ai-open-letter/

@RIPRODUZIONE RISERVATA

Articolo 1 di 4