Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

la riflessione

Se l’Intelligenza Artificiale uccide: un’etica per auto e armi autonome

Quando si parla di intelligenza artificiale si tende a prefigurare anche scenari cupi. Due gli ambiti più problematici: armi e guida autonoma. Una riflessione approfondita sull’etica e la morale nella robotica, la neuroetica e le scelte morali simulate computazionalmente, i dilemmi che inevitabilmente andranno affrontati

21 Set 2018

Alessio Plebe

Università degli Studi di Messina


Esiste un numero limitato di campi applicativi in cui l’attuale Intelligenza Artificiale può configurasi come lesiva nei confronti dell’uomo. In particolare si possono individuare due specifici settori in cui la minaccia arriva ad essere letale: le armi autonome e la guida autonoma.

Non è certo sorprendente: in entrambi i casi si tratta di estendere in sofisticazione dei comparti tecnologici che già nelle loro forme tradizionali conducono ad un drammatico sacrificio di vite umane. Intenzionalmente, nel caso degli armamenti, come spiacevole effetto collaterale per i trasporti. La transizione verso la totale autonomia implica però un salto concettuale delicato, nello spostamento della responsabilità morale di uccidere esseri umani, da altri esseri umani a macchine. Effettuare un salto del genere sembrerebbe richiedere all’artificiale un’intelligenza che includa la capacità di discriminare cos’è bene da cos’è male.

Le moral machines: etica e morale nella robotica

Si tratta di un progetto in cui molti credono, uno dei principali è Wendell Wallach che, nel 2009, ha scritto un influente libro, insieme al filosofo Colin Allen, intitolato proprio Moral Machines: Teaching Robots Right From Wrong. Wallach e Allen erano ben consapevoli che, prima ancora di esaminare con quali strategie poter insegnare alle macchine la distinzione tra benevolo e malvagio, un problema preliminare non da poco riguarda aver chiara questa distinzione. Invece etica e morale continuano ad essere una fetta centrale della filosofia, in quanto godono della nota proprietà di tutti i problemi filosofici: non hanno una soluzione condivisa. Non solo sparsi per il mondo convivono i più disparati principi morali, e ancor di più se ne sono succeduti lungo la storia dell’umanità, non vi è nemmeno un modo accettabile di teorizzare un nucleo comune, qualcosa che tenga assieme la varietà di etiche esibite da culture e gruppi sociali. Ogni studente di filosofia impara ad associare un certo numero di insigni filosofi ad altrettante teorie morali: Aristotele con la teoria di certi tratti caratteriali noti come virtù; Immanuel Kant all’etica deontologica che presuppone una serie di regole universali dette imperativi categorici; David Hume al sentimentalismo, secondo cui il valore morale di un’azione è legato al sentimento emotivo che essa suscita; John Stuart Mill al conseguenzialismo, la valutazione etica in base alle conseguenze delle azioni in termini di felicità o infelicità. Quale di queste quattro contrastanti visioni – o delle loro innumerevoli varianti – si avvicini maggiormente alla realtà è una scelta lasciata al gusto soggettivo di ogni studente.

Neuroscienze e comportamento morale: la neuroetica

Tuttavia la stagnazione in filosofia morale tra posizioni arroccate ha subito un benefico contraccolpo, sulla spinta degli stessi nuovi approcci scientifici allo studio della mente, che hanno dato vita all’Intelligenza Artificiale. In particolar modo le neuroscienze hanno aperto un territorio di indagine nuovo e fecondo, rivolto ad individuare empiricamente le architetture cerebrali alla base del comportamento morale. Gli strumenti di neuroimmagine sono diventati il principale alleato della psicologia sperimentale, entro cui esistevano già tentativi di condurre lo studio della morale dalla speculazione astratta al piano delle evidenze concrete. Questo connubio scientifico viene spesso etichettato come neuroetica, anche se il termine comprende ulteriori aspetti, del tutto diversi e indipendenti, come le preoccupazioni etiche nelle pratiche neurocliniche. Limitando la neuroetica allo studio delle teorie morali su base neuroscientifica, oggi sono sempre più numerosi i filosofi morali che si preoccupano di essere, possiamo dire, “empiricamente avveduti”, prendendo a prestito dal titolo di una recente (2014) raccolta di saggi curata da Markus Christen e altri collaboratori dell’università di Zurigo: Empirically Informed Ethics.

Neo-sentimentalismo e apprendimento morale

Senza addentrarsi, si può dire che dei filosofi storici prima menzionati, quello che tutto sommato esce meglio dal vasto insieme di nuovi studi della neuroetica, è Hume. Una delle evidenze più nette è infatti lo stretto rapporto tra circuiti emozionali e valutazioni di tipo morale, tant’è che diversi tra i principali filosofi morali contemporanei, come Jesse Prinz o Shaun Nichols, sono catalogati come “neo-sentimentalisti”. Kant e Mill non sono messi da parte del tutto, anche se le emozioni giocano il ruolo primario, possono fungere da modulazione tra una valutazione a forte coinvolgimento, più assimilabile ad una scelta deontologica, e una valutazione più soppesata, parente del conseguenzialismo. Un altro aspetto nuovo ed interessante che è emerso riguarda l’apprendimento morale, il fenomeno per cui le associazioni tra azioni e reazione emotiva in grado di caricarle moralmente, non sono fissate rigidamente dalla nascita, ma vengono costruite gradualmente, tramite le esperienze sociali a partire dalla prima infanzia, tramite certi meccanismi di rinforzo basati sui circuiti cerebrali dopaminergici.

Scelte morali e modelli neurocomputazionali

Anche se ancora lacunoso, il quadro della moralità su base scientifica ha generato entusiasmo, qualcuno forse si è spinto fin troppo in avanti, ipotizzando che si debba individuare su basi scientifiche quali siano le norme morali più efficaci e ragionevoli per l’intera umanità. È questo l’intento del filosofo e neuroscienziato Sam Harris, espresso nel controverso saggio del 2010 “The Moral Landscape: How Science Can Determine Human Values”. Senza arrivare a tanto, non è troppo azzardato invece ipotizzare che, una volta individuati i meccanismi neurali che entrano in gioco in certe specifiche scelte morali, questi possano essere simulati computazionalmente. Anche chi scrive si è divertito a realizzare un modello neurocomputazionale di decisioni morali (“Neurocomputational model of moral behaviour”, in Biological Cybernetics, 2015), in un contesto molto semplificato, dove la violazione morale è il furto, simulando le interazioni tra centri cerebrali delle emozioni, delle decisioni, e i meccanismi di apprendimento.

E’ possibile insegnare ai robot a discernere bene e male?

I due elementi chiave individuati dalla neuroetica – coinvolgimento emotivo e apprendimento – sono indicativi di cosa comporti transitare dalla simulazione di alcuni semplici comportamenti morali umani allo sviluppo di Moral Machines alla Wallach. Contrariamente a quanto ci si possa aspettare, il coinvolgimento delle emozioni non risulta particolarmente ostico ad una implementazione computazionale. Presso il MIT esiste da più di vent’anni il Affective Computing Laboratory, che con successo ha sviluppato una notevole serie di modelli computazionali della sfera emotiva, in diversi suoi aspetti. Ben più problematico risulta invece l’elemento chiave dell’apprendimento, secondo cui una moralità similare a quella umana andrebbe costruita gradualmente tramite esperienze ed interazioni sociali, riguardanti l’intera casistica di circostanze ed azioni suscettibili di contenuti morali.

Come nella tradizione dell’Intelligenza Artificiale, per dotare una macchina di comportamenti simili all’uomo, non è affatto necessario transitare per modelli computazionali che replichino il modo con cui il cervello realizzi tali comportamenti. Anche per la moralità sono quindi immaginabili strade diverse, che non debbano transitare attraverso la lunga ed articolata via dell’apprendimento. Copiare il cervello rimane però una forte tentazione, soprattutto di fronte agli eclatanti successi nello svelare meccanismi neurali per la moralità, del tutto sconosciuti fino a un paio di decenni fa.

Il dilemma del trolley in neuroetica

La tentazione è diventata irresistibile di fronte ad una fortuita coincidenza. A partire dai primi studi di neuroimmagine dei comportamenti morali, agli inizi di questo millennio, si è andata consolidando una sorta di “palestra empirica” su cui allenare studi e teorie, diventato via via sempre più popolare, noto semplicemente come trolley, carrello. Si tratta di un vecchio esperimento mentale introdotto in filosofia morale negli anni ’70, che il pioniere della contemporanea ricerca empirica morale, Joshua Greene, ha riesumato e adattato all’abbinamento con neuroimmagine, facendone la fortuna in neuroetica. Si pone ad un soggetto il dilemma se lasciar proseguire un carrello ferroviario, che inesorabilmente ucciderà un certo numero di persone sui binari, oppure agire su uno scambio e deviare il carrello, uccidendone di meno.

Giocando su tante varianti nel tema è possibile modulare il coinvolgimento emotivo, per esempio spingendo fisicamente una persona sui binari per arrestare la corsa e salvare le altre, e si possono individuare le differenti attivazioni neurali. Pur non esente da critiche, il trolley ha avuto la fortuna di diventare una sorta di standard di riferimento, per cui ogni nuovo studio ha possibilità di confrontarsi con una vasta letteratura, e la sua diffusione è diventata, per cosi dire, scientificamente virale.

Il dilemma del trolley e le macchine a guida autonoma

La più fortunata delle coincidenze per gli specialisti di questo dilemma è stato l’imbattersi dell’Intelligenza Artificiale con il primo dei due casi in cui rischia di uccidere: le macchine a guida autonoma. Da semplice esperimento mentale per puri studi teorici, il trolley stava assumendo concretezza, e in uno dei maggiori comparti dell’economia mondiale, i trasporti. Tra i primi a cogliere il momento è il cognitivista francese Jean-François Bonnefon, che organizzando un test online sulla risposta di un paio di migliaia di soggetti a situazioni in cui una macchina deve scegliere se uccidere una manciata di pedoni proseguendo la sua corsa normale, oppure deviare e prenderne in pieno un altro, e varianti sul tema, si guadagna nel 2016 una pubblicazione su Science, con articolo introduttivo nientemeno che di Greene. E’ solo l’inizio, si infervora il dibattito su come sia opportuno che gli algoritmi di macchine a guida autonoma reagiscano al dilemma del trolley, su MIT Technology Review esce un articolo dal titolo eloquente, Why Self-Driving Cars Must Be Programmed to Kill, cui fa prontamente eco Nassim JafariNaimi, ricercatrice in etica delle tecnologie, con l’articolo Our Bodies in the Trolley’s Path, or Why Self-driving Cars Must *Not* Be Programmed to Kill.

I termini della disquisizione tendono facilmente a cristallizzarsi nella dicotomia tra conseguenzialismo (optare per la manovra che fa meno vittime) e deontologico (lasciare l’automezzo nella sua sua tragica traiettoria, se la possibile correzione deve condurre ad un altro sacrificio). Quel che ritengo singolare non è tanto quale dei due criteri vada implementato, ammesso sia possibile, bensì l’accanimento filosofico dietro ad una sua costruzione speculativa – il dilemma del trolley – a ben vedere ben lontano dalle questioni etiche della guida autonoma. Il punto principale della poca attinenza di questo dilemma, e delle sue più stravaganti variazioni, è che, nella casistica di situazioni critiche in cui possa imbattersi un’automobile, si tratta di anomalie estremamente rare e poco rappresentative, dei tipici outliner usando il gergo della statistica, la quale raccomanderebbe caldamente di lasciarli perdere.

I veri dilemmi etici della guida automatica

Sono ben altri i generi di dilemmi, carichi di conseguenze etiche, a cui è esposta la guida automatica, il principale è probabilmente il decidere interventi di emergenza, salvando potenzialmente vite umane, sulla scorta di informazioni incerte. Se una macchina percorre un viale alberato, con sole laterale radente, qualche ombra degli alberi sull’asfalto potrebbe assumere la sagoma di una persona sdraiata. Il sistema di emergenza dovrebbe azionare autonomamente i freni, anche al minimo sospetto che si tratti di un pedone caduto, forse privo di sensi? Potrebbe essere la scelta eticamente più saggia, ma se il viale durasse decine di chilometri, il passeggero potrebbe subire una poco confortevole sequenza di inutili brusche frenate. Secondo un’indagine preliminare del National Transportation Safety Board, durante l’incidente avvenuto in Arizona il 18 marzo 2018, in cui un’auto a guida automatica Uber ha travolto e ucciso un pedone, il sistema di frenata di emergenza era disattivato, secondo Uber per evitare possibili erratic vehicle behavior, in concomitanza con il sistema centrale di guida automatica. Sembra molto probabile che il sistema di emergenza avrebbe potuto agevolmente evitare l’impatto. Le macchine a guida automatica hanno una storia di chilometri percorsi ancora troppo esigua per trarre statistiche significative, poco più di 200 milioni di chilometri (contro, per dar un’idea, i cinque miliardi percorsi solo dagli americani nel 2017), comunque nessuno dei quattro incidenti mortali avvenuti finora ha posto la macchina di fronte ad un dilemma del genere trolley, o sua variazione sul tema, su cui si infervorano filosofi morali.

Gli armamenti autonomi

Insomma, per il progresso della guida automatica la dotazione di una morale artificiale, che le renda programmed to kill, non pare proprio la priorità più pressante. Programmazione che risulta invece centrale, per ovvi motivi, nel caso degli armamenti autonomi. La ricerca in questo settore ha una tradizione più che trentennale, ma ha visto un impulso significativo negli ultimi due decenni, sia a seguito dei diversi nuovi fronti di guerra aperti dopo l’11 settembre 2001, sia grazie ai recenti rapidi progressi dell’Intelligenza Artificiale. Non ultima, una motivazione esplicitata spesso dalle agenzie di finanziamento militare riguarda il significativo abbattimento delle spese militari grazie all’automatizzazione essendo i bilanci militari tipicamente dominate dal costo del personale. L’attuale ventaglio di sistemi in grado di uccidere in totale autonomia comprende veicoli aerei, terrestri, sottomarini, e sentinelle fisse. Analisti della Winter Green Research stimano che il mercato degli armamenti autonomi in America passerà dai 4.5 miliardi di dollari del 2013 a 12 miliardi nel 2019.

I principi etici da imporre al robot militari

Ronald Arkin, uno dei principali esperti di robotica militare, nel suo libro Governing lethal behavior in autonomous robots passa in rassegna diverse delle classiche teorie etiche, selezionando quella deontologica come più appropriata, e idonea ad esser espressa computazionalmente mediante programmazione logica. I principi etici da imporre al robot sono quelli della legislazione internazionale della guerra, e le specifiche regole di ingaggio per la missione a cui è impegnato. Anche se l’etica conseguenzialista ha un impiego marginale negli algoritmi morali degli armamenti autonomi, fornisce tuttavia il terreno di argomentazione più ricorrente nella discussione su queste tecnologie. L’economicità in termini di vittime civili è il metro utilizzato sia da chi raccomanda prudenza, non ritenendo le tecnologie ancora in grado di assicurarla, sia tra i fautori della loro adozione immediata, che portano spesso ad esempio le missioni NATO in Libia del 2011, in cui gli oltre 7,000 attacchi con armamenti autonomi hanno causato “solamente” 60 morti collaterali di civili. Il giurista militare americano Christopher Toscano in un articolo del 2015 che difende i sistemi di armamento autonomi su basi conseguenzialiste, li definisce nel titolo Friends of Humans.

Proibire l’autonomia totale in armamenti letali?

Che le armi robotiche siano così amichevoli, o anche che lo possano diventare perfezionandone l’intelligenza artificiale, non convince tutti. Secondo il filosofo Guglielmo Tamburrini, esponente del International Committee for Robot Arms Control, vi sono ragioni per proibire l’autonomia totale in armamenti letali sia in un quadro etico deontologico che conseguenzialista. Il primo appare più evidente: se alla vita umana viene assegnato il posto più alto nella scala dei valori, risulta immorale la sua soppressione senza il coinvolgimento consapevole, ragionevole e compassionevole, di un altro essere umano. L’argomento conseguenzialista sembrerebbe invece porre dubbi solamente considerando l’imperfezione della tecnologia, un sistema letale teoricamente perfetto, con un algoritmo morale rispettoso della normativa internazionale, non potrebbe che far risparmiare vittime rispetto a sistemi convenzionali. Ma le cose appaiono così solamente in una prospettiva ristretta all’attuale panorama dei fronti di guerra. In una visione più generale, la disponibilità di sistemi di offesa a basso impatto di vittime civili, e a basso costo, potrebbe incentivare l’avvio di nuove guerre. L’opzione militare verrebbe inoltre favorita dal non esporre a rischio persone della nazione che mette in atto le azioni offensive. In definitiva, anche sotto un’etica conseguenzialista il salto ai sistemi letali autonomi potrebbe essere pericolosamente negativo.

La petizione per la messa al bando degli armamenti autonomi letali

Una parte consistente della comunità dell’Intelligenza Artificiale condivide la posizione di Tamburrini, alla conferenza internazionale di I.A. del luglio 2018 in Stoccolma è stata formalizzata una petizione per la messa al bando degli armamenti autonomi letali, firmata da 2000 studiosi, tra cui gli artefici della nuova intelligenza artificiale come Demis Hassabis e Yoshua Bengio. Si sono unite alla petizione 150 tra le principali aziende e centri di ricerca in Intelligenza Artificiale, con l’impegno a non cooperare in ricerche finalizzate a questi sistemi. Forse, l’unico ambito in cui l’Intelligenza Artificiale potrebbe davvero uccidere, è quantomeno rimandato.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3