etica, logica e incertezza

Intelligenza artificiale: quali regole per coesistere con le macchine

Alcune proposte di lavoro per giungere il più possibile vicini al perseguimento dei principi di non maleficenza, beneficenza e dominanza, pressoché universalmente considerati oggi i pilastri su cui costruire un quadro di regole in grado di promuovere una coesistenza fruttuosa tra uomini e macchine intelligenti

28 Ott 2019
Giuseppe D'Acquisto

Funzionario direttivo del Garante per la protezione dei dati personali


Nella Comunicazione “L’intelligenza artificiale per l’Europa” [1], la Commissione Europea individua nella presenza di “un certo grado di autonomia” decisionale, in ragione del contesto, il tratto distintivo di una macchina intelligente (un software, un sistema in grado di compiere azioni).

Dal punto di vista di un policy maker il tema centrale da affrontare è dunque se sia possibile individuare un insieme di regole a cui macchine intelligenti e uomini devono attenersi affinché questa autonomia decisionale della macchina non soltanto garantisca all’uomo le tradizionali tutele di “autodeterminazione informativa” richieste dal quadro giuridico in materia di protezione dei dati personali [2], ma vada persino oltre e possa essere indirizzata a beneficio dell’uomo.

La questione è nuova dal momento che un simile corpus di regole dovrà tenere conto, e ciò accade per la prima volta, dell’autonomia decisionale di un soggetto non umano, la macchina, caratterizzato dall’essere inequivocabilmente razionale e non contraddittorio per sua natura. Ciò introduce un grado di complessità senza precedenti nella concezione stessa della norma, che richiede una riflessione approfondita su come fare “dialogare”, in modo da non generare conflitti, i principi giuridici ed etici che presiedono alla convivenza civile tra gli uomini e le regole della logica formale su cui si basa il funzionamento delle macchine.

Regolare l’incertezza

Garantire alla macchina autonomia rispetto a decisioni che l’uomo non può assumere (ad esempio per ragioni legate alla complessità “computazionale” della decisione), o rispetto ad azioni che l’uomo non vuole compiere (ad esempio per ragioni legate alla ripetitività dell’azione) comporta l’esposizione dell’uomo a nuove forme di rischio, che derivano dall’assenza di una sua supervisione sul funzionamento della macchina (l’uomo non ha l’ultima parola sulla macchina). Per questa ragione, prima ancora di ipotizzare regole che favoriscano decisioni autonome della macchina a vantaggio dell’uomo, la prima forma di regolazione dovrebbe essere rivolta a impedire che tali decisioni autonome ultime danneggino l’uomo [3]: è la cosiddetta prima legge della robotica di Asimov, o principio di non maleficenza.

Se consideriamo questo obiettivo dal punto di vista della logica formale, ciò che può essere ragionevolmente imposto a una macchina a stati finiti come vincolo di progetto da parte dell’uomo è di evitare che questa raggiunga uno qualsiasi degli stati noti nei quali il comportamento della macchina è stato classificato come nocivo per l’uomo. Questo risultato, tuttavia, non consente di affermare che sia stato del tutto raggiunto l’obiettivo di non maleficenza, per un duplice ordine di considerazioni:

  • la prima è che possono esistere, ad esempio in macchine particolarmente complesse, stati noti che la macchina può assumere ma che non sono stati ancora classificati dall’uomo come nocivi;
  • la seconda è che possono esistere stati non noti, ad esempio per via di un uso non previsto in fase di progetto, che la macchina può assumere nei quali l’effetto per l’uomo è dannoso.

Purtroppo questa seconda ipotesi non è mai del tutto eliminabile, essendo impossibile garantire per qualsiasi sistema a stati finiti che risponda alle regole della logica formale il rispetto nello stesso tempo di un vincolo di consistenza (ovvero il funzionamento non contraddittorio della macchina secondo un progetto preordinato) e di un vincolo di completezza (ovvero l’assenza di un possibile impiego della macchina oltre i requisiti di progetto) [4].

Vi è dunque una impossibilità di fondo a voler perseguire l’obiettivo di una non maleficenza assoluta. Soltanto un obiettivo più limitato di non maleficenza progressiva può essere, per così dire, “inseguito” dall’uomo, una volta che alcuni stati noti ma non ancora classificati come nocivi vengano nel tempo sperimentati come effettivamente nocivi, ovvero qualora stati non noti si manifestino e siano eventualmente classificabili come nocivi.

Solo in queste circostanze infatti, per effetto di una conoscenza più approfondita del funzionamento della macchina, ovvero per “emersione alla conoscenza” di stati della macchina precedentemente non noti, questi potranno essere eventualmente neutralizzati dall’uomo per il futuro funzionamento della macchina. Né la prospettiva di avvalersi di “macchine etiche”, ossia capaci in ragione della loro autonomia decisionale di individuare da sole la presenza di stati nocivi per l’uomo, o di una progettazione etica [5], ossia una modalità di realizzazione delle macchine volta a una efficace classificazione preliminare, possibilmente esaustiva, degli stati noti per essere nocivi all’uomo, cambierebbe questa impossibilità di fondo, dal momento che resterebbe il rischio ineliminabile da incompletezza, legato ai funzionamenti non previsti e agli stati non noti, ed eventualmente nocivi, che la macchina potrebbe assumere.

È appena il caso di aggiungere come spunto di riflessione che una macchina etica che fosse capace di neutralizzare da sola alcuni suoi stati di funzionamento, in quanto giudicati nocivi per l’uomo, ad esempio, sulla base delle conoscenze disponibili oggi, inciderebbe sulla libertà dell’uomo di impiegare creativamente, in futuro e in un diverso contesto quegli stessi stati a proprio beneficio. È invece ovviamente compatibile con le regole della logica formale la prospettiva di introdurre per l’uomo l’obbligo di tenere conto nelle fasi di progettazione di tutti gli stati noti e nocivi che la macchina può assumere e di neutralizzarli, tenendone memoria in modo da ripristinarne il funzionamento qualora, mutate le condizioni ambientali, quegli stessi stati possano eventualmente rivelarsi di beneficio per l’uomo in futuro. In altri termini, è compatibile con le regole della logica formale l’introduzione di un obbligo di non negligenza dell’uomo, che potrebbe essere ritenuto responsabile di non avere tenuto conto nella fase di progetto di ciò che è noto ed è già stato classificato come nocivo e, in un certo senso, di non aver dato avvio alla “rincorsa” necessaria (per la presenza di incertezze ineliminabili) dell’obiettivo (purtuttavia irraggiungibile) di non maleficenza della macchina.

Il principio di beneficenza della macchina

Sulla possibilità che l’autonomia decisionale della macchina possa essere invece indirizzata a vantaggio dell’uomo, ossia sull’eventuale realizzazione di un principio di beneficenza della macchina, una diversa incertezza si manifesta, legata questa volta alla valenza soggettiva del concetto di “bene”. Esistono infatti molte varianti culturali tra differenti comunità di esseri umani che impediscono di rendere oggettivo, e dunque adatto a essere trattato con le regole universali della logica formale, questo concetto. Peraltro, anche all’interno di una comunità che condivida gli stessi valori culturali e che sia disposta ad ammettere l’esistenza di un concetto comune di bene, possono esistere interessi personali divergenti e tali da condurre a una diversificazione, e talora a una inconciliabilità, tra ciò che è bene per il singolo e ciò che è bene per la comunità. Infine, anche a livello individuale, non sempre l’uomo è in grado di prevedere tutte le conseguenze future delle proprie scelte e di indicare a priori ciò che è bene per sé stesso in forma assoluta. È esemplificativo in questo senso il mito di re Mida [6], che chiese e ottenne da Dioniso il potere di trasformare in oro tutto ciò che toccava, e che dovette poi ricredersi quando si accorse che trasformava in oro anche il proprio cibo.

Bene individuale vs bene collettivo

Il dialogo riportato in figura 1 tra una macchina dotata di autonomia decisionale (a sinistra) un uomo (a destra), ci mostra che nel dare applicazione al principio di beneficenza si pone sempre un problema “pratico”: trasferire e allineare queste diverse concezioni del senso del bene tra soggetti che ne danno una differente interpretazione. Nell’esempio, il senso del bene individuale, rappresentato dalla richiesta dell’uomo, e quello di bene collettivo, incarnato dalla macchina. Volendo immaginare una possibile prosecuzione di questo dialogo, con un naturale margine di arbitrio, è tuttavia molto verosimile presumere che una ricomposizione di questi differenti punti di vista sul senso del bene tra uomo e macchina possa avvenire sul piano della forza: l’uomo potrebbe infatti ben decidere (nell’ipotesi che la sua autonomia decisionale sia ancora superiore a quella della macchina) di esercitare un dominio sulla macchina, imponendole il proprio senso individuale del bene e orientandone l’azione.

Ciò è lontano dall’applicazione delle regole della logica formale, ma è quanto accade per dirimere, potremmo dire sbrigativamente, molte controversie nelle relazioni umane. Molteplici condizionamenti incidono infatti sulla convivenza tra gli uomini e non di rado la riconciliazione di diversi sensi del bene avviene sul piano della forza, in ragione ad esempio delle differenze sociali, del diverso livello di ricchezza o semplicemente per una attitudine umana alla servitù volontaria [7]. L’uso della forza, se visto da un punto di vista computazionale, è estremamente più leggero e trattabile dell’applicazione delle regole della logica formale.

Il Regolamento Generale Europeo in materia di protezione dei dati personali (GDPR) intuisce questa tensione logica-forza, in una chiave tuttavia ancora prevalentemente difensiva per l’uomo, a cui viene offerto il diritto di opporsi a decisioni automatizzate particolarmente limitanti e di poter intervenire nel processo di decisione. La questione è molto lontana dall’essere risolta e interessanti ricerche sono in corso sulla possibilità di ”oggettivizzare”, ossia rendere misurabili e idonee ad essere confrontate secondo le leggi della logica formale, proprietà dell’uomo sino ad oggi caratterizzate da una elevata soggettività, quali la correttezza (come misurare oggettivamente un comportamento “corretto”?) [8] e persino l’umorismo (come poter affermare oggettivamente che un argomento è “divertente”?) [9].

Non possiamo oggi prevedere se all’esito di queste ricerche prevarrà come criterio di risoluzione delle controversie valoriali tra uomo e macchina la misurabilità tipica della macchina o l’esercizio della forza tipico dell’uomo. Né sappiamo prevedere chi tra uomo e macchina sceglierà l’opzione della misurabilità o della forza nel dirimere le controversie (non possiamo infatti escludere con il senno dell’oggi che il bilancio tra effetti netti positivi e carico computazionale che le opzioni logica-forza comporteranno in futuro renderà l’uomo di domani eventualmente più disponibile ad accettare criteri di decisione oggettivi, o la macchina di domani più attratta – nella sua autonomia decisionale – dalla leggerezza computazionale dell’impiego della forza).

Il principio di dominanza dell’uomo sulla macchina

Infine, l’estremo rimedio alle conseguenze dell’incertezza a cui l’uomo è esposto è sempre l’opzione dello spegnimento della macchina, ossia l’applicazione del principio di dominanza dell’uomo sulla macchina. Lo spegnimento di una macchina dotata di autonomia decisionale può però essere un obiettivo molto difficile da raggiungere in presenza di intelligenze artificiali evolute, dal momento che la prima decisione che la macchina potrebbe volere assumere autonomamente, perfino a beneficio dell’uomo stesso, ad esempio per il sopraggiungere di una situazione di pericolo non prevista dall’uomo, è proprio quella di ignorarne il comando (scegliendo eventualmente persino di replicarsi). Non è possibile in poche righe esaurire tutta la complessità tecnica di questo tema, per la quale si rimanda alle molte ricerche in corso [11].

WEBINAR - 3 NOVEMBRE
CISO as a Service: perché la tua azienda ha bisogno di un esperto di Cyber Security?
Sicurezza
Cybersecurity

Per il fine che questo articolo si pone, ossia quello di individuare criteri per elaborare regole efficaci, ciò che dalle ricerche emerge come condizione per il raggiungimento dell’obiettivo di dominanza dell’uomo sulla macchina è la possibilità, che può essere ingegnerizzata, di rendere la macchina incerta sul comportamento dell’uomo. L’incertezza a cui l’uomo si espone lasciando autonomia decisionale alla macchina deve essere, per così dire, compensata rendendo la macchina incerta rispetto al grado di autonomia decisionale dell’uomo. In altri termini, se si vuole garantire all’uomo l’ultima parola, si dovrà necessariamente lasciare un margine di incertezza alla macchina sugli obiettivi che le si chiede di raggiungere, altrimenti anche lo spegnimento potrebbe essere visto come un ostacolo al perseguimento di un certo obiettivo prestabilito e rigettato dalla macchina (con i mezzi di cui essa dispone, fino al caso estremo, come detto, della sua stessa auto-duplicazione).

Figura 1. Il problema del disallineamento dei valori [10]

Alcune proposte di lavoro

Sulla natura della regola in un contesto caratterizzato da macchine intelligenti il dibattito in corso è ampio. Qui si è cercato di affrontare criticamente, e in una forma sperabilmente utile a stimolare un dibattito multidisciplinare, il tema della possibile coesistenza dei principi del diritto e dell’etica, sottostanti alla creazione della regola, con quelli della logica formale, sottostanti al funzionamento delle macchine. Proseguendo in queste riflessioni, ci si permette in conclusione di avanzare alcune proposte di lavoro per giungere il più possibile vicini al perseguimento dei principi di non maleficenza, beneficenza e dominanza, pressoché universalmente considerati oggi i pilastri su cui costruire un quadro di regole in grado di promuovere una coesistenza fruttuosa tra uomini e macchine intelligenti.

La prima proposta di lavoro: la regola va indirizzata all’uomo che sarà il solo responsabile della sua attuazione. La presenza di incertezze ineliminabili non consente una piena “automazione delle regole” che non generi conflitti con le regole della logica formale, ma solo un avvicinamento progressivo ai principi, che potrà essere guidato attraverso l’impiego dei tradizionali strumenti di incentivazione economica e deterrenza sanzionatoria che solo all’uomo, unico reale portatore di interessi, possono essere rivolti.

La seconda proposta di lavoro: accelerare la velocità nella “rincorsa” dell’obiettivo di non maleficenza della macchina, attraverso politiche di gestione dei rischi. La conoscenza più approfondita del funzionamento eventualmente nocivo della macchina, ovvero l’“emersione alla conoscenza” di uno stato nocivo della macchina è tipicamente una esperienza del singolo (nei confronti del quale l’impatto negativo si materializza), mentre la non maleficenza della macchina è un principio generale a vantaggio della collettività. La regola deve dunque favorire la socializzazione dei funzionamenti nocivi della macchina, attraverso la distribuzione delle responsabilità nella classificazione degli stati che la macchina può assumere e l’incentivazione di meccanismi di self disclosure da parte di chi, nell’impiegare la macchina, individui nuovi stati nocivi che questa può assumere nel suo funzionamento ordinario o imprevisto. In questo senso interpretato, l’obbligo di notifica degli incidenti di sicurezza introdotto nel Regolamento Generale è un valido precedente e può costituire un promettente “schema di lavoro”.

La terza proposta di lavoro: introdurre obblighi di trasparenza valoriale, ossia sul tipo di interesse che per tramite della macchina l’uomo intende perseguire (se di carattere privato, oppure collettivo) e sul criterio adottato per la risoluzione delle controversie nei casi di disallineamento dei valori tra uomo e macchina (se basato sul rispetto di criteri oggettivi e su indicatori misurabili oppure, ove il primo criterio non sia dimostrato, sull’impiego della forza). Essere più trasparenti sui casi in cui l’uomo o la macchina impiegano la forza come strumento di risoluzione delle controversie può essere un deterrente verso l’uso della forza stessa, se non come extrema ratio, e un incentivo all’impiego nel lungo termine di criteri più oggettivi e misurabili.

La quarta proposta: promuovere la progettazione di macchine incerte. Ciò può apparire un paradosso ma, come detto, l’incertezza della macchina sull’autonomia decisionale dell’uomo è il passaggio necessario per il raggiungimento dell’obiettivo di dominanza dell’uomo sulla macchina. Questo obiettivo richiede un profondo ripensamento dei criteri ingegneristici di progetto delle macchine, da sempre rivolti al miglioramento senza vincoli delle loro prestazioni [12]. Anche qui, il Regolamento Generale Europeo in materia di protezione dei dati personali offre un interessante “schema di lavoro” nell’applicazione del nuovo principio di privacy by design, che intende raggiungere l’obiettivo di “nascondere alla tecnologia” la persona, rendendone più incerte preferenze, movimenti o azioni, attraverso l’impiego stesso della tecnologia (ad esempio, attraverso l’anonimizzazione, o le nuove forme di generalizzazione o randomizzazione dei dati personali [13]). La privacy diventerebbe dunque in tal modo non soltanto uno strumento difensivo dell’uomo rispetto a macchine sempre più intelligenti, ma un vero e proprio nuovo paradigma di progetto delle sole possibili macchine intelligenti assoggettabili all’autonomia decisionale dell’uomo.

Obbligo di trasparenza algoritmica, le criticità

Si è volutamente messo da parte il tema della cosiddetta trasparenza algoritmica, da molti suggerito come parte costituente di questo corpus di regole e strumento concreto per mantenere un predominio dell’uomo sul funzionamento della macchina [14]. Indubbiamente un certo livello di trasparenza sul funzionamento della macchina è un valido strumento per riequilibrare uno sbilanciamento di forze tra chi genera i dati e chi li impiega. Tuttavia, un obbligo di trasparenza assoluta sul funzionamento di una macchina intelligente non appare un obiettivo realisticamente raggiungibile, per almeno due ragioni.

La prima è che un simile obbligo costituirebbe un ovvio disincentivo all’innovazione, che il più delle volte avviene in un quadro di totale asimmetria informativa (peraltro tutelata da diverse, specifiche regole) tra l’inventore e il resto del mondo. Porsi l’obiettivo di promuovere l’innovazione e garantire la trasparenza assoluta sul funzionamento della macchina potrebbe costituire una antinomia regolatoria [15].

La seconda è legata, ancora una volta, all’incertezza sul funzionamento della macchina. Questa può assumere, lo si è detto, stati noti il cui effetto tuttavia non è ancora stato previsto o sperimentato dall’uomo, o addirittura stati non previsti in fase di progetto. Questa incompletezza della macchina, unita ai limiti cognitivi dell’uomo, rende la trasparenza algoritmica un obiettivo essenzialmente parziale mai pienamente raggiungibile, ma soltanto modulabile di volta in volta in base al contesto competitivo in cui agiscono gli inventori, e alle reali (e magari progressivamente accresciute, eppure mai esaustive) capacità dell’uomo di cogliere del tutto la complessità della logica di funzionamento della macchina [16], o di colmare l’incertezza sulle diverse condizioni ambientali in cui la macchina opererà.

____________________________________________________________________

Bibliografia

[1] Communication from the Commission to the European Parliament, the European Council, the Council, the European economic and social committee and the Committee of the regions, Artificial Intelligence for Europe, COM/2018/0237, 25 April 2018.

[2] Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati)

[3] European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL))

[4] K. Gödel: Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, I. Monatshefte für Mathematik und Physik, 38 (1931), pp. 173–198, in J. van Heijenoort: From Frege to Gödel. Harvard University Press, 1971

[5] The European Commission’s High-Level Expert Group on Artificial Intelligence, Draft ethics guidelines for trustworthy AI, 18 December 2018

[6] R. Graves, The Greek Myths, Penguin books 1955

[7] E. de La Boëtie, Discorso sulla servitù volontaria 1576, Feltrinelli 2014

[8] H. Elzayn, S. Jabbari, C. Jung, M. Kearns, S. Neel, A. Roth, Z. Schutzman, Fair Algorithms for Learning in Allocation Problems, ACM Conference on Fairness, Accountability and Transparency 2019

[9] A. Sover, The Languages of Humor Verbal, Visual, and Physical Humor, Bloomsbury Academic 2018

[10] S. Russell, Provably Beneficial Artificial Intelligence, OECD conference “AI: Intelligent Machines, Smart Policies”, Paris 26-27 October 2017

[11] D. Hadfield-Menell, A. Dragan, P. Abbeel, S. Russell, The Off-Switch Game, In International Joint Conference on Artificial Intelligence, 2017

[12] E. Severino, La tendenza fondamentale del nostro tempo, Adelphi, 1988

[13] G. D’Acquisto, M. Naldi, Big Data e Privacy by Design. Anonimizzazione, pseudonimizzazione, sicurezza, Giappichelli 2017

[14] ACM U.S. Public Policy Council, Algorithmic Transparency and Accountability, Discussion Panel Event, 14 September, 2017

[15] G. D’Acquisto, Intelligenza dai dati o intelligenza dei dati, in AA. VV. (a cura di F. Pizzetti), Intelligenza artificiale, protezione dei dati personali e regolazione, Giappichelli 2018

[16] D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. van den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam, M. Lanctot, S. Dieleman, D. Grewe, J. Nham, N. Kalchbrenner, I. Sutskever, T. Lillicrap, M. Leach, K. Kavukcuoglu, T. Graepel, D. Hassabis, Mastering the game of Go with deep neural networks and tree search, Nature volume 529, pages 484–489, 28 January 2016

WHITEPAPER
Come semplificare il sistema di gestione delle identità digitali?
Sicurezza
IAM

@RIPRODUZIONE RISERVATA

Articoli correlati