La capacità decisionale dei sistemi intelligenti sembra ormai completamente autonoma e automatica. L’idea che questi sistemi possano assumere deliberatamente decisioni rappresenta il focus di nuovi dilemmi etici. Fino a quanto possiamo spingerci nell’attribuire loro una forma di “libero arbitrio”? Ci si può affidare ciecamente delle loro previsioni, alle loro stime? Fino a che punto possiamo lasciarci influenzare dalle loro scelte?
Questi, e altri interrogativi di carattere filosofico e morale, si stanno delineando sul panorama della nuova era tecnologica. Ma a fronte di scenari che destano preoccupazioni e interrogativi sui limiti dell’autonomia di giudizio delle macchine intelligenti, inizia però a prospettarsi la possibilità di attribuire a tali sistemi ruoli “propositivi delle virtù”. Sistemi che fungano da guide morali, pronti a dispensare consigli sulle scelte eticamente corrette, a suggerire il migliore comportamento e la soluzione più virtuosa nei diversi contesti. Senza imporre una scelta, si pensa che questa abilità decisionale possa stimolare riflessione morale, giudizio positivo e, quindi, sensibilizzare eticamente l’interazione. Nel tentativo di creare una società di agenti, umani e non, cooperante per un bene comune.
Tale prospettiva non è semplice da tracciare. Come attribuire ad un agente artificiale abilità di sensibilizzazione etica?
Dall’etica dell’IA all’etica delle virtù
Instillare conoscenza etica e morale nel processo decisionale degli agenti intelligenti è un problema complesso, che ha molte connotazioni filosofiche. È un campo di ricerca con obiettivi innovativi, che si distingue dalla nota “Etica dell’IA”, in cui si tentano invece di descrivere i codici di condotta per garantire che i sistemi di IA siano progettati e implementati in modo sicuro, legale, nella tutela dei diritti degli utenti, garantendo al contempo inclusività, standardizzazione, trasparenza e nessuna forma di discriminazione umana.
È ben noto che gli enti governativi dei più grandi continenti del mondo, hanno ormai formalizzato i codici a cui i progettisti, costruttori e fruitori di intelligenze artificiali devono attenersi per non compromettere i diritti umani. Ma non si tratta dei codici che possono essere utilizzati dai sistemi di intelligenza artificiale stessi.
La costruzione di macchine morali
I codici morali attribuibili agli agenti artificiali fanno riferimento ai principi morali della filosofia. Per Wallach e Allen [1], le macchine morali sono quelle abili a risolvere problemi etici, politici, sociali o legali, applicando i tipici modelli etici umani, come ad esempio il consequenzialismo, in cui l’unico criterio morale sono le conseguenze di una certa azione, o l’etica deontologica, in cui la valutazione morale ha legge intrinseca a sé stessa, e non può essere condizionata da nessun evento esterno.
In questi sistemi, intervengono regole etiche “prestabilite”, che non sempre però sono inclusive di tutte le possibili casistiche e condizioni da valutare. Queste limitazioni non hanno di fatto portato alla costruzione di macchine morali complete.
L’etica della virtù per gli agenti artificiali
Ad oggi si parla di etica della virtù per gli agenti artificiali. Concepita da Aristotele, l’etica della virtù si distingue dagli altri sistemi etici in quanto cerca di comprendere le migliori pratiche per lo sviluppo di entità morali che contribuiscano sia alla loro eccellenza morale individuale, sia a un’eccellenza morale sociale condivisa. L’etica delle virtù spinge verso una società e un mondo virtuoso. Il singolo decide moralmente per sé stesso e per la comunità. Presuppone che tutte le azioni morali siano radicate in situazioni del mondo reale, e che tali situazioni siano sempre nuove, quindi nessun insieme di regole etiche predefinite può essere considerato sufficiente.
La saggezza artificiale
Quando l’entità morale che applica l’etica delle virtù è un agente artificiale, si parla di “saggezza artificiale”. Definita come la competenza dell’agente di conoscere e applicare pratiche sociali, eticamente corrette, nel contesto in cui opera, è nota anche come “artificial phronēsis” [2][3]. Secondo John Sullins[4], gli agenti (umani e non) che esibiscono questa qualità, sono in grado di apprendere “saggezza” vivendo e facendo pratica esperienza in situazioni sociali, e questa qualità conferisce capacità di formulare giudizi nuovi, quando non conosciuti. Tali giudizi sono sinceri tentativi di produrre azioni buone e corrette, che portano ai migliori risultati etici possibili in una data situazione.
Artificial phronesis, problemi e sfide
Nuove frontiere di ricerca stanno cercando di progettare agenti artificiali che esibiscano saggezza artificiale nelle loro interazioni con gli esseri umani. Tali ricerche affrontano problemi non banali. Se un dominio o una conoscenza di senso comune (un ambiente, un particolare contesto) possono essere univocamente definite e modellate, modellare l’ampia conoscenza impiegata nel ragionamento etico umano competente richiederebbe la risoluzione di dilemmi etici a cui, ad oggi, non è stata data (e probabilmente non potrà mai essere data), una soluzione. Basti pensare al noto “Trolley Problem”[5], e a tutte le sue varianti, in cui viene chiesto di scegliere tra le vittime di un treno in folle corsa, direzionando il treno stesso.
Chi si trova ad applicare forme di ragionamento morale per risolvere dilemmi di questo tipo è influenzato dalle sue esperienze, dalla sua formazione etica e culturale, dalla sua sensibilità, dalle valutazioni personali sulle vittime designate. Lo stesso lettore interessato, potrebbe cimentarsi in tali valutazioni accedendo alla piattaforma Moral Machine, dove vengono presentate molteplici situazioni in cui è richiesta una decisione morale, come varianti dei trolley problem.
Tali piattaforme hanno come obiettivo quello di “raccogliere” il comportamento più diffuso nella popolazione, senza alcuna pretesa di risolvere definitivamente le situazioni rappresentate, in quanto non risolvibili. Non esiste quindi una conoscenza univoca e rappresentabile da fornire agli agenti artificiali sulla risoluzione dei dilemmi morali. Questa conoscenza dovrebbe quindi emergere di volta in volta, e potrebbe essere conflittuale se riferita a individui diversi.
Un altro problema è legato al fatto che una forma di saggezza pratica sembra richiedere una deliberazione e un’azione consapevoli per essere eseguite correttamente. Quindi sembrerebbe secondario al problema della coscienza artificiale. Si potrebbe quasi affermare che una forma di coscienza artificiale deve essere propedeutica ad una forma di saggezza artificiale, e fino a quando il problema della coscienza artificiale non sarà risolto, non si potrebbe pensare ad una forma di competenza morale artificiale.
Se quindi non è possibile attribuire virtù giusta e corretta ad un agente artificiale per ogni contesto, si sta cercando di favorire l’influenza e la sensibilizzazione morale che tali agenti, ormai pervasivi, potrebbero esercitare nell’interazione con gli esseri umani, favorendo spunti di riflessione al fine di giungere alla scelta più giusta nel contesto in cui si opera. Per la costruzione di una società virtuosa mista di agenti umani e non.
Coscienza e saggezza artificiale
Il punto di partenza è che una macchina in grado di mostrare il suo ragionamento etico competente ad un essere umano con cui sta collaborando, potrebbe sensibilizzare quest’ultimo nel prendere decisioni eticamente corrette in quel contesto.
La capacità dell’agente di mostrare i propri ragionamenti è legata a una forma di coscienza artificiale, ed è stata oggetto di studio e interesse negli ultimi anni [6]. È il noto “discorso privato” o “discorso interno”, che è stato modellato in un’architettura cognitiva [7][8] e che, implementato su un robot, ha conferito a questo capacità di dialogare con sé stesso. La macchina diviene trasparente, in quanto è in grado di svelare e spiegare le motivazioni alla base delle sue decisioni e dei suoi comportamenti.
Il dialogo interno, competenza tipica dell’essere umano, seppur non rilevabile in tutti gli esseri umani, è legato ad una forma di coscienza e autocoscienza [9]. Aver attribuito tale capacità ad un agente artificiale, ha consentito quindi di implementare una rudimentale forma di coscienza artificiale. Studi successivi hanno poi mostrato che, quando un essere umano interagisce con un agente artificiale abile a dialogare con sé stesso, tale agente viene percepito più affidabile ed antropomorfo [10].
Ed è proprio tale affidabilità il punto di partenza che potrebbe portare ad agenti artificiali in grado di stimolare l’etica delle virtù nel contesto in cui operano, e di sensibilizzare e attenzionare gli utenti.
Primi risultati, ancora in corso di validazione, hanno mostrato che un sistema robotico porta a una sensibilizzazione migliore quando è munito di dialogo interno rispetto al caso in cui non abbia questa abilità.
Tali risultati sono stati ottenuti simulando uno scenario in cui il robot e l’essere umano devono occuparsi di una persona sofferente. In particolare, devono preparare il posto a tavola per un malato di demenza grave. In questo caso, non è consigliabile utilizzare e posizionare tutti gli oggetti tipici di un commensale che non presenti disabilità. Per esempio, un malato di demenza potrebbe farsi e fare del male con il coltello, potrebbe mostrare confusione nella scelta tra più posate, più piatti e bicchieri. La scelta e il posizionamento degli utensili deve quindi favorire il suo benessere.
Uno scenario semplice, che ha consentito di evidenziare come, dialogando con sé stesso durante lo svolgimento del compito, il robot sia stato in grado di attenzionare maggiormente le specifiche esigenze della persona sofferente al partner umano con cui sta collaborando, facendo prestare più cura nei confronti della problematica allo stesso. L’evidenza mostra che un ragionamento artificiale etico, “svelato” mediante il dialogo interno, ed emergente passo passo in base alle azioni compiute dal partner umano (legato quindi alla realtà e alle azioni compiute al momento), gioca un fondamentale ruolo di influenza etica e morale del contesto. Si dimostra quindi come un robot più cosciente, sia capace di applicare l’etica delle virtù, per una saggezza individuale, ma nel contempo comune e sociale.
Conclusioni
Se ancora l’idea di una macchina morale, completamente autonoma e in grado di prendere decisioni etiche e corrette in ogni contesto, è quasi un miraggio, è possibile affermare oggi che una forma di coscienza artificiale legata al dialogo interno, può rappresentare una rudimentale forma di saggezza artificiale e di etica delle virtù, quando tale ragionamento è relativo a competenze etiche e morali.
Raggiungere questo obiettivo creerà un futuro in cui gli esseri umani potranno non sentirsi oppressi e preoccupati dalle decisioni prese da sistemi autonomi, che potrebbero avere un impatto sulle loro vite. Potranno cooperare insieme per un bene comune, affidarsi senza timori alle osservazioni dell’agente, riflettere insieme sugli spunti morali che emergono nei vari contesti, sorpassando quindi i quesiti sui limiti da imporre al potere decisionale dei sistemi autonomi.
Ciò significa che la saggezza artificiale è uno degli obiettivi più alti che l’etica dell’IA potrebbe raggiungere.
Bibliografia
[1] Wallach, Wendell and Allen, Colin. 2009. Moral Machines: teaching Robots Right and Wrong. Oxford, UK: Oxford University Press.
[2] Dietrich, Eric., Fields, Christopher., Sullins, John. P., von Heuveln, Bram. and Zebrowski, Robin. (2021) Great Philosophical Objections to Artificial Intelligence: The History and Legacy of the AI Wars. Bloomsbury, London.
[3] Sullins, John P. 2019. “Trust and Robotics.” Routledge Handbook on the Philosophy of Trust, Judith Simon (ed). Routledge.
[4] Sullins, John P., ‘Artificial Phronesis: What It Is and What It Is Not*’, in Emanuele Ratti, and Thomas A. Stapleford (eds), Science, Technology, and Virtues: Contemporary Perspectives (New York, 2021; online edn, Oxford Academic, 19 Aug. 2021), https://doi.org/10.1093/oso/9780190081713.003.0008
[5] Philippa R. Foot, The Problem of Abortion and the Doctrine of the Double Effect in Virtues and Vices, in Oxford Review, n. 5, 1967.
[6] Chella, Antonio, Arianna Pipitone, Alain Morin, e Famira Racy. 2020. “Developing Self-Awareness in Robots via Inner Speech.” Frontiers in Robotics and AI 7:16. https://www.frontiersin.org/articles/10.3389/frobt.2020.00016
[7] Pipitone A, Chella A. What robots want? Hearing the inner voice of a robot. iScience. 2021 Apr 21;24(4):102371. doi: 10.1016/j.isci.2021.102371. PMID: 33997672; PMCID: PMC8101072.
[8] Chella, A., Pipitone, A. (2020). A cognitive architecture for inner speech. Cognitive Systems Research, 59, 287-292.
[9] Morin, Alain (2009). Inner speech and consciousness. In W. Banks (ed.), Encyclopedia of Consciousness. Elsevier.
[10] Pipitone, A., Geraci, A., D’Amico, A. et al. Robot’s Inner Speech Effects on Human Trust and Anthropomorphism. Int J of Soc Robotics (2023). https://doi.org/10.1007/s12369-023-01002-3