I recenti successi dei sistemi conversazionali come ChatGPT e dei sistemi di generazione automatica di immagini a partire da descrizioni testuali come DALL-E hanno riaperto il dibattito sulla possibilità di costruire robot coscienti.
Lo studio della bioingegneria e della bioinformatica sta dando un grande aiuto alla comprensione dei processi biologici e delle neuroscienze che sono alla base della coscienza e, nel medesimo tempo, abbiamo accesso a tanti dati del cervello, provenienti dalla risonanza magnetica, dalla TAC e dall’elettroencefalogramma.
L’iniziativa europea legata allo Human Brain Project, sebbene criticata per diverse ragioni, aveva originariamente lo scopo di replicare in maniera minuziosa il cervello umano mediante una modellazione dei singoli neuroni e ha innegabilmente dato un grande impulso a questi studi e ha fatto proliferare il dibattito.
Un’IA a “immagine e somiglianza” del nostro cervello? La sfida è possibile
La coscienza
Finora non esiste una definizione accettata di coscienza. Secondo il filosofo americano John Searle la coscienza consiste in stati e processi interiori, qualitativi e soggettivi, di consapevolezza. La coscienza, sempre secondo Searle, inizia quando ci svegliamo al mattino da un sonno senza sogni e continua fino a quando ci addormentiamo di nuovo, moriamo o entriamo in coma.
Sebbene ci siano posizioni filosofiche contrastanti riguardo alla coscienza, è utile sottolineare la distinzione della coscienza intesa come esperienza rispetto alla coscienza come funzione. Sulla base della coscienza intesa come esperienza, un soggetto è cosciente quando prova intimamente delle esperienze visive, sensazioni corporee, immagini mentali, emozioni.
Secondo la coscienza intesa come funzione, un soggetto cosciente è capace di integrare informazioni ed elaborarle globalmente, è introspettivamente consapevole di sé, possiede un modello di sé stesso e dell’ambiente esterno, può anticipare attività percettive e comportamentali, genera discorsi interiori e agisce interagendo con il mondo esterno.
Il campo multidisciplinare della ricerca sulla coscienza artificiale mira quindi a indagare il fenomeno della coscienza alla luce della robotica e dei sistemi artificiali, della psicologia, della filosofia della mente, dell’etica e delle neuroscienze.
La coscienza artificiale
La prima occorrenza della parola coscienza artificiale si trova nel libro “Cybernetic Machines di Tihamér Nemes”, pubblicato in Ungheria nel 1962 e tradotto in inglese nel 1970. L’autore considera la coscienza artificiale come la capacità di un robot di discriminare sé e gli altri. Nemes propone un circuito capace di distinguere tra segnali interni che generano frasi come “Io vado”, da circuiti di riconoscimento della forma e percezione del movimento che elaborano segnali provenienti dall’esterno e capaci di generare frasi come “Egli va”.
Il moderno quadro scientifico della coscienza artificiale è stato introdotto dal Professor Igor Aleksander dell’Imperial College di Londra che, sin dal 1992, ha proposto un quadro di riferimento scientifico per gli studi sulla coscienza nei robot.
Il simposio su Can a Machine Be Conscious, organizzato dalla Swartz Foundation nel 2001, è stata un’altra pietra miliare per la coscienza dei robot. Le osservazioni conclusive del neuroscienziato Christof Koch, valide ancora oggi, affermavano che non conosciamo nessuna legge o principio fondamentale operante in questo universo che proibisca l’esistenza di sentimenti soggettivi in artefatti progettati o evoluti dall’uomo.
Dal 2001 ad oggi, molte conferenze, workshop, numeri speciali di riviste sono stati dedicati al campo della coscienza dei robot. In particolare, durante l’estate del 2017, il prestigioso Stanford Research Institute in California ha organizzato una serie di workshop su Technology and Consciousness i cui atti riassumono lo stato dell’arte della ricerca nel settore. Una fonte continua di informazioni è il Journal of Artificial Intelligence and Consciousness, edito da World Scientific Press.
Neuroscienze e robotica
La coscienza ovviamente è un importante argomento di ricerca nelle neuroscienze. Le neuroscienze contribuiscono alla costruzione di robot coscienti in quanto i modelli biologici possono ispirare i modelli alla base del funzionamento dei robot coscienti.
Lo scomparso premio Nobel Gerald Edelman è stato un precursore nell’uso dei robot per analizzare le teorie sull’organizzazione del cervello e sulla coscienza biologica. Il principio ispiratore è che non capiamo bene una cosa se non siamo in grado di costruirla. Allora, avremo capito bene la coscienza biologica quando saremo in grado di costruire la coscienza artificiale.
Edelman ha creato la serie di robot Darwin per convalidare parti della sua teoria. I robot incorporano modelli di modifiche sinaptiche per generare il comportamento di un agente secondo il contesto e la sua storia e senza la necessità di programmarlo.
Tra questi, Darwin III è un sofisticato modello di robot che lavora in un ambiente simulato ed è in grado di imparare la coordinazione sensorimotoria, la capacità di seguire gli oggetti, la capacità di raggiungerli, afferrarli e di categorizzarli interagendo con l’ambiente.
Darwin VII può effettuare la categorizzazione percettiva e le risposte condizionate in semplici compiti di ricerca del cibo, e Darwin VIII può analizzare una scena percepita e formare categorie adeguate senza la necessità di un sistema di controllo.
La ricerca non ha ancora sviluppato un robot dotato di coscienza artificiale. Ha sviluppato però dei modelli robotici che prendono spunto da alcuni aspetti della coscienza biologica. In particolare, questi modelli prendono spunto dal fatto che la coscienza è legata all’esperienza integrata, ossia noi percepiamo il mondo reale come un tutt’uno di suoni, colori, forme, immagini, colori.
Altri modelli sono basati sul fatto che la memoria globale di lavoro del cervello umano è importante per la percezione globale del mondo esterno. Inoltre, i modelli basati sui processi dell’attenzione stanno ricevendo grande impulso: una capacità della coscienza è certamente quella di percepire il mondo unitariamente, ma anche di focalizzarsi su qualcosa in dettaglio.
Infine, studi recenti molto interessanti si basano sulla fisica quantistica e sull’energia libera. In fondo, la coscienza è una realtà del mondo fisico e deve poter essere studiata con gli strumenti propri della fisica.
Aspetti teorici
Un percorso di indagine nella coscienza dei robot è quello di trovare un insieme minimo di caratteristiche che devono essere verificate per affermare che un robot è effettivamente cosciente.
Il professor Igor Aleksander ha proposto cinque assiomi che dovrebbero essere verificati da un organismo cosciente:
- un organismo che non apprende non può essere cosciente,
- un organismo cosciente possiede uno stato interno in grado di rappresentare il mondo esterno,
- un organismo cosciente è in grado di prestare attenzione ai contenuti del suo stato interno,
- un organismo cosciente è in grado di generare stati interni relativi a sequenze di segnali esterni e di generare azioni adeguate,
- l’organismo è in grado di prevedere eventi esterni attraverso sviluppi controllati del suo stato interno.
Il neuroscienziato Giulio Tononi, italiano residente da anni negli Stati Uniti, ha proposto la Teoria dell’Informazione Integrata della coscienza che, oggi, è la più dibattuta e analizzata e alla base di importanti risultati anche per la coscienza dei robot.
La formulazione originale parte dall’osservazione che l’esperienza cosciente è differenziata perché il repertorio potenziale dei diversi stati coscienti è enorme. Allo stesso tempo, l’esperienza cosciente è integrata, poiché ogni stato cosciente è percepito come una singola entità. Quindi, il substrato dell’esperienza cosciente deve essere un’entità integrata in grado di differenziare tra un enorme repertorio di stati diversi.
Secondo questa teoria, l’esperienza è una grandezza fondamentale della natura come la massa, la carica, l’energia. Qualsiasi sistema fisico può avere esperienze nella misura in cui è capace di integrare informazioni. Pertanto, potrebbe essere possibile in linea di principio costruire robot coscienti. Tuttavia, la teoria stessa suggerisce che i computer convenzionali non sono in grado di eseguire un’efficace integrazione delle informazioni, e non sono in grado di sperimentare nulla.
Un robot basato su un computer convenzionale può essere uno zombie, cioè un’entità che imita il comportamento cosciente ma incapace di provare effettivamente qualcosa.
Un tema significativo della ricerca consiste nel dare a un robot le capacità di autoconsapevolezza, cioè di riflettere su sé stesso, sulle sue percezioni e azioni durante la sua vita operativa.
Questo approccio ipotizza che la mente sia composta da una gerarchia di moduli, dove i moduli di basso livello sono legati ai comportamenti più primitivi, e i moduli di medio livello sono legati alla pianificazione e al ragionamento. I moduli di alto livello sono associati alle capacità di auto-monitoraggio e di auto-riflessione.
Il Laboratorio di robotica dell’Università di Palermo ha proposto un’architettura cognitiva per un robot con capacità introspettive. L’autocoscienza del robot si basa sulla percezione di ordine superiore del robot, nel senso che la percezione di primo ordine del robot è la percezione immediata dell’ambiente, mentre la percezione di ordine superiore è la percezione del mondo interno del robot . L’architettura autocosciente è stata dimostrata a bordo di un robot mobile che ha eseguito numerose visite guidate al Museo archeologico di Agrigento.
Il dibattito sulla coscienza dei robot
Il dibattito sulla coscienza nei robot oggi è molto vivo e vitale. Il manifesto sulla coscienza nei robot ha sollevato alcune delle principali sfide del campo . La discussione più importante riguarda la possibilità di stabilire se la coscienza è qualcosa che può essere implementato su un computer o su un robot oppure è un qualcosa che sfugge ai modelli computazionali ed appartiene soltanto al mondo della biologia. Secondo questa linea di pensiero, soltanto un essere vivente può essere cosciente e quindi un robot, per quanto sofisticato, non lo sarà mai.
Un altro dibattito riguarda il ruolo della corporeità nella coscienza: un essere senza corpo come un computer può essere cosciente, oppure è necessario avere un corpo con dei sensori quali le telecamere per vedere, e degli attuatori come le braccia e le gambe per potersi muovere, toccare, guardare, e così via?
In sostanza, un robot potrebbe essere cosciente mentre un computer non potrà mai esserlo. Un problema correlato riguarda il ruolo dell’ambiente esterno: la coscienza risiede nel cervello oppure è qualcosa relativa anche all’ambiente che ci circonda?
Inoltre, può un robot provare realmente qualcosa, come un dolore o una gioia, oppure potrà soltanto fingere? Un dibattito correlato riguarda la misura della coscienza: come faremo ad accorgerci se un robot è veramente cosciente? Potrebbe non essere cosciente ma imitare alla perfezione il fatto di provare qualcosa senza provare nulla. D’altro canto, questo vale anche per l’essere umano: come stabilire se una persona è cosciente?
I test della coscienza nei robot
Le misure proposte attualmente sono tutte delle variazioni sul tema del famoso test di Turing dell’imitazione del comportamento umano. Questo test è esposto a tante critiche: è necessaria una terza persona cosciente che valuta le prestazioni del robot, è basato sul linguaggio ma un robot cosciente potrebbe non avere il linguaggio, e così via.
Inoltre, i più recenti sistemi di generazione automatica del linguaggio, che non sono coscienti, potrebbero comunque superare il test per via della loro ricchezza espressiva.
Nel 2017 la filosofa americana Susan Schneider ha proposto l’Artificial Consciousness Test, una variante del test di Turing in cui le domande da porre sono incentrate sulla qualità dell’esperienza interiore del robot. Il robot dovrebbe essere idealmente isolato dal mondo esterno per evitare il rischio che possa recuperare le risposte corrette da Internet.
Un’altra fonte di ispirazione per i test sulla coscienza è il test dello specchio per i primati. In questo caso, un robot dovrebbe riconoscere e descrivere sé stesso e i suoi movimenti guardando attraverso uno specchio, anche in presenza di altri robot.
La coscienza nei robot può anche essere valutata misurando caratteristiche specifiche attribuite alla coscienza, come la capacità di presentare forme di creatività, cioè di produrre qualcosa di nuovo e inaspettato, oppure la capacità del robot di generare un autentico discorso interiore.
Il discorso interiore è considerato strettamente legato all’autocoscienza: i ricercatori del Laboratorio di robotica dell’Università di Palermo hanno implementato un robot in grado di esibire un discorso interiore durante lo svolgimento di semplici azioni come, per esempio, apparecchiare una tavola.
Inoltre, i ricercatori hanno dimostrato che un robot dotato delle capacità del discorso interiore è in grado di riconoscere sé stesso allo specchio.
Intelligenza artificiale, l’utilità attuale delle leggi di Asimov
Prospettive
L’eventuale avvento di robot coscienti porterebbe a preoccupazioni etiche così come a questioni relative all’integrazione sociale di tali robot, come ha discusso il filosofo Mark Coeckelbergh.
Se un robot fosse capace di soffrire, allora dovrebbe essere trattato come una persona, anche legalmente. Questi argomenti possono costringerci a rivedere le nostre definizioni del concetto di persona. Se affermiamo che un robot è cosciente, allora la responsabilità morale del sistema per le sue azioni deve essere riconosciuta legalmente. D’altra parte, potremmo dover concedere diritti ai robot coscienti, come il diritto di non essere spenti.
Tuttavia, se un robot non è capace di provare qualcosa e di emozionarsi, allora non potrà distinguere il bene dal male. Le nostre leggi, le regole che l’umanità si è data, potrebbero apparire come convenzioni retoriche per una entità incapace di soffrire e di gioire. Le tre leggi di Asimov della robotica sono pienamente condivisibili ma, al pari di molte leggi, nascondono ambiguità.
In sintesi, il problema etico nei robot potrebbe richiedere di risolvere allo stesso tempo il problema dei robot coscienti. In sintesi, la coscienza dei robot è un campo di ricerca che offre opportunità eccezionali, e che porta con sé rischi etici da non sottovalutare. Per concludere, molti dei problemi scientifici qui descritti saranno discussi al convegno The Science of Consciousness che si terrà a Taormina dal 23 al 28 maggio 2023 e che vedrà la partecipazione dei principali studiosi sulla coscienza e in particolare sulla coscienza nei robot.
Bibliografia
Whang, O. 2023. ‘Consciousness’ in Robots Was Once Taboo. Now It’s the Last Word. The New York Times Jan 6, 2023 https://www.nytimes.com/2023/01/06/science/robots-artificial-intelligence-consciousness.html
Searle, John R. 2000. “Consciousness.” Annual Review of Neuroscience 23:557–578. https://doi.org/10.1146/annurev.neuro.23.1.557
Aleksander, Igor. 1992. “Capturing Consciousness in Neural Systems.” In Artificial Neural Networks 2, Proceedings of ICANN 1992 Conference, 17–22. Amsterdam: Elsevier.
Kock, Christof. 2001. Final Report of the Workshop Can a Machine be Conscious, The Banbury Center, Cold Spring Harbor Laboratory http://www.theswartzfoundation.org/abstracts/2001_summary.asp
Rushby, John e Sanchez, David. 2018. “Technology and Consciousness Workshops Report.” Computer Science Laboratory, SRI International, Menlo Park CA USA http://www.csl.sri.com/users/rushby/papers/techconscwks2017.pdf
Reeke, George N., Olaf Sporns, e Gerald M. Edelman. 1990. “Synthetic Neural Modeling: The ‘Darwin’ Series of Recognition Automata.” Proceedings of the IEEE 78 (9): 1498–1530. https://ieeexplore.ieee.org/document/58327
Aleksander, Igor, and Barry Dunmall. 2003. “Axioms and Tests for the Presence of Minimal Consciousness in Agents.” Journal of Consciousness Studies 10 (4–5): 7–18.
Tononi, Giulio. 2008. “Consciousness as Integrated Information: A Provisional Manifesto.” Biology Bulletin 215:216–242. https://www.journals.uchicago.edu/doi/10.2307/25470707
Chella, Antonio, Marcello Frixione, e Salvatore Gaglio. 2008. “A Cognitive Architecture for Robot Self- Consciousness.” Artificial Intelligence in Medicine 44:147–154. https://www.sciencedirect.com/science/article/pii/S0933365708000894
Chella, Antonio, e Irene Macaluso. 2009. “The Perception Loop in Cicerobot, a Museum Guide Robot.” Neurocomputing 72:760–766. https://www.sciencedirect.com/science/article/abs/pii/S0925231208004657
Chella, Antonio, e Riccardo Manzotti. 2009. “Machine Consciousness: A Manifesto for Robotics.” International Journal of Machine Consciousness 1 (1): 33–51. https://www.worldscientific.com/doi/10.1142/S1793843009000062
Turing, Alan, M. 1950. “Computing Machinery and Intelligence.” Mind, LIX, 236, 433–460. https://academic.oup.com/mind/article/LIX/236/433/986238
Schneider, Susan, e Edwin Turner. 2017. “Is Anyone Home? A Way to Find Out if AI Has Become Self-Aware.” Scientific American (blog). https://blogs.scientificamerican.com/observations/is-anyone-home-a-way-to-find-out -if-ai-has-become-self-aware/
Chella, Antonio, Arianna Pipitone, Alain Morin, e Famira Racy. 2020. “Developing Self-Awareness in Robots via Inner Speech.” Frontiers in Robotics and AI 7:16. https://www.frontiersin.org/articles/10.3389/frobt.2020.00016
Pipitone, Arianna e Antonio, Chella. 2021. “Robot passes the mirror test by inner speech.” Robotics and Autonomous Systems 144, 103838 https://www.sciencedirect.com/science/article/abs/pii/S0921889021001238
Coeckelbergh, Mark. 2022. Robot Ethics. MIT Press. https://mitpress.mit.edu/9780262544092/robot-ethics