Il tema della coscienza artificiale, ossia la possibilità che i sistemi di intelligenza artificiale (IA) possano sviluppare delle forme di consapevolezza o di esperienza soggettive, si presta a diverse linee interpretative, inclusa la questione fondamentale del perché eventualmente investire nella ricerca di una coscienza artificiale, l’analisi del rapporto tra capacità coscienti e comportamento etico, la discussione in merito alla capacità di autoconsapevolezza dell’IA, il dibattito sulle implicazioni della capacità di coscienza per l’autonomia delle macchine.
Indice degli argomenti
La complessità interpretativa della coscienza artificiale
Questa complessità interpretativa nasce dal carattere polisemico del termine stesso ‘coscienza’, che ha diversi significati, oltreché diverse sfaccettature di ciascun significato. Pertanto, prima di pronunciarsi in merito alla concepibilità, alla plausibilità logica e alla fattibilità tecnica di una coscienza artificiale, è necessario chiarire quale significato specifico di ‘coscienza’ si assume come referente.
Chiarito questo aspetto terminologico, è opportuno procedere in modo “pragmatico”, ossia evitare di ridurre la discussione a un confronto puramente teorico e tentare di individuare delle strategie operative per raggiungere un accordo il più generale possibile sulle effettive capacità coscienti dei sistemi di IA. La sfida è trovare degli “indicatori di coscienza”, ossia delle proprietà, osservabili dall’esterno, che forniscano indicazioni affidabili sulla capacità e sull’eventuale livello di coscienza del sistema in esame.
Modello multidimensionale della coscienza
Nella discussione filosofica e scientifica, si tende a distinguere due forme fondamentali della coscienza: quella cognitiva, ossia la capacità di selezionare, elaborare e utilizzare intenzionalmente determinate informazioni per raggiungere degli obiettivi specifici, e quella esperienziale (o fenomenologica), ossia l’esperienza soggettiva legata a una certa situazione o azione.
La lingua inglese ha due termini distinti per indicare queste due diverse forme: rispettivamente access consciousness, che possiamo tradurre come “coscienza d’accesso” (all’informazione), e phenomenal consciousness, che possiamo tradurre come “coscienza fenomenologica” o esperienza soggettiva (Block, 1995). In realtà, si discute se questi due termini e relativi concetti realmente corrispondano a due diverse forme di coscienza o siano piuttosto degli strumenti linguistici per indicare funzioni diverse dello stesso tipo fondamentale di coscienza (Naccache, 2018, Papineau, 2020) (Block, 2022). In ogni caso, rimanendo neutrali sull’ipotesi che si tratti di due diverse forme di coscienza piuttosto che di due diverse funzioni dello stesso tipo di coscienza, ai fini dell’analisi di un’ipotetica coscienza artificiale è molto utile partire dalla polisemicità del termine ‘coscienza’.
Più nello specifico, come definita da Ned Block, la coscienza d’accesso si riferisce all’interazione tra diversi stati mentali, in particolare alla disponibilità del contenuto di uno stato ad essere utilizzato nel ragionamento e per guidare razionalmente capacità come linguaggio e azione (ossia, la disponibilità cognitiva dell’informazione). La coscienza fenomenologica indica la sensazione soggettiva di una certa esperienza, “che cosa si prova ad essere” in uno stato particolare (ossia, l’esperienza soggettiva, incluse esperienze di percezioni che non sono accessibili sul piano cognitivo) (Block, 1995) (Block, 2022). Pertanto, la coscienza d’accesso si fonda sull’informazione proveniente da diversi processi cognitivi, i quali mediano funzioni come memoria esecutiva, capacità di verbalizzazione, e comportamento motorio (Mashour et al., 2020), mentre la coscienza fenomenologica si riferisce all’esperienza soggettiva di un soggetto cosciente caratterizzato da uno specifico punto di vista.
Per sintetizzare, possiamo dire che la coscienza fenomenologica e la coscienza d’accesso si riferiscono rispettivamente alla forma esperienziale e alla forma cognitiva della coscienza. Ciascuna di esse, inoltre, presenta diverse dimensioni, ossia diverse capacità specifiche che possono essere espresse in modi diversi e a diversi livelli di complessità. L’identificazione delle dimensioni della coscienza è un’impresa ancora in fieri, con diverse proposte finalizzate a chiarire i componenti dalla coscienza in riferimento a diversi enti o sistemi oggetto di studio, inclusi gli animali, i soggetti umani e i sistemi di IA (Evers et al., 2025).
Per esempio, Bayne, Hohwy e Owen (Bayne et al., 2016) hanno introdotto due famiglie principali di dimensioni della coscienza: quelle relative al contenuto e quelle funzionali. La prima tipologia include, tra l’altro, la selezione del contenuto cosciente (per esempio, le caratteristiche di base di un oggetto distinte da quelle di livello superiore). La seconda tipologia include il controllo cognitivo e comportamentale (ossia la capacità di utilizzare i contenuti coscienti per il controllo del pensiero e dell’azione). Nella stessa linea di analisi, Walter ha proposto le seguenti dimensioni della coscienza relative al contenuto: ricchezza sensoriale, rappresentazione di ordine superiore, comprensione semantica; e le seguenti dimensioni funzionali: funzionamento esecutivo, consolidamento della memoria, azione intenzionale, ragionamento, controllo dell’attenzione, vigilanza, meta-consapevolezza (Walter, 2021).
Altre riflessioni rilevanti in merito alle dimensioni della coscienza sono state pubblicate da Birch e colleghi, che con riferimento particolare alla coscienza animale hanno introdotto le seguenti dimensioni (Birch et al., 2020):
- Ricchezza percettiva: ogni misura è specifica per una modalità sensoriale, cosicché non esiste un livello generale di ricchezza percettiva. Inoltre, all’interno di una particolare modalità sensoriale, la ricchezza percettiva può essere scomposta in diverse componenti (per esempio, larghezza di banda, acutezza, e capacità di categorizzazione per la vista);
- Ricchezza valutativa: la valenza positiva o negativa basata sull’affettività. Anche la ricchezza valutativa può essere scomposta in diverse componenti;
- Integrazione in uno stesso tempo (unità): l’esperienza cosciente è (di solito) molto unificata;
- Integrazione nel tempo (temporalità): l’esperienza cosciente ha la forma di un flusso continuo;
- Auto-coscienza (senso del sé): la consapevolezza di se stessi come distinti dal mondo esterno
Dung e Newen hanno introdotto ulteriori dimensioni, anch´essi con esplicito riferimento alla coscienza animale, ma potenzialmente rilevanti anche per la coscienza artificiale (Dung and Newen, 2023). Nella categoria “rappresentazione esterna”, dove essi includono la ricchezza percettiva e valutativa come definite da Birch e colleghi, aggiungono l’intensità valutativa, definita come l’intensità con cui un soggetto fa esperienza della valenza positiva o negativa di un oggetto o di una situazione, e l’unità esterna diacronica e sincronica.
Nell’ambito della categoria “auto-rappresentazione”, essi aggiungono l’unità diacronica e sincronica riferita al sé, l’esperienza di agire (ossia la capacità di esperire le azioni come iniziate e controllate volontariamente), e l’esperienza di possesso (ossia, la capacità di percepire le parti del corpo come qualcosa di personale piuttosto che come oggetti del mondo esterno). Nell’ambito della categoria “strategie di analisi cognitive” essi introducono tre nuove dimensioni: ragionamento (per esempio connessioni complesse di pensieri e capacità di ragionare su diversi ambiti), apprendimento (per esempio trace conditioning), e astrazione (ossia la capacità di formare e utilizzare forme astratte di livello superiore che categorizzano stimoli sensoriali specifici).
Ancora, Irwin ha recentemente proposto un altro approccio alle dimensioni della coscienza animale: sulla base di uno studio comportamentale di 12 specie animali, ha identificato tre tipi di comportamento (volontario, interattivo, ed egocentrico), quantificato la loro frequenza, varietà e dinamismo, ed infine li ha rappresentati in una matrice indicativa del profilo di coscienza dell’animale in oggetto (Irwin).
Tutte queste proposte sono illustrative di un dibattito molto accesso che promette ulteriori progressi verso una riflessione analitica più dettagliata sulla coscienza e i suoi costituenti. Ovviamente, le dimensioni sopra elencate coprono soltanto alcuni aspetti della coscienza mentre altri rimangono meno considerati o non considerati affatto.
Per esempio, un’altra categoria di dimensioni che sembra non essere stata finora adeguatamente analizzata è quella delle funzioni o rappresentazioni socio-relazionali (Earp et al., 2021) e le interazioni binarie, che includono dimensioni o capacità come teoria della mente (ossia la capacità di anticipare il comportamento altrui attraverso una virtualizzazione basata su modelli, in particolare quando strumentale al raggiungimento di obiettivi personali), collaborazione strategica (ossia collaborare con gli altri perché è strumentale al raggiungimento di obiettivi comuni, anche se i vantaggi individuali risulteranno infine ridotti in conseguenza di una tale collaborazione, oppure il vantaggio non è immediato ma posposto), e orientamenti o comportamenti altruistici (o comunitari) (Clark and Mills, 1993) (ossia la predisposizione a condividere delle risorse se gli altri sono percepiti con bisognosi, anche se questa condivisione non produce alcun vantaggio personale o genera il rischio di un ridotto benessere personale).
Mentre l’identificazione specifica di altre dimensioni delle famiglie e categorie sopra descritte, così come l’identificazione di altre possibili famiglie e/o categorie di dimensioni della coscienza sono ancora una questione aperta (Veit, 2022, Walter, 2021), il concetto di profili di coscienza emerge come lo spazio di esperienza delimitato da diverse dimensioni specifiche all’interno di uno o più costituenti della coscienza.
Per esempio, potrebbe in teoria essere possibile che il profilo di coscienza di un soggetto umano abbia alcune dimensioni contenutistiche e funzionali (per esempio, comprensione semantica e meta-consapevolezza, rispettivamente) più sviluppate di un’entità non umana, mentre altre dimensioni contenutistiche e funzionali (per esempio, ricchezza sensoriale e vigilanza, rispettivamente) meno sviluppate. Inoltre è possibile che un’entità non umana (sia biologica sia artificiale) abbia un profilo di coscienza che comprende alcune dimensioni che gli uomini non posseggono (per esempio eco-localizzazione). Questo non significa che uno stato cosciente generale sia più o meno avanzato rispetto a un altro, ma piuttosto configurato diversamente.
Pertanto, il confronto tra coscienza umana, di altri animali, e possibilmente di sistemi artificiali dovrebbe essere configurato nei termini di somiglianze e differenze rispetto a specifici costituenti e relative dimensioni piuttosto che nei termini di livelli più alti o più bassi riferiti a un unico, generale costituente e/o dimensione. In breve, la coscienza è una realtà multiforme (ossia un prisma), irriducibile a un unico livello di descrizione.
Ritengo che questa concezione multiforme e multidimensionale della coscienza renda possibile una discussione più equilibrata sulla coscienza artificiale che non si limiti a un pensiero binario (sistemi coscienti VS sistemi non coscienti): è possibile che un sistema artificiale sia in grado di replicare solo alcune delle molteplici dimensioni che caratterizzano la coscienza umana, perché la coscienza è come uno spettro che possiede diverse sfaccettature, le quali possono essere realizzate, a livello naturale o artificiale, a diversi livelli, in combinazione reciproca o indipendentemente l’una dall’altra.
Esperienza soggettiva nella coscienza artificiale
Nonostante questa complessità semantica della coscienza, quando si parla di un’ipotetica IA cosciente c’è la tendenza a riferirsi alla seconda delle forme sopra introdotte, ossia alla capacità di avere un’esperienza soggettiva. Tra l’altro, proprio la dimensione esperienziale della coscienza è centrale nel dibattito etico, per esempio in merito alle condizioni per considerare qualcuno meritevole di tutela morale: se un soggetto rischia di soffrire, è considerato moralmente doveroso evitare che ciò accada, mentre si ritiene moralmente doveroso massimizzare le possibilità di benessere soggettivo.
Allora la domanda centrale in merito alla coscienza artificiale diventa: può l’IA avere esperienze soggettive, sia positive sia negative? Come possiamo avanzare verso una risposta plausibile ed empiricamente fondata a tale interrogativo?
Strategie per identificare la coscienza artificiale
Ammettendo che sia possibile sul piano teorico che l’IA sviluppi una forma di esperienza soggettiva, e che essa sia sufficientemente simile alla nostra, come possiamo riconoscerla? In filosofia della mente si parla di “problema delle altri menti”, ad indicare il fatto che è logicamente impossibile fare esperienza diretta della vita mentale altrui, per cui non siamo mai sicuri che la persona di fronte a noi sia effettivamente cosciente anziché uno zombie che agisce in modo del tutto automatico e inconsapevole (Chalmers, 1996). Se questo vale per gli altri soggetti umani con i quali condividiamo la stessa condizione biologica e psicologica, vale a maggior ragione per gli animali non umani, e in modo massimo per i sistemi artificiali. Per questi ultimi la situazione è ulteriormente complicata dal fatto che essi sono addestrati con dati generati da soggetti umani con il fine specifico di riprodurne le caratteristiche, ossia di simularne le facoltà, incluse quelle coscienti. Ciò implica quello che in inglese è stato definito The gaming problem, che in italiano potremmo tradurre ccome “problema del camuffamento” (Birch and Andrews, 2024): l’IA fa finta di possedere determinate caratteristiche umane perché così è stata programmata a fare tramite l’addestramento con dati originati dall’uomo, per cui non possiamo basarci sul modo in cui funziona per decidere se essa sia effettivamente cosciente. Come risolvere, allora, la questione? Sono state elaborate cinque strategie principali: una basata sulle teorie della coscienza, una basata sulla vita, una basata sul cervello, una basata sulla coscienza, e infine una che possiamo definire euristica. La strategia basata sulle teorie della coscienza parte da alcune teorie scientifiche della coscienza per dedurne degli indicatori e quindi verificare se essi siano presenti nell’IA (Butlin et al., 2023). La strategia basata sulla vita parte dal presupposto che la coscienza è necessariamente legata alla vita, ossia che solo un sistema vivente può essere cosciente, anche se non necessariamente tale sistema deve essere basato sul carbonio, come la vita biologica sul nostro pianeta, ma potrebbe anche essere basata sul silicio, come i sistemi di IA. In ogni caso, se l’IA non è viva (in base a determinati criteri), allora non può essere cosciente (Seth, 2024). La strategia basata sul cervello parte dal nesso tra coscienza, cervello e la sua evoluzione per verificare se l’IA possieda i fattori che possiamo ragionevolmente ritenere necessari per la coscienza umana (Farisco et al., 2024). La strategia basata sulla coscienza tenta di individuare delle forme di coscienza in natura diverse da quella umana al fine di identificare se c’è qualcosa di necessario alla coscienza in quanto tale, e quindi verificare se l’IA sia in grado di possederlo (Birch and Andrews, 2024). L’ultima strategia, che definisco euristica, tenta di individuare degli indicatori di coscienza, che, come accennato, sono delle proprietà del sistema in oggetto, osservabili dall’esterno, le quali giustificano l’attribuzione di capacità coscienti al sistema stesso (Pennartz et al., 2019, Farisco et al., 2022). In quanto segue analizzo in modo più dettagliato quest’ultima strategia, che appare particolarmente idonea ad essere operazionalizzata, ossia applicati ai sistemi di IA in fase di sviluppo.
Indicatori pratici di coscienza artificiale
La difficoltà di identificare eventuali capacità coscienti nei sistemi di IA è allo stesso tempo conoscitiva (ossia teorica) e tecnica (ossia operativa). Cosa possiamo cercare di fare per avanzare nel tentativo di identificare eventuali esperienze coscienti artificiali? Personalmente ho contribuito ad elaborare una lista di “indicatori di coscienza”, ossia di proprietà e caratteristiche, per esempio fisiologiche o comportamentali, che possono aiutarci nel nostro tentativo di identificare la coscienza in altri uomini, in animali non umani, e potenzialmente anche in sistemi artificiali (Pennartz et al., 2019, Farisco et al., 2022). Più nello specifico, siamo partiti dall’ipotesi che la coscienza sia la capacità di elaborare un modello o rappresentazione dinamica del mondo, la quale rende possibile un processo decisionale complesso e un comportamento finalizzato al raggiungimento di specifici obiettivi (Pennartz, 2015). Il processo decisionale complesso è un tipo di processo che richiede diverse azioni intenzionali di tipo cognitivo, in contrasto con riflessi e abitudini, che possono essere in larga parte non coscienti.
Sulla base di questa premessa, abbiamo identificato le seguenti caratteristiche principali della coscienza, senza escludere la possibilità che essa abbia anche altre caratteristiche:
1. Ricchezza qualitativa: l’esperienza cosciente è caratterizzata da diverse modalità e sub-modalità sensoriali. Per esempio, nel caso della vista, le sub-modalità includono la tessitura, il movimento, il colore, la taglia, la forma, e la profondità.
2. Collocazione: la coscienza è specificata da una condizione spazio-temporale particolare del soggetto, il cui corpo occupa un posto determinato nello spazio e nel tempo. Significativamente, questo concetto include oggetti con relazioni spaziotemporali specifiche gli uni con gli altri (anziché riferirsi a concetti astratti di spazio e di tempo), così come il corpo del soggetto stesso (inteso come oggetto).
3. Intenzionalità: la coscienza è riferita a qualcosa di diverso rispetto ai suoi componenti neuronali.
4. Integrazione: i componenti dell’esperienza cosciente sono percepiti come un tutto unificato.
5. Dinamicità e stabilità: le esperienze coscienti includono sia cambiamenti dinamici sia stabilizzazioni di breve durata.
A partire dalla definizione e dalle caratteristiche della coscienza sopra riportate, abbiamo introdotto i seguenti indicatori, comprendendone diversi tipi ed includendo dimensioni comportamentali, neuro-fisiologiche e cognitive:
1. Comportamento diretto allo scopo e apprendimento basato su modelli: il comportamento diretto allo scopo è definito tecnicamente come un comportamento guidato dalle conseguenze attese di un’azione, nel quale il soggetto agente sa che la sua azione ha un nesso di causa ed effetto con l’ottenimento di un risultato desiderabile. L’apprendimento basato su modelli dipende dalla capacità del soggetto agente di avere un modello esplicito di se stesso e del suo ambiente circostante.
2. Anatomia e fisiologia del cervello: siccome la coscienza dei mammiferi dipende dall’integrità di particolari sistemi cerebrali (ossia sistemi talamo-corticali), è ragionevole pensare che strutture simili o funzioni omologhe indichino la presenza della coscienza.
3. Psicometria e giudizio meta-cognitivo: se il soggetto agente può identificare e distinguere gli stimoli e formulare alcuni giudizi meta-cognitivi sugli stimoli percepiti, ossia esprimere giudizi sulle proprietà della relativa conoscenza, probabilmente è cosciente.
4. Memoria episodica: se il soggetto agente è in grado di ricordare gli eventi (cosa) esperiti in un posto (dove) e in un tempo (quando) particolari, probabilmente è cosciente.
5. Mettere in atto un’indagine situazionale soggettiva: suscettibilità alle illusioni. Se un soggetto agente è suscettibile a illusioni e ambiguità percettive, probabilmente è cosciente.
6. Mettere in atto un’indagine situazionale soggettiva: comportamento visivo-spaziale. L’ultimo indicatore di coscienza proposto è la capacità di percepire gli oggetti come stabili, anche quando il soggetto agente si muove nel suo ambiente mentre lo percepisce visivamente.
Come criterio generale, questa lista di indicatori è ispirata da una pragmatica umiltà conoscitiva: tale lista, infatti, è concepita per essere provvisoria ed euristica, ma allo stesso tempo sufficientemente utile per essere utilizzata e operazionalizzata, ossia applicata a casi reali. Significativamente, gli indicatori funzionano come dei marcatori della coscienza positivi (Ginsburg and Jablonka, 2019): mentre la loro presenza suggerisce la presenza della coscienza, la loro assenza non esclude la possibilità che ci sia una coscienza che non è stata identificata. Per tale motivo, questo tipo di approccio non offre risposte definitive, ma delinea un programma di ricerca (perciò la strategia è detta euristica), al fine di ridurre il più possibile le nostre incertezze.
Nel caso di sistemi di intelligenza artificiale, possibili ulteriori indicatori più specifici potrebbero prendere la forma di indicatori ecologici e sociali o di tipo cooperativo. Per esempio, se un sistema di intelligenza artificiale mostra la capacità di coordinamento con altri sistemi al fine di massimizzare le possibilità di raggiungere i propri obiettivi, allora potrebbe essere cosciente. La probabilità che un sistema di intelligenza artificiale capace di questo tipo di comportamento sia cosciente aumenta anche se esso è in grado di posticipare la soddisfazione dei propri bisogni in vista di un risultato ritardato più soddisfacente, oppure se è in grado di anticipare l’emergere di bisogni futuri.
Prospettive future per la coscienza artificiale
Per verificare se un sistema di IA abbia delle capacità coscienti, in particolare delle forme di esperienza soggettiva, sono state introdotte diverse strategie, basate sulle teorie scientifiche della coscienza, sulla vita, sul cervello, sulla coscienza come rinvenibile in natura, e sulla ricerca di indicatori, ossia caratteristiche, strutturali e/o funzionali, del sistema in oggetto che giustificano considerarlo cosciente. Nessuna di queste strategie è di per sé garanzia di risposte definitive: il punto è evitare riferimenti astratti a una generica nozione di coscienza, specificarne il significato specifico assunto come riferimento, oltreché le diverse sue dimensioni e componenti, e pensare un programma di ricerca aperto e “pragmatico”, ossia applicabile a sistemi di IA reali.
Bibliografia
BAYNE, T., HOHWY, J. & OWEN, A. M. 2016. Are There Levels of Consciousness? Trends Cogn Sci, 20, 405-13.
BIRCH, J. & ANDREWS, K. 2024. To Understand AI Sentience, First Understand it in Animals. Intellectica, 81, 213-226.
BIRCH, J., SCHNELL, A. K. & CLAYTON, N. S. 2020. Dimensions of Animal Consciousness. Trends Cogn Sci, 24, 789-801.
BLOCK 1995. On a confusion about a function of consciousness. Behavioral and Brain Sciences, 18, 227-287.
BLOCK, N. J. 2022. The border between seeing and thinking. Philosophy of mind series. New York, NY: Oxford University Press,.
BUTLIN, P., LONG, R., ELMOZNINO, E., BENGIO, Y., BIRCH, J., CONSTANT, A., DEANE, G., FLEMING, S. M., FRITH, C., JI, X., KANAI, R., KLEIN, C., LINDSAY, G., MICHEL, M., MUDRIK, L., PETERS, M. A. K., SCHWITZGEBEL, E., SIMON, J. & VANRULLEN, R. 2023. Consciousness in Artificial Intelligence: Insights from the Science of Consciousness.
CHALMERS, D. J. 1996. The conscious mind, Oxford, Oxford University Press.
CLARK, M. S. & MILLS, J. 1993. The difference between communal and exchange relationships: What it is and is not. Personality and Social Psychology Bulletin, 19, 684-691.
DUNG, L. & NEWEN, A. 2023. Profiles of animal consciousness: A species-sensitive, two-tier account to quality and distribution. Cognition, 235, 105409.
EARP, B. D., MCLOUGHLIN, K. L., MONRAD, J. T., CLARK, M. S. & CROCKETT, M. J. 2021. How social relationships shape moral wrongness judgments. Nature Communications, 12, 5776.
EVERS, K., FARISCO, M., CHATILA, R., EARP, B. D., FREIRE, I. T., HAMKER, F., NEMETH, E., VERSCHURE, P. F. M. J. & KHAMASSI, M. 2025. Preliminaries to artificial consciousness: A multidimensional heuristic approach. Physics of Life Reviews, 52, 180-193.
FARISCO, M., EVERS, K. & CHANGEUX, J.-P. 2024. Is artificial consciousness achievable? Lessons from the human brain. Neural Networks, 180, 106714.
FARISCO, M., PENNARTZ, C., ANNEN, J., CECCONI, B. & EVERS, K. 2022. Indicators and criteria of consciousness: ethical implications for the care of behaviourally unresponsive patients. BMC Medical Ethics, 23.
GINSBURG, S. & JABLONKA, E. 2019. The evolution of the sensitive soul : learning and the origins of consciousness, Cambridge, Massachusetts, The MIT Press.
IRWIN, L. N. 2024. Behavioral indicators of heterogeneous subjective experience in animals across the phylogenetic spectrum: Implications for comparative animal phenomenology. Heliyon.
MASHOUR, G. A., ROELFSEMA, P., CHANGEUX, J. P. & DEHAENE, S. 2020. Conscious Processing and the Global Neuronal Workspace Hypothesis. Neuron, 105, 776-798.
NACCACHE, L. 2018. Why and how access consciousness can account for phenomenal consciousness. Philos Trans R Soc Lond B Biol Sci, 373.
PAPINEAU, D. 2020. The Problem of Consciousness. The Oxford Handbook of the Philosophy of Consciousness. Oxford University Press.
PENNARTZ 2015. The Brain´s Representational Power. On Consciousness and the Integration of Modalities, Cambridge, MA, MIT Press.
PENNARTZ, FARISCO, M. & EVERS, K. 2019. Indicators and Criteria of Consciousness in Animals and Intelligent Machines: An Inside-Out Approach. Front Syst Neurosci, 13, 25.
SETH. 2024. Conscious artificial intelligence and biological naturalism.
VEIT, W. 2022. The Origins of Consciousness or the War of the Five Dimensions. Biological Theory, 17, 276-291.
WALTER, J. 2021. Consciousness as a multidimensional phenomenon: implications for the assessment of disorders of consciousness. Neurosci Conscious, 2021, niab047.











