l’approfondimento

L’IA oltre la mente: sfide filosofiche nell’era delle reti neurali



Indirizzo copiato

L’evoluzione dell’intelligenza artificiale ha trasformato il rapporto con la filosofia. Dalle questioni tradizionali di filosofia della mente si è passati a nuove problematiche etiche, epistemologiche ed estetiche

Pubblicato il 6 mag 2025

Marcello Frixione

Università di Genova



virus intelligenza artificiale

L’intelligenza artificiale per lunga tradizione ha avuto rapporti privilegiati con la filosofia (Bringsjord 2018).

L’IA classica e il suo rapporto con la filosofia della mente

La prima stagione di interesse filosofico per l’IA inizia con la nascita stessa della disciplina, negli anni Cinquanta del secolo scorso. Si tratta del periodo che ha incluso il predominio dall’IA classica, o simbolica (la cosiddetta GOFAI – Good Old Fashioned AI), seguito poi, a partire dagli anni ’80, dall’affermarsi del connessionismo e dagli sviluppi successivi (per un’ottima storia recente dell’IA si può consultare Wooldridge 2020).

In questa fase, l’IA era strettamente integrata nel progetto interdisciplinare delle scienze cognitive, ed era concepita (almeno da alcuni di coloro che la praticavano) come una disciplina le cui finalità includevano una migliore comprensione della mente umana (e, in seguito, anche animale).

In tale contesto, il dibattito era incentrato principalmente su argomenti di filosofia della mente e di filosofia delle scienze cognitive. I temi più frequentati includevano la plausibilità (empirica e/o metafisica) del funzionalismo e della concezione computazionale della mente, i criteri di adeguatezza per i modelli computazionali dei processi mentali, l’intenzionalità e la natura (o l’esistenza stessa) delle rappresentazioni mentali, la coscienza, i rapporti tra IA classica e connessionismo, i rapporti con le neuroscienze, e, più tardi, a partire dagli anni ’90, gli aspetti inerenti la cosiddetta cognizione delle 4E: Embodied, Embedded, Enactive, Extended (Shapiro 2019).

Un ambito in cui, in questa fase, IA e filosofia hanno interagito in maniera particolarmente fruttuosa è stata la logica: nel contesto della GOFAI, l’impostazione logicista ha avuto un ruolo importante, e tra logiche filosofiche e logiche sviluppate in ambito computazionale si è istituita una proficua sinergia (cfr. Thomason 2003/2024).

La rivoluzione del deep learning

Il panorama è cambiato con l’evoluzione più recente dell’IA, che, in estrema sintesi, si può ricondurre alla convergenza di vari fattori:

  • lo sviluppo di potenti tecniche di apprendimento automatico o machine learning, e in particolare delle cosiddette reti neurali profonde (deep neural networks), che si sono imposte al punto che (nella comunicazione di massa ma non solo) l’IA viene speso identificata tout court con le reti neurali e con il deep learning;
  • la disponibilità di enormi masse di dati (i cosiddetti big data), messi a disposizione ad esempio da Internet, i quali possono essere utilizzati per l’addestramento dei programmi di machine learning;
  • infine, la disponibilità di risorse di calcolo via via più potenti, che hanno consentito di manipolare tali masse di dati per addestrare i programmi di IA.

Conseguenze del cambiamento tecnologico

Dal nostro punto di vista, questo ha comportato due conseguenze. In primo luogo, l’IA ha rapidamente raggiunto grandi successi, anche in ambito applicativo. Se, nei decenni passati, i prodotti dell’IA hanno raramente valicato i confini dei laboratori di ricerca, i risultati dell’IA attuale stanno avendo vastissime ripercussioni tecnologiche, che coinvolgono (e, presumibilmente, coinvolgeranno sempre più) innumerevoli ambiti della cultura e della nostra vita quotidiana, ponendo problemi pratici inediti.

In secondo luogo, il legame con le scienze cognitive si è molto indebolito. Come si è detto, nel passato l’IA era concepita come parte del progetto delle scienze cognitive, e, in quanto tale, ha avuto una duplice natura, di impresa tecnologica ma anche di indagine teoretica volta a una migliore comprensione di come avviene l’elaborazione dell’informazione nei sistemi naturali (umani e non). Oggi gli aspetti tecnologici hanno avuto decisamente il sopravvento. Attualmente, la ricerca in IA è volta soprattutto allo sviluppo di sistemi efficaci dal punto di vista applicativo, con uno scarso interesse per l’interazione con le scienze della mente. Naturalmente esistono molte eccezioni. Ma la tendenza generale è stata principalmente questa.

Nuove problematiche filosofiche

Tutto ciò ha avuto profonde ripercussioni sui rapporti tra IA e filosofia. Se in passato l’interesse della ricerca filosofica inerente all’IA riguardava soprattutto argomenti di filosofia della mente come quelli sopra menzionati, oggi a questi temi se ne sono affiancati di nuovi, che spesso hanno preso il sopravvento su quelli più tradizionali. In molti casi tali problemi si possono situare nel contesto della filosofia della tecnologia, un ambito di indagine che, nel contesto della filosofia analitica, ha suscitato in anni recenti sempre maggiore interesse (Franssen et al. 2023).

I sistemi di IA, data la loro speciale natura di artefatti cognitivi, sono dispositivi tecnologici che pongono problemi filosofici particolari, ad esempio di tipo epistemologico. In particolare, l’epistemologia della testimonianza indaga lo statuto delle conoscenze acquisite attraverso la testimonianza altrui, e quindi, tra le altre cose, anche le condizioni alle quali una fonte di conoscenza può essere considerata attendibile. Gli attuali sistemi di IA pongono seri problemi da questo punto di vista.

Il problema dell’opacità epistemica

Infatti, una caratteristica importante, e problematica, dei sistemi di IA basati sul machine learning è la loro opacità. Non è facile capire perché un programma di IA basato sull’apprendimento automatico produca una certa risposta. Il problema dell’opacità può porsi già con i programmi ordinari (quelli progettati e scritti da programmatori umani), ed è legato all’ovvia constatazione che computazioni lunghe e intricate sono difficili da seguire per un interprete umano. Esso diventa tuttavia molto più grave per gli attuali sistemi di IA basati sull’apprendimento automatico e sulle reti neurali profonde. In una rete neurale, una volta che è stato effettuato l’addestramento, la conoscenza non è rappresentata sotto forma di regole esplicite, cui un agente umano possa attribuire un significato specifico.

Essa è distribuita nei pesi delle connessioni, ossia una matrice di numeri che è del tutto impermeabile agli sforzi ermeneutici di un essere umano. Già in una rete neurale di piccole dimensioni è difficile attribuire ai pesi un significato intuitivo, proprio perché tali pesi emergono da un processo automatico di addestramento. Nel caso delle reti profonde il problema è aggravato dalle dimensioni della rete. Questi sistemi si comportano come delle “scatole nere” di cui non è facile comprendere il comportamento.

Un problema ulteriore è costituito dal fatto che le prestazioni di questi programmi dipendono direttamente dalla qualità del training set. Se per qualche ragione (accidentale o intenzionale) il training set è distorto (biased), ossia è squilibrato e non riflette in maniera adeguata la realtà che si intende rappresentare, le prestazioni del programma possono essere compromesse in maniera subdola. A quali condizioni quindi possiamo fare affidamento sulle risposte prodotte da questi sistemi? Vi sono inoltre i problemi epistemologici posti da quei sistemi progettati appositamente per generare dati falsificati, come i sistemi deepfake.

IA ed estetica

I temi di filosofia della tecnologia legati all’IA possono intersecare aree tematiche quali, ad esempio, l’estetica. I sistemi di IA generativa possono creare immagini (Young e Terrone 2025) o anche poesie (Porter e Machery 2024). Che statuto hanno questi prodotti? Possono essere considerate “opere d’arte”? Chi ne è l’autore? Come devono essere valutate? A questo si collega il ruolo dei prodotti dell’IA come artefatti affettivi (Piredda 2020). Come reagisce, ad esempio, la mente umana di fronte alle immagini generate dai sistemi deepfake? Un caso è quello delle immagini pornografiche (Marini et al. 2024): fa la differenza per un osservatore sapere che un’immagine è reale piuttosto che generata artificialmente? I deep fakes e, più in generale, le prestazioni dell’IA generativa sembrano mettere in discussione molti presupposti della nostra concezione di oggetto d’arte.

Tuttavia, in anni recenti l’ambito più frequentato all’intersezione tra IA e filosofia della tecnologia è stato indubbiamente quello etico. Il che è perfettamente comprensibile: come si è detto, gli straordinari successi applicativi dell’IA ci hanno posto di fronte a problemi pratici in gran parte inediti. Per una panoramica generale su IA e etica si vedano ad esempio (Coeckelbergh 2020, Floridi 2022, Müller 2020, Tamburrini 2020).

Il rapporto tra etica e IA si può declinare in due direzioni. Per un verso abbiamo i dilemmi etici che i sistemi di IA pongono a noi essere umani. Tutti i problemi epistemologici sopra menzionati hanno implicazioni di tipo etico: ad esempio, possiamo affidarci per una decisione rilevante a un sistema opaco o che potrebbe essere in qualche modo biased (Müller 2020, parr. 2.2-3)? Un tema profondamente dibattuto è quello del rapporto tra sistemi di IA e privacy. Ci sono poi problemi che sconfinano nella filosofia politica, come quelli relativi alla sostenibilità ambientale oppure all’impatto sociale (come, ad esempio, nel caso dell’occupazione).

Per un altro verso, la questione si complica ulteriormente se consideriamo che un sistema autonomo (come, ad esempio, un robot dotato di IA) deve essere messo in grado di prendere decisioni in modo indipendente. Deve quindi incorporare nel suo funzionamento valori e principi etici opportuni. Si tratta del campo della cosiddetta robot ethics, o moral AI, o machine ethics (si vedano i parr. 2.8-9 di Müller 2020). Un esempio paradigmatico in questo ambito è quello dei veicoli a guida autonoma. Come si devono comportare tali veicoli in caso di incidente? Devono privilegiare l’incolumità dei viaggiatori oppure devono massimizzare la sicurezza di tutte le persone coinvolte? Devono incorporare principi etici di tipo consequenzialista o di tipo deontologico? Su questi temi si veda ad esempio (Tamburrini 2020).

Il tema della superintelligenza

Come si è detto, gli sviluppi recenti dell’IA sono stati velocissimi e ampiamente non previsti. Ciò, oltre alle ragionevolissime preoccupazioni sopra menzionate, ha portato anche a inquietanti ipotesi sulla possibilità che venga sviluppata una superintelligenza, ossia una intelligenza artificiale le cui prestazioni vadano la di là delle capacità umane (Bostrom 2016). Si tratta di un tema che spesso sconfina in dubbie elucubrazioni quasi fantascientifiche; per un punto di vista critico al proposito si vedano il cap. 10 di (Floridi 2022) oppure il cap. 7 di (Wooldridge 2020).

Temi tradizionali ancora rilevanti

I temi più “tradizionali” della riflessione filosofica sull’IA non sono comunque estinti. Sui collegamenti tra le domande tradizionali di filosofia della mente, il machine learning, e, in particolare, le deep neural networks si veda (Buckner 2019). La coscienza costituisce un tema centrale per la filosofia della mente; sui recenti rapporti che intrattiene con l’IA rimando al relativo paragrafo di (Chella 2025). L’IA simbolica non è scomparsa (si veda ancora Chella 2025). In tale contesto l’interazione tra logiche filosofiche e logiche dell’IA continua a dare buoni frutti. È il caso, ad esempio, delle ontologie formali; si veda (Keet 2018) per una introduzione generale a questo settore di ricerca; (Borgo et al. 2022) e (Guizzardi et al. 2022) sono recenti presentazioni di due sistemi di ontologia fondazionale da cui emergono le convergenze e le intersezioni con le tecniche e i problemi affrontati dai logici di formazione filosofica.

L’allontanamento tra IA e scienze della mente è un aspetto che non è universalmente valutato in maniera positiva. C’è chi ritiene, con buone ragioni, che in questo modo molto vada perso. Per una posizione secondo cui tale tendenza non è proficua per nessuna delle aree di ricerca coinvolte si veda (Lieto 2021).

Il Test di Turing rivisitato

Un tema attualmente dibattuto che ci riporta alle origini storiche della riflessione filosofica sull’IA concerne il Test di Turing. Il celebre articolo di Alan Turing Computing Machinery and Intelligence (Turing 1950) in un certo senso inaugura la riflessione filosofica sull’IA. In esso Turing propone di riformulare la domanda se le macchine possono pensare nei termini del cosiddetto gioco dell’imitazione (oggi noto appunto anche come Test di Turing).

Nel gioco sono coinvolti tre “giocatori”: a) un essere umano, b) un calcolatore opportunamente programmato, c) un altro essere umano, l’interrogante. L’interrogante non può vedere né a) né b), e non sa chi sia l’essere umano e quale sia la macchina. Può comunicare con loro solo indirettamente, ad esempio ponendo domande attraverso una tastiera e leggendo le risposte su uno schermo. Il suo scopo è smascherare la macchina, e a tal fine può porre qualsiasi domanda. Il giocatore a) si comporterà in modo da aiutare c), mentre b) è programmato per ingannare c) il più a lungo possibile.

Secondo Turing, invece di chiedersi se le macchine possano pensare, ha più senso riformulare la domanda chiedendosi se sia possibile costruire macchine capaci di resistere abbastanza a lungo nel gioco dell’imitazione. Oggi, con la tecnologia disponibile, costruire programmi che superino il test non è difficile da concepire (basti pensare alle potenzialità di Large Language Models, o LLM, come ChatGPT). Ma penso che pochi sarebbero disposti a concordare con Turing, attribuendo pensiero a un programma solo su questa base. Si è così sviluppata una recente letteratura sull’argomento (si vedano per esempio Plebe 2023, Dodig-Crnkovic 2023, Sejnowski 2023, Srivastava et al. 2022, Wu et al. 2024). Diventa cruciale, ad esempio, sapere chi pone le domande: un conto è avere a che fare con un interrogante “ingenuo” che può facilmente essere ingannato dal sistema, un conto è se l’interrogante è in grado di porre domande mirate volte a smascherare il sistema di IA. C’è poi il problema di come un sistema ha acquisito le abilità di cui dispone.

I LLM sono stati criticati in quanto pappagalli stocastici (Bender et al. 2021), sistemi cioè in grado di estrarre informazioni da immense basi di dati, senza che ciò comporti alcuna forma di comprensione. Inoltre, già negli anni Novanta Stevan Harnad aveva criticato il test in quanto basato esclusivamente sul comportamento linguistico, e ne aveva proposto una versione, il cosiddetto Test di Turing Totale, che coinvolgesse tutte le modalità di interazione percettiva e comportamentale (Harnad 1991). Con lo sviluppo di sistemi di learning multimodali (Chella 2025) anche il superamento del Test di Turing Totale potrebbe non essere remoto. In ogni caso, comunque, probabilmente un criterio basato esclusivamente sul comportamento continuerebbe a lasciarci perplessi. Per attribuire pensiero a un sistema artificiale sembra che sia richiesto di più di una pura equivalenza comportamentale.

Bibliografia

Bender, E., Gebru, T., McMillan-Major, A., Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proc. 2021 ACM Conf. on Fairness, Accountability, and Transparency (FAccT ’21), New York, NY, USA, pp. 610–623.

Borgo, S., Ferrario, R., Gangemi, A., Guarino, N., Masolo, C., Porello, D., … & Vieu, L. (2022). DOLCE: A descriptive ontology for linguistic and cognitive engineering. Applied ontology, 17(1), 45-69.

Bostrom, N. (2016). Superintelligence: Paths, Dangers, Strategies, Oxford University Press. Tr. it. Superintelligenza, Bollati Boringhieri, Torino, 2018.

Bringsjord, S. (2018). Artificial Intelligence. Stanford Encyclopedia of Philosophy, https://plato.stanford.edu/entries/artificial-intelligence/

Buckner, C. (2019). Deep learning: A philosophical introduction. Philosophy Compass, 14(10), e12625.

Chella, A. (2025). Intelligenza artificiale: ecco le tendenze che plasmeranno il 2025. Agenda Digitale, questo numero.

Coeckelbergh, Mark (2020). AI Ethics, MIT Press, Boston, Mass.

Dodig-Crnkovic, G. (2023, August). How GPT realizes Leibniz’s dream and passes the Turing test without being conscious. Computer Sciences & Mathematics Forum (Vol. 8, No. 1, p. 66). MDPI.

Floridi L. (2022), Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Raffaello Cortina Editore, Milano.

Franssen, M., Lokhorst, G.-J. & van de Poel, I. (2023). Philosophy of Technology. Stanford Encyclopedia of Philosophy, https://plato.stanford.edu/entries/technology/

Guizzardi, G., Botti Benevides, A., Fonseca, C. M., Porello, D., Almeida, J. P. A., & Prince Sales, T. (2022). UFO: Unified foundational ontology. Applied ontology, 17(1), 167-210.

Harnad, S. (1991). Other bodies, other minds: A machine incarnation of an old philosophical problem. Minds and Machines, 1: 43-54.

Keet, M. (2018). An Introduction to Ontology Engineering. University of Cape Town Press, http://hdl.handle.net/11427/28312.

Lieto, A. (2021). Cognitive Design for Artificial Minds. Routledge. Londra.

Marini, M., Ansani, A., Demichelis, A., Mancini, G., Paglieri, F., & Viola, M. (2024). Real is the new sexy: the influence of perceived realness on self-reported arousal to sexual visual stimuli. Cognition and Emotion, 38(3), 348-360.

Müller V.C. (2020). Ethics of Artificial Intelligence and Robotics. Stanford Encyclopedia of Philosophy, https://plato.stanford.edu/entries/ethics-ai/

Piredda, G. (2020). What is an affective artifact? A further development in situated affectivity. Phenomenology and the Cognitive Sciences, 19, 549-567.

Plebe, A. (2023). Siamo nell’era post–Turing Test ed è epocale: come ci siamo arrivati, su cosa interrogarsi. Agenda Digitale.

Porter, B., & Machery, E. (2024). AI-generated poetry is indistinguishable from human-written poetry and is rated more favorably. Scientific Reports, 14(1), 26133.

Sejnowski, T. J. (2023). Large language models and the reverse Turing test. Neural computation, 35(3), 309-342.

Shapiro, L. (2019). Embodied cognition. Routledge, Londra.

Srivastava, A., Rastogi, A., Rao, A., Shoeb, A. A. M., Abid, A., Fisch, A., … & Wang, G. (2022). Beyond the imitation game: Quantifying and extrapolating the capabilities of language models. arXiv preprint arXiv:2206.04615.

Tamburrini, G. (2020), Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Carocci, Roma.

Thomason, R. (2003/2024), Logic-Based Artificial Intelligence. Stanford Ecyclopedia of Philosophy, 2a versione 2024, https://plato.stanford.edu/entries/logic-ai/

Turing A. (1950). Computing machinery and intelligence. Mind, 59, 236,: 433-60.

Wooldridge, M. (2020). The road to conscious machines: The story of AI. Penguin UK.

Wu, W., Wu, H., & Zhao, H. (2024). Self-Directed Turing Test for Large Language Models. arXiv preprint arXiv:2408.09853.

Young, N., & Terrone, E. (2025). Growing the image: Generative AI and the medium of gardening. The Philosophical Quarterly, 75(1), 310-319.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati