Gli agenti artificiali sono sempre più presenti nella nostra vita quotidiana, dai dispositivi intelligenti nelle nostre case, alle applicazioni di intelligenza artificiale che utilizziamo sul nostro smartphone, ai robot umanoidi.
Ma come sta cambiando l’interazione tra uomo e robot dopo l’avvento di ChatGPT, che rende possibile l’acquisizione di una maggiore fluidità negli scambi, che diventano più simili alle interazioni tra esseri umani?
Cos’è un agente artificiale
Con agente artificiale si intende un’entità software o hardware in grado di svolgere compiti specifici in modo autonomo come, per esempio, raccogliere informazioni, elaborare dati, prendere decisioni o interagire con l’ambiente circostante. Gli agenti artificiali possono essere progettati per operare in modo indipendente o in collaborazione con altri agenti. Devono raggiungere determinati obiettivi, svolgere compiti specifici o risolvere determinati problemi (Lopes et al., 2021), con il fine ultimo di semplificare la vita degli esseri umani.
Tuttavia, per raggiungere un’interazione efficace e che risulti piacevole agli esseri umani, gli agenti artificiali devono essere in grado di riconoscere e rispondere alle loro esigenze relazionali e sociali. Devono dunque saper comunicare in modo chiaro ed efficace, comprendere le emozioni e le intenzioni umane e adattarsi alle diverse situazioni sociali. Nel rispetto della privacy e della sicurezza dell’utente. Inoltre l’agente
artificiale deve fornire informazioni accurate e affidabili.
Ecco come le abilità ToM possano avere un impatto sulle interazioni tra esseri umani e robot.
ChatGPT e l’interazione tra uomo e robot
Da quasi dieci anni, il gruppo dell’Unità di ricerca sulla Teoria della Mente (UniToM)
dell’Università Cattolica del Sacro Cuore di Milano si dedica proprio allo studio dell‘interazione tra uomo e robot (human-robot interaction, HRI) e della robotica sociale (social robotics).
L’attenzione ricade nella prospettiva evolutiva e lifespan. L’obiettivo ultimo è quello di
rendere l’interazione tra agente artificiale e uomo “human-centered”, sempre più “sintonizzata” con le competenze sociali e cognitive dell’essere umano.
Teoria della mente e interazione uomo-robot
La Teoria della Mente (Theory of Mind, ToM) è un’abilità che ci permette di attribuire a sé stessi e agli altri stati mentali – quali credenze, desideri e intenzioni -, al fine di spiegare e predire il proprio e altrui comportamento (Wimmer & Perner, 1983; Perner & Wimmer, 1985; Bartsch & Wellman, 1995; Perner, 1991; Peterson & Wellman, 2019).
L’abilità, ampiamente studiata in psicologia dello sviluppo e in neuroscienze cognitive , si sviluppa durante l’infanzia. E diviene più sofisticata durante l’adolescenza e l’età adulta (Wellman et al., 2001). Cresce l’interesse nei confronti di come le abilità ToM possano influenzare le interazioni tra esseri umani e robot. Una revisione della letteratura di Marchetti, Manzi, Itakura e Massaro (2018) che ha esaminato la relazione tra ToM e i robot umanoidi lungo il ciclo di vita ha mostrato che chi presenta una ToM più sofisticata è in grado di interagire in modo più efficace con i robot umanoidi.
Gli studi
Nel corso degli ultimi anni, vari studi hanno inoltre indagato aspetti salienti dell’interazione tra uomo e robot che risultano essere connessi alla ToM. Per esempio, uno studio condotto da Manzi, Ishikawa, Di Dio e colleghi (2022) ha esaminato la capacità dei bambini di anticipare le azioni di robot umanoidi dirette al raggiungimento di uno scopo.
L’abilità di anticipare con lo sguardo un’azione mirata a uno scopo è un precursore delle competenze ToM. I risultati hanno dimostrato che i bambini di 17 mesi sono in grado di anticipare le azioni del robot quali, per esempio, prendere un oggetto. Benché i bambini mostrassero di essere più sensibili all’azione umana, i dati dello studio suggeriscono che le caratteristiche e i comportamenti antropomorfi del robot, come il
contatto visivo, possono attivare risposte attenzionali in bambini di 17 mesi simili a quelle suscitate dagli umani.
Un altro studio, condotto da Di Dio, Manzi, Peretti, Cangelosi, Harris, Massaro e
Marchetti (2020), ha inoltre esaminato come la teoria della mente e gli stili di attaccamento possano influenzare la fiducia nei confronti dei robot umanoidi, in un campione di bambini di 3, 5, 7 e 9 anni. I risultati hanno mostrato delle differenze nella costruzione della fiducia e soprattutto nel ripristino della fiducia nei confronti dell’agente robotico in funzione della ToM e qualità di attaccamento: più affettivo e guidato dalle emozioni per i più piccoli, più razionale per i più grandi che hanno già sviluppato la capacità di comprensione della falsa credenza.
Infine, uno studio, condotto da Peretti, Manzi, Di Dio, Cangelosi, Harris, Massaro e Marchetti (2023), ha esaminato se i bambini attribuiscono la bugia nel robot. L’attribuzione di una affermazione intenzionalmente falsa (una bugia) implica una attribuzione di intenzionalità da parte dei bambini all’agente robotico, abilità a sua volta associata allo sviluppo di una ToM.
I risultati hanno mostrato che i bambini di 3 e 4 anni sono in grado di comprendere l’intenzionalità dietro le false affermazioni fatte dai robot. Tuttavia, i bambini di 5 anni tendono a credere che i robot non possano mentire e che l’eventuale affermazione non veritiera sia dovuta a difetti di programmazione o malfunzionamenti. In altre
parole, non attribuiscono una vera intenzionalità al comportamento del robot.
In generale, queste evidenze dimostrano che lo sviluppo di una ToM è importante nella definizione della qualità interazionale con i robot umanoidi e che, con l’età e la maturazione delle abilità cognitive, i bambini divengono sempre più sensibili agli effettivi contenuti mentali dell’agente artificiale.
Integrazione tra ChatGPT e robot sociali: nuovi orizzonti di interazione
L’interazione con agenti robotici sociali in contesti lavorativi, di cura, assistenziali ed educativi presenta importanti limitazioni dovute alla ridotta capacità di questi sistemi di adattarsi in modo flessibile alle esigenze individuali dei loro interlocutori umani. Di fatto, i robot sociali sono attualmente pre-programmati per svolgere funzioni specifiche e rispondere al comportamento umano, facendo uso di un repertorio di comportamenti verbali e non-verbali pre-determinati.
Per questo motivo, la possibilità di integrare i robot sociali con intelligenze generativo-conversazionali, come ChatGPT, può rappresentare un passaggio importante per migliorare la qualità delle interazioni.
Grazie all’implementazione di ChatGPT, infatti, i robot sociali possono acquisire una maggiore fluidità negli scambi, rendendoli più simili alle interazioni tra esseri umani. In particolare, l’impiego di ChatGPT consente la produzione di risposte spontanee e originali da parte del robot, ottenendo una contestualizzazione delle risposte del sistema artificiale in base ai contenuti precedenti dello scambio comunicativo.
Le caratteristiche di ChatGPT aprono a una serie di riflessioni sulla percezione dei robot sociali integrati con sistemi generativo-conversazionali e sul loro impiego in ambito educativo e riabilitativo, con popolazioni sia a sviluppo tipico sia atipico.
Per esempio, la sua integrazione con i robot sociali potrebbe rappresentare un importante strumento educativo per i bambini, che potrebbero sperimentare un’interazione naturale e spontanea con i robot, senza dover imparare un linguaggio di programmazione specifico per comunicare con loro.
Assistenza anziani e disabili
I robot sociali integrati con ChatGPT potrebbero essere ancora più efficaci nel loro utilizzo come assistenti personali per anziani o persone con disabilità, fornendo ausilio nell’affrontare le attività quotidiane in modo più autonomo e migliorando la loro qualità della vita.
In generale, l’integrazione di ChatGPT con i robot sociali si costituisce come opportunità per garantire maggiore fluidità e adattabilità alle esigenze dei loro interlocutori umani.
Importanti implicazioni potrebbero avvenire in ambito educativo e riabilitativo e in molti altri settori, come quello dell’assistenza sanitaria, industria e commercio.
Interazione con i robot umanoidi in ottica evolutiva
L’attribuzione di caratteristiche antropomorfiche ai robot si è visto variare in base all’età del soggetto (Di Dio et al., 2020; Manzi et al., 2020). Nella prima infanzia, il corpo e il movimento sono lo strumento espressivo primario, e rappresentano un mezzo importante di comunicazione e interazione. Per tale ragione, l’aspetto fisico antropomorfo dei robot umanoidi, nonché la dinamica del movimento, aiuta a considerarli come agenti artificiali con proprietà umane, tendenza che aumenta con l’età (Manzi et al., 2021).
Con lo sviluppo, tuttavia, l’interazione uomo-robot si sposta su assi comunicativi che richiedono non solo un incontro tra corpi, ma anche e soprattutto tra menti. Diventa infatti importante capire ciò che passa nella mente degli altri per rendere l’interazione efficace da un punto di vista sociale.
Di fondamentale importanza diventa dunque comprendere se le persone antropomorfizzano i robot anche nelle loro caratteristiche mentali. Uno strumento utile in tal senso è l’AMS-Q (Miraglia et al., 2023), strumento che permette di valutare se e quali caratteristiche mentali (e fisiche) le persone attribuiscono ad altre entità non umane, come i robot, in diverse età, dalla prima infanzia all’età adulta.
Robot percepiti come entità differenti da noi
Diversi studi sulla relazione uomo-robot, che hanno utilizzato tale strumento per valutare l’attribuzione mentale dei soggetti a diversi tipi di robot, mostrano in generale che i robot sono percepiti, da un punto di vista mentale, come entità diverse da noi (Manzi et al., 2020; Manzi et al., in press).
Tuttavia, benché vi sia una differenza sostanziale tra le attribuzioni mentali all’uomo e al robot, il modo in cui tipicamente si interagisce con i robot è molto simile a quando si interagisce con gli esseri umani, come osservato nello studio di Di Dio et al. (2020) sulla fiducia. Lo studio di Di Dio e colleghi (2020) ha approfondito i processi di costruzione, perdita e ripristino della fiducia epistemica, utilizzando un gioco in cui il bambino imparava a fidarsi del partner di gioco sulla base dell’affidabilità delle scelte via via fatte dal partner che poteva essere una persona o il robot (NAO).
L’acquisizione della fiducia
I risultati mostrano come la dinamica di acquisizione di questo tipo di fiducia sia molto simile quando il partner di gioco è un robot o una persona. Tuttavia i bambini hanno attribuito competenze mentali al robot significativamente inferiori rispetto all’umano.
In altre parole, se il partner mostra di essere affidabile nelle decisioni prese, il bambino – indipendentemente dall’età – presto si allinea alla decisione del partner e decide di fidarsi (o meno, se le decisioni sono errate) delle sue scelte.
In questa ricerca, il focus era la costruzione della fiducia attraverso l’osservazione del comportamento dell’altro (uomo o robot). Da un punto di vista epistemico, comportarsi in modo corretto e prendere decisioni efficaci nel tempo, facilita la costruzione di una relazione affidabile.
Tuttavia, la fiducia non si basa solo sul comportamento, ma anche sulla comunicazione verbale. Enunciati verbali coerenti o che contraddicono il comportamento osservato possono rafforzare o minare – rispettivamente – la costruzione della fiducia.
Lo scambio dialogico
La prospettiva di implementare una modalità interattiva con agenti non-umani che vertesse anche sullo scambio dialogico (si vedano le teorie di sviluppo socio-cognitivo avanzate da Vygotsky, 1934), migliorerebbe la qualità relazionale con tali agenti attraverso un’interazione più flessibile e fluida di quanto non possa essere oggi. La capacità conversazionale da parte dell’agente robotico, non solo raffinerebbe la qualità della relazione di fiducia con lo stesso come sopra anticipato. Ma andrebbe anche a toccare tematiche emergenti, quali quella della trasparenza.
Questione di trasparenza
L’agente robotico potrebbe essere in grado di spiegare le sue scelte per consentirci di valutarle correttamente. La trasparenza, in tal senso, sarebbe importante perché ci consentirebbe di esplicitare e rendere comprensibili il funzionamento e l’origine dei processi decisionali dell’agente robotico, che rimangono ancora oggi opachi.
ChatGPT e ToM: gli esperimenti
ChatGPT, l’assistente virtuale sviluppato da OpenAI, sta guadagnando popolarità a livello internazionale e nazionale. Il modello di intelligenza artificiale è basato sull’architettura GPT-3.5 sviluppata da OpenAI, addestrato su una vasta gamma di testi provenienti da diverse fonti, come libri, articoli di notizie, pagine web reperiti fino al 2021. Suo obiettivo principale è quello di fornire informazioni, rispondere a domande e aiutare l’utente nelle sue esigenze linguistiche.
ChatGPT si configura quindi come una delle diverse tecnologie di assistenza virtuale che sfrutta l’Intelligenza Artificiale per simulare funzioni umane dal punto di vista psicologico. Specificatamente riferito alla competenza ToM, Brunet-Gouet e colleghi (2023) hanno testato ChatGPT attraverso il paradigma Hinting, False Beliefs and False Photographs, e Strange Stories.
Sono test che misurano la capacità di una persona di capire le intenzioni e le motivazioni degli altri all’interno di un quadro narrativo. I risultati suggeriscono che ChatGPT sia in grado di superare con successo questi compiti, dimostrando una buona comprensione delle meta-rappresentazioni di primo ordine e delle situazioni
socialmente ambigue.
Inoltre, Kosinski (2023) ha suggerito che la ToM potrebbe essersi sviluppata spontaneamente nei grandi modelli di linguaggio come ChatGPT. L’IA potrebbe dunque avere una comprensione intuitiva dello stato mentale degli altri, anche se non è stato esplicitamente programmato per farlo.
A supporto dell’ipotesi è una serie di test condotti su ChatGPT, che hanno dimostrato la sua capacità di comprendere il linguaggio figurativo e di inferire il significato nascosto delle parole. Marchetti e colleghi (2023) hanno inoltre esaminato lo sviluppo della ToM in ChatGPT. I risultati hanno dimostrato che ChatGPT è in grado di rispondere in modo adeguato alle richieste di assunzione, da parte del sistema, del punto di vista altrui, sebbene con alcune limitazioni.
Le limitazioni potrebbero essere per lo più riconducibili all’approccio del sistema per rispondere alle domande. L’approccio, infatti, è basato su un processo associativo piuttosto che inferenziale. ChatGPT infatti non comprende di fatto il significato delle richieste, ma piuttosto utilizza modelli statistici per generare risposte appropriate.
L’interazione con gli agenti artificiali nelle società ibride
La pervasività delle tecnologie che utilizzano l’AI e la loro integrazione negli aspetti di vita quotidiana ha portato al concetto di società ibride. In queste società le persone e la tecnologia interagiscono in modo sinergico per raggiungere obiettivi comuni. In queste società, la tecnologia è un mezzo per rendere più fluidi i processi e fornire un’esperienza positiva alle persone in diversi contesti. L’interazione positiva tra esseri umani e agenti artificiali è quindi fondamentale per il loro successo. Gli agenti conversazionali possono migliorare l’esperienza interattiva delle persone, grazie alla loro capacità di fornire risposte immediate e personalizzate a una vasta gamma di domande.
Secondo Hamann et al. (2016), per garantire un’interazione fluida all’interno delle società ibride con gli agenti artificiali, è necessario utilizzare tecnologie di intelligenza artificiale avanzate, come machine learning e deep learning. Queste tecnologie consentirebbero agli agenti artificiali di apprendere dai dati storici e di migliorare continuamente la loro capacità di comunicare e interagire con l’utente. Queste caratteristiche, come illustrato, sono proprie di ChatGPT, uno dei possibili candidati per creare un sistema ibrido tra uomo e intelligenza artificiale con l’obiettivo
dell’empowerment umano, valorizzandone le capacità grazie al supporto dell’intelligenza artificiale.
Bibliografia
Bartsch, K., & Wellman, H.M. (1995). Children talk about the mind. Oxford University Press. Brunet-Gouet, E., Vidal, N., & Roux, P. (2023). Do conversational agents have a theory of mind? A single case study of ChatGPT with the Hinting, False Beliefs and False Photographs, and Strange Stories paradigms. Zenodo.
Di Dio, C., Manzi, F., Peretti, G., Cangelosi, A., Harris, P. L., Massaro, D., Marchetti, A., (2020).
Shall I trust you? From child-robot interaction to trusting relationships. Frontiers In
Psychology, (11): N/A-N/A. [doi:10.3389/fpsyg.2020.00469]
[http://hdl.handle.net/10807/147674]
Hamann, H., Khaluf, Y., Botev, J., Divband Soorati, M., Ferrante, E., Kosak, O., … & Zamuda, A. (2016). Hybrid societies: challenges and perspectives in the design of collective behavior in self-organizing systems. Frontiers in Robotics and AI, 3, 14.
Kosinski, M. (2023). Theory of mind may have spontaneously emerged in large language models. arXiv preprint arXiv:2302.02083.
Lopes, M., Melo, F. S., & Montebello, M. (2021). Artificial agents: a review. Frontiers in Robotics and AI, 8, 646269. doi: 10.3389/frobt.2021.646269
Marchetti, A., Manzi, F., Itakura, S., & Massaro, D., (2018). Theory of mind and humanoid robots from a lifespan perspective. Zeitschrift für Psychologie, 226 (2), 98-109. [doi:10.1027/2151-2604/a000326]
Marchetti, A., Di Dio, C., Cangelosi, A., Manzi, F., & MASSARO, D. (2023, March 27).
Developing ChatGPT’s Theory of Mind. https://doi.org/10.31234/osf.io/fr6xq
Manzi, F., Di Dio, C., Di Lernia, D., Rossignoli, D., Maggioni, M. A., Massaro, D., Marchetti, A., & Riva, G. (2021). Can you activate me? From robots to human brain. Frontiers in Robotics and AI, 8, 633514.
Manzi, F., Ishikawa, M., Di Dio, C. et al. (2022). Infants’ Prediction of Humanoid Robot’s Goal-Directed Action. Int J of Soc Robotics https://doi.org/10.1007/s12369-022-00941-7
Manzi, F., Peretti, G., Di Dio, C., Cangelosi, A., Itakura, S., Kanda, T., … & Marchetti, A. (2020).
A robot is not worth another: exploring children’s mental state attribution to different
humanoid robots. Frontiers in psychology, 2011.
Miraglia L, Peretti G, Manzi F, Di Dio C, Massaro D and Marchetti A (2023) Development and validation of the Attribution of Mental States Questionnaire (AMS-Q): A reference tool for assessing anthropomorphism. Front. Psychol. 14:999921. doi: 10.3389/fpsyg.2023.999921
Peretti, G., Manzi, F., Di Dio, C., Cangelosi, A., Harris, P. L., Massaro, D., Marchetti, A., (2023).
Can a robot lie? Young children’s understanding of intentionality beneath false statements.
Infant And Child Development, (e2398): 1-25. [doi:10.1002/icd.2398]
Perner, J. (1991). Understanding the representational mind. The MIT Press.
Perner, J., & Wimmer, H. (1985). “John thinks that Mary thinks that…” attribution of second-order beliefs by 5-to 10-year-old children. Journal of Experimental Child Psychology, 39(3), 437-
https://doi.org/10.1016/0022-0965(85)90051-7
Peterson, C.C., & Wellman, H.M. (2019). Longitudinal theory of mind (ToM) development from preschool to adolescence with and without ToM delay. Child Development, 90(6), 1917–1934. https://doi.org/10.1111/cdev.13064
Vygotsky, L. S. (1934). Thought and language. MIT Press.
Wellman, H. M., Cross, D., & Watson, J. (2001). Meta‐analysis of theory‐of‐mind development: The truth about false belief. Child development, 72(3), 655-684.
Wimmer, H., and Perner, J. (1983). Beliefs about beliefs: representation and constraining function of wrong beliefs in young children’s understanding of deception. Cognition 13, 103–128. doi: 10.1016/0010-0277(83)90004-5