intelligenza artificiale

Robot più consapevoli e trasparenti grazie all’IA



Indirizzo copiato

La robotica sociale integra l’intelligenza artificiale per sviluppare robot capaci di interazioni naturali con gli umani. Le sfide includono la percezione del contesto, l’adattamento personalizzato e la necessità di trasparenza nei processi decisionali

Pubblicato il 16 apr 2025

Silvia Rossi

Università di Napoli Federico II



robotica sociale

La robotica sociale rappresenta una frontiera innovativa che sta ridefinendo il modo in cui macchine e umani interagiscono negli spazi condivisi.

Questa disciplina si concentra sulla creazione di robot capaci non solo di coesistere con le persone, ma di interagire con loro in modo naturale, adattativo e socialmente appropriato. I recenti sviluppi nell’Intelligenza Artificiale hanno accelerato l’evoluzione di questi sistemi, introducendo nuove capacità ma anche sfide inedite per i ricercatori.

Robotica sociale: verso un’integrazione tra esseri umani e macchine

Negli ultimi anni, il settore della robotica ha subito una trasformazione straordinaria, espandendo progressivamente il proprio ambito ben oltre l’automazione industriale e verso domini e contesti sempre più vicini a quelli popolati da esseri umani.

Oggi i robot sono più autonomi, intelligenti, leggeri, affidabili e meno costosi rispetto alle generazioni precedenti.

Tale trasformazione è avvenuta in parallelo con i progressi dell’Intelligenza Artificiale (IA) e, in particolare, nell’Intelligenza Artificiale Generativa degli ultimi anni. Questo impatto si è avuto principalmente nell’ambito dell’apprendimento automatico, che ha migliorato la capacità dei sistemi di imparare nuovi compiti e adattarsi a situazioni nuove e impreviste. Un altro ambito in cui si sono registrati miglioramenti è quello delle capacità percettive: la visione artificiale, per esempio, consente ai robot di riconoscere oggetti, persone e gesti con maggiore accuratezza. Lo stesso vale per gli sviluppi nella comprensione del linguaggio naturale, che consente ai robot di interagire con le persone in modo più naturale.

Per garantire un’interazione sicura e intuitiva tra esseri umani e robot, anche per gli utenti meno esperti, è necessario sviluppare una comunicazione bidirezionale con i robot, basata sia sull’interazione fisica, quando esseri umani e robot entrano in contatto diretto, come nel caso dei robot per la riabilitazione e l’assistenza, sia su interazioni non fisiche che si affidano alla comunicazione verbale o non verbale, aggiungendo al linguaggio naturale capacità di controllo/percezione adattate al contesto.

La robotica sociale, o social robotics, è un ramo della robotica che si occupa della progettazione, dello sviluppo e dell’analisi di robot in grado di interagire con gli esseri umani e con altri agenti sociali in modo naturale e intuitivo. Gli ambiti applicativi della robotica sociale includono l’assistenza e la riabilitazione, l’educazione, il commercio, l’intrattenimento e la compagnia, e, in maniera più generale, i compiti collaborativi con l’essere umano in ambienti di lavoro. In sintesi, la Social Robotics mira a sviluppare robot in grado di integrarsi nella società, facilitando la convivenza e la collaborazione tra esseri umani e macchine in modo efficace e naturale.

Requisiti e capacità dei robot sociali basati sull’intelligenza artificiale

I robot sociali sono progettati per comunicare, collaborare e adattarsi agli ambienti sociali, utilizzando competenze come il riconoscimento delle emozioni, la comprensione del linguaggio naturale e la capacità di apprendere dalle interazioni precedenti. Sono richieste, infatti, strategie di controllo centrate sull’uomo che consentano ai robot di interagire con gli individui e con l’ambiente attraverso l’adattamento dinamico alle esigenze e alle preferenze dell’utente, la percezione multimodale e l’integrazione multisensoriale.

I futuri robot social basati sull’intelligenza artificiale dovrebbero tenere esplicitamente conto delle azioni, delle preferenze, degli stati mentali e degli obiettivi umani, consentendo loro di:

  • determinare cosa fare in base al contesto dell’interazione;
  • determinare come agire o comunicare in modo efficace;
  • riconoscere quando fornire assistenza in modo personalizzato, in base alle differenze individuali;
  • adattarsi e dare priorità all’essere umano, permettendogli di prendere le proprie decisioni e di essere assistito senza che venga imposta la propria presenza;
  • portare a termine i propri compiti in modo tale che il comportamento del robot sia comprensibile e interpretabile dall’essere umano, risultando così affidabile.

Nei paragrafi seguenti, analizzeremo alcune sfide aperte nel settore dell’Intelligenza Artificiale applicata alla Robotica Sociale e individueremo i mezzi per il raggiungimento degli obiettivi identificati.

Sfide percettive nella robotica sociale

Affinché i robot possano essere pienamente integrati negli ambienti umani, stanno emergendo sfide percettive uniche. Nell’ultimo decennio, i recenti sviluppi nel campo dei sensori, insieme all’affidabilità delle potenti tecniche di apprendimento automatico per l’analisi dei dati, hanno favorito progressi significativi nel campo della percezione artificiale. Tuttavia, l’interpretazione automatica dei segnali non verbali umani, che caratterizzano lo stato di una persona, rimane ancora molto complessa, poiché implica l’analisi simultanea di diversi elementi dell’osservazione umana [Rossi et al, 2017].

Gli esseri umani sono in grado di interagire tra di loro e di interpretare segnali di comunicazione che prescindono dal linguaggio naturale e che possono includere lo sguardo, i gesti, le pose, il linguaggio del corpo, le espressioni facciali e le emozioni. Tali segnali vengono inviati indipendentemente dalle intenzioni della persona che li emette. L’interazione sociale è una sfida importante per la robotica, in quanto i segnali sociali, come la direzione dello sguardo, le espressioni facciali o l’intonazione della voce, sono spesso ambigui, rapidi e sfumati e spesso incorporati in altre attività. Ad esempio, la differenza tra un sorriso naturale o sarcastico potrebbe essere rilevata solo in base al contesto dell’interazione. Gli algoritmi di riconoscimento automatico possono fallire nel gestire frasi ambigue, sarcasmo, ironia o doppi sensi, specialmente nel linguaggio naturale.

In effetti, i segnali non verbali sono il canale di comunicazione più utilizzato. Essi possono anche essere usati da un robot per inferire intenzioni e valutare il comfort e l’accettabilità della coesistenza persona-robot. Per poter interpretare tali segnali, sono necessari modelli che illustrino la relazione tra i vari segnali al fine di ottenere un riconoscimento multimodale dei segnali sociali. Inoltre, è necessaria non soltanto la capacità di riconoscere tali segnali, piuttosto, cosa importante soprattutto nel caso di compiti non interattivi, la capacità di riconoscere l’assenza di tali segnali. Ad esempio, l’assenza di uno specifico segnale di comunicazione potrebbe indicare una mancanza di interesse della persona nei confronti del robot [Fischer et al., 2015].

L’IA, spesso fatica a combinare efficacemente diverse fonti di informazioni contestuali (linguaggio, immagini, suoni, segnali ambientali). Ad esempio, può riconoscere le parole pronunciate da un utente ma non sempre correlarle con il linguaggio del corpo o il tono emotivo. Sebbene negli ultimi dieci anni abbiamo compiuto progressi sostanziali nella percezione artificiale, in particolare nel riconoscimento degli oggetti, delle azioni, dello sguardo umano, tali sistemi funzionano correttamente solo in situazioni controllate ed interazioni faccia-a-faccia [Rossi et al, 2020]. Mancano ancora sistemi che operino nelle diverse condizioni naturali e reali. Inoltre, i sistemi di nuova generazione dovranno essere in grado di elaborare correttamente diverse sorgenti di input e combinarli insieme per catturare in modo più completo la natura ricca e dinamica delle interazioni sociali. La possibilità di interpretare segnali sociali e rispondere in maniera socialmente appropriata a ciò che viene percepito è oggigiorno una sfida ancora aperta.

Robot e consapevolezza sociale

La Consapevolezza Sociale (Social Awareness) riguarda la capacità del robot di comprendere e interpretare segnali sociali, ruoli e norme che regolano le interazioni complesse tra esseri umani o altri agenti intelligenti. Elaborando e assimilando queste variabili sociali, i robot possono prevedere, almeno in parte, le intenzioni e le azioni future degli altri esseri, favorendo interazioni più fluide e naturali.

Più in generale, un robot sociale efficace dovrebbe essere in grado di possedere consapevolezza situazionale (o Situational Awareness, SA), definita in modo ampio come “la percezione degli elementi ambientali all’interno di un volume temporale e spaziale, la comprensione del loro significato e la proiezione del loro stato futuro” [Endsley, 1995]. La SA è fondamentale per un’interazione ottimizzata tra il robot e l’ambiente ed è generalmente suddivisa in tre livelli principali: Percezione della situazione, Comprensione della situazione e Proiezione della situazione. Avere una appropriata consapevolezza della situazione include, quindi, sia il collegamento di input sensoriali a informazioni astratte che la possibilità di comprensione immediata dell’ambiente circostante. Ha bisogno, inoltre, di metodologie di comprensione sia monomodali che multimodali per ottenere una visione ambientale completa.

L’Intelligenza Artificiale moderna ha compiuto notevoli progressi nel riconoscimento e nell’interpretazione dei contesti, ma presenta ancora limiti significativi rispetto alla Consapevolezza Sociale e della Situazione, ovvero la capacità di comprendere e adattarsi in modo intelligente al contesto in cui si opera [Denning and Arquilla, 2022]. Spesso, l’IA non riesce a cogliere il significato profondo delle situazioni, poiché si basa su correlazioni statistiche piuttosto che su una vera comprensione concettuale. Ad esempio, come abbiamo detto, può riconoscere il tono di una conversazione, ma fatica a interpretarne le intenzioni o le emozioni umane. Le AI attuali sono addestrate su dati statici e faticano a generalizzare a contesti nuovi o dinamici. Se il contesto cambia rapidamente (come in situazioni di emergenza o in ambienti complessi), l’IA può fare previsioni errate o non riuscire ad adattarsi rapidamente.

L’IA moderna è eccellente nel trovare correlazioni nei dati, ma non ha una vera comprensione delle relazioni causa-effetto. Ad esempio, può riconoscere che le persone tendono ad alzare la voce quando sono arrabbiate, ma potrebbe non riuscire a comprendere il motivo della loro rabbia in una situazione specifica. Spesso, le IA non colgono le sfumature culturali, sociali e linguistiche. Un gesto o un’espressione può avere significati diversi a seconda del paese o della situazione, e l’IA potrebbe fraintendere il contesto in cui vengono usati. Molti modelli AI, soprattutto quelli basati su reti neurali, non hanno una memoria a lungo termine efficace. Ciò significa che faticano a ricordare il contesto di una conversazione o di un’interazione passata, limitando la loro capacità di adattarsi e rispondere in modo coerente nel tempo.

Per aumentare la fiducia e ridurre i rischi, è urgente e necessario che i robot diventino consapevoli dell’ambiente che li circonda e socialmente consapevoli. Devono essere in grado di interpretare, prevedere e ragionare sia sul comportamento umano che sul proprio comportamento.

Adattamento e personalizzazione nell’interazione persona-robot

Sviluppare applicazioni di Social Robotic richiede ai ricercatori di costruire e progettare robot socialmente intelligenti in grado di collaborare con le persone. In questi ambiti, l’efficacia dell’interazione persona-robot non deve basarsi solo sulle competenze degli utenti addestrati all’uso del robot, ma anche sulla capacità del robot stesso di cambiare il proprio comportamento in base alle esigenze degli utenti. Per raggiungere una cooperazione uomo-robot migliore e più naturale, gli utenti umani impareranno a interagire con il robot e, allo stesso tempo, i sistemi robotici dovranno adattarsi agli utenti [Mitsunaga et al., 2008].

Il termine adattamento si riferisce alla capacità di un robot di modificare il proprio comportamento, le proprie risposte/azioni o le proprie strategie di interazione in base alle azioni, preferenze e necessità dell’utente umano, ai cambiamenti del contesto e dell’ambiente esterno. Ad esempio, un robot potrebbe decidere di tenersi più a distanza se rileva segni di disagio da un utente [Raggioli et al., 2023]. Il processo di adattamento è tipicamente un fenomeno reattivo (cambia lo stimolo e cambia la risposta di conseguenza) e per tale motivo è legato alle capacità per un robot di percepire il contesto e l’ambiente esterno correttamente. Negli ultimi anni, diversi studi hanno dimostrato l’impatto dell’adattabilità dei robot sulle prestazioni e sull’impegno degli utenti nei compiti di assistenza [Hemminghaus et al., 2021; Rossi et al., 2024]. Integrando la pianificazione delle attività da svolgere, ad esempio, con un feedback umano in tempo reale, i robot possono cambiare le modalità di interazione al fine di collaborare efficacemente con gli esseri umani, garantendo comprensione reciproca ed efficienza.

Differentemente dall’adattamento, il processo di personalizzazione dell’interazione richiede l’apprendimento di un modello di comportamento umano e la sua integrazione nei movimenti del robot, nell’algoritmo decisionale e nelle strategie di interazione sociale [Rossi et al., 2017]. La personalizzazione si riferisce all’adattamento del comportamento, delle risposte o dell’interfaccia del robot a un utente specifico, sulla base di dati a lungo termine, preferenze o interazioni passate. Il processo di personalizzazione può, quindi, richiedere che venga creato un profilo dell’utente in base alla propria storia o a delle preferenze esplicitamente impostate. Il processo di personalizzazione è così un fenomeno a medio lungo termine, risultato di più interazioni e spesso basato su un processo di apprendimento automatico [Rossi et al., 2024].

Le capacità decisionali a livello sociale richiederanno una sempre maggiore integrazione della pianificazione con le informazioni contestuali e la capacità di integrare il feedback e le preferenze di una persona nel ciclo di pianificazione, nonché di essere proattivi (cioè anticipare le richieste e le necessità dell’utente). A tal fine, devono prevedere gli eventi futuri, anticipare le possibili conseguenze e selezionare l’azione migliore e il comportamento più comprensibile e sociale per essere allineati alle aspettative sociali delle persone.

Un modello completo dell’utente dovrebbe includere anche il suo stato cognitivo, in termini, ad esempio, di intenzioni alla base dell’interazione o del suo stato interno e, più in generale, delle sue preferenze riguardo alle caratteristiche dell’interazione sociale. Tuttavia, l’adattamento del comportamento del robot può compromettere la capacità di comprensione e previsione del robot da parte degli utenti, incidendo sulla loro fiducia. Per evitare ciò, è necessario notare che gli esseri umani sono più propensi a cooperare con macchine con cui possono condividere una rappresentazione mentale. Pertanto, il robot dovrebbe essere in grado di avere una Teoria della Mente (ToM) degli utenti nel tempo e di personalizzare il proprio comportamento in base alle credenze e alle intenzioni dedotte [Scassellati, 2002; Shvo et al, 2022].

La Teoria della Mente è la capacità di una persona di comprendere le credenze, le intenzioni e gli stati mentali di un’altra, il che può permetterle di prevedere e interpretare i comportamenti in situazioni di collaborazione [Premack and Woodruff, 1978]. Si tratta di un costrutto complesso che può essere suddiviso in teorie cognitive e affettive della mente. Gli approcci cognitivi che integrano la ToM possono essere utilizzati per migliorare le capacità dei robot sociali, consentendo loro di interagire in modo più naturale con gli esseri umani, adattandosi sia alle azioni dell’utente sia ai suoi stati mentali interni [Shvo et al, 2022]. La capacità di riconoscere le intenzioni degli utenti permette ai robot di servizio di essere proattivi e di cooperare con successo con le persone [Andriella et al., 2025]. Per migliorare l’adattabilità dei robot agli esseri umani e mitigare la possibile imprevedibilità del comportamento, i ricercatori stanno iniziando a concentrarsi sulla dotazione di robot con capacità ToM. L’integrazione della ToM nei robot offre un duplice vantaggio. In primo luogo, può migliorare le interazioni persona-robot adattando l’assistenza fornita agli utenti sulla base di una comprensione più approfondita delle loro esigenze. In secondo luogo, può favorire la fiducia e la trasparenza nelle azioni del robot, che diventa capace di fornire spiegazioni per le sue decisioni a partire dalla conoscenza che ha a disposizione sull’altro individuo.

Empatia artificiale per robot socialmente intelligenti

Simulare una ToM per un sistema robotico può riferirsi anche alla simulazione di una Teoria Affettiva della Mente, cioè alla capacità di una persona di inferire e reagire allo stato emotivo di un’altra persona [Gabriel et al., 2021]. In particolare, la capacità di sperimentare uno stato emotivo simile a quello dell’altra persona, come se le sue emozioni fossero trasmesse e interiorizzate, è definita empatia. L’uso della simulazione di comportamenti empatici è stato ampiamente studiato in letteratura per dotare gli agenti della capacità di comprendere gli esseri umani e di reagire alle loro emozioni nel modo più appropriato e naturale possibile. In un contesto di interazione persona-robot, essere in grado di valutare le risposte fisiologiche dell’utente, come lo stress e lo stato emotivo, è importante affinché un robot possa adattare i propri comportamenti mostrando un’empatia coerente e, di conseguenza, migliorare la percezione del robot da parte dell’utente [Leite et al., 2013].

Trasparenza e affidabilità nei processi decisionali robotici

Un aspetto sempre più rilevante per l’accettazione dei robot non è solo la pertinenza e l’adattabilità dei loro comportamenti, ma anche la trasparenza e l’interpretabilità di tali comportamenti (soprattutto quando questi possono cambiare nel tempo) e dei processi decisionali sottostanti. Per soddisfare questa esigenza, un robot dovrebbe essere in grado di spiegare le conoscenze acquisite al suo utente. L’esplorazione del concetto di spiegazione ha affascinato i filosofi per secoli, con l’obiettivo di comprenderne l’essenza e le complessità della sua struttura e funzione. Più recentemente, gli psicologi hanno studiato il modo in cui gli esseri umani razionalizzano i comportamenti altrui e il processo generale di generazione e valutazione delle spiegazioni [Malle et al., 2000]. La rinnovata attenzione verso le spiegazioni nell’IA, spesso inquadrata nel contesto della eXplainable AI (XAI), nasce dalla necessità di fornire giustificazioni interpretabili per i processi decisionali all’interno di sistemi di machine learning e deep learning opachi [Gunning et al., 2019].

In un’epoca in cui si prevede che i robot interagiscano strettamente con le persone, ad esempio nell’assistenza agli anziani o in contesti educativi, è essenziale che esseri umani e robot siano in grado di comunicare, cooperare e collaborare in modo naturale, fluido e confortevole per garantire un’interazione persona-robot di successo. A tal fine, il ruolo delle spiegazioni fornite dai robot riguardo alle loro intenzioni e azioni è fondamentale per migliorare la trasparenza durante l’interazione. Tuttavia, i robot sono sistemi complessi costituiti da numerosi processi che interagiscono tra loro per portare a termine un compito. Per questo motivo, spiegazioni rilevanti possono provenire da diversi sottosistemi che governano il funzionamento del robot. Inoltre, se le spiegazioni sono necessarie per un’assistenza efficace o per compiti collaborativi, esse devono essere comunicate alle persone in un modo socialmente accettabile. La spiegabilità dei meccanismi di decisione alla base delle scelte compiute da una Intelligenza Artificiale è uno dei principi fondamentali al fine di acquisire fiducia e affidabilità. Un robot deve essere in grado di comunicare le motivazioni delle proprie decisioni. Per farlo, deve essere in grado di poter giustificare la scelta dell’obiettivo da perseguire, le azioni scelte per conseguirlo così come la parte di conoscenza che entra nel processo decisionale. Partendo dal presupposto che esiste una stretta relazione tra obiettivi, azioni e conoscenza, il robot ha bisogno di una rappresentazione accurata delle azioni che può intraprendere rispetto a un determinato obiettivo.

A differenza di una AI, quando interagiamo con un robot, ci aspettiamo che le spiegazioni vengano fornite in modo adattivo durante l’interazione e non solo al termine di essa. In questo caso, è importante considerare come fornire tali informazioni, in modo da non distrarre l’utente dall’interazione. Le spiegazioni potrebbero essere fornite dal robot in modo proattivo [LeMasurier et al, 2024], adattando il proprio comportamento allo stato attuale dell’utente e non solo in risposta a una richiesta specifica (ad esempio, “perché hai fatto questo?”). Inoltre, per garantire un’elevata accettazione da parte dell’utente, il sistema decisionale del robot deve anche tenere conto della capacità delle persone di comprendere (leggibilità) [Dragan et al., 2013] e prevedere (predicibilità) [Colin et al., 2022] i comportamenti del robot. La maggior parte delle volte, gli utenti non esperti non sono in grado di interpretare lo stato attuale di un robot, nemmeno a un livello semplice, ad esempio per capire quando un robot sta ascoltando o come sta elaborando l’ultima richiesta. Pertanto, un aspetto sempre più rilevante per l’accettazione dei robot nelle case delle persone non è solo la pertinenza, ma anche la trasparenza del comportamento del robot e dei processi decisionali sottostanti. La necessità della trasparenza è sottolineata nell’Articolo 13 dell’AI Act dell’Unione Europea, secondo cui “i sistemi di intelligenza artificiale devono essere progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente, permettendo ai fornitori e agli utenti di comprendere ragionevolmente il funzionamento del sistema” [Prifti and Fosch-Villaronga, 2024]. La trasparenza, nel contesto dell’interazione persona-robot non è quindi soltanto legata alla spiegabilità, ma anche ai concetti di leggibilità, predicibilità. La trasparenza in sistemi compressi è possibile perché la leggibilità permette agli osservatori di inferire rapidamente gli obiettivi di un agente, mentre la predicibilità consente di allineare il comportamento del robot alle aspettative dell’osservatore.

In questo contesto, è importante considerare quale tipo di modalità di comunicazione e feedback del robot è più utile, chiaro e meglio accettato dalle persone per essere leggibile. Questo deve anche considerare che gli esseri umani possono identificare diversi segnali di comunicazione impliciti. Nondimeno, alcune proprietà dei robot spingono gli esseri umani ad antropomorfizzare i propri comportamenti, movimenti e compiti [Złotowski et al, 2015]. Ad esempio, un robot potrebbe essere percepito come fiducioso e avere movimenti naturali, indipendentemente dal fatto che sia stato pianificato o meno per esprimere tratti della personalità e comportamenti naturali. Inoltre, non è ancora chiaro come un robot dovrebbe manifestare all’esterno che l’intenzione di una persona è stata riconosciuta e presa in considerazione nelle sue azioni e come modellare l’incertezza nella comprensione delle azioni umane senza comunicazione diretta. Allo stesso modo, il robot dovrebbe essere sicuro che l’essere umano capisca e preveda correttamente le sue intenzioni. La chiave per una convivenza di successo tra persone e robot dovrebbe considerare un sistema robotico il cui comportamento risulti trasparente e in grado di eseguire movimenti leggibili, predicibili e spiegabili in modo autonomo e in tempo reale durante l’interazione con le persone.

In definitiva, per essere pienamente e socialmente accettabili per gli esseri umani, i robot sociali devono essere percepiti come affidabili. L’incapacità di un robot di comunicare in modo trasparente può creare ansia negli esseri umani e influenzare negativamente la coesistenza persona-robot. Una questione sempre più importante per l’accettazione dei robot non è solo la pertinenza dei loro comportamenti, ma in definitiva anche la trasparenza e l’interpretabilità dei comportamenti e dei processi decisionali sottostanti.

Bibliografia

[Andriella et al., 2025] Andriella, A., Cucciniello, I., Origlia, A. Rossi, S, A Bayesian framework for learning proactive robot behaviour in assistive tasks. User Model User-Adap Inter 35, 1 (2025).

[Colin et al., 2022] Colin, J., Fel, T., Cadène, R., and Serre, T., What I Cannot Predict, I Do Not Understand: A Human-Centered Evaluation Framework for Explainability Methods. Adv Neural Inf Process Syst 35 (2022), 2832–2845.

[Denning and Arquilla, 2022] Denning, P. J. and Arquilla, J. 2022. The context problem in artificial intelligence. Commun. ACM 65, 12 (December 2022), 18–21.

[Endsley, 1995] Endsley, M. R. (1995). Toward a theory of situation awareness in dynamic systems. Human Factors, 37(1), 32-64.

[Fischer et al., 2015] Fischer K, Yang S, Mok BK, Maheshwari R, Sirkin D, Ju W (2015) Initiating interactions and negotiating approach: a robotic trash can in the field. In: AAAI spring symposia

[Gabriel et al., 2021] Gabriel, E. T., Oberger, R. Schmoeger, M., Deckert, M., Vockh, S., Auff, E., and Willinger, U., Cognitive and affective Theory of Mind in adolescence: developmental aspects and associated neuropsychological variables. Psychological research 85 (2021), 533–553.

[Gunning et al., 2019] Gunning, D., Stefik, M., Choi, J. , Miller, T., Stumpf, S., Yang, G.-Z. , Xai—explainable artificial intelligence, Science Robotics 4 (2019) eaay7120.

[Hemminghaus et al, 20217] Hemminghaus, J., Kopp, S.: Towards Adaptive Social Behavior Generation for Assistive Robots Using Reinforcement Learning. In: Proceedings of the International Conference on Human-Robot Interaction, pp. 332–340 (2017)

[Leite et al., 2013] Leite, I., Pereira, A., Mascarenhas, S., Martinho, C., Prada, R., and Paiva, A, The influence of empathy in human–robot relations. International Journal of Human-Computer Studies 71, 3 (2013), 250–260.

[LeMasurier et al, 2024] LeMasurier, G., Gautam, A., Han, Z., Crandall, J. W., and Yanco, H. A. 2024. Reactive or Proactive? How Robots Should Explain Failures. In Proceedings of the 2024 ACM/IEEE International Conference on Human-Robot Interaction (HRI ’24). Association for Computing Machinery, New York, NY, USA, 413–422.

[Malle et al., 2000] Malle, B., Knobe, J., O’Laughlin, M., Pearce, G., Nelson, S., Conceptual structure and social functions of behavior explanations: Beyond person-situation attributions, Journal of personality and social psychology 79 (2000) 309–26.

[Mitsunaga et al., 2008] N. Mitsunaga, C. Smith, T. Kanda, H. Ishiguro and N. Hagita, “Adapting Robot Behavior for Human-Robot Interaction,” in IEEE Transactions on Robotics, vol. 24, no. 4, pp. 911-916, Aug. 2008

[Premack and Woodruff, 1978] David Premack and Guy Woodruff. 1978. Does the chimpanzee have a theory of mind? Behavioral and Brain Sciences 1, 4 (1978), 515–526.

[Prifti and Fosch-Villaronga, 2024] Prifti, K. & Fosch-Villaronga, E. Towards experimental standardization for ai governance in the eu. Comput. Law & Secur. Rev. 52, 105959 (2024).

[Raggioli et al., 2023] Raggioli, L., D’Asaro, F.A. & Rossi, S. Deep Reinforcement Learning for Robotic Approaching Behavior Influenced by User Activity and Disengagement. Int J of Soc Robotics (2023)

[Rossi et al, 2017] Rossi, S., Ferland, F., Tapus, A., “User profiling and behavioral adaptation for HRI: A survey,” in Pattern Recognition Letters, Volume 99, 2017, Pages 3-12 (2017)

[Rossi et al, 2020] Rossi, S., Rossi, A. & Dautenhahn, K. The Secret Life of Robots: Perspectives and Challenges for Robot’s Behaviours During Non-interactive Tasks. Int J of Soc Robotics 12, 1265–1278 (2020)

[Rossi et al., 2024] Rossi, S., Di Napoli, C., Garramone, F. et al. Personality-Based Adaptation of Robot Behaviour: Acceptability Results on Individuals with Cognitive Impairments. Int J of Soc Robotics 16, 211–226 (2024).

[Scassellati, 2002] Scassellati, B.: Theory of mind for a humanoid robot. Autonomous Robots 12, 13–24 (2002)

[Shvo et al, 2022] Shvo, M., Hari, R., O’Reilly, Z., Abolore, S., Wang, S.Y.N., McIlraith, S.A.: Proactive Robotic Assistance via Theory of Mind. In: Proceedings of the IEEE International Conference on Intelligent Robots and Systems, pp. 9148–9155 (2022)

[Dragan et al., 2013] Dragan, A. D., Lee, K. C.T., and Srinivasa, S. S., 2013. Legibility and predictability of robot motion. In 2013 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI). IEEE, 301–308.

[Złotowski et al, 2015] Złotowski J, Proudfoot D, Yogeeswaran K, Bartneck C (2015) Anthropomorphism: opportunities and challenges in human–robot interaction. Int J Soc Robot 7(3):347–360

EU Stories - La coesione innova l'Italia

Tutti
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 3