la ricerca

Come progettare comportamenti trasparenti nei robot sociali



Indirizzo copiato

La crescente interazione tra esseri umani e macchine pone nuove sfide comunicative, in particolare riguardo alla trasparenza dei comportamenti, che diventa cruciale per permettere agli utenti di comprendere azioni, intenzioni e limiti del robot, migliorando così la qualità della collaborazione

Pubblicato il 1 ago 2025

Georgios Angelopoulos

robotics and AI researcher, University of Naples Federico II

Alessandra Rossi

Dipartimento di ingegneria elettrica e tecnologie dell'informazione, Università di Napoli, Federico II

Silvia Rossi

Università di Napoli Federico II, Dipartimento di ingegneria elettrica e tecnologie dell'informazione



chatbot meta sesso robot umanoidi in casa

Olivia cammina nel corridoio affollato dell’ufficio con la mente occupata dai compiti della giornata. Mentre svolta l’angolo, rischia di scontrarsi con il suo collega, Luca. I loro sguardi si incrociano, e una grande quantità di informazioni viene scambiata senza dire una parola. Il sopracciglio alzato di Luca e la leggera inclinazione della testa chiedono silenziosamente spiegazioni riguardo l’espressione concentrata di Olivia.

Le spalle di Olivia si rilassano e un sorriso caldo le si illumina il volto, scusandosi senza parole e mostrando sollievo per lo scontro evitato. Anche la postura di Luca si rilassa in risposta, con un lieve cenno del capo le indica di aver compreso. In questo breve momento, Olivia e Luca si trasmettono intenzioni, valutano gli stati emotivi l’uno dell’altro e anticipano possibili azioni [1, 2, 3]. Questo incontro è un esempio dell’intrinseca trasparenza dell’interazione tra persone (HHI). Nel corso dei millenni, gli esseri umani hanno sviluppato diversi meccanismi per esprimere e interpretare segnali sociali, permettendo una comunicazione chiara ed efficiente senza sforzo consapevole [4, 5].

Ora, immaginiamo una situazione simile in cui Olivia si imbatte invece nell’assistente robotico dell’ufficio. Gli occhi a LED lampeggianti del robot offrono poche o nessuna indicazione riguardo alle sue prossime azioni o intenzioni. A differenza di Luca, il robot non possiede segnali non verbali né meccanismi evolutivi per un’interazione trasparente con l’essere umano. Olivia resterebbe nell’incertezza in questo caso: dovrebbe farsi da parte o aspettare che il robot agisca? Questa interazione mette in luce una domanda cruciale: come possono i robot, privi dei naturali meccanismi sociali degli esseri umani, comunicare efficacemente le proprie intenzioni, capacità e limitazioni? A differenza degli esseri umani, i robot non dispongono di comportamenti naturali e trasparenti evoluti nel tempo. La creazione di tali comportamenti, affinché i robot possano essere leggibili e comprensibili quanto le persone, rappresenta una sfida e costituisce il nucleo centrale di questo lavoro.

La trasparenza come prevedibilità, leggibilità e spiegabilità

La ricerca sulla trasparenza nell’interazione uomo-robot (HRI) è relativamente giovane [6], ma è considerata fondamentale per il successo delle collaborazioni tra persone e robot [7]. Nonostante la riconosciuta importanza, non esiste una definizione condivisa di trasparenza nelle diverse comunità di HRI, HHI, etc.

I ricercatori hanno affrontato il concetto di trasparenza da diverse prospettive, e una di queste pone l’accento sulla prevedibilità. Secondo questo punto di vista, la trasparenza di un sistema è strettamente legata alla capacità degli utenti di anticiparne le azioni. Miller et al. [8, p. 193] offrono una definizione concisa, affermando che “la trasparenza è essenzialmente l’opposto dell’imprevedibilità”.

Questa caratterizzazione semplice suggerisce che un sistema diventa trasparente quando il suo comportamento è prevedibile in modo affidabile dalle persone. Sviluppando ulteriormente questa idea, Iden [9, p. 2] fornisce una definizione più dettagliata, affermando che “la trasparenza è la possibilità di anticipare azioni imminenti da parte del sistema autonomo sulla base dell’esperienza pregressa e dell’interazione attuale”. Nel contesto di questa discussione sulla prevedibilità, Dragan et al. [10, p. 302] definiscono la prevedibilità del movimento come un “movimento che corrisponde a ciò che un osservatore si aspetterebbe”. In termini pratici, queste definizioni suggeriscono che la trasparenza è raggiunta quando un sistema HRI si comporta in modo tale che le persone possono prevedere i loro comportamenti attraverso degli schemi coerenti o segnali chiari. In generale, la prevedibilità consente una collaborazione più fluida tra esseri umani e robot, poiché riduce l’incertezza e minimizza la probabilità di comportamenti inaspettati o confusi.

Altri ricercatori, invece, sottolineano l’importanza della trasparenza dei comportamenti robotici in termini di leggibilità e osservabilità. Wortham et al. [11, p. 274] forniscono una definizione esaustiva, affermando che la trasparenza è “… la misura in cui le capacità, le intenzioni e i vincoli situazionali del robot sono compresi dagli utenti”. Sulla base di questa idea, altri studiosi hanno proposto definizioni complementari: Preece et al. [12, p. 118] definiscono un sistema trasparente come un sistema “facile da comprendere e intuitivo”. Theodorou et al. [13, p. 233] inquadrano la trasparenza come “un meccanismo per rendere visibile il processo decisionale del robot”, spostando l’attenzione sui processi interni del robot e sull’importanza di renderli accessibili agli utenti. Miller et al. [14, p. 192] affinano ulteriormente questo concetto, definendo la trasparenza come “la capacità dell’automazione di essere ispezionabile o visibile, nel senso che i suoi meccanismi e le sue motivazioni possono essere facilmente conosciuti”. Questa definizione mette in evidenza la necessità che il comportamento del robot sia leggibile e suggerisce che la trasparenza sia raggiunta quando gli utenti possono interpretare e comprendere facilmente le azioni, le intenzioni e i processi decisionali del robot in tempo reale. Nel contesto di questa discussione sulla leggibilità, Dragan et al. [10, p. 302] definiscono la leggibilità del movimento come un “movimento che consente a un osservatore di dedurre rapidamente e con sicurezza l’obiettivo corretto”. Da questo punto di vista, la trasparenza riguarda essenzialmente la capacità del robot di rendere il proprio comportamento interpretabile attraverso le azioni: quanto più comprensibili sono i movimenti del robot, tanto più esso è considerato trasparente.

Secondo Kim e Hinds [15, p. 81], la nozione di spiegabilità è strettamente intrecciata con quella di trasparenza. Gli autori suggeriscono che “la trasparenza è il robot che offre spiegazioni delle proprie azioni”. In modo analogo, Mueller considera la spiegazione come una delle caratteristiche principali della trasparenza [16]. In questa prospettiva, la trasparenza è raggiunta quando un robot fornisce spiegazioni chiare e comprensibili delle proprie azioni, sia prima, durante, sia dopo che esse vengono eseguite [17, 248]. Wallkötter e Tulli et al. [18, p. 7] rafforzano questa visione definendo la spiegabilità in termini simili. La descrivono come la capacità “di fornire informazioni sui propri meccanismi interni utilizzando segnali sociali, in modo tale che un osservatore (utente destinatario) possa dedurre come/perché l’agente incarnato si comporta in un certo modo”. Questa definizione è in linea con quella proposta da Kim e Hinds, suggerendo che la trasparenza, nella sua essenza, consiste nel rendere visibile e comprensibile all’utente il processo decisionale del robot. Offrendo spiegazioni sui propri processi interni, il robot rende le sue azioni più trasparenti.

Sebbene ciascuno di questi approcci offra contributi preziosi, essi affrontano solo aspetti parziali della complessa relazione tra esseri umani e robot. Man mano che i sistemi robotici si sviluppano e diventano più sofisticati, anche i loro comportamenti e processi decisionali si fanno più complessi. A causa di tale crescente complessità, un singolo aspetto della trasparenza risulta spesso insufficiente a trasmettere l’intera gamma di capacità, intenzioni e vincoli del robot.

Un approccio integrato e non gerarchico alla trasparenza

È necessario adottare un approccio integrato alla trasparenza. Tale approccio dovrebbe combinare i punti di forza della prevedibilità, della leggibilità e della spiegabilità, al fine di proporre un quadro più completo. In questo modo, si riconosce che la trasparenza comprende molteplici elementi:

  • Le azioni attuali del robot.
  • La logica che sottende tali azioni.
  • Le azioni future previste dal robot.

Questo approccio è in linea con studi recenti nel campo dell’Interazione Uomo-Computer (HCI) e suggerisce che una trasparenza efficace debba considerare tutti questi elementi. Più specificamente, esso presenta somiglianze con il modello Situation Awareness-based Agent Transparency (SAT) proposto da Chen et al. [19], che riconosce anch’esso la natura multifattoriale della trasparenza. Il modello SAT definisce tre livelli gerarchici di trasparenza:

  • Livello 1: si concentra sullo stato attuale, i piani e le azioni dell’agente.
  • Livello 2: affronta il processo di ragionamento dell’agente e la motivazione delle sue azioni.
  • Livello 3: riguarda le proiezioni dell’agente, le previsioni sugli esiti futuri e le eventuali limitazioni.

Sebbene l’approccio integrato proposto e il modello SAT condividano alcune affinità concettuali, vi è una distinzione fondamentale: l’approccio qui adottato non prevede una struttura gerarchica. Diversamente dai livelli distinti del modello SAT nell’HCI, questo approccio propone una visione più flessibile e integrata degli elementi della trasparenza. Una struttura non gerarchica consente una comprensione più articolata di come la trasparenza venga implementata nei diversi scenari di interazione uomo-robot e nei vari design robotici.

La necessità di tale flessibilità emerge chiaramente considerando l’osservazione di Dragan et al. [10], secondo cui prevedibilità e leggibilità, pur essendo concetti affini, rappresentano spesso proprietà contrastanti del movimento. Nel contesto delle azioni robotiche, un movimento altamente prevedibile (cioè, che segue il percorso più efficiente o atteso) non è sempre quello più leggibile (cioè in grado di comunicare chiaramente le intenzioni del robot). Ciò sottolinea la necessità di un approccio non gerarchico, capace di bilanciare dinamicamente questi aspetti potenzialmente in conflitto in base al contesto specifico dell’interazione.

In particolare, questo approccio integrato e non gerarchico alla trasparenza si avvicina molto alla definizione proposta da Alonso et al. [20, p. 1], secondo cui la trasparenza è “l’osservabilità e la prevedibilità del comportamento del sistema, la comprensione di ciò che il sistema sta facendo, perché lo sta facendo e cosa farà in seguito”. Questa definizione riassume la natura multifattoriale della trasparenza, rafforzando la necessità di un quadro flessibile nell’ambito dell’HRI.

Modalità visive, uditive e tattili per comportamenti trasparenti

Gli approcci attuali volti a migliorare la trasparenza nell’interazione uomo-robot comprendono una varietà di modalità e metodi di integrazione, ciascuno con finalità comunicative differenti. Sebbene tali approcci abbiano contribuito in modo significativo a rendere i robot più trasparenti, essi spesso si basano su meccanismi fissi che richiedono un addestramento preliminare dell’utente, risultando cognitivamente impegnativi o interrompendo il flusso naturale dell’interazione.

Le modalità visive rappresentano una strategia comune per aumentare la trasparenza. Tra queste si annoverano informazioni testuali visualizzate su schermi o interfacce proiettate, così come segnali visivi non testuali, come indicatori basati su colori [21]. Le informazioni testuali possono trasmettere concetti complessi riguardo le azioni, le intenzioni o i processi decisionali del robot, ma richiedono che gli utenti si concentrino nella lettura e rielaborazione del testo, il che può risultare mentalmente oneroso e dispendioso in termini di tempo. In scenari dinamici di interazione, ciò può comportare conseguenti ritardi nella comprensione e nella risposta alle azioni del robot. Inoltre, l’efficacia delle informazioni testuali può variare in base alla competenza linguistica e alla velocità di lettura dell’utente. I segnali visivi non testuali, come quelli basati su colori, consentono una percezione più rapida, ma sono limitati nella complessità delle informazioni che possono veicolare [22]. Inoltre, questo tipo di comunicazione si basa sulla comprensione di determinati pattern cromatici, che potrebbero non essere intuitivi o universalmente compresi in contesti culturali diversi. In ambienti complessi, con molteplici stimoli visivi, questi segnali possono essere ignorati o mal interpretati. Molti approcci visivi sfruttano tecniche preesistenti nell’ambito dell’HCI. Alcuni studi utilizzano schermi applicati al robot o posizionati nelle sue vicinanze per visualizzare informazioni [23], mentre altri impiegano interfacce in realtà aumentata (AR) per mostrare direttamente nel campo visivo dell’utente dati sensoriali e processi decisionali [24]. Sebbene schermi e interfacce AR possano fornire informazioni precise, rischiano anche di sovraccaricare gli utenti con eccessivi dettagli o distrarli dall’interazione stessa.

Un altro metodo comunemente utilizzato per migliorare la trasparenza riguarda le modalità uditive, principalmente attraverso il linguaggio parlato [25]. Le spiegazioni verbali possono variare da semplici affermazioni in prima persona a dialoghi complessi in cui il robot risponde alle domande degli utenti circa le proprie azioni e decisioni. Questo approccio consente interazioni naturali e di conversazione che possono chiarire il comportamento e le intenzioni del robot. Tuttavia, le spiegazioni verbali possono risultare intrusive in ambienti condivisi, arrecando fastidio o distrazione ad altre persone presenti. In ambienti rumorosi, possono essere difficili da udire o comprendere, e spiegazioni continue rischiano di diventare noiose per gli utenti durante interazioni prolungate.

La modalità aptica, che si riferisce alla ricezione di sensazioni tattili, offrono percorsi alternativi per migliorare la trasparenza, specialmente in situazioni in cui i canali visivi o uditivi risultano inadeguati o sovraccarichi [26]. Feedback tattili, basati sulla pressione o persino termici, possono trasmettere informazioni sullo stato del robot, le sue intenzioni o le condizioni ambientali [27]. Questi approcci possono essere efficaci in ambienti rumorosi o visivamente complessi e non richiedono che l’utente distolga lo sguardo. Tuttavia, il feedback aptico può trasmettere solo informazioni semplici, risultando inadeguato per spiegare comportamenti o intenzioni robotiche complesse, e richiede un contatto fisico, che potrebbe non essere sempre possibile o desiderabile in tutti i contesti di interazione. Inoltre, in assenza di un linguaggio aptico standardizzato, gli utenti possono facilmente fraintendere i segnali.

In letteratura, sono stae anche usate altri tipologie di approcci che sfruttano le caratteristiche intrinseche del robot, come il movimento, lo sguardo o le espressioni facciali, per trasmettere informazioni [28]. Questi metodi fanno leva sull’incarnazione fisica del robot per comunicare intenzioni e stati interni in modo più intuitivo e non verbale. Per esempio, il comportamento dello sguardo è particolarmente efficace nel comunicare intenzioni e disambiguare espressioni referenziali [29]. Analogamente, segnali più impercettibili, come pause nel parlato del robot, possono gestire l’alternanza dei turni di conversazione, influenzando significativamente il comportamento dell’utente e il flusso dell’interazione [30]. Sebbene promettenti, tali metodi potrebbero non essere applicabili universalmente a tutte le morfologie robotiche, e se non accuratamente progettati e implementati nel contesto ambientale adeguato, rischiano di generare inferenze errate da parte degli esseri umani, rendendo il comportamento del robot fuorviante o confuso [31].

Limiti e potenzialità della spiegabilità nella XAI applicata ai robot

La ricerca sull’eXplainable Artificial Intelligence (XAI) ha portato un’ulteriore miglioramento della trasparenza nella robotica [33], rendendo più comprensibili i processi decisionali dei sistemi di intelligenza artificiale, compresi i robot. Inizialmente, gran parte di questa ricerca si è concentrata sull’interpretazione dei risultati di meccanismi di apprendimento automatico “a scatola nera”, come le deep neural network (DNNs) [34], mentre più recentemente l’attenzione si è spostata prevalentemente sull’interpretabilità e la spiegabilità degli algoritmi basati sui dati [35]. Questo approccio però spesso non affronta le sfide specifiche della trasparenza nell’HRI, poiché sono pensate per analisi statiche e offline, e non sono adatte a interazioni dinamiche e in tempo reale, tipiche dell’HRI [36]. Inoltre, le spiegazioni fornite dalla XAI richiedono spesso una comprensione tecnica che potrebbe non essere accessibile a tutti gli utenti. Di recente, si è assistito a un cambiamento di prospettiva, riconoscendo che la XAI non è solo un problema informatico ma anche sociale. Miller [37] ha sottolineato questo aspetto, evidenziando che la ricerca sulla XAI dovrebbe ispirarsi al modo in cui gli esseri umani si spiegano le cose tra loro. Questa visione ha trovato crescente consenso, sottolineando l’importanza che chi spiega deve considerare anche chi riceve la spiegazione.

Questo tipo di approccio incentrato sulla persona relativo all’ XAI è in linea anche con le esigenze dell’HRI, in cui i robot devono fornire spiegazioni non solo accurate, ma anche intuitive e contestualmente adeguate agli utenti umani. Tuttavia, tale approccio quando applicato alla robotica non è privo di ulteriori sfide. Ad esempio, richiede di trovare un compromesso tra la complessità della spiegazione e la sua interpretabilità: spiegazioni troppo dettagliate possono risultare meno comprensibili agli utenti non esperti.

Strategie di trasparenza basate su design e segnali familiari

Gli approcci precedentemente presentati evidenziano che, sebbene le modalità visive, uditive e non verbali aiutino a comunicare le azioni del robot, spesso implicano conoscenze pregresse o rischiano di sovraccaricare l’utente. La XAI offre spunti preziosi, ma le sue spiegazioni risultano spesso troppo complesse per interazioni in tempo reale. Per migliorare la trasparenza è necessario concentrarsi su strategie semplici e accessibili, comprensibili anche da utenti non esperti.

Per questo motivo, nei nostri precedenti lavori [37-43] abbiamo proposto due metodologie innovative per promuovere comportamenti robotici trasparenti nel contesto dell’interazione sociale.

La prima metodologia prevede lo sviluppo di comportamenti intrinsecamente trasparenti (transparent behaviour by-design), integrando in modo fluido nel design del robot segnali non verbali e azioni efficaci. Questo approccio mira a ridurre al minimo la necessità di un addestramento estensivo degli utenti, facilitando così un’interazione più intuitiva e accessibile.

La seconda metodologia proposta mira a generare comportamenti trasparenti attraverso l’intervento umano — introducendo vincoli preferenziali durante il processo di apprendimento del robot — oppure tramite l’apprendimento diretto delle preferenze umane, al fine di personalizzare il comportamento e renderlo più comprensibile (transparent behaviour by learning).

Nel lavoro di ricerca [37] abbiamo mostrato come l’utilizzo di gesti deittici familiari per gli esseri umani, come l’indicare, risulti particolarmente efficace nel rendere il comportamento di robot umanoidi più trasparente in un contesto di navigazione. Questi gesti si sono dimostrati efficaci perché forniscono un segnale diretto e chiaro dell’azione prevista dal robot, riducendo l’ambiguità. Nel caso di robot non umanoidi [38], in particolare, questi segnali fanno leva su conoscenze pregresse degli esseri umani, rendendo più semplice per gli utenti comprendere le intenzioni del robot in una varietà di contesti. Ad esempio, un robot che utilizza luci lampeggianti o segnali acustici per indicare la direzione o la prossimità di oggetti può comunicare chiaramente le proprie azioni future senza ricorrere a spiegazioni complesse. Integrando segnali familiari, anche i robot non umanoidi possono colmare efficacemente il divario comunicativo con gli esseri umani, garantendo che il loro comportamento risulti facilmente comprensibile, anche in ambienti frenetici o non familiari.

Inner speech e spiegazioni verbali per aumentare la trasparenza

Per poter rendere il comportamento di un robot più trasparente durante il processo di apprendimento, in un nostro lavoro precedente [39] abbiamo usato strategie di comunicazione simili a quelle utilizzate nell’interazione tra le persone. Nell’HHI, le persone spesso esprimono i propri pensieri ed emozioni per rendere chiare agli altri le loro intenzioni e decisioni, e i robot possono adottare strategie analoghe. Il nostro lavoro [40] ha dimostrato che il discorso interiore (inner speech), in cui il robot verbalizza le proprie valutazioni interne, migliora significativamente la trasparenza. Verbalizzando emozioni come frustrazione, fiducia o incertezza durante il processo di apprendimento, il discorso interiore consente agli esseri umani di comprendere lo stato interno del robot e come esso percepisce i propri progressi. Questo metodo si è rivelato più efficace rispetto all’utilizzo esclusivo delle espressioni emotive, poiché fornisce una visione esplicita e verbale del processo di pensiero e dei risultati dell’apprendimento del robot. Le espressioni emotive, come segnali facciali o comportamentali, possono comunque svolgere un ruolo nel trasmettere il livello di certezza del robot o la sua reazione al feedback. Tuttavia, la verbalizzazione di queste emozioni attraverso l’inner speech crea un’interazione di apprendimento più trasparente, comunicando chiaramente ciò che il robot sta vivendo e pensando. Questo è in linea alle modalità in cui esseri umani spiegano i propri pensieri e sentimenti, favorendo un’interazione più trasparente e prevedibile tra il robot e il suo interlocutore umano.

L’uso delle preferenze umane e delle spiegazioni contrastive

In un altro nostro lavoro [41], abbiamo visto come anche l’integrazione delle preferenze umane nel processo di apprendimento di un robot possa migliorare la trasparenza. In particolare, abbiamo studiato come l’allineamento dell’apprendimento del robot con le aspettative umane attraverso le preferenze possa migliorare la trasparenza, permettendo al robot di comportarsi in modo prevedibile e comprensibile. Integrando le preferenze umane come vincoli nell’algoritmo di apprendimento del robot tramite il metodo chiamato Preference Shielding, il robot evita azioni che potrebbero confondere o frustrare gli utenti, favorendo interazioni più fluide e prevedibili [42]. Tuttavia, sebbene le preferenze da sole possano migliorare la trasparenza, combinare le preferenze con semplici spiegazioni contrastive sul motivo per cui sono state prese determinate azioni porta ai livelli più alti di trasparenza. Quando un robot non solo include le preferenze umane, ma fornisce anche spiegazioni semplici sul perché sono state intraprese determinate azioni, gli utenti trovano più facile seguire il ragionamento del robot e anticiparne la mossa successiva.

Trasparenza e teoria della mente nel comportamento robotico

L’integrazione della Teoria della Mente (Theory of Mind, ToM) nel modello di interazione di un robot può migliorare significativamente la trasparenza, come mostrato in un nostro precedente lavoro [43]. Infatti, un robot dotato di capacità ToM, come la capacità di inferire quando gli umani hanno credenze errate (ad esempio in uno scenario di falsa credenza), può adattare le proprie azioni e offrire spiegazioni che tengono conto dell’equivoco umano portando ad un miglioramento della capacità del robot di collaborare in ambienti dinamici e potenziando la capacità dell’utente di seguire il ragionamento del robot. Fornendo spiegazioni che considerano la prospettiva umana, le azioni del robot diventano più prevedibili e più facili da comprendere, aumentando la trasparenza complessiva. Inoltre, il nostro lavoro ha evidenziato una correlazione positiva tra la trasparenza percepita e le capacità ToM, indicando come man mano che migliorano le capacità ToM del robot, gli utenti percepiscono il robot come più trasparente. Quando il robot può inferire e rispondere alle credenze umane, gli utenti trovano più facile seguire il ragionamento del robot e prevederne il comportamento.

Integrare progettazione e apprendimento per una trasparenza continua

L’assenza di trasparenza nei processi decisionali dei robot rappresenta un ostacolo significativo alla realizzazione di una collaborazione efficace tra esseri umani e robot, specialmente in risposta al crescente bisogno di interazioni autonome. Questa sfida assume un’importanza ancora maggiore nei contesti non industriali, in quanto ostacola la comprensione da parte degli esseri umani delle intenzioni, dei progressi e della logica decisionale del robot — elementi fondamentali per favorire interazioni fluide e naturali. In questo lavoro, iniziamo a dare una definizione esaustiva di trasparenza in HRI, ed esploriamo i meccanismi esistenti per creare comportamenti trasparenti dei robot durante scenari di interazione uomo-robot. Infine, presentiamo due metodologie distinte proposte da noi in precedenti lavori per integrare comportamenti trasparenti nei robot sociali: un approccio by-design e un approccio by-learning. L’approccio by-design garantisce una base di comportamenti trasparenti integrando metodi di comunicazione chiari direttamente nella progettazione del robot che è fondamentale per stabilire fin da subito una trasparenza che rende le azioni e le intenzioni del robot intrinsecamente più leggibili, prevedibili ed esplicabili agli esseri umani. Tuttavia, le interazioni HRI sono dinamiche e variano a seconda degli utenti e dei contesti, e l’approccio by-learning e di adattamento diventa essenziale consentendo un perfezionamento continuo e una personalizzazione dei comportamenti trasparenti del robot, adattandoli alle preferenze individuali degli utenti e agli scenari di interazione in evoluzione. Questa capacità di adattamento consente di mantenere elevati livelli di trasparenza anche con l’aumentare della complessità delle interazioni.

Ringraziamenti

Questo materiale si basa su un lavoro sostenuto dal programma di ricerca e innovazione Horizon 2020 dell’Unione Europea nell’ambito della borsa Marie Skłodowska-Curie, grant agreement n. 955778 (G. Angelopoulos), e dal Ministero dell’Università e della Ricerca (MUR) con il progetto PNRR FAIR (Future Artificial Intelligence Research) PE0000013 (A. Rossi e S. Rossi).

Bibliografia

Georgios Angelopoulos, Mehdi Hellou, Samuele Vinanzi, Alessandra Rossi, Silvia Rossi, and Angelo Cangelosi. 2025. Robot, did you read my mind? Modelling Human Mental States to Facilitate Transparency and Mitigate False Beliefs in Human-Robot Collaboration. J. Hum.-Robot Interact. Just Accepted (May 2025). https://doi.org/10.1145/3737890

Cristina Becchio, Valeria Manera, Luisa Sartori, Andrea Cavallo, and Umberto Castiello. Grasping intentions: from thought experiments to empirical evidence. Frontiers in human neuroscience, 6:117, 2012.

Albert Mehrabian. Communication without words. In Communication theory, pages 193–200. Routledge, 2017

Louis-Philippe Morency. The role of context in affective behavior understanding. Social Emotions in Nature and Artifact, 2:8–27, 2013.

Ali Ahmad and Dababrata Chowdhury. A Review of Effective Communication and Its Impact on Interpersonal Relationships, Conflict Resolution, and Decision-Making. Review of Applied Socio-Economic Research, 24(2):18–23, November 2022. Number: 2.

Yingshan Bao, Fangwei Zhu, Yue Hu, and Ning Cui. The Research of Interpersonal Conflict and Solution Strategies. Psychology, 7(4):541–545, April 2016. Number: 4 Publisher: Scientific Research Publishing.

Ronald Cumbal and Olov Engwall. Speaking transparently: Social robots in educational settings. In Companion of the 2024 ACM/IEEE International Conference on Human-Robot Interaction, pages 356–358, 2024.

Sebastian Wallkötter. Transparency Mechanisms in HRI: Improving an observer’s understanding of social robots. PhD thesis, Acta Universitatis Upsaliensis, 2022.

Christopher A Miller. Delegation and transparency: Coordinating interactions so information exchange is no surprise. In International Conference on Virtual, Augmented and Mixed Reality, pages 191–202. Springer, 2014

J Iden and N Amato. Belief, judgment, transparency, trust: reasoning about potential pitfalls in interacting with artificial autonomous entities. Robotics: Science and Systems XIII, RSS, 2017

Anca D Dragan, Kenton CT Lee, and Siddhartha S Srinivasa. Legibility and predictability of robot motion. In 2013 8th ACM/IEEE International Conference on Human-Robot Interaction (HRI), pages 301–308. IEEE, 2013

Robert H Wortham, Andreas Theodorou, and Joanna J Bryson. Robot transparency: Improving understanding of intelligent behaviour for designers and users. In Annual Conference Towards Autonomous Robotic Systems, pages 274–289. Springer, 2017

Jenny Preece, Yvonne Rogers, Helen Sharp, David Benyon, Simon Holland, and Tom Carey. Human-computer interaction. Addison-Wesley Longman Ltd., 1994.

Andreas Theodorou, Robert H Wortham, and Joanna J Bryson. Designing and implementing transparency for real time inspection of autonomous robots. Connection Science, 29(3):230–241, 2017.

Christopher A Miller. Displaced interactions in human-automation relationships: Transparency over time. In Engineering Psychology and Cognitive Ergonomics: 15th International Conference, EPCE 2018, Held as Part of HCI International 2018, Las Vegas, NV, USA, July 15-20, 2018, Proceedings 15, pages 191–203. Springer, 2018.

Taemie Kim and Pamela Hinds. Who should i blame? effects of autonomy and transparency on attributions in human-robot interaction. In ROMAN 2006-The 15th IEEE international symposium on robot and human interactive communication, pages 80–85. IEEE, 2006.

E. Mueller. Transparent Computers: Designing Understandable Intelligent Systems. CreateSpace Independent Publishing Platform, Scotts Valley, CA, 2016.

Sule Anjomshoae, Amro Najjar, Davide Calvaresi, and Kary Främling. Explainable Agents and Robots : Results from a Systematic Literature Review. In Proceedings of the 18th International Conference on Autonomous Agents and MultiAgent Systems, pages 1078–1088. International Foundation for Autonomous Agents and MultiAgent Systems, 2019.

Sebastian Wallkötter, Silvia Tulli, Ginevra Castellano, Ana Paiva, and Mohamed Chetouani. Explainable embodied agents through social cues: a review. ACM Transactions on Human-Robot Interaction (THRI), 10(3):1–24, 2021.

Jessie YC Chen, Shan G Lakhmani, Kimberly Stowers, Anthony R Selkowitz, Julia L Wright, and Michael Barnes. Situation awareness-based agent transparency and human-autonomy teaming effectiveness. Theoretical issues in ergonomics science, 19(3):259–282, 2018

Victoria Alonso and Paloma De La Puente. System transparency in shared autonomy: A mini review. Frontiers in neurorobotics, 12:83, 2018

Amar Halilovic and Felix Lindner. Visuo-textual explanations of a robot’s navigational choices. In Companion of the 2023 ACM/IEEE International Conference on Human-Robot Interaction, pages 531–535, 2023

Shubham Sonawani, Yifan Zhou, and Heni Ben Amor. Projecting robot intentions through visual cues: Static vs. dynamic signaling. In 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 7931–7938. IEEE, 2023.

Nicole Mirnig, Yeow Kee Tan, Tai Wen Chang, Yuan Wei Chua, Tran Anh Dung, Haizhou Li, and Manfred Tscheligi. Screen feedback in human-robot interaction: how to enhance robot expressiveness. In The 23rd IEEE International Symposium on Robot and Human Interactive Communication, pages 224–230. IEEE, 2014.

Bernardo Marques, Beatriz Sousa Santos, Tiago Araújo, Nuno Cid Martins, João Bernardo Alves, and Paulo Dias. Situated visualization in the decision process through augmented reality. In 2019 23rd international conference information visualisation (IV), pages 13–18. IEEE, 2019.

Shan Lakhmani, Julian Abich, Daniel Barber, and Jessie Chen. A proposed approach for determining the influence of multimodal robot-of-human transparency information on human-agent teams. In Foundations of Augmented Cognition: Neuroergonomics and Operational Neuroscience: 10th International Conference, AC 2016, Held as Part of HCI International 2016, Toronto, ON, Canada, July 17-22, 2016, Proceedings, Part II 10, pages 296–307. Springer, 2016

Euan Freeman, Graham Wilson, Dong-Bach Vo, Alex Ng, Ioannis Politis, and Stephen Brewster. Multimodal feedback in hci: haptics, nonspeech audio, and their applications. In The Handbook of Multimodal Multisensor Interfaces: Foundations, User Modeling, and Common Modality Combinations-Volume 1, pages 277–317. ACM, 2017.

Mingyu Kang, Cheol-Gu Gang, Sang-Kyu Ryu, Hyeon-Ju Kim, Da-Yeon Jeon, and Soonjae Pyo. Haptic interface with multimodal tactile sensing and feedback for human–robot interaction. Micro and Nano Systems Letters, 12(1):9, 2024.

Michael Fulton, Chelsey Edge, and Junaed Sattar. Robot communication via motion: a study on modalities for robot-to-human communication in the field. ACM Transactions on Human-Robot Interaction (THRI), 11(2):1–40, 2022.

Alyxander David May, Christian Dondrup, and Marc Hanheide. Show me your moves! conveying navigation intention of a mobile robot to humans. In 2015 European Conference on Mobile Robots (ECMR), pages 1–6. IEEE, 2015.

Gabriel Skantze, Anna Hjalmarsson, and Catharine Oertel. Exploring the effects of gaze and pauses in situated human-robot interaction. In Proceedings of the SIGDIAL 2013 Conference, pages 163–172, 2013.

Cynthia Breazeal, Cory D Kidd, Andrea Lockerd Thomaz, Guy Hoffman, and Matt Berlin. Effects of nonverbal communication on efficiency and robustness in human-robot teamwork. In 2005 IEEE/RSJ international conference on intelligent robots and systems, pages 708–713. IEEE, 2005.

Quan-shi Zhang and Song-Chun Zhu. Visual interpretability for deep learning: a survey. Frontiers of Information Technology & Electronic Engineering, 19(1):27–39, 2018

N Thalpage. Unlocking the black box: Explainable artificial intelligence (xai) for trust and transparency in ai systems. Journal of Digital Art & Humanities, 4(1):31–36, 2023

Sule Anjomshoae, Amro Najjar, Davide Calvaresi, and Kary Främling. Explainable agents and robots: Results from a systematic literature review. In 18th International Conference on Autonomous Agents and Multiagent Systems (AAMAS 2019), Montreal, Canada, May 13–17, 2019, pages 1078– 1088. International Foundation for Autonomous Agents and Multiagent Systems, 2019

Yu-Neng Chuang, Guanchu Wang, Fan Yang, Zirui Liu, Xuanting Cai, Mengnan Du, and Xia Hu. Efficient xai techniques: A taxonomic survey. arXiv preprint arXiv:2302.03225, 2023.

Tim Miller. Explanation in artificial intelligence: Insights from the social sciences. Artificial intelligence, 267:1–38, 2019

G. Angelopoulos, A. Rossi, C. D. Napoli and S. Rossi, “You Are In My Way: Non-verbal Social Cues for Legible Robot Navigation Behaviors,” 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Kyoto, Japan, 2022, pp. 657-662, doi: 10.1109/IROS47612.2022.9981754

G. Angelopoulos, F. Vigni, A. Rossi, G. Russo, M. Turco and S. Rossi, “Familiar Acoustic Cues for Legible Service Robots,” 2022 31st IEEE International Conference on Robot and Human Interactive Communication (RO-MAN), Napoli, Italy, 2022, pp. 1187-1192, doi: 10.1109/RO-MAN53752.2022.9900699.

Angelopoulos, G., Rossi, A., L’Arco, G., Rossi, S. (2022). Transparent Interactive Reinforcement Learning Using Emotional Behaviours. In: Cavallo, F., et al. Social Robotics. ICSR 2022. Lecture Notes in Computer Science(), vol 13817. Springer, Cham. https://doi.org/10.1007/978-3-031-24667-8_27

G. Angelopoulos, C. D. Martino, A. Rossi and S. Rossi, “Unveiling the Learning Curve: Enhancing Transparency in Robot’s Learning with Inner Speech and Emotions,” 2023 32nd IEEE International Conference on Robot and Human Interactive Communication (RO-MAN), Busan, Korea, Republic of, 2023, pp. 1922-1927, doi: 10.1109/RO-MAN57019.2023.10309352.

Angelopoulos, G., Imparato, P., Rossi, A., Rossi, S. (2024). Using Theory of Mind in Explanations for Fostering Transparency in Human-Robot Interaction. In: Ali, A.A., et al. Social Robotics. ICSR 2023. Lecture Notes in Computer Science(), vol 14454. Springer, Singapore. https://doi.org/10.1007/978-981-99-8718-4_34

Georgios Angelopoulos, Luigi Mangiacapra, Alessandra Rossi, Claudia Di Napoli, Silvia Rossi, What is behind the curtain? Increasing transparency in reinforcement learning with human preferences and explanations, Engineering Applications of Artificial Intelligence, Volume 149, 2025, 110520, ISSN 0952-1976, 10.1016/j.engappai.2025.110520.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati