scenari

Fiducia nei robot: come costruirla, mantenerla, ripararla



Indirizzo copiato

La fiducia nei robot si costruisce attraverso esperienze, trasparenza e affidabilità percepita. Comportamenti erronei possono comprometterla, mentre la personalità dell’utente e il contesto d’uso influenzano fortemente la reazione agli errori

Pubblicato il 16 lug 2025

Alessandra Rossi

Dipartimento di ingegneria elettrica e tecnologie dell'informazione, Università di Napoli, Federico II

Silvia Rossi

Università di Napoli Federico II, Dipartimento di ingegneria elettrica e tecnologie dell'informazione



robotica sociale Robot umanoidi e sicurezza Fiducia nei robot empatia robotica Fit4MedRob

Nelle interazioni quotidiane, ci affidiamo a persone e tecnologie assumendo consapevolmente un certo grado di rischio. La fiducia nei robot, oggi sempre più presenti in ambiti domestici e lavorativi, rappresenta un nodo cruciale per una convivenza sicura ed efficace.

Fiducia nei robot e accettazione del rischio

Ogni giorno decidiamo di fidarci di altre persone le cui azioni possono potenzialmente avere conseguenze sulle nostre vite. Scegliamo, ad esempio, di fidarci dell’autista del taxi che ci accompagna a destinazione, del piatto del giorno propostoci dal nostro ristoratore preferito, delle indicazioni del relatore della nostra tesi di dottorato, e così via.

Le nostre scelte sono il risultato di diversi fattori, tra cui le differenze individuali, l’utilità percepita delle decisioni prese da una controparte e le esperienze pregresse [1]. La crescente presenza di robot umanoidi progettati per interagire in modo socievole con gli esseri umani nelle attività quotidiane richiede che le persone accettino la presenza del robot nei propri spazi, e possano confidare nelle capacità dello sviluppatore di robot di salvaguardare il loro benessere.

Questo è particolarmente importante per evitare situazioni pericolose, come ad esempio un robot che provoca un incendio tentando di preparare una tazza di tè, oppure crea una situazione non sicura lasciando la porta di ingresso dell’abitazione aperta e incustodita, o aprirla a sconosciuti e potenziali ladri.

La letteratura corrente concorda generalmente sul fatto che la fiducia sia un fattore fondamentale per stabilire e mantenere relazioni efficaci con i robot sociali, sia in applicazioni di assistenza che di servizio[2].

La fiducia è da decenni studiata in diverse discipline, e ci sono differenti definizioni che la collegano alla percezione dell’affidabilità delle funzionalità del robot [3], alla disponibilità delle persone ad accettare il rischio derivante da possibili conseguenze positive o negative [4], e alla convinzione che il robot abbia intenzione di aiutare l’individuo a raggiungere i propri obiettivi in situazioni caratterizzate da incertezza e vulnerabilità [5]. La fiducia può anche essere collegata a una dimensione affettiva tra persone e robot [6,7].

In scenari dove si prevede che i robot agiscano in completa autonomia senza l’intervento di esperti o sviluppatori di robot, i robot possono mostrare comportamenti percepiti dalle persone come inaspettati o fallimentari, oppure veri e propri errori. Ad esempio, i robot potrebbero essere soggetti a malfunzionamenti di sensori, problemi meccanici, errori e limitazioni di programmazione o funzionali. Nonostante gli avanzamenti tecnologici, anche le capacità decisionali di un robot possono risultare limitate, quindi, pur cercando di “fare la cosa giusta”, potrebbe erroneamente prendere decisioni sbagliate.

Questo è particolarmente evidente se i robot sono impiegati in ambienti dinamici, come le abitazioni private, dove la capacità di personalizzare i propri comportamenti e adattarli ai diversi contesti è critico. In tali scenari possono verificarsi diverse dinamiche di interazione: le persone potrebbero perdere fiducia e non fare più affidamento sul loro aiuto [8,9] potrebbero perdere interesse nei robot e abbandonarli [10] oppure potrebbero fidarsi eccessivamente delle loro capacità [11,12] con possibili conseguenze fatali.

Cos’è la fiducia e i quattro principi fondamentali che influenzano

Per questo motivo, riteniamo che sia necessaria un’esplorazione più approfondita delle dinamiche della fiducia tra esseri umani e robot, con particolare attenzione alla percezione degli errori in base alle loro conseguenze.

Cosa è la fiducia?

La fiducia è un fattore fondamentale e interdisciplinare che gioca un ruolo significativo nelle interazioni interpersonali ed economiche. Per questo motivo, diversi studi definiscono il concetto di fiducia in ambiti differenti, inclusi l’interazione uomo-uomo (HHI), l’interazione uomo-computer (HCI) e l’interazione uomo-robot (HRI). Identificare i principali aspetti associati allo sviluppo e al mantenimento della fiducia tra le persone può guidare gli sviluppatori di robot nella progettazione di robot affidabili.

Simpson [13,14] evidenzia quattro principi fondamentali che influenzano la fiducia. Primo, gli individui valutano il grado di fiducia osservando il comportamento altruista del partner e il suo impegno nel promuovere gli interessi di entrambi e della relazione stessa.

Secondo, gli individui possono creare intenzionalmente situazioni per mettere alla prova la fiducia del proprio partner.

Terzo, le persone con una bassa autostima possono essere meno inclini a fidarsi del partner.

Infine, il livello di fiducia nelle relazioni a breve o lungo termine non può essere compreso pienamente senza considerare la predisposizione alla fiducia di tutte le parti coinvolte nell’interazione.

Principi psicologici alla base della fiducia

Mayer et al. [3,15] ha stabilito che la fiducia si costruisce sulla percezione di abilità, benevolenza e integrità. La fiducia è influenzata anche dalla percezione del rischio derivante dall’interazione con altri individui. Il noto gioco del poker è un esempio concreto di come i comportamenti rischiosi – con conseguenze negative, ad esempio, una perdita di denaro –  influenzino la credibilità di un giocatore e, di conseguenza, quanto sia importante per tutti i partecipanti costruirsi una buona reputazione durante la partita [16].
Deutsch [17] sostiene che un comportamento fiducioso e l’assunzione del rischio siano due facce della stessa medaglia, e che una persona sia disposta a correre un rischio solo se le probabilità di un risultato positivo superano quelle di una potenziale perdita. Deutsch definisce la fiducia come “la convinzione che [una persona] troverà ciò che desidera [nell’altro] piuttosto che ciò che teme” [17, p.~148].
Golder e Donath [18] affermano che una buona reputazione è molto importante per rafforzare la fiducia sia nelle relazioni a breve che a lungo termine.
Sebbene esistano molteplici definizioni e numerosi studi precedenti abbiano adottato una delle prime formulazioni della fiducia [4], vi è una tendenza convergente [19] verso l’adozione della definizione proposta da Lee [20, p.~51]: “La fiducia può essere definita come l’atteggiamento secondo il quale un agente aiuterà a raggiungere gli obiettivi di un individuo in una situazione caratterizzata da incertezza e vulnerabilità”.
Questa definizione racchiude i fattori più rilevanti che possono influenzare la fiducia uomo-robot: fattori legati all’essere umano, al robot e al contesto. I fattori umani specifici includono dati demografici, tratti della personalità, esperienze pregresse, consapevolezza situazionale, autostima, propensione alla fiducia e atteggiamento verso i robot. I fattori legati al robot comprendono l’affidabilità, la trasparenza, la leggibilità e la prevedibilità dei comportamenti, la personalità e l’antropomorfismo del robot, il livello di autonomia e gli eventuali malfunzionamenti. I fattori contestuali includono le modalità di comunicazione e i modelli mentali condivisi tra persone e robot, la tipologia e complessità del compito e l’ambiente in cui l’interazione ha luogo.

Fiducia e relazioni interpersonali come modello per la robotica

Gli esseri umani fanno affidamento gli uni sugli altri ogni giorno per vari motivi, e la fiducia gioca un ruolo chiave in questo. Tuttavia, la fiducia è un sentimento complesso [21] e può essere influenzata da diversi fattori interni ed esterni. I fattori interni possono basarsi su fondamenta cognitive e affettive [22], legate all’affidabilità delle azioni e dei comportamenti dell’altro individuo, oppure allo sviluppo di un legame affettivo che supporta la convinzione che le parti coinvolte siano impegnate verso un obiettivo comune [7,23].

Un altro fattore è legato alla sfera emotiva, infatti una maggiore fiducia nell’altro esiste quando si crede che il partner abbia genuinamente a cuore il loro benessere. La componente affettiva, tuttavia, non è solo quella tra due partner, tra persone in una relazione di parentela o di amicizia, ma anche quella che si crea dimostrando empatia, come per esempio sapere quando chiedere scusa. Brooks et al. [24] hanno dimostrato che, sebbene una scusa possa spesso essere interpretata come un’ammissione di colpa da parte del responsabile, essa può anche essere vista come un’espressione di rammarico per un evento spiacevole, anche quando chi si scusa non è realmente colpevole della situazione (ad esempio, rammaricarsi perché è una giornata piovosa e il nostro interlocutore deve uscire per partecipare ad una riunione importante).

Nonostante le persone investano un notevole sforzo nella costruzione e nel mantenimento della fiducia nelle relazioni interpersonali, la fiducia può essere infranta. Quando si verifica una rottura della fiducia, le reazioni delle persone possono essere molto diverse [13,25,26]. Alcune persone perdonano facilmente, mentre altre credono che, una volta persa, la fiducia non possa più essere recuperata [27]. In effetti, è molto difficile ristabilire la fiducia tra due parti dopo una sua violazione, poiché entrano in gioco numerosi fattori che ne influenzano il recupero.

Haselhuhn et al. [25] hanno mostrato che le persone che credono che il carattere morale può cambiare nel tempo (definite con “credenze incrementali”) sono più propense a fidarsi nuovamente di chi ha tradito la loro fiducia, se questi dimostra rimorso, promette di cambiare e si scusa. Scuse e offerte di penitenza sembrano attenuare gli effetti derivanti dalla perdita di fiducia [28,29,30].
La fiducia non è influenzata solamente dalle caratteristiche degli individui coinvolti, ma anche dalla tipologia e dalla durata della relazione che essi intrattengono. Inoltre, ci si può domandare: “Le persone sono più propense a perdonare una violazione della fiducia nelle fasi iniziali o in quelle successive di una relazione interpersonale?” [26]. Le persone in relazioni di lunga durata riescono a ristabilire la fiducia più facilmente rispetto a quelle in relazioni più recenti. Pertanto, ci si aspetta che anche il processo di recupero della fiducia risulti più agevole per coloro che hanno stabilito una relazione di lunga data, rispetto a chi si trova in una relazione più recente, o perfino nuova.

Fattori che influenzano la fiducia nei robot

Un compito può essere portato a termine con successo come sforzo congiunto tra persone e robot solo se le persone hanno fiducia che i robot le proteggeranno e che l’obiettivo del compito sarà raggiunto con un esito positivo. In questa situazione, il livello di fiducia che le persone ripongono nel robot è direttamente associato alla loro percezione dell’affidabilità del robot [2].

Hancock et al. [31] hanno identificato 33 fattori che influenzano la fiducia nell’interazione uomo-robot (HRI), raggruppati in 3 categorie e 6 sotto categorie. Le categorie principali sono:

  • Fattori legati alla persona, quali l’autostima, l’esperienza pregressa con i robot e il carico di lavoro dell’operatore;
  • Fattori legati al robot, come la prossimità, l’aspetto fisico del robot, la trasparenza, il livello di autonomia e la frequenza di errori;
  • Fattori ambientali, come la comunicazione e la collaborazione all’interno del team.

La fiducia influenza la percezione che le persone hanno dell’utilità delle informazioni e delle capacità di un robot [32]. La coerenza e l’affidabilità dei comportamenti del robot possono influenzare positivamente la fiducia, mentre comportamenti errati possono portare a una perdita di fiducia. L’assenza o un basso livello di fiducia in un robot può indurre una persona a intervenire o a riprendere il controllo del compito al posto del robot [8,9].
La fiducia è particolarmente importante in situazioni non strutturate, caratterizzate da incertezza e rischio, in cui la letteratura attuale fornisce risultati contrastanti. Ad esempio, la fiducia può essere costruita facilmente durante situazioni stressanti. Tuttavia, nel caso del robot militare sviluppato da Ogreten et al. [33], i soldati non si fidavano dei movimenti imprevisti del robot, e quindi non è mai stato usato in nessuna azione.

L’assegnazione di uno scopo ben preciso al robot risulta essere un fattore fondamentale per favorire la fiducia in un robot. Infatti, Booth et al. [12] hanno osservato che i studenti di un college universitario negli Stati Uniti D’America erano più propensi a far entrare un robot nel dormitorio se questo dichiarava di dover consegnare delle pizze, oppure quando gli studenti si trovavano in gruppo, rispetto ad un robot anonimo che non dava nessuna spiegazione sul proprio task.

Le differenze individuali sono state un tema centrale nella ricerca psicologica per diversi decenni, poiché possono aiutare a distinguere una persona dall’altra [34], e quindi possono essere utilizzate per personalizzare le interazioni, migliorare le relazioni e offrire servizi più adeguati alle persone, riconoscendone l’individualità [35]. Le differenze individuali sono importanti anche per comprendere l’accettazione e la percezione della fiducia nei robot.

In lavori precedenti [36,37,38] abbiamo riscontrato che i tratti individuali dei partecipanti sono correlati alla loro percezione e fiducia nei confronti del robot, con una forte relazione tra la personalità dei partecipanti (gradevolezza, coscienziosità e stabilità emotiva) e la loro disposizione a fidarsi degli altri. Abbiamo riscontrato che le persone estroverse tendono a percepire il robot come un amico, caloroso e premuroso, mentre altri lo consideravano più semplicemente come uno strumento.

È emerso inoltre che il tratto di estroversione influenzava il desiderio dei partecipanti di avere il robot come compagno domestico, nonché la loro fiducia nella sua affidabilità e nella sua capacità di affrontare situazioni incerte o imprevedibili. I tratti di coscienziosità e gradevolezza risultano correlati alla propensione delle persone a fidarsi del robot, e la fiducia nella benevolenza delle persone è risultata associata a un maggiore livello di fiducia nei confronti del robot. La fiducia delle persone nei robot è anche negativamente influenzata da esperienze negative precedenti con i robot, specialmente quando il robot commetteva errori. Al contrario, un’esperienza positiva passata con un robot influenzava positivamente la predisposizione verso un robot.

Percezione degli errori e fiducia nei robot

Come molte altre tecnologie, anche i robot sono soggetti a malfunzionamenti e guasti sia hardware che software. La percezione dell’affidabilità di un robot da parte delle persone dipende non solo dalla sua capacità di completare un compito, ma anche dai comportamenti che adotta per raggiungere un obiettivo.

Le persone infatti possono considerare come errori robotici comportamenti inattesi e incoerenti, fallimenti percepiti e veri e propri malfunzionamenti [39,40,41]. In modo simile, le aspettative delle persone sulle funzionalità e prestazioni di un robot possono influenzare la percezione dei comportamenti errati del robot [42]. Ad esempio, un robot che si muove troppo lentamente potrebbe essere considerato come se presentasse un malfunzionamento.

Honig and Oron-Gilad [39] hanno proposto una tassonomia per classificare i diversi tipi di errori nei robot. Ha identificato due categorie principali di errori: errori tecnici ed errori di interazione.

  • Gli errori tecnici sono dovuti a problemi hardware o software, che possono derivare da un design errato, errori di comunicazione o di elaborazione.
  • Gli errori di interazione, invece, sono legati alla violazione di norme sociali, a disfunzioni organizzative o a incongruenze nei modelli mentali durante l’interazione tra persone e robot in un contesto specifico.

Gli autori inoltre sostengono che le persone possono adattarsi ai robot se sono in grado di identificare e prevedere i loro comportamenti durante un’interazione. In particolare, hanno sottolineato che la comprensione degli errori del robot da parte delle persone è influenzata dal loro background, dalla personalità, dalle aspettative e dall’esperienza. Un altro fattore è la consapevolezza della situazione delle persone rispetto all’ambiente di interazione (inclusi robot, luoghi e altri agenti umani), la consapevolezza delle capacità del robot di comprendere e seguire i comandi umani, dei suoi obiettivi e piani, nonché dello stato e delle fasi del compito cooperativo [43].

Una persona non esperta di tecnologie robotiche potrebbe essere influenzata dai racconti di fantascienza, che spesso presentano robot con abilità e intelligenza simili a quelle umane [44], e tenderebbe quindi a sovrastimare le capacità del robot e a fidarsi eccessivamente di esso. Precedenti studi [45,46] hanno mostrato che la consapevolezza delle funzionalità del robot, incluse le sue limitazioni, influenza la percezione del robot da parte delle persone, ma non incide nello stesso modo sulla loro fiducia.

Strategie per ricostruire la fiducia nei robot dopo un errore

Robinette et al. [47] hanno studiato gli effetti di scuse, promesse e spiegazioni aggiuntive fornite da un robot in seguito ad errori, sulla fiducia dei partecipanti in uno scenario simulato di evacuazione in caso di incendio condotto in un ambiente virtuale. In tale scenario, la fiducia dei partecipanti veniva ripristinata se il robot si scusava e prometteva di non ripetere l’errore subito dopo averlo commesso, ma non durante l’emergenza.

Salem et al. [48] hanno studiato la percezione umana della fiducia nei confronti dei robot e la disponibilità delle persone a seguire un robot che mostra comportamenti erronei. Nonostante i comportamenti erratici del robot, i partecipanti seguivano comunque le sue istruzioni.

La percezione dei comportamenti robotici da parte delle persone — in termini di utilità, funzionalità e capacità, affidabilità e accettabilità — è influenzata anche dalla natura dell’errore. La percezione degli effetti negativi degli errori dei robot può essere principalmente differenziata in base alle conseguenze dell’errore, al momento in cui esso si verifica, alla ripetizione di tali errori nel tempo, alla probabilità di un esito negativo e ad altri fattori  [49]. Inoltre, ulteriori studi hanno esplorato come la fiducia delle persone nei robot è negativamente influenzata dalla consapevolezza delle persone relativa all’errore fatto dal robot [50]. Ad esempio, un robot che pretende di avere più funzionalità di quelle che possiede, incrementa le aspettative delle persone sulle sue capacità, e in caso di errore, queste sono meno propense a fidarsi del robot. 

Uomo-robot: una fiducia da costruire nel tempo

La fiducia rappresenta un elemento imprescindibile nell’interazione tra esseri umani e robot, proprio come lo è nelle relazioni interpersonali. Le persone decidono ogni giorno di fidarsi degli altri, accettando consapevolmente un certo grado di rischio. Allo stesso modo, nel contesto dell’interazione uomo-robot, è fondamentale che gli individui percepiscano i robot come agenti affidabili e in grado di operare nel rispetto della loro sicurezza, dei loro obiettivi e del contesto d’uso.

La fiducia nei robot, tuttavia, non è incondizionata. Essa si costruisce nel tempo, attraverso l’esperienza, l’affidabilità percepita e la trasparenza dei comportamenti robotici. Gli errori — siano essi tecnici o di interazione — possono compromettere seriamente la relazione fiduciaria, specialmente se percepiti come evitabili o pericolosi. Il recupero della fiducia, anche nei robot, sembra richiedere spiegazioni, scuse o dimostrazioni tangibili di miglioramento, ma la sua efficacia dipende da molteplici fattori, inclusa la personalità dell’utente e il tipo di errore.

Il contesto e le differenze individuali giocano un ruolo centrale nella percezione e nella gestione della fiducia. Tratti come estroversione, coscienziosità e gradevolezza, insieme a esperienze pregresse e aspettative, influenzano il modo in cui le persone reagiscono a comportamenti robotici, positivi o negativi. Questo sottolinea la necessità di progettare robot che siano adattivi non solo ai contesti operativi, ma anche alle caratteristiche psicologiche degli utenti.

Alla luce di quanto emerso, appare evidente che in caso di errori è fondamentale considerare due diverse strategie.

La prima è orientata a prevenire che i robot manifestino comportamenti indesiderati, che in casi estremi possono persino mettere in pericolo la sicurezza delle persone, degli animali domestici o danneggiare oggetti (ad esempio, metodi di verifica, e assicurandosi che i comportamenti nuovi o appresi non entrino in conflitto con quelli esistenti). Una seconda strategia è invece focalizzata sulla mitigazione degli effetti degli errori robotici sull’interazione uomo-robot, dotando il robot di comportamenti umani attesi [50], come scuse, promesse o motivazioni aggiuntive che possano spiegare o giustificare i comportamenti errati. Un’altra abilità intrinseca degli esseri umani è la capacità di comprendere e prevedere i comportamenti altrui; pertanto, anche i robot devono essere in grado di mostrare comportamenti leggibili e prevedibili, al fine di aumentare nei confronti delle persone la sensazione di sicurezza, comfort, efficienza e affidabilità del robot stesso. Infine, studi precedenti [51] sulla fiducia delle persone nei confronti del robot in caso di errori hanno mostrato che la capacità del robot di dimostrare abilità di Teoria della Mente è un fattore chiave per modulare la fiducia delle persone nel robot, anche dopo una violazione della fiducia.

Ringraziamenti

Questo materiale si basa su un lavoro sostenuto dall’Air Force Office of Scientific Research con il numero di progetto FA8655-23-1-7060. Qualsiasi opinione, risultato, conclusione o raccomandazione espressa in questo materiale è da attribuirsi esclusivamente all’autore o agli autori e non riflette necessariamente le opinioni dell’Aeronautica Militare degli Stati Uniti (United States Air Force).

Bibliografia

A. Rossi, A. Andriella, S. Rossi, C. Torras and G. Alenyà, “Evaluating the Effect of Theory of Mind on People’s Trust in a Faulty Robot,” 2022 31st IEEE International Conference on Robot and Human Interactive Communication (RO-MAN), Napoli, Italy, 2022, pp. 477-482, doi: 10.1109/RO-MAN53752.2022.9900695.

Kudryavtsev A, Pavlodsky J. Description-based and experience-based decisions: individual analysis. Judgment and Decision Making. 2012;7(3):316-331. doi:10.1017/S193029750000228X

Ross, Jennifer, “Moderators Of Trust And Reliance Across Multiple Decision Aids” (2008). Electronic Theses and Dissertations. 3754. https://stars.library.ucf.edu/etd/3754

Mayer, Roger C., James H. Davis, and F. David Schoorman. “An Integrative Model of Organizational Trust.” The Academy of Management Review 20, no. 3 (1995): 709–34. https://doi.org/10.2307/258792.

Deutsch, M. (1958). Trust and suspicion. Journal of Conflict Resolution, 2(4), 265-279. https://doi.org/10.1177/002200275800200401 (Original work published 1958)

Lee, J. D., & See, K. A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors, 46(1), 50-80. https://doi.org/10.1518/hfes.46.1.50_30392

McAllister, D. J. (1995). Affect- and Cognition-Based Trust as Foundations for Interpersonal Cooperation in Organizations. The Academy of Management Journal, 38(1), 24–59. https://doi.org/10.2307/256727

Lewis, J. David, and Andrew Weigert. “Trust as a Social Reality.” Social Forces 63, no. 4 (1985): 967–85. https://doi.org/10.2307/2578601.

De Visser, E., Parasuraman, R., Freedy, A., Freedy, E., & Weltman, G. (2006). A Comprehensive Methodology for Assessing Human-Robot Team Performance for Use in Training and Simulation. Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 50(25), 2639-2643. https://doi.org/10.1177/154193120605002507

Aaron Steinfeld, Terrence Fong, David Kaber, Michael Lewis, Jean Scholtz, Alan Schultz, and Michael Goodrich. 2006. Common metrics for human-robot interaction. In Proceedings of the 1st ACM SIGCHI/SIGART conference on Human-robot interaction (HRI ’06). Association for Computing Machinery, New York, NY, USA, 33–40. https://doi.org/10.1145/1121241.1121249

Maartje de Graaf, Somaya Ben Allouch, and Jan van Dijk. 2017. Why Do They Refuse to Use My Robot? Reasons for Non-Use Derived from a Long-Term Home Study. In Proceedings of the 2017 ACM/IEEE International Conference on Human-Robot Interaction (HRI ’17). Association for Computing Machinery, New York, NY, USA, 224–233. https://doi.org/10.1145/2909824.3020236

P. Robinette, W. Li, R. Allen, A. M. Howard and A. R. Wagner, “Overtrust of robots in emergency evacuation scenarios,” 2016 11th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Christchurch, New Zealand, 2016, pp. 101-108, doi: 10.1109/HRI.2016.7451740.

Serena Booth, James Tompkin, Hanspeter Pfister, Jim Waldo, Krzysztof Gajos, and Radhika Nagpal. 2017. Piggybacking Robots: Human-Robot Overtrust in University Dormitory Security. In Proceedings of the 2017 ACM/IEEE International Conference on Human-Robot Interaction (HRI ’17). Association for Computing Machinery, New York, NY, USA, 426–434. https://doi.org/10.1145/2909824.3020211

Simpson, J. A. (2007). Foundations of interpersonal trust. In A. W. Kruglanski & E. T. Higgins (Eds.), Social psychology: Handbook of basic principles (2nd ed., pp. 587–607). The Guilford Press.

Simpson, J. A. (2007). Psychological Foundations of Trust. Current Directions in Psychological Science, 16(5), 264-268. https://doi.org/10.1111/j.1467-8721.2007.00517.x

Colquitt JA, Scott BA, LePine JA. Trust, trustworthiness, and trust propensity: a meta-analytic test of their unique relationships with risk taking and job performance. J Appl Psychol. 2007 Jul;92(4):909-27. doi: 10.1037/0021-9010.92.4.909. PMID: 17638454.

Billings, D. (1995). “Computer Poker”. In: University of Alberta M.Sc. thesis.

Deutsch, M. (1958). Trust and suspicion. Journal of Conflict Resolution, 2(4), 265-279. https://doi.org/10.1177/002200275800200401

Scott A. Golder and Judith Donath. 2004. Hiding and revealing in online poker games. In Proceedings of the 2004 ACM conference on Computer supported cooperative work (CSCW ’04). Association for Computing Machinery, New York, NY, USA, 370–373. https://doi.org/10.1145/1031607.1031668

Kun Yu, Shlomo Berkovsky, Ronnie Taib, Dan Conway, Jianlong Zhou, and Fang Chen. 2017. User Trust Dynamics: An Investigation Driven by Differences in System Performance. In Proceedings of the 22nd International Conference on Intelligent User Interfaces (IUI ’17). Association for Computing Machinery, New York, NY, USA, 307–317. https://doi.org/10.1145/3025171.3025219

Lee, J. D., & See, K. A. (2004). Trust in Automation: Designing for Appropriate Reliance. Human Factors, 46(1), 50-80. https://doi.org/10.1518/hfes.46.1.50_30392

Kramer, R.M. and Carnevale, P.J. (2003). Trust and Intergroup Negotiation. In Blackwell Handbook of Social Psychology: Intergroup Processes (eds R. Brown and S.L. Gaertner). https://doi.org/10.1002/9780470693421.ch21

McAllister, Daniel J. “Affect- and Cognition-Based Trust as Foundations for Interpersonal Cooperation in Organizations.” The Academy of Management Journal 38, no. 1 (1995): 24–59. https://doi.org/10.2307/256727.

Becker, Lawrence C. (1996). Trust as noncognitive security about motives. Ethics 107 (1):43-61.

Brooks, A. W., Dai, H., & Schweitzer, M. E. (2014). I’m sorry about the rain! Superfluous apologies demonstrate empathic concern and increase trust. Social Psychological and Personality Science, 5(4), 467–474. https://doi.org/10.1177/1948550613506122

Haselhuhn, M. P., Schweitzer, M. E., & Wood, A. M. (2010). How implicit beliefs influence trust recovery. Psychological Science, 21(5), 645–648. https://doi.org/10.1177/0956797610367752

O. Schilke, M. Reimann, and K.S. Cook, Effect of relationship experience on trust recovery following a breach, Proc. Natl. Acad. Sci. U.S.A. 110 (38) 15236-15241, https://doi.org/10.1073/pnas.1314857110 (2013)

Slovic, P. (Ed.). (2000). The perception of risk. Earthscan Publications.

Bottom, W. P., Gibson, K., Daniels, S. E., & Murnighan, J. K. (2002). When talk is not cheap: Substantive penance and expressions of intent in rebuilding cooperation. Organization Science, 13(5), 497–513. https://doi.org/10.1287/orsc.13.5.497.7816

Kim, P. H., Ferrin, D. L., Cooper, C. D., & Dirks, K. T. (2004). Removing the Shadow of Suspicion: The Effects of Apology Versus Denial for Repairing Competence- Versus Integrity-Based Trust Violations. Journal of Applied Psychology, 89(1), 104–118. https://doi.org/10.1037/0021-9010.89.1.104

Schweitzer, M. E., Hershey, J. C., & Bradlow, E. T. (2006). Promises and lies: Restoring violated trust. Organizational Behavior and Human Decision Processes, 101(1), 1–19. https://doi.org/10.1016/j.obhdp.2006.05.005

Hancock, P. A., Billings, D. R., Schaefer, K. E., Chen, J. Y. C., de Visser, E. J., & Parasuraman, R. (2011). A Meta-Analysis of Factors Affecting Trust in Human-Robot Interaction. Human Factors, 53(5), 517-527. https://doi.org/10.1177/0018720811417254

Cameron, D., Aitken, J., Collins, E. et al. (6 more authors) (2015) Framing Factors: The Importance of Context and the Individual in Understanding Trust in Human-Robot Interaction. In: IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) 2015, 28 September 2015, Hamburg, Germany.

S. Ogreten, S. Lackey and D. Nicholson, “Recommended roles for uninhabited team members within mixed-initiative combat teams,” 2010 International Symposium on Collaborative Technologies and Systems, Chicago, IL, USA, 2010, pp. 531-536, doi: 10.1109/CTS.2010.5478468.

Williamson, J. M. (2018). Chapter 1 – individual differences. In Williamson, J. M., editor, Teaching to Individual Differences in Science and Engineering Librarianship, pages 1–10. Chandos Publishing.

Alessandra Rossi and Silvia Rossi. 2021. Engaged by a Bartender Robot: Recommendation and Personalisation in Human-Robot Interaction. In Adjunct Proceedings of the 29th ACM Conference on User Modeling, Adaptation and Personalization (UMAP ’21). Association for Computing Machinery, New York, NY, USA, 115–119. https://doi.org/10.1145/3450614.3463423

Rossi, A., Dautenhahn, K., Koay, K.L., Walters, M.L. (2017). Human Perceptions of the Severity of Domestic Robot Errors. In: Kheddar, A., et al. Social Robotics. ICSR 2017. Lecture Notes in Computer Science(), vol 10652. Springer, Cham. https://doi.org/10.1007/978-3-319-70022-9_64

Rossi, Alessandra, Dautenhahn, Kerstin, Koay, Kheng Lee and Walters, Michael L.. “The impact of peoples’ personal dispositions and personalities on their trust of robots in an emergency scenario” Paladyn, Journal of Behavioral Robotics, vol. 9, no. 1, 2018, pp. 137-154. https://doi.org/10.1515/pjbr-2018-0010

Rossi, A., Dautenhahn, K., Koay, K. L., & Walters, M. L. (2023). A matter of consequences: Understanding the effects of robot errors on people’s trust in HRI. Interaction Studies: Social Behaviour and Communication in Biological and Artificial Systems, 24(3), 380–421. https://doi.org/10.1075/is.21025.ros

Honig, S., & Oron-Gilad, T. (2018). Understanding and resolving failures in human-robot interaction: Literature review and model development. Frontiers in Psychology, 9, Article 861. https://doi.org/10.3389/fpsyg.2018.00861

E. Short, J. Hart, M. Vu and B. Scassellati, “No fair!! An interaction with a cheating robot,” 2010 5th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Osaka, Japan, 2010, pp. 219-226, doi: 10.1109/HRI.2010.5453193.

Séverin Lemaignan, Julia Fink, Francesco Mondada, and Pierre Dillenbourg. 2015. You’re Doing It Wrong! Studying Unexpected Behaviors in Child-Robot Interaction. In Social Robotics: 7th International Conference, ICSR 2015, Paris, France, October 26-30, 2015, Proceedings. Springer-Verlag, Berlin, Heidelberg, 390–400. https://doi.org/10.1007/978-3-319-25554-5_39

M. L. Walters, M. A. Oskoei, D. S. Syrdal and K. Dautenhahn, “A long-term Human-Robot Proxemic study,” 2011 RO-MAN, Atlanta, GA, USA, 2011, pp. 137-142, doi: 10.1109/ROMAN.2011.6005274

J. L. Drury, J. Scholtz and H. A. Yanco, “Awareness in human-robot interactions,” SMC’03 Conference Proceedings. 2003 IEEE International Conference on Systems, Man and Cybernetics. Conference Theme – System Security and Assurance (Cat. No.03CH37483), Washington, DC, USA, 2003, pp. 912-918 vol.1, doi: 10.1109/ICSMC.2003.1243931.

Hancock, P. A., Billings, D. R., & Schaefer, K. E. (2011). Can You Trust Your Robot? Ergonomics in Design, 19(3), 24-29. https://doi.org/10.1177/1064804611415045

A. Rossi, S. Moros, K. Dautenhahn, K. L. Koay and M. L. Walters, “Getting to know Kaspar : Effects of people’s awareness of a robot’s capabilities on their trust in the robot,” 2019 28th IEEE International Conference on Robot and Human Interactive Communication (RO-MAN), New Delhi, India, 2019, pp. 1-6, doi: 10.1109/RO-MAN46459.2019.8956470.

Alessandra Rossi, Patrick Holthaus, Kerstin Dautenhahn, Kheng Lee Koay, and Michael L. Walters. 2018. Getting to know Pepper: Effects of people’s awareness of a robot’s capabilities on their trust in the robot. In Proceedings of the 6th International Conference on Human-Agent Interaction (HAI ’18). Association for Computing Machinery, New York, NY, USA, 246–252. https://doi.org/10.1145/3284432.3284464

Robinette, P., Howard, A.M., Wagner, A.R. (2015). Timing Is Key for Robot Trust Repair. In: Tapus, A., André, E., Martin, JC., Ferland, F., Ammi, M. (eds) Social Robotics. ICSR 2015. Lecture Notes in Computer Science(), vol 9388. Springer, Cham. https://doi.org/10.1007/978-3-319-25554-5_57

Salem, Maha and Dautenhahn, K. (2015) Evaluating Trust and Safety in HRI : Practical Issues and Ethical Challenges. In: Emerging Policy and Ethics of Human-Robot Interaction : A Workshop at 10th ACM/IEEE Int Conf on Human-Robot Interaction (HRI 2015). ACM Press, USA.

Rossi, A., Dautenhahn, K., Koay, K.L., Walters, M.L. (2017). How the Timing and Magnitude of Robot Errors Influence Peoples’ Trust of Robots in an Emergency Scenario. In: Kheddar, A., et al. Social Robotics. ICSR 2017. Lecture Notes in Computer Science(), vol 10652. Springer, Cham. https://doi.org/10.1007/978-3-319-70022-9_5

A. Rossi, K. Dautenhahn, K.L. Koay and M.L. Walters, How Social Robots Influence People’s Trust in Critical Situations. The 29th IEEE International Conference on Robot & Human Interactive Communication, pp. 1020-1025, doi: 10.1109/RO-MAN47096.2020.9223471, ISSN: 1944-9437, Naples, Italy

A. Rossi, K. Dautenhahn, K.L. Koay and M.L. Walters, How Social Robots Influence People’s Trust in Critical Situations. The 29th IEEE International Conference on Robot & Human Interactive Communication, pp. 1020-1025, doi: 10.1109/RO-MAN47096.2020.9223471, ISSN: 1944-9437, Naples, Italy

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati