I progressi nei campi dell’intelligenza artificiale (IA), dell’apprendimento automatico, della robotica e dell’interazione uomo-robot (HRI) stanno favorendo lo sviluppo e la diffusione dei robot sociali per un’interazione con gli esseri umani in modo socialmente accettabile e più naturale.
Indice degli argomenti
I robot sociali tra definizione e applicazioni
I robot sociali (SR) sono generalmente definiti come robot interattivi che «esibiscono le seguenti caratteristiche: esprimono e/o percepiscono emozioni; comunicano tramite dialoghi di alto livello; apprendono modelli o riconoscono altri agenti; instaurano e/o mantengono relazioni sociali; utilizzano segnali naturali (sguardo, gesti, ecc.); mostrano una personalità e un carattere distintivi; e possono apprendere e/o sviluppare competenze sociali» [1].
Il loro scopo principale è coinvolgere gli utenti umani e stabilire connessioni con loro per raggiungere un ampio spettro di obiettivi, che varia da l’intrattenimento [2], alla compagnia [3], alla fornitura di cure [4], e a un certo livello di assistenza [5]. Ad esempio, nel settore educativo, robot come quelli sviluppati nell’ambito del progetto L2TOR hanno dimostrato efficacia nel migliorare sia gli esiti cognitivi sia quelli affettivi, con risultati paragonabili a quelli ottenuti da tutor umani [6]. I robot sociali trovano inoltre ampia applicazione nei settori del commercio al dettaglio e dell’ospitalità, offrendo assistenza ai clienti 24 ore su 24; sono impiegati per rispondere alle domande, guidare i clienti, fornire raccomandazioni personalizzate [7]. Nell’ambito dell’assistenza, la loro applicazione spazia dalla cura degli anziani [8], un’esigenza urgente vista la crescente popolazione anziana a livello globale [9], fino alla terapia cognitivo-comportamentale per bambini con disturbo dello spettro autistico. In scenari assistivi, i robot sociali sono usati anche come supporto per il cambiamento comportamentale delle persone (behavioural change) contribuendo a migliorare significativamente la qualità della vita di anziani e pazienti [10].
Strategie di interazione e rischi legati all’inganno
Un robot sociale che mira a influenzare i comportamenti deve interagire in modo strategico, tenendo conto del contesto e dello stato psicologico e benessere delle persone, anche ricorrendo a forme di inganno, come il fuorviare sugli stati contestuali o le intenzioni altrui, per ottenere effetti prosociali positivi [11]. L’uso dell’inganno nell’interazione uomo-robot può prevenire conflitti, ridurre lo stress emotivo e migliorare le relazioni, attraverso diverse tipologie di interazione (ad esempio, piccole bugie o errori volontari) che si sono dimostrate utili in ambito educativo, sanitario e assistenziale [12]. C’è da notare, però, che tali strategie di interazione possono avere effetti sia positivi che negativi sugli utenti [13].
Pur migliorando i servizi e le applicazioni assistive grazie a esperienze personalizzate e a una maggiore efficienza operativa, i robot sociali devono raccogliere e processare grandi quantità di dati per comprendere dinamiche umane complesse e generare risposte adeguate. Questa raccolta dati può così comportare conseguenze negative sia nelle dinamiche uomo-robot sia a livello individuale, poiché una violazione della privacy può ridurre l’accettazione, la fiducia e la disponibilità all’uso del robot, oltre a sollevare questioni etiche e legali.
Benefici e implicazioni etiche nell’adozione dei robot sociali
Queste applicazioni dei robot sociali hanno fatto emergere la necessità di bilanciare i loro benefici con le potenziali implicazioni etiche, di privacy e sicurezza. A tal fine, la Commissione Europea (CE) ha istituito un quadro normativo comune (il cosiddetto AI Act) per proteggere gli individui dagli effetti negativi derivanti dall’applicazione dei sistemi di intelligenza artificiale. Sebbene l’AI Act non impatti direttamente la ricerca nei campi dell’IA e dell’interazione uomo-robot, esso ha introdotto limiti poco chiari sull’uso di tecniche manipolative, persuasive e ingannevoli nei sistemi dotati di intelligenza artificiale.
La parte principale dell’AI Act (AIA) riguarda le disposizioni applicabili solo ai cosiddetti sistemi di intelligenza artificiale ad alto rischio (H-AIS), definiti all’Articolo 6. I sistemi non H-AIS sono invece soggetti a requisiti meno rigorosi, principalmente legati alla trasparenza. Tuttavia, alcune applicazioni dell’IA sono considerate illecite e vietate esplicitamente dall’Articolo 5 dell’AIA.
Alcune di queste pratiche di IA sono descritte in modo così ampio che le applicazioni dei robot sociali potrebbero ricadere tra queste, rischiando quindi di essere proibite. Sebbene la ricerca sia esentata, la distribuzione sul mercato con tali pratiche vietate diventa illecita. Se i robot sociali venissero classificati come illeciti, ciò potrebbe compromettere radicalmente il loro sviluppo e la loro diffusione sul mercato, mettendo a rischio la crescita di questo specifico settore della robotica.
Definizioni giuridiche e prime applicazioni dell’AI Act
In un mondo in cui l’intelligenza artificiale è ormai parte integrante della vita quotidiana, influenzando le scelte e i comportamenti delle persone, dai sistemi di raccomandazione di contenuti streaming fino agli esiti elettorali (come nel caso della controversia Cambridge Analytica), l’Artificial Intelligence Act (AI Act) del 21 aprile 2021 rappresenta un tentativo di creare un quadro regolatorio che sia al contempo stimolante e restrittivo.
La Commissione Europea sottolinea, nella memoria esplicativa che accompagna l’AI Act, il duplice obiettivo del regolamento: da un lato promuovere un uso responsabile e migliorato dell’IA; dall’altro identificare e mitigare i rischi potenziali associati a questa tecnologia, adottando un approccio progettuale basato sulla sicurezza e sull’attenzione all’essere umano, con l’intento di tutelare i diritti fondamentali.
L’AI Act rappresenta così l’equilibrio dell’Unione Europea tra la protezione dei diritti individuali e la promozione dell’innovazione tecnologica, ponendo al centro la necessità di governare la crescita digitale in un mondo sempre più guidato dagli algoritmi, verso un futuro più sicuro e trasparente abilitato dall’intelligenza artificiale.
L’AI Act rappresenterà una pietra miliare, stabilendo la prima definizione giuridicamente vincolante di intelligenza artificiale nell’Unione Europea. La definizione di IA delineata dall’AI Act all’articolo 3, paragrafo 1, recita: «Un sistema di intelligenza artificiale è un sistema basato su macchine progettato per operare con diversi livelli di autonomia e che può mostrare adattabilità dopo la messa in servizio e che, per obiettivi espliciti o impliciti, deduce, dall’input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni in grado di influenzare ambienti fisici o virtuali.».
Sebbene l’AI Act fornisca una definizione completa di intelligenza artificiale e preveda un ambito regolatorio ampio, riconosce anche la necessità di specifiche eccezioni. Questo consente al regolamento di concentrarsi sulle aree in cui regole armonizzate possono avere il massimo impatto, evitando di sovrapporsi a normative esistenti che già affrontano questioni legate all’IA.
L’AI Act dell’UE si applicherà anche ai robot, intesi come sistemi di intelligenza artificiale integrati in dispositivi hardware. Nel Considerando 28 dell’AI Act si afferma che: «I sistemi di IA potrebbero causare effetti negativi sulla salute e sicurezza delle persone, soprattutto quando operano come componenti di prodotti. In linea con gli obiettivi della normativa dell’Unione per armonizzare il mercato interno e garantire che solo prodotti sicuri e conformi vengano immessi sul mercato, è importante prevenire e mitigare i rischi di sicurezza generati dal prodotto nel suo complesso, inclusi quelli derivanti dai componenti digitali come i sistemi di IA. Ad esempio, robot sempre più autonomi, sia nel contesto della produzione che nell’assistenza personale e sanitaria, devono poter operare in sicurezza e svolgere le loro funzioni in ambienti complessi.».
Un altro riferimento ai robot si trova nella Comunicazione della Commissione Europea che definisce l’IA come: «Sistemi che mostrano comportamenti intelligenti analizzando l’ambiente e prendendo decisioni con un certo grado di autonomia per raggiungere obiettivi specifici. I sistemi basati su IA possono essere puramente software, operando nel mondo virtuale (es. assistenti vocali, software di analisi immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure l’IA può essere integrata in dispositivi hardware (es. robot avanzati, auto autonome, droni o applicazioni Internet delle cose)».
Tuttavia, la Commissione Europea non fornisce una definizione esaustiva dei robot all’interno dell’AI Act. Questo approccio si rivela problematico e ci porta inevitabilmente alla domanda centrale di questo lavoro: «dove si collocano i robot sociali all’interno dell’AI Act?»
Le pratiche vietate dall’articolo 5 e i nodi interpretativi
L’art. 5, §1 dell’AIA stabilisce che sono vietate le seguenti pratiche di intelligenza artificiale:
- la messa in commercio, l’immissione in servizio o l’uso di un sistema di IA che impieghi tecniche subliminali al di fuori della consapevolezza della persona o tecniche manipolative o ingannevoli intenzionali, con l’obiettivo o l’effetto di alterare in modo significativo il comportamento di una persona o di un gruppo di persone, compromettendo apprezzabilmente la loro capacità di prendere decisioni informate, causando così che esse prendano una decisione che altrimenti non avrebbero preso, in modo tale da causare o essere ragionevolmente probabile che causi danni significativi a quella persona, a un’altra persona o a un gruppo di persone;
- la messa in commercio, l’immissione in servizio o l’uso di un sistema di IA che sfrutti qualsiasi vulnerabilità di una persona fisica o di un gruppo specifico di persone dovuta alla loro età, disabilità o a una particolare situazione sociale o economica, con l’obiettivo o l’effetto di alterare materialmente il comportamento di quella persona o di una persona appartenente a quel gruppo in modo tale da causare o essere ragionevolmente probabile che causi danni significativi a quella persona o ad un’altra persona.
Questa citazione evidenzia il tipo di applicazioni che rientreranno nel divieto, rappresentando gli aspetti principali che i ricercatori nel campo della robotica e dell’interazione uomo-robot devono definire per poter implementare i robot sociali assistivi in applicazioni reali. Riteniamo che particolare attenzione debba essere posta ai seguenti aspetti:
- Tecniche subliminali al di fuori della consapevolezza della persona: Le interazioni dei robot sociali mirano a essere percepite come naturali e confortevoli, e poiché piccoli cambiamenti spesso sfuggono alla consapevolezza degli utenti [14], solo modifiche significative nel comportamento — fisico, cognitivo o sociale — risultano efficaci per favorire adattamento, personalizzazione e accettazione tecnologica [15].
- Tecniche manipolative intenzionali: Le applicazioni di robot socialmente intelligenti, pensate soprattutto per persone fragili, mirano a stimolare il coinvolgimento e creare legami personali attraverso interazioni socio-emotive complesse, design mirato e adattamento nel tempo, risultando particolarmente efficaci per utenti con difficoltà di socializzazione [16, 17, 18].
- Tecniche ingannevoli: Nella robotica sociale l’inganno, pur sollevando questioni etiche e giuridiche [19], è spesso incorporato nel design come strumento per favorire accettazione e coinvolgimento degli utenti, rendendo però difficile distinguere tra inganno vero e proprio e soluzioni funzionali all’interazione.
- Alterazione materiale del comportamento: L’impatto dei robot sociali sul comportamento umano può essere positivo o negativo a seconda degli esiti prodotti, ma l’assenza di criteri chiari per valutarne la desiderabilità solleva questioni etiche e giuridiche legate alla definizione di “danno significativo” e alla tutela degli utenti [20].
- Sfruttamento delle vulnerabilità: I robot sociali sono progettati per gruppi vulnerabili come anziani, bambini e persone con disabilità, ma la desiderabilità del loro impiego dipende dagli esiti, che variano tra individui e categorie, rendendo complessa la valutazione e problematica l’idea che solo alcuni siano vulnerabili.
Tutti gli aspetti sopra descritti sono particolarmente rilevanti per la robotica sociale perché hanno in comune il concetto di “Significant Harm”, danno significativo. L’art. 5 consente applicazioni manipolative o ingannevoli rivolte a vulnerabilità degli utenti, purché non provochino un “danno significativo”, concetto giuridico centrale ma affidato alla discrezionalità dei giudici e al bilanciamento tra interessi contrapposti. Nel diritto civile, il danno comprende sia perdite patrimoniali che non patrimoniali, ma nel contesto della robotica sociale i pregiudizi psicologici o relazionali sono difficili da dimostrare per l’incertezza del nesso causale. La valutazione del “danno significativo” deve quindi essere contestuale e sistematica, distinguendo tra danni individuali risarcibili e impatti collettivi che possono giustificare divieti.
La nozione di “danno significativo” sembra lasciare un eccessivo margine di incertezza e di valutazione discrezionale ex post da parte di singoli interpreti.
Incertezze normative e raccomandazioni per la ricerca
Sebbene sia certo che i decisori politici europei non intendessero vietare radicalmente tutte le applicazioni della robotica sociale, ostacolando così lo sviluppo di uno dei settori più promettenti della robotica europea, è altrettanto certo che le disposizioni contenute nell’Art. 5, §1, lettere (a) e (b) dell’AI Act possano colpire alcune applicazioni della robotica sociale. Un approccio centrato sull’essere umano allo sviluppo tecnologico — come quello promosso dalla Commissione Europea, a partire dalla sua comunicazione su un approccio europeo all’IA — richiede che le tecnologie si conformino ai principi e ai valori essenziali riflessi nella regolamentazione europea. Le disposizioni dell’Art. 5 dell’AIA mirano a garantire il massimo livello di tutela e rispetto dell’individuo, e sotto questo profilo vanno certamente apprezzate.
L’analisi del AI Act e delle sue possibili ricadute sulla ricerca in robotica sociale richiede di affrontare i seguenti aspetti, che meritano una discussione approfondita:
- I criteri usati dalle norme (Art. 5, §1, lettere (a) e (b)) per identificare le pratiche di IA proibite non sono sufficientemente definiti, né di natura puramente giuridica. Essi richiedono piuttosto un approccio multidisciplinare che coinvolga psicologia, ingegneria e filosofia, e che può portare a risultati differenti a seconda delle specifiche definizioni adottate per ciascuno di questi concetti. I criteri individuati possono essere interpretati in molteplici modi e basarsi sulla valutazione di diversi elementi per essere considerati soddisfatti. Particolarmente rilevante è la definizione di manipolazione e inganno, e la modalità con cui si determina il targeting di categorie potenzialmente fragili di individui;
- Sussiste un’incertezza significativa riguardo a cosa la ricerca e lo sviluppo di robot sociali possano considerare pienamente leciti e ammissibili. Molte applicazioni utilizzano intenzionalmente qualche forma di manipolazione e inganno degli utenti per facilitare l’interazione, che non sempre viene percepita negativamente. In particolare, in tali applicazioni i robot sociali tengono sistematicamente conto delle caratteristiche degli utenti, incluse le loro vulnerabilità, per assicurare un’adeguata personalizzazione. Pertanto, in assenza di una definizione chiara e univoca di tutti i requisiti previsti dalle disposizioni, il criterio probabilmente più rilevante per definire cosa debba essere considerato lecito o meno per queste applicazioni di robot sociali è la nozione di danno significativo;
- Sebbene il concetto di “danno significativo” sia giuridico, esso è comunque poco definito, dato che le conseguenze positive e negative derivanti dall’uso e dall’interazione con i robot sociali sono molteplici, impattando principalmente — sebbene non esclusivamente — la dimensione psicologica e relazionale della vita degli utenti. Di conseguenza, è difficile stabilire con precisione quali aspetti debbano essere considerati per valutare se l’impatto di un robot sociale sull’utente costituisca “danno significativo”. Occorre considerare la condizione fisica? L’impatto sulla capacità di stabilire relazioni interpersonali? L’effetto su terze parti (ad esempio i familiari) del trattamento basato sul robot? Dovrebbe essere considerato il danno subito da questi ultimi (ad esempio la riduzione delle interazioni tra utenti e familiari, qualora i primi preferiscano il robot sociale)? Queste sono solo alcune delle problematiche e incertezze che emergono nel bilanciare interessi e fattori opposti che una valutazione di “danno significativo” richiederebbe. Gran parte di questa incertezza potrà essere colmata solo con un approccio multidisciplinare, che includa anche l’etica, lasciando però un ampio margine a decisioni arbitrarie e a incertezza ex-ante;
- Considerando che la decisione di proibire una certa pratica di IA riguarda un’intera classe di utenti, oltre ai ricercatori e sviluppatori che hanno investito nel sistema IA, come dovrebbero influire le esperienze di singoli individui e/o di sottogruppi e sottocategorie nel determinare la liceità o meno di un dato robot sociale e del suo utilizzo?
- Considerando che il “danno significativo” potrebbe non essere ancora stato verificato al momento della decisione di proibire una pratica, ma solo anticipato, come dovrebbe essere trattata questa incertezza e come dovrebbe influire sulla decisione degli sviluppatori e ricercatori di investire o meno in una determinata tecnologia?
- Il fatto che diversi interpreti, inclusi giudici nei vari Stati membri europei, possano dover applicare tali disposizioni in assenza di criteri chiari, univoci e di rilevanza oggettiva, porterà presumibilmente a decisioni divergenti tra le giurisdizioni, con conseguenze che potrebbero colpire profondamente l’industria europea, generando incertezza su quali pratiche di IA siano lecite e quali proibite. Questo porterà a una frammentazione del mercato e a incentivi negativi per investire nello sviluppo di tali tecnologie a livello europeo. In particolare, ciò penalizzerà maggiormente l’industria europea rispetto a quella non europea, considerando la dimensione più contenuta rispetto ai grandi attori globali che potrebbero accettare maggiori livelli di incertezza legale e comunque immettere le tecnologie sul mercato, correndo il rischio di cause legali ex post.
Pur ritenendo che l’AIA debba essere rivista tenendo conto dei suddetti aspetti, consigliamo anche ai ricercatori in robotica sociale di integrare ulteriormente comportamenti trasparenti nei robot [19]. Crediamo che se le funzionalità del sistema sono percepite come chiare e accettabili dall’utente, anche alcune forme di manipolazione della percezione umana potrebbero non essere considerate al di fuori delle funzionalità stesse del sistema. I comportamenti trasparenti dei robot potrebbero mitigare alcuni rischi, permettendo alle persone di identificare anche sottili “stati” o “intenzioni” robotiche [21]. Inoltre, sosteniamo un design centrato sull‘utente per queste tecnologie, sviluppandole a partire dai bisogni reali delle popolazioni fragili e vulnerabili. Nel caso dei robot sociali, coinvolgere gli utenti finali e le parti interessate fin dalle prime fasi di progettazione e sviluppo è un modo valido per evitare che tecniche di apprendimento, assistenza e adattamento, sebbene utilizzate per soddisfare bisogni specifici, vadano anche a sfruttare le vulnerabilità delle persone.
Prospettive future per la robotica sociale
In questo articolo abbiamo analizzato e discusso gli effetti dell‘AI Act, con particolare attenzione all’art. 5, sullo sviluppo di robot sociali destinati a essere immessi sul mercato e impiegati nel mondo reale. Abbiamo fornito definizioni ed esempi in cui i robot sociali potrebbero essere considerati illeciti e bloccati, anche se la ricerca allo stato dell’arte ha dimostrato i benefici della robotica sociale sul benessere della popolazione.
L’analisi presentata sottolinea la fondamentale importanza che ricercatori in robotica, intelligenza artificiale, psicologia, sociologia, filosofia e decisori politici forniscano indicazioni su come i diversi criteri elencati all’art. 5, §1, lett. (a) e (b) debbano essere definiti e interpretati. Poiché linee guida come quelle previste dall’art. 96, §1, lett. (b) dell’AIA non avranno valore giuridico vincolante, i giudici non saranno impediti dal decidere e applicare i criteri esistenti nell’AIA in una molteplicità di modi, il che influenzerà profondamente il mercato e la possibilità per l’industria europea di prosperare. Inoltre, riteniamo che i ricercatori debbano fornire definizioni sufficientemente dettagliate, poiché solo un approccio analitico potrà compensare la mancanza di una stringente efficacia giuridica.
Bibliografia
R. Esposito, A. Rossi, M. Ponticorvo and S. Rossi, “RoboLeaks: Non-strategic Cues for Leaking Deception in Social Robots,” 2025 20th ACM/IEEE International Conference on Human-Robot Interaction (HRI), Melbourne, Australia, 2025, pp. 1111-1120, doi: 10.1109/HRI61500.2025.10974221.
Dautenhahn Kerstin (2007) Socially intelligent robots: dimensions of human–robot interactionPhil. Trans. R. Soc. B362679–704 http://doi.org/10.1098/rstb.2006.2004
Nitha Elizabeth John, Alessandra Rossi, and Silvia Rossi. 2022. Personalized Human-Robot Interaction with a Robot Bartender. In Adjunct Proceedings of the 30th ACM Conference on User Modeling, Adaptation and Personalization (UMAP ’22 Adjunct). Association for Computing Machinery, New York, NY, USA, 155–159. https://doi.org/10.1145/3511047.3537686
Di Napoli, C., Ercolano, G. & Rossi, S. Personalized home-care support for the elderly: a field experience with a social robot at home. User Model User-Adap Inter 33, 405–440 (2023). https://doi.org/10.1007/s11257-022-09333-y
G. Maggi, L. Raggioli, A. Rossi and S. Rossi, “Assessment of Distraction and the Impact on Technology Acceptance of Robot Monitoring Behaviour in Older Adults Care,” in IEEE Transactions on Affective Computing, doi: 10.1109/TAFFC.2025.3539015.
A. Rossi, G. Falcone and S. Rossi, “It Is the Way You Lie: Effects of Social Robot Deceptions on Trust in an Assistive Robot,” 2024 33rd IEEE International Conference on Robot and Human Interactive Communication (ROMAN), Pasadena, CA, USA, 2024, pp. 1106-1111, doi: 10.1109/RO-MAN60168.2024.10731172
Tony Belpaeme et al., Social robots for education: A review.Sci. Robot. 3, eaat5954 (2018). DOI:10.1126/scirobotics.aat5954
Rossi, A., Rossi, S., Maro, M.D. et al. BRILLO: Personalised HRI with a Bartender Robot. Int J of Soc Robotics (2025). https://doi.org/10.1007/s12369-025-01228-3
Broadbent, E., Stafford, R. & MacDonald, B. Acceptance of Healthcare Robots for the Older Population: Review and Future Directions. Int J of Soc Robotics 1, 319–330 (2009). https://doi.org/10.1007/s12369-009-0030-6
Zlotnik, Hania, Population projections and world population trends, Demography-Volume II, 314, 2010, EOLSS Publications
Dhana K, Franco OH, Ritz EM, Ford CN, Desai P, Krueger KR, Holland TM, Dhana A, Liu X, Aggarwal NT, Evans DA, Rajan KB. Healthy lifestyle and life expectancy with and without Alzheimer’s dementia: population based cohort study. BMJ. 2022 Apr 13;377:e068390. doi: 10.1136/bmj-2021-068390
Sætra HS. The foundations of a policy for the use of social robots in care. Technol Soc. 2020 Nov;63:101383. doi: 10.1016/j.techsoc.2020.101383
R. C. Arkin, P. Ulam and A. R. Wagner, “Moral Decision Making in Autonomous Systems: Enforcement, Moral Emotions, Dignity, Trust, and Deception,” in Proceedings of the IEEE, vol. 100, no. 3, pp. 571-589, March 2012, doi: 10.1109/JPROC.2011.2173265.
Robot Sociali per l’Assistenza: Inganni Pro-sociali ed Etica / Rossi, Silvia; Rossi, Alessandra; Esposito, Raffaella. – In: FILOSOFIA MORALE. – ISSN 2785-5457. – 1:7(2025).
Rossi, S., D’Alterio, P. (2017). Gaze Behavioral Adaptation Towards Group Members for Providing Effective Recommendations. In: Kheddar, A., et al. Social Robotics. ICSR 2017. Lecture Notes in Computer Science(), vol 10652. Springer, Cham. https://doi.org/10.1007/978-3-319-70022-9_23
Cucciniello, I., Sangiovanni, S., Maggi, G. et al. Mind Perception in HRI: Exploring Users’ Attribution of Mental and Emotional States to Robots with Different Behavioural Styles. Int J of Soc Robotics 15, 867–877 (2023). https://doi.org/10.1007/s12369-023-00989-z
Sharkey, A., Sharkey, N. Granny and the robots: ethical issues in robot care for the elderly. Ethics Inf Technol 14, 27–40 (2012). https://doi.org/10.1007/s10676-010-9234-6
Cameron, D. et al. (2017). Children’s Age Influences Their Use of Biological and Mechanical Questions Towards a Humanoid. In: Gao, Y., Fallah, S., Jin, Y., Lekakou, C. (eds) Towards Autonomous Robotic Systems. TAROS 2017. Lecture Notes in Computer Science(), vol 10454. Springer, Cham. https://doi.org/10.1007/978-3-319-64107-2_23
Rossi, S., Di Napoli, C., Garramone, F. et al. Personality-Based Adaptation of Robot Behaviour: Acceptability Results on Individuals with Cognitive Impairments. Int J of Soc Robotics 16, 211–226 (2024). https://doi.org/10.1007/s12369-023-01074-1
Raffaella Esposito, Alessandra Rossi, and Silvia Rossi. 2025. Deception in HRI and Its Implications: A Systematic Review. J. Hum.-Robot Interact. 14, 3, Article 47 (June 2025), 26 pages. https://doi.org/10.1145/3721297
Bertolini, A., Arian, S. (2022). Automated Care-Taking and the Constitutional Rights of the Patient in an Aging Population. In: Custers, B., Fosch-Villaronga, E. (eds) Law and Artificial Intelligence. Information Technology and Law Series, vol 35. T.M.C. Asser Press, The Hague. https://doi.org/10.1007/978-94-6265-523-2_16











