il genere dell’IA

Alexa è femmina e Siri anche: ecco perché ci fidiamo di più



Indirizzo copiato

Le tecnologie intelligenti vengono percepite con un genere specifico attraverso l’antropomorfismo. Questa proiezione influenza fiducia, empatia e motivazione degli utenti. Il design che incorpora segnali di genere modella l’interazione uomo-macchina, riproducendo talvolta stereotipi sociali consolidati

Pubblicato il 4 dic 2025

Chiara Cilardo

Psicologa psicoterapeuta, esperta in psicologia digitale



Alexa plus (1) genere delle tecnologie intelligenti

Il genere delle tecnologie intelligenti è una dimensione spesso invisibile ma potente che modella il nostro rapporto con robot, assistenti vocali e sistemi di intelligenza artificiale.

L’antropomorfismo e la proiezione del genere nelle tecnologie

Quando ringraziamo un assistente vocale, quando ci rivolgiamo a un assistente con tono cortese o quando ci sembra che un sistema di intelligenza artificiale comprenda ciò che gli chiediamo, la tecnologia comincia a sembrarci “umana” e scatta un meccanismo di riconoscimento: tendiamo ad attribuirle un genere. In quei momenti la tecnologia entra nel nostro spazio sociale e comincia a occupare un ruolo relazionale (Yoo et al., 2024).

La robotica sociale fa leva anche su questo principio: rendere la tecnologia più intuitiva attraverso l’antropomorfismo, cioè la tendenza ad attribuire caratteristiche umane a oggetti o software. Ma l’antropomorfismo non è neutrale (Zhu & Zheng, 2025). Nel momento in cui umanizziamo una macchina, trasferiamo anche i codici sociali che definiscono l’umano; il genere è uno di questi.

Anche se le tecnologie non hanno un genere, tendiamo automaticamente ad attribuirgliene uno. E questa proiezione influenza la fiducia, l’empatia e perfino la disponibilità a impegnarci in compiti complessi. Non è un semplice effetto estetico o di puro design ma una dinamica psicologica che orienta la motivazione e il comportamento (Dennler et al., 2025).

Come percepiamo il genere degli assistenti virtuali

Quando una tecnologia ci appare più umana, non reagiamo tanto alle sue capacità, quanto ai significati culturali che proiettiamo su di essa: aspettative, ruoli e schemi che guidano la nostra percezione sociale (Yoo et al., 2024).

Siri, Alexa e Cortana sono esempi di come molte tecnologie assistive e agenti virtuali siano stati progettati con caratteristiche percepite come femminili, a partire dal nome e dal tono di voce. Questa scelta progettuale risponde a un principio funzionale: la “femminilità” comunicativa tende a ridurre la distanza emotiva e a facilitare la collaborazione tra utenti e sistemi. Le ricerche mostrano che il genere percepito non dipende da un singolo elemento, ma da una combinazione di fattori visivi, sonori e contestuali (Dennler et al., 2025). Una stessa macchina può apparire femminile o maschile a seconda della voce, dell’abbigliamento virtuale o del contesto operativo. Il genere, quindi, non è una proprietà intrinseca della tecnologia, ma il risultato di un processo percettivo. È l’interazione tra segnali di design e aspettative sociali a determinare come l’utente interpreta la macchina. Progettare il “genere” di un sistema è quindi una scelta deliberata che modella la relazione cognitiva e affettiva tra persone e tecnologie (Zhang et al., 2025).

Genere percepito e collaborazione nei compiti complessi

Diversi esperimenti di interazione uomo–robot mostrano che le persone affrontano compiti impegnativi con maggiore facilità quando collaborano con una tecnologia percepita come femminile (Zhu & Zheng, 2025).

Il punto non sono gli attributi della macchina, identici in ogni condizione, ma il modo in cui il loro genere viene interpretato: se percepite come femminili sono considerate più affidabili, empatiche e collaborative, tutte caratteristiche che riducono l’ansia da prestazione e aumentano la fiducia nelle proprie capacità (Zhu & Zheng, 2025). Questo effetto non dipende dal genere in sé, ma dai segnali che lo evocano (tono di voce, ritmo, postura, nome) i quali attivano schemi percettivi associati a calore e cooperazione (Dennler et al., 2025). Questi segnali riducono la tensione, rafforzano la fiducia e rinforzano la disponibilità a impegnarsi in attività complesse. Alla base della dinamica c’è la fiducia: il meccanismo che trasforma la tecnologia da semplice strumento a partner di interazione.

Non nasce da prove di competenza, ma da indizi che la mente interpreta come familiari. Quando la tecnologia assume tratti percepiti come femminili, questi indizi evocano vicinanza e collaborazione, generando un effetto motivazionale (Zhang et al., 2025). Dettagli apparentemente minimi di progettazione possono quindi influenzare non solo l’estetica dell’interazione, ma anche il modo in cui le persone si relazionano alla tecnologia e ciò che si aspettano da essa.

Oltre il binarismo: verso un design tecnologico inclusivo

Progettare una tecnologia significa, in fondo, progettare anche una rappresentazione dell’essere umano. Quando i sistemi vengono sviluppati per rispecchiare ruoli sociali tradizionali, finiscono per riflettere e a volte amplificare le stesse asimmetrie presenti nella società che li produce (Zhang et al., 2025). Voci femminili programmate per essere gentili, posture deferenti negli assistenti virtuali o nomi maschili assegnati alle tecnologie di comando: ogni dettaglio contribuisce a riprodurre in forma digitale lo stesso schema di genere che organizza la vita sociale (Zhu & Zheng, 2025).

Una possibile direzione è superare il binarismo di genere nel design tecnologico introducendo forme di neutralità o ambiguità controllata. Un’interfaccia, una voce sintetica o un assistente digitale che non rimandano a un genere specifico riducono la tendenza a proiettare stereotipi e incentivano interazioni più paritarie. La questione non è eliminare il genere ma disattivarne il potere di bias percettivo: permettere alle persone di valutare la tecnologia per ciò che fa, non per come appare.

Il design inclusivo, oltre a una scelta etica, è anche una strategia funzionale. Tecnologie percepite come neutre risultano più adattabili a contesti differenti e generano meno resistenze emotive: in questo senso, la neutralità diventa una forma di efficienza cognitiva (Dennler et al., 2025).

È probabile che continueremo a riconoscere qualcosa di umano negli artefatti intelligenti. La differenza starà nel tipo di umanità che scegliamo di trasferire: quella che ripete il passato o quella che prova a superarlo. In questa decisione, più che nella potenza di calcolo, si misura il vero livello di intelligenza, nostra e delle macchine.


Bibliografia

Dennler, N., Kian, M., Nikolaidis, S., & Matarić, M. (2025). Designing robot identity: The role of voice, clothing, and task on robot gender perception. International Journal of Social Robotics, 1-22.

Yoo, Y., Jung, J., Kang, C., Kim, H., & Jun, S. (2024). Do Computers Have Gender Roles?: Investigating Users’ Gender Role Stereotyping of Anthropomorphized Voice Agents. Archives of Design Research, 37(1), 123-136.

Zhang, W., Pantano, E., & Slade, E. L. (2025). Gendered Anthropomorphized AI in Customer Services. In Encyclopedia of Artificial Intelligence in Marketing (pp. 1-6). Cham: Springer Nature Switzerland.

Zhu, Y., Su, L., & Zheng, L. (2025). Gendered anthropomorphism in human–robot interaction: the role of robot gender in human motivation in task contexts. Frontiers in Psychology, 16, 1593536.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati