I progressi nell’intelligenza artificiale generativa e conversazionale hanno introdotto numerosi e potenzialmente potenti strumenti che coinvolgono gli utenti attraverso interfacce intuitive basate sulla conversazione.
Indice degli argomenti
Alle origini dell’interazione emotiva con l’intelligenza artificiale
Questi sistemi sono sempre più destinati a cogliere sfide sociali complesse, in particolare quelle relative al benessere mentale, alla vita emotiva e sentimentale e numerosi sono gli studi che mostrano come si possa entrare in una relazione emotiva con i chatbot fino ad influenzare le opinioni degli esseri umani, costituendo il fulcro di una potenziale manipolazione.
Grazie all’esperimento ELIZA[1] condotto negli anni ’60 al MIT – Massachusetts of Technology, sappiamo che un essere umano può provare spontaneamente emozioni, empatia e sentimenti nei confronti di un’IA che presenta caratteristiche antropomorfiche, ad esempio negli elementi del linguaggio.
Ricerche internazionali sui rapporti uomo-chatbot
Una ricerca dello Stanford Deliberative Democracy Lab ha condotto di recente una serie di sondaggi in collaborazione con Meta, intervistando 1.545 partecipanti di quattro paesi (Brasile, Germania, Spagna e Stati Uniti) per conoscere il loro pensiero sulle possibili conseguenze del rapporto amichevole o addirittura sentimentale tra umani e Intelligenza Artificiale.
Tra alcune delle domande a cui lo studio ha cercato di rispondere ci sono
- Quanto dovrebbero essere umani i chatbot dell’IA?
- Quali sono le preferenze degli utenti quando interagiscono con i chatbot AI?
- Quali caratteristiche umane dovrebbero essere off-limits per i chatbot AI?
- Le chatbot AI dovrebbero privilegiare l’originalità o la prevedibilità per evitare di offendere?
- I chatbot di intelligenza artificiale dovrebbero dare la priorità all’originalità o alla prevedibilità per evitare l’offesa?
Dall’analisi delle risposte, emerge che la stragrande maggioranza delle persone è favorevole a restrizioni sulle interazioni con l’IA, in modo che gli utenti non sviluppino relazioni romantiche con i bot, mentre c’è una divisione abbastanza equa di persone favorevoli e contrarie all’idea che le persone possano interagire con i chatbot dell’IA come vogliono, seppure sempre in modo legale.
Capacità persuasive e manipolative dei chatbot AI
Secondo uno degli ultimi studi pubblicati dall’Università di Cambridge, i chatbot potrebbero riuscire a prevedere e successivamente influenzare il nostro processo decisionale, con l’obiettivo di spingere gli utenti ad acquistare un determinato prodotto o a scegliere un partito politico o un altro.
I ricercatori del Leverhulme Centre for the Future of Intelligence di Cambridge sostengono che la significativa diffusione dell’intelligenza artificiale generativa e la nostra crescente familiarità con i chatbot aprono una nuova frontiera nell’ambito delle tecnologie persuasive. L’intelligenza artificiale con aspetti antropomorfi, che vanno dagli assistenti chatbot ai tutor digitali virtuali, ha accesso già adesso a una grandissima quantità di dati psicologici e comportamentali.
L’intelligenza artificiale generativa combina questi dati con le nostre abitudini online e il risultato finale è il riuscire a profilare l’utente con l’obiettivo di sintonizzarsi in modo da imitare le personalità e anticipando le risposte desiderate, per costruire livelli di fiducia e comprensione che consentono la manipolazione sociale su scala industriale. Lo studio pone alcuni casi che potranno verificarsi con il consolidamento dei chatbot di intelligenza artificiale. Tra questi per esempio un sistema che, basandosi sulle interazioni social, consiglia notizie e contenuti che confermano le opinioni e spingono a votare per un certo candidato politico.
Sviluppo autonomo di convenzioni sociali nell’AI
Uno studio pubblicato su Science Advances il 14 maggio 2025, condotto da ricercatori della City St George’s, University of London, e dell’IT University di Copenaghen, ha dimostrato che popolazioni di modelli linguistici di grandi dimensioni (LLM), simili a ChatGPT, possono sviluppare spontaneamente convenzioni sociali condivise attraverso l’interazione reciproca, senza intervento umano diretto. Lo studio ha dimostrato come i bias possono emergere non solo dai dati di addestramento e questo suggerisce la necessità di considerare le dinamiche di gruppo nei protocolli di sicurezza dell’AI. Secondo i ricercatori è cruciale cominciare a testare e studiare questi aspetti ancora oggi trascurati nel campo della sicurezza dell’AI.
Note
[1] L’effetto Eliza, concettualizzato da Joseph Weizenbaum negli anni ’60, descrive la tendenza delle persone ad attribuire comprensione, empatia e intelligenza a sistemi di intelligenza artificiale anche quando questi sono programmati con regole semplici. Weizenbaum sviluppò un programma chiamato Eliza, che simulava il ruolo di uno psicoterapeuta, rispondendo agli utenti con frasi basate su parole chiave e pattern linguistici. Sebbene Eliza non avesse una vera capacità di comprensione, molti utenti iniziarono a trattare il programma come se fosse un interlocutore empatico e comprensivo.