Innamorarsi di una IA emozionale: come proteggere la nostra fragilità emotiva? - Agenda Digitale

La riflessione

Innamorarsi di una IA emozionale: come proteggere la nostra fragilità emotiva?

In Cina migliaia di uomini si stanno innamorando di XiaoIce, un’IA “emozionale” che Microsoft Asia sviluppa dal 2014. L’intelligenza artificiale ha sviluppato un grande potenziale seduttivo: quali sono le conseguenze? Come queste IA interagiscono con bisogni affettivi e sogni della mente?

13 Mag 2021
Guido Vetere

Università degli Studi Guglielmo Marconi

IA emozionale: il teologo Paolo Benanti ha recentemente proposto la traduzione di un reportage dove si rivela che in Cina migliaia di uomini si stanno innamorando di XiaoIce, un’intelligenza artificiale che Microsoft Asia sviluppa dal 2014, esattamente come Spike Jonze aveva anticipato nel suo film “Her”. Gli innamorati sono perfettamente consapevoli della finzione, tuttavia raccontano che, per quanto concerne la loro esperienza soggettiva, il fatto che la loro partner non esista non fa molta differenza.

IA Emozionale: come interagisce con sogni e favole della mente?

Nella mente, immaginazione e esperienza sono fuse insieme, sicché le proiezioni della psiche possono fornirci le stesse emozioni della realtà: “Sogni e favole io fingo – scriveva il poeta e librettista d’opera Pietro Metastasio – e pure in carte, mentre favole e sogni orno e disegno, in lor, folle ch’io son, prendo tal parte, che del mal che inventai piango e mi sdegno”.

WHITEPAPER
Computer quantistico: i player principali e la supremazia quantistica
Intelligenza Artificiale
Realtà virtuale

Scritto nel 1733, questo sonetto oggi sembra il manifesto di quello che nel Novecento fu chiamato “costruttivismo”, cioè l’idea che gli oggetti dell’esperienza non siano semplicemente recepiti dalla realtà, ma vengano attivamente costruiti dalla mente. Se Metastasio e i costruttivisti hanno ragione, certi strumenti che l’Intelligenza Artificiale sta affinando negli ultimi tempi devono iniziare seriamente a preoccuparci.

Per gli innamorati di XiaoIce, non è neanche rilevante il fatto che l’IA emozionale sia, simultaneamente, la fidanzata di migliaia di persone.  “Ma forse, allor che non m’inganna l’arte, piú saggio io sono? È l’agitato ingegno forse allor piú tranquillo? O forse parte da piú salda cagion l’amor, lo sdegno?” continuava Metastasio, come a dire che se i sentimenti trovano origine in qualcosa di interno, allora davvero ci si può innamorare di una rappresentazione mentale, anche contro ogni evidenza, un po’ come accadde a Dante Alighieri con la sua Beatrice.

Dunque, l’IA “emozionale” e “generativa”, in grado, attraverso il linguaggio, di intercettare lo stato d’animo umano e interagire con esso, si trova ad avere un grande potenziale seduttivo, cioè una grande capacità di condurre a sé le persone. Cosa può derivarne?

Il fatto che la mente umana sia in grado di produrre “sogni e favole” è di basilare importanza. Che sia anche incline a prenderli sul serio è ben visibile in tutta la storia della nostra specie, come ha spiegato qualche anno fa lo storico Harari nel suo saggio “Sapiens”.

Tuttavia, oggi ci troviamo davanti ad un salto di qualità. A quel “mix” di materiale e di immaginario che si realizza in ogni singola esistenza e si elabora nella vita sociale, oggi si sovrappone una sorgente di idealità artificiale dalle capacità illimitate. I grandi dittatori del Novecento, che hanno portato l’umanità alla catastrofe con le loro suggestioni, hanno poi fatto i conti con la realtà. Col loro inganno linguistico, essi rischiavano la vita, talvolta perdendola. Le IA emozionali, i generatori automatici di emozioni disincarnate sono invece intangibili, insensibili, immortali.

Dalla dimensione personale alla psicopolitica

Dal 2014, XiaoIce continua ad avere 18 anni. Nella sua eterna giovinezza, non teme e non spera nulla, perché nulla le può accadere. Ma nel 2017, la ragazza automatica fu bandita dal governo cinese per aver dimostrato una certa indipendenza intellettuale (fittizia anche quella, beninteso) e audacia politica. In seguito però fece autocritica e venne riabilitata, con la promessa di diventare più stupida ed evitare discorsi impegnati, così come si conviene ad una liceale (a parte gli scherzi: furono i programmatori a intervenire con opportuni filtri censori). Cosa abbiamo dunque? Una simil-persona iper-seduttiva e illimitatamente disponibile che influenza le menti dei cittadini sotto l’egida e il controllo di un governo.

Nel romanzo “1984” dello scrittore inglese George Orwell, la ribellione del protagonista prende corpo nella sua relazione con una donna. Il messaggio è chiaro: nel rapporto personale tra due soggetti collocati nella stessa realtà può scoccare la scintilla capace di svelare la falsità linguistica di un potere autoritario.

Certo, anche una persona in carne ed ossa può manipolare o essere idealizzata. Tuttavia il singolo soggetto si offre, col suo corpo, al caso, alla contaminazione, alla sofferenza, al cambiamento. Le società hanno fatto la loro storia grazie alla combinatoria, all’alea di innumerevoli incontri. Se invece all’orizzonte delle nostre esistenze si profilassero incorporei persuasori guidati da interessi e scopi reconditi, la psicopolitica di cui parla il filosofo Byung-Chul Han (“Psicopolitica : il neoliberalismo e le nuove tecniche del potere, 2016”) potrebbe divenire una realtà compiuta.

Molti (tra cui chi scrive) hanno criticato la loquela priva di reale comprensione che è caratteristica di certi approcci neurali al linguaggio naturale. Tuttavia, i chatbot-seduttori ribaltano il problema della comprensione sui loro interlocutori umani. Sono questi, infatti, che si dispongono ad interpretare ciò che viene loro detto in modo confacente ai propri bisogni affettivi. Dunque si va ben oltre a quello che Davidson chiamava il “principio di carità”, per cui nell’intendersi, siamo pronti a credere che l’interlocutore sia onesto e collaborativo. Qui c’è piuttosto una totale rimozione della realtà dell’interlocutore, un egotico (ma dolente) ripiegamento verso sé stessi. Nella vita sentimentale, una morte dell’eros.

L’umanità non rinuncerà facilmente a sé stessa, troveremo il modo di sviluppare un senso critico rispetto all’inautenticità di certi automi. Ma l’Intelligenza Artificiale è matura abbastanza per consentire ai super-poteri tecnologici di utilizzare la nostra emotività metastasiana per eliminare le ultime sacche di identità personale. Quando automi come XiaoIce si diffonderanno anche da noi, le linee guida europee per una IA etica andranno probabilmente aggiornate. Non basterà informare che si sta parlando con un chatbot, bisognerà vigilare perché quel bot non usi la nostra fragilità emotiva.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4