Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

intelligenza artificiale

“Affecting computing”, il peso delle emozioni sugli algoritmi: gli studi

L’assenza di emozioni è stata sempre considerata una controparte inevitabile delle eccellenti prestazioni dell’intelligenza artificiale in diversi ambiti applicativi, ma non è più così: l’IA può ormai combinare anche componenti emotive nel calcolo delle decisioni. Vediamo come ci siamo arrivati e le implicazioni

13 Feb 2019

Alessio Plebe

Università degli Studi di Messina


Uno degli espedienti narrativi più frequenti nella letteratura sull’IA (Intelligenza Artificiale) consiste nel dotare agenti artificiali di sentimenti. In “Electric Dreams” di Steve Barron il computer Edgar, stimolato da un’incidentale versamento di champagne nei suoi circuiti, compone musica elettronica per una ragazza di cui si è invaghito; David, protagonista del romanzo di Brian Aldiss “Supertoys che durano tutta l’estate” reso al cinema da Steven Spielberg in A.I. Artificial Intelligence, è un robot bambino in cerca dell’amore di una madre; il robot umanoide Ava, nel recente film “Ex Machina” di Alex Garland, si innamora del suo progettista.

E’ una trovata che deve buona parte del suo successo nell’infrangere una certezza diffusa: le macchine non possono provare emozioni. Certamente la maggioranza degli spettatori che ha apprezzato questi film, li ha considerati suggestive fantasie, rimanendo convinta che, fuori dalla sala cinematografica, computer e robot rimarranno glaciali e insensibili.

E invece non è così. Non più, almeno.

L’IA e il primato della ragione

L’assenza di capacità emotive nell’IA, pur marcando una differenza imprescindibile con l’essere umano, è stata abitualmente vista come una controparte inevitabile delle sue eccellenti prestazioni in una molteplicità di ambiti applicativi. D’altronde, anche quando si accusa una persona di essere “un freddo calcolatore” si mescola il biasimo per la sua insensibilità, al dare atto della sua superiorità nel condurre ragionamenti rigorosi, rispetto a chi si fa trascinare dai sentimenti.

Traspare bene in questo modo di vedere un fondamentale retaggio della cultura occidentale, dai tempi della separazione della componente razionale della mente umana da quelle emotive operata da Platone ed Aristotele, proseguendo con la decisa connotazione negativa delle emozioni nella filosofia cristiana medioevale, per arrivare alla netta demarcazione tra pensiero razionale ed emozioni stabilita da Cartesio, con il primato della ragione sancito senza compromessi da Immanuel Kant. Occorre sottolineare come anche la maggior parte di coloro che diedero vita all’IA negli anni ’50, sposavano una filosofia razionalista, e pertanto la nozione di “intelligenza” da cercare di riprodurre artificialmente, era quella puramente razionale, scevra da derive emotive.

L’adesione piena al razionalismo da parte della prima IA era stata oggetto di qualche critica, il filosofo più accanito contro l’IA, Hubert Dreyfus, nella sua serie What Computers can’t do (1972) e What Computers still can’t do (1992) accenna anche ad un ruolo delle emozioni, trascurate dall’IA, nel genericamente “accompagnare e guidare il nostro comportamento cognitivo”.

IA e emozioni, un cambio di prospettiva

Risale invece ad una ventina d’anni fa il cambiamento di prospettiva davvero radicale sulle emozioni, dovuto alle neuroscienze, che hanno mostrato come siano intimamente coinvolte in quelle che vengono reputate “decisioni razionali”.

La rivalutazione delle emozioni, e l’accettazione della loro continuità con il pensiero razionale, stanno progressivamente facendo breccia anche nell’opinione comune, per buona parte grazie alla penna di Antonio Damasio, il cui Errore di Cartesio (1994) è stato tradotto in 20 lingue superando il mezzo milione di copie vendute, un record ragguardevole per un testo scritto da un neuroscienziato. Il caso più clamoroso descritto nel libro riguarda Phineas Gage, che a seguito di un gravissimo incidente, nel 1848, subì un danno cerebrale al lobo frontale da cui rimasero indenni le facoltà linguistiche e logiche, tuttavia si verificarono importanti cambiamenti nel suo comportamento.

Diventò progressivamente sempre più amorale e asociale, e soprattutto incline a prendere improvvise decisioni insensate, riguardo per esempio cambiamenti di lavoro. Oltre a ricostruire questo caso storico, Damasio racconta altri casi curati da lui nell’arco di oltre vent’anni, in cui lesioni cerebrali colpivano centri emotivi, con conseguenze complessive sulle capacità decisionali dei soggetti.

L’influenza delle emozioni sulle decisioni

L’eclatante evidenza scientifica della continuità tra emozione e razionalità non si era tradotta in nuove critiche all’I.A., semplicemente perché alla fine del secolo scorso l’IA viveva uno dei suoi periodici periodi di declino, e a parte gli addetti ai lavori non ne parlava nessuno. Notoriamente da pochi anni la tendenza si è invertita, anzi, l’IA fin dai suoi albori non ha mai goduto di tanta popolarità come oggi, e fra tante discussioni ecco riaffiorare il classico appunto di trascurare le emozioni. Di recente il gruppo di ricerca presso l’INRIA a Grenoble coordinato da James Crowley ha misurato risposte emotive in giocatori di scacchi, impegnati in situazioni di gioco via via più difficili, riscontrando una correlazione tra criticità della partita e picchi emotivi.

In linea con Damasio, i ricercatori svizzeri spiegano l’intervento delle emozioni in un contesto apparentemente così freddo e matematico come gli scacchi, per il ruolo che le emozioni possono svolgere nel selezionare in modo efficiente ricordi di situazioni che in passato hanno avuto valenze emotive, in questo caso configurazioni di scacchiera similari a quella presente, che hanno condotto ad una dolorosa sconfitta oppure ad una felice vittoria. Lo studio degli svizzeri viene segnalato nell’ultimo numero dalla rivista Technology Review del MIT, come allarmante dimostrazione di come l’uomo, grazie alle emozioni, disponga di una potente strategia decisionale preclusa all’IA.

L’affective computing

Ritengo questa obiezione debole, la sua apparente forza deriva da una confusione tra due aspetti delle emozioni che è opportuno mantenere distinti. I filosofi Fausto Caruana e Marco Viola, nel loro recente “Come funzionano le emozioni“, mettono in guardia contro la rischiosa tentazione di abbracciare in una nozione unitaria e coesa tutto ciò che va sotto la parola “emozioni”.

Suggeriscono piuttosto la metafora di un arcipelago, in cui esiste probabilmente una piattaforma sotterranea comune, ma le varie isole, osservate singolarmente, hanno delle loro caratteristiche e dei loro confini individuali.

Proviamo a seguire il suggerimento, osservando alcune di queste isole dell’arcipelago “emozioni” con la prospettiva dell’IA Una riguarda l’esteriorizzazione delle emozioni, dall’arrossire al rizzarsi dei peli, fino alle espressioni facciali, queste ultime oggetto di una corposa serie di studi, da Charles Darwin a Paul Ekman.

Si tratta di uno dei primi aspetti delle emozioni con cui l’IA si è cimentata seriamente, con la genesi di uno specifico settore di studi noto come Affective computing, da come lo battezzò Rosalind Picard, inaugurando questi studi all’MIT negli anni ’90.

I computer “affettivi” sostanzialmente implementano tecniche, soprattutto di elaborazione delle immagini e del linguaggio, che mirano ad inferire lo stato d’animo dell’umano che lo usa, adattando di conseguenza il suo rispondere, in modo da apparire un simpatico compagno. Per inciso, la sperimentazione psicologica menzionata prima, condotta presso l’INRIA sui giocatori di scacchi, si avvale di tecniche digitali per inferire le emozioni dalle espressioni facciali, direttamente derivante da questo filone di ricerca.

Indipendentemente dalla precisione dei computer “affettivi” nell’individuare le altrui emozioni, non vi è nessuna attinenza in questo genere di algoritmi con un uso genuino dell’emozione nell’effettuare decisioni, si tratta da parte dell’IA di tentare di far leva su aspetti emozionali per rendere più appetibili prodotti commerciali.

Le emozioni sono poi caratterizzate da una serie di alterazioni fisiologiche non visibili esternamente, ma a differenza delle prime, percepite dall’interessato, dall’alterazione del battito cardiaco alla sudorazione, includendo sensazioni a carico dell’apparato digerente e respiratorio, anche violente.

Per diversi studiosi, a partire da William James, è proprio l’enterocezione di questi particolari stati fisiologici l’essenza dell’emozione. Sono stati ideati diversi dispositivi in grado di misurare alcune di queste alterazioni, e oggi l’Affective computing ha allargato la sua capacità di monitoraggio degli stati emotivi, includendo dispositivi tecnologici “indossabili”, per esempio in grado di misurare diverse caratteristiche elettriche della pelle, correlate con certi stati emotivi.

Ma è chiaro come tutto ciò a cui può mirare l’IA riguardo questi aspetti dell’emozione è solamente la misura di emozioni altrui, sarebbe poco sensato voler riprodurre processi fisiologici su organi che, semplicemente, non esistono in artefatti artificiali.

L’esperienza soggettiva di un’emozione

Vi è un livello ancor più impenetrabile per IA che riguarda l’esperienza soggettiva di un’emozione: cosa prova una persona quando si spaventa, si arrabbia, si rallegra. E’ il livello che, seguendo la definizione del filosofo Ned Block, riguarda la coscienza fenomenica, l’esperienza soggettiva, a prescindere da ogni conseguenza di questa esperienza, sia sottoforma di espressione facciale o di azione conseguente.

Si tratta notoriamente di un terreno arduo, probabilmente il più dibattuto oggi in filosofia della mente. Uno dei problemi è che data la sua natura intimamente soggettiva mancano strumenti per descriverla e analizzarla. Tentare di descrivere precisamente cosa si prova nel momento di uno spavento assomiglia a voler descrivere cosa vuol dire vedere qualcosa colorata in rosso.

Oltre a ripetere la parola “rosso” o ad elencare altri oggetti di colore rosso, dicendo che si prova lo stesso, è difficile dire altro. Se l’IA possa arrivare o meno in futuro ad incorporare qualcosa come la consapevolezza fenomenica è un dibattito avvincente, ma per i nostri intenti possiamo tranquillamente fermarci alla risposta più semplice: no, questa “isola” dell’arcipelago emozioni le è inaccessibile.

La teoria del marcatore somatico

Infine, veniamo alle emozioni nel loro ruolo di modulatori di decisioni e dell’agire, che quando viene meno, come nei casi clinici raccontati da Damasio, rende il soggetto drammaticamente menomato nella sua sfera cognitiva. Su come le emozioni possano interferire sulle decisioni Damasio aveva proposto una teoria ancor oggi piuttosto influente, denominata del marcatore somatico. Può essere semplificata così: quando occorre decidere cosa fare e le opzioni in gioco sono molte, il cervello può associare ad ogni azione una sorta di “marchio” derivante dall’eventuale risposta emotiva che deriverebbe dal praticare quella opzione.

In questo modo vengono rapidamente e inconsciamente filtrate opzioni con conseguenze emotive inquietanti, e privilegiate quelle foriere di gioie future. Da allora la neuroscienza delle decisioni e delle emozioni ha fatto passi notevoli, grazie a scienziati come Joseph LeDoux o Jaak Panksepp, e anche se il quadro è decisamente complesso, risulta oggi meglio compreso.

Inutile qui addentrarsi in una materia così ampia, l’elemento chiave per i nostri scopi, che emerge dalla neuroscienza, è che non vi è nulla di magico nel modo con cui le emozioni modulano il ragionamento e le decisioni, e non può che avvenire tramite le due principali modalità di elaborazione dei segnali del cervello: catene di connessioni sinaptiche tra neuroni, oppure neuromodulazione globali.

Reinforcement learning

La trasmissione sinaptica e il comportamento elettrico dei singoli neuroni sono i fenomeni cerebrali che più facilmente hanno trovato un equivalente computazionale, soprattutto nell’ambito attualmente prevalente dell’IA costituito dalle reti neurali artificiali.

Ma è la neuromodulazione, ovvero la diffusione di determinati segnali chimici su vaste aree del cervello, ad avere ruoli importanti nei meccanismi emotivi, semplificando si può dire che alcuni neuromodulatori codificano aspetti di valenza emotiva, positiva o negativa, delle informazioni in transito nel cervello. Esiste una lunga tradizione nell’IA finalizzata a riprodurre computazionalmente la valenza emotiva, e il suo impiego nel prendere decisioni, il quadro matematico che ha avuto maggior successo risale agli anni ’80 e va sotto il nome di reinforcement learning.

In esso tutta la variopinta gamma di esperienze fisiologiche e fenomeniche legate ad un’emozione si riassume in un numero, denominato reward, negativo per esperienze negative, dolorose, positivo quando piacevoli e gioiose. Un freddo e misero numero, ma è tutto quel che serve per usare l’emozione come ingranaggio nel ragionare. Un raffinamento significativo del reinforcement learning è avvenuto agli inizi del secolo, in parallelo alle progressive scoperte sul funzionamento nei neuromodulatori nelle emozioni, e Peter Dayan ha evidenziato la stretta attinenza tra le variabili di certi modelli matematici di reinforcement learning, e specifici neuromodulatori.

Per esempio la dopamina pare funzionare proprio come la variabile denominata temporal difference, che misura la differenza tra l’aspettativa che si ha di reward – piacevole o spiacevole – nello scegliere una certa azione, e quello che effettivamente si riceve una volta compiuta.

Q-Learning

Fra le tante varianti di questa matematica che imita la neuromodulazione per sfruttare le emozioni, nel loro ruolo di filtrare e focalizzare scelte di azione, vi è una nota come Q-Learning, adottata dal modello artificiale AlphaGo, diventato famoso nel 2015 per aver sconfitto campioni di “Go”, uno gioco su scacchiera cinese ancor più difficile dei normali scacchi.

Quindi, se da un lato AlphaGo sicuramente mancava di quei correlati fisici delle emozioni misurate dal gruppo svizzero guidato da Crowley, come contrazioni di muscoli facciali, o toccarsi, d’altro lato faceva leva su meccanismi emotivi nel selezionare le mosse, proprio come si pensa facessero i soggetti umani giocando a scacchi. Niente di più probabile che i calcoli matematici di AlphaGo non rispecchino alla lettera la sofisticata neuromodulazione umana, ma il principio è del tutto analogo.

Se allora dal punto di vista funzionale l’IA può agevolmente combinare componenti emotive nel calcolo delle decisioni, vien da chiedersi: sono davvero mancanze gravi l’assenza delle emozioni nei loro altri aspetti, come quelli espressivi od esperienziali?

Ritengo di no. Proviamo ad immaginare un automobilista umano in autostrada, in una giornata assolata, entrando in una galleria avrà un momento iniziale di adattamento visivo alla minore luminosità, non appena superato vede il retro di un lentissimo Tir che si avvicina paurosamente. La reazione fisiologica sarà violenta, coinvolgendo ritmo cardiaco, respiratorio, sensazioni gastriche. Auspicabilmente sarà altrettanto rapida e precisa la reazione ai comandi per evitare l’ostacolo. Consideriamo ora la stessa situazione con un sistema di guida autonomo, che si avvalga tra varie componenti anche di un modello reinforcement learning per segnalare un analogo di valenze emotive connesse a stati percettivi.

Quello che il passeggero spera ardentemente è che il suo pilota automatico sia il più rapido e preciso nella manovra per evitare sia il Tir che le pareti della galleria. Non credo si faccia un cruccio se al suo pilota automatico manca un volto che si dipinga di terrore, o una pelle che si imperli di sudore freddo.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4