Uno degli aspetti più nuovi ed interessanti dell’Intelligenza Artificiale è il crescente sviluppo dei software emozionali.
L’Affective Computing è una nuova branca di ricerca che studia e sviluppa software che riconoscono i comportamenti e le emozioni umane, e possono quindi porsi in maniera emozionale nei confronti degli utenti.
Questo tentativo “di dare un’anima” alle macchine è un approccio multidimensionale e multidisciplinare che sintetizza le conoscenze di saperi diversi: la psicologia, l’elettronica, le neuroscienze, la pedagogia, il marketing.
Le emozioni sono forse l’espressione più peculiare dell’essere umano e ne costituiscono un aspetto imprescindibile della comunicazione, soprattutto non verbale: riconoscere i sentimenti, le emozioni e gli stati d’animo può essere una dote molto importante. I grandi condottieri, i grandi manager, i grandi politici e, in ultimo, anche i grandi giocatori di poker spesso posseggono questa dote in misura superiore alla media, e forse è questa la chiave del loro successo, perché riuscire a cogliere lo stato d’animo reale dell’interlocutore pone in una situazione di grande vantaggio nelle decisioni. Anche se a prenderle è una macchina.
Affective computing, in principio fu Star Trek
Nella serie tv di Gene Roddenberry, “Star Trek: The Next Generation“, l’androide Data tenta continuamente di comprendere, spiegare e sperimentare l’universo emozionale umano, ma con scarsi risultati, anche quando prova a impiantarsi un circuito emozionale. Questa idea, che da ipotesi fantascientifica è ormai diventata oggetto di studio scientifico, è contenuta in mirabili e anticipatori articoli e libri pubblicati già alla fine del XX secolo.
In particolare, la fondatrice e direttrice del gruppo di ricerca sull’Affective Computing del MIT, Rosalind Picard, sottolinea come gli studi abbiano rivelato dei ruoli vitali per le emozioni in molti processi di fondo: percezione, processo decisionale, creatività, comprensione empatica, memoria e interazione sociale. Troppe persone pensano invece che l’emozione sia presente solo quando appare e attira la loro attenzione.
Picard fa il paragone con una bufera di neve: molti non si accorgono del tempo che passa finché la bufera non li disturba. Gli ultimi studi suggeriscono invece che l’emozione sia sempre presente e di solito aiuti a regolare e influenzare i processi in modo utile, contribuendo a un funzionamento intelligente.
L’Affective Computing, conclude Picard, ha enfatizzato questo ruolo sin dall’inizio: non si è mai trattato di realizzare macchine che sembrassero ‘più emotive’ ma si trattava di realizzare macchine più efficaci.
Dalla macchina della verità al neuromarketing: come viene applicato l’Affective Computing
Le emozioni, poi, sono fondamentali non solo per lo sviluppo delle doti di creatività o di relazione, ma anche nella manifestazione di processi di scelta razionale: queste considerazioni fanno intuire quali sconfinate possibilità e potenzialità si racchiudano all’interno dell’“Affective Computing”, ma anche quali enormi rischi possano comportare.
Una prima applicazione dell’Affective Computing, se pur rudimentale, è il Poligrafo, meglio conosciuto con il nome di “macchina della verità”. Uno strumento che nasce per scoprire se un individuo sta mentendo attraverso la misura di alcuni parametri fisici: poiché ancora molto imperfetto, il risultato del Poligrafo può essere utilizzato dalla polizia nelle indagini, ma non può essere portato come prova in tribunale. Oggi, però, gli sviluppi dell’intelligenza artificiale e di sensori più evoluti sono in grado di individuare con maggiore precisione gli stati d’animo correlati alla circostanza di mentire o di dire la verità. Il Poligrafo può quindi essere considerato l’antenato di una nuova classe di software emozionali, in grado di rilevare correttamente le emozioni umane.
Una seconda applicazione è legata al neuromarketing, la disciplina che studia come aumentare le performance di vendita di un prodotto/servizio attraverso l’analisi dei processi inconsapevoli ed emotivi che avvengono nel consumatore e sono in grado di influire sull’esperienza di acquisto o di percezione nei confronti di un brand.
Gli obiettivi del neuromarketing possono essere raggiunti con due metodologie diverse: in riferimento al comportamento di acquisto e al comportamento post-vendita.
Comportamento di acquisto
Nel primo caso, il neuromarketing può essere applicato allo studio delle risposte emozionali del consumatore in riferimento alle etichette, al packaging e al posizionamento logistico del prodotto all’interno del contesto di vendita. Si procede quindi con lo studio dei movimenti oculari e delle loro correlazioni con le espressioni del viso e il comportamento di acquisto dei clienti.
Infatti il comportamento d’acquisto, prima ancora che un processo razionale è un processo emotivo, in cui le caratteristiche intrinseche del prodotto giocano un ruolo secondario: lo stesso prodotto cosmetico suscita sensazioni diverse nei potenziali clienti e sulla loro decisione di acquisto a seconda se venga posto sullo scaffale di un supermercato o sullo scaffale di una farmacia. Anche la pubblicità non è un semplice strumento di conoscenza e di promozione del prodotto, ma è uno strumento per destare emozioni che oggi, attraverso l’Affective Computing, è possibile misurare scientificamente.
Comportamento post-vendita
Anche il comportamento post-vendita può essere esaminato dal punto di vista emozionale, con l’individuazione di componenti che possano essere aggiunte al prodotto per migliorarne la capacità di suscitare emozioni positive. In particolare, nell’industria alimentare l’aggiunta di sostanze in grado di attivare determinati recettori del gusto e/o ormoni, può aumentare il grado di soddisfazione di un prodotto e migliorarne le vendite.
È possibile, ad esempio, determinare l’esatta quantità di zuccheri o di grassi da immettere in un prodotto per stimolare nel consumatore una sensazione di benessere derivante dal consumo del prodotto stesso: un sentiero minato, in cui l’applicazione di tecniche di neuromarketing si avvicina pericolosamente a tecniche di doping di massa che possono avere anche dei risvolti negativi sulla salute. Spesso, ciò che attiva determinati recettori di soddisfazione psicologica non è in realtà molto salutare.
Opportunità e rischi dell’interazione con l’essere umano
Ancora più delicata è la situazione di quei software che non si limitano a rivelare emozioni umane, ma che hanno anche la possibilità di interagire in maniera dinamica e relazionale con l’essere umano. Appartengono a questa categoria anche delle app facilmente accessibili che permettono di realizzare una relazione di tipo confidenziale tra l’interfaccia elettronica e l’essere umano. App che possono essere molto utili, ad esempio, nella terapia per le diverse forme di autismo e nella fornitura di servizi di assistenza a persone con problemi di mobilità, ma presentano due grossi rischi.
- Il primo è legato alla necessità di una tutela molto forte dei dati sensibili che vengono scambiati attraverso queste app: dati che devono essere molto più protetti dei pur sensibilissimi dati sanitari, perché riguardano la sfera emotiva ed emozionale degli individui.
- Il secondo rischio è che queste applicazioni, basate sull’intelligenza artificiale, possano divergere dal loro utilizzo programmato e diventare potenzialmente molto pericolose. Infatti potrebbero sviluppare dei bias che rendano patologica l’interazione con gli esseri umani e, se in mano a soggetti deboli psicologicamente, condizionare i loro comportamenti al punto da portarli a compiere gesti estremi.
- Restano forti anche i rischi di errori che possono portare a giudizi sfavorevoli da parte di super-utenti di affective computing come la polizia (già ci sono sperimentazioni alla frontiera, nei confronti di immigrati), un giudice o un datore di lavoro. Se oggi i software che rilevano le emozioni e i comportamenti umani hanno una grande precisione e attendibilità, i software di relazione sono ancora molto rozzi e devono essere molto affinati prima di poterli utilizzare su larga scala in modo utile e senza rischi.
- In linea più generale, alcune critiche all’affecting riguardano il rischio di perdita-sostituzione dell’umano per la diffusione di robot (software/hardware) in grado di simulare bene la propria umanità, nei confronti ad esempio di bambini e anziani. Un punto evidenziato, tra i primi, da Frank Pasquale, professore della Brooklyn Law School (New Law of Robotics, 2020).
Immigrato buono o cattivo? Lo dice l’intelligenza artificiale (e fa rabbrividire)