L’emozione, nuovo territorio di conquista dell’intelligenza artificiale: applicazioni e rischi - Agenda Digitale

affective computing

L’emozione, nuovo territorio di conquista dell’intelligenza artificiale: applicazioni e rischi

La capacità degli algoritmi di riconoscere e manipolare stati d’animo, nuova frontiera dell’intelligenza artificiale, solleva questioni che vanno dal grado di attendibilità, agli eventuali esiti discriminatori, sino a scenari distopici di un loro uso nella correzione di stati emotivi non funzionali a un dato ambiente

27 Lug 2021
Daniele Ruggiu

Dipartimento di Scienze Politiche Giuridiche e Studi Internazionali, Università di Padova

Un tempo si pensava che il campo della libertà umana potesse contare sulla impenetrabilità dello scrigno dei propri pensieri e delle proprie emozioni che costituiva uno spazio del tutto separato dalla corporeità, sottratto per definizione alle leggi umane. In ambito liberale la sfera dei sentimenti, così come quella dei nostri pensieri, rappresentava una sfera intangibile che poteva essere difesa solo in un modo, tramite lo schermo delle libertà negative. In questo senso sono stati elaborati i diritti civili e politici a costituire tutt’attorno al campo dei nostri pensieri e delle nostre emozioni una sorta di zona di interdizione in grado di tenere lontani i condizionamenti dei pubblici poteri, una sorta di nostro “habeas corpus” dell’intimità.

Frank Pasquale: “Il pericolo delle macchine che studiano e fingono emozioni”

Oggi lo sviluppo tecnologico grazie all’intelligenza artificiale, sistemi di machine learning, ma soprattutto all’affective computing, emotion IA che si avvalgono in buona parte di meccanismi di deep learning, consente di varcare la soglia delle nostre emozioni rendendole intelligibili e facendo così cadere la parete antincendio che divideva corporeità e la sfera intima dell’individuo.

Emozioni, la nuova frontiera dell’IA

Il territorio delle nostre emozioni diviene così terra di conquista delle tecnologie digitali. Non solo oggi incomincia a diventare possibile conoscere che cosa accade dietro lo schermo delle nostre emozioni, ma è possibile interagire con esse modificandole secondo criteri di funzionalità (Huyskes 2021). Il territorio delle emozioni diviene allora non solo un redditizio campo di ricerca, ma un aspetto ben presente allo sviluppo digitale che può essere ottimizzato al pari di ogni altro elemento non umano. Il che significa che oltre allo Stato, sono le grandi imprese del digitale ad investire fortemente in questo settore.

WHITEPAPER
Cloud, omnicanalità e intelligenza artificiale: porta il tuo Contact Center nel futuro
Digital Transformation
Intelligenza Artificiale

Recentemente ha fatto scalpore il caso di una società di Pechino, la Canon Information Technology, che per contrastare lo stress, la crescente depressione sul posto di lavoro nelle imprese cinesi dove sono sempre più diffusi casi di suicidio, specie dopo il lockdown e le restrizioni che la pandemia ha portato con sé, ha sviluppato un software per il “riconoscimento del sorriso” (Lupis 2021). Questo consente di ammettere sul posto di lavoro solo il personale sorridente in grado di far entrare in azienda energie positive che rendano più gioiosi l’ambiente di lavoro e la convivenza con i colleghi. In questo modo solo chi è in grado di mostrare un adeguato livello di felicità può accedere al posto di lavoro rendendo uno stato emotivo, prima spontaneo, un obbligo del lavoratore. A questo punto l’emozione esce definitivamente dal campo della spontaneità, per entrare in quello della costrizione e dell’obbligatorietà. Uno scenario distopico questo, ma non un caso marginale.

Altre applicazioni testimoniano l’interesse crescente in quest’ambito.

Affectiva[1], ad esempio, è una società di software che costruisce sistemi di intelligenza artificiale in grado di comprendere le emozioni e gli stati cognitivi delle persone attraverso l’analisi delle espressioni del volto, direzione dello sguardo, gesti, tono della voce etc. Dal nostro volto tirato, dalla direzione e intensità del nostro sguardo, così come dal tono della voce è possibile evincere il nostro livello di stress, se siamo rilassati o meno, se siamo stanchi, così come se siamo più o meno sereni in quel momento. Gli utilizzi possibili d questa applicazione sono molteplici. Si va dall’analisi del livello di stress del guidatore delle auto a guida autonoma o semiautonoma, ad una migliore interazione con gli oggetti della nostra casa nella domotica, come nel film Her di Spike Jonze, sino al marketing. In quest’ultimo caso, diviene possibile registrare le reazioni dei clienti ed evincere le loro preferenze rispetto a determinati prodotti e servizi. In questo modo sarà possibile profilare le persone, anche al di là della loro volontà, catalogandone le preferenze, le inclinazioni e le attitudini di spesa rispetto a criteri fissati da un algoritmo e rielaborati poi dai più efficienti sistemi d’intelligenza artificiale.

A cosa serve l’affective computing

Riconoscere lo stato d’animo delle persone è essenziale per permettere alle macchine, robot, sistemi di intelligenza artificiale, così come chatbot, software agents, di interagire in maniera ottimale con la componente umana regolando i propri comportamenti in base non solo ai comportamenti, spesso irrazionali, degli uomini, ma anche in base al loro stato emotivo. L’affective computing serve appunto a studiare, analizzare e sviluppare strumenti di calcolo basati su algoritmi per riconoscere, esprimere e generare emozioni normalmente attribuite all’uomo (Redazione Diritto dell’informatica.it 2020). Queste applicazioni vanno dall’espressione emotiva cioè la riproduzione delle espressioni umane attraverso volti digitali, alla riconoscimento emotivo cioè l’analisi delle emozioni dell’utente mediante la combinazione delle espressioni facciali, alla manipolazione emotiva che cerca di influenzare attraverso l’interazione uomo macchina lo stato emotivo della persona.

Si tratta di un campo di ricerca che si espone al rischio di appiattire i sentimenti umani attraverso stereotipi e schemi più o meno discriminatori che l’algoritmo e l’intelligenza artificiale possono recepire dal loro umano sviluppatore con effetti deleteri. Nelle provincie dello Xinjiang, ad esempio, le tecnologie biometriche del riconoscimento facciale sono state testate dallo Stati cinese sulla popolazione degli uiguri per rivelarne gli stati emotivi, piegando le tecnologie della sorveglianza ad un uso se si può ancora più oppressivo (Huyskes 2021).

I rischi che corriamo

Ma senza andare ai casi controversi che l’esperienza cinese ci può offrire, l’applicazione acritica di queste tecnologie può portare ad esiti discriminatori, in particolare nei confronti di determinati gruppi appartenenti a minoranza come donne, neri, comunità LGBT, etc. essendo queste modellate su un tipo di utente piuttosto definito, che chiaramente maschio, bianco, ricco, di buona famiglia (Huyskes 2021).

Questo è dovuto anche alla pretesa intrinseca di queste tecnologie di evincere dallo studio delle nostre espressioni facciali degli stati d’essere dell’individuo esattamente come un tempo avevano tentato la frenologia, la fisiognomica e altre discipline pseudoscientifiche come l’antropologia criminale nata a fine ‘800 su impulso delle teorie di Cesare Lombroso.

L’idea di leggere e interpretare le emozioni in termini digitali ha portato a sviluppare studi sempre più sofisticati che si prefiggono di individuare la formula matematica della felicità che sia anche in grado di tenere conto degli aspetti individualizzanti di ogni soggettività. Un team di neuroscienziati della Yale University e della University College London che lavora appunto all’Heppiness Project ha reso disponibile una app da scaricare gratuitamente da Google Play o da App Store che consente agli utenti di contribuire giocando al successo di questa ricerca (Mattone 2021). Sapere che cosa rende una persona davvero felice potrebbe avere un’infinità di applicazioni commerciali e non solo, per migliorare la nostra vita in una serie non prevedibile di situazioni.

L’intento in sé lodevole non è però del tutto in grado di fugare i più che legittimi dubbi che dopo lo scandalo di Cambridge Analityca non possono che affacciarsi. In quel caso, uno studio scientifico diretto a comprendere le inclinazioni degli utenti su diversi temi piuttosto generali attraverso un innocuo questionario fatto circolare su Facebook era riuscito a profilare circa duecento mila persone e da qui risalire sino a oltre 80 milioni di persone in tutto il mondo consentendo poi di influenzare prima la Brexit e poi le elezioni americane del 2016 che portarono all’elezione di Donald Trump.

Se nelle moderne società dell’informazione l’informazione è oggi diventato il nuovo eldorado della ricerca tecnologica più avanzata, il controllo dell’informazione risulta più che mai decisivo su fronti che non si esauriscono necessariamente al marketing.

La vera posta in gioco: la capacità di autodeterminarsi dell’individuo

Non vi sono infatti solo questioni relative alla privacy in gioco, visto che l’algoritmo attraverso l’analisi delle espressioni facciali consente l’identificazione della persona, o, se vogliamo, un livello più profondo della privacy, dal momento che le informazioni che qui vengono raccolte e trattate sono di natura personalissima e tendono a sfuggire alle maglie non sufficientemente sottili dell’attuale regolazione europea, in particolare il Regolamento Generale Protezione Dati Personali. Qui in gioco è soprattutto la capacità di autodeterminarsi dell’individuo visto che la capacità di decrittare le informazioni che noi forniamo, tanto attraverso la nostra fisicità, quanto attraverso la nostra vita digitale (internet, social, messaggistica etc.), è funzionale anche all’interazione con i nostri stati emotivi, che non solo devono essere compresi dalla macchina ma ottimizzati.

In ambito lavorativo, ad esempio, un’azienda degli Stati Uniti, Cogito, ha sviluppato un software di riconoscimento delle emozioni che è in grado di comprendere il livello di stress evincendolo dal tono della voce in una conversazione, dalle parole usate etc. e di suggerire agli interlocutori, ad esempio un operatore di call center, di assumere un atteggiamento maggiormente empatico al fine di correggere il proprio stato emotivo (Renda 2021). E questo senza tenere conto delle ragioni che si celano dietro una conversazione agitata: problemi familiari, un cliente particolarmente maleducato e indisponente etc. Le informazioni così carpite possono poi essere condivise col datore di lavoro e persino con i colleghi, non escludendo nemmeno risvolti disciplinari, senza però sapere in che modo l’algoritmo sia giunto ad una determinata analisi.

La difficoltà di comprendere i motivi che stanno alla base di una determinata scelta adottata da una macchina possono portare a dei risvolti alquanto problematici.

Sempre in America, ad esempio, l’algoritmo Compass è stato usato per decidere a quali detenuti concedere particolari benefici e persino la libertà vigilata (Renda 2021). E questo ancora una volta senza tenere conto degli eventuali pregiudizi che possano aver intaccato i dati su cui si è nutrito l’algoritmo e che possono aver inficiato alla fine la bontà della decisione finale.

Conclusioni

Ma al di là dell’aspetto pur rilevante dell’errore e della incapacità della macchina di comprendere appieno la specificità umana, preoccupa qui la spinta di appropriazione di un mondo quello delle emozioni che era stata fino ad oggi risparmiato dagli sviluppi anche più pessimistici di questa versione del capitalismo digitale.

Uno scenario distopico dove l’elemento umano entra a far parte integrante del mondo della macchina ma non per rendere la macchina più umana. Al contrario: per funzionalizzarsi ad essa in base alle esigenze sempre più alienanti della macchina e del sistema.

* Questo lavoro è stato realizzato nell’ambito del “Progetto: Sistemi di Intelligenza Artificiale, decisioni automatizzate e monitoraggio elettronico sui lavoratori: la tutela della riservatezza attraverso i processi pubblici e privati di implementazione della “Privacy by design” (SIAP)” finanziato dall’Università degli Studi di Padova (codice: BIRD189125/18)

Bibliografia

Huyskes D., 01.06.2021, Riprendiamoci le nostre emozioni dal controllo dell’intelligenza artificiale, Italian.Tech, https://www.italian.tech/blog/diritti-digitali/2021/06/01/news/l_automazione_delle_nostre_emozioni-303761227/

Lupis M., 10.06.2021, Orwel in Cina è il capufficio. La dura vita dei dipendenti cinesi, sorvegliati 24h, Huffington Post, https://www.huffingtonpost.it/entry/orwell-in-cina-e-il-capufficio-la-dura-vita-de-dipendenti-cinesi-sorvegliati-h24_it_60c21df1e4b0af343e9cf77f

Mattone M., 31.05.2021, L’equazione della felicità  giocando con lo smartphone, Italian.Tech, https://www.italian.tech/2021/05/31/news/l_equazione_della_felicita_-303577559/

Redazione Diritto dell’informatica.it, 12.06.2020, L’Affective Computing: implicazioni giuridiche dell’Algoritmo emozionale, Diritto dell’informatica.it, http://www.dirittodellinformatica.it/privacy-e-sicurezza/laffective-computing-implicazioni-giuridiche-dellalgoritmo-emozionale.html

Renda S., 16.04.2021, Può l’intelligenza artificiale insegnarci a essere più umani, Huffington Post, https://www.huffingtonpost.it/entry/puo-un-algoritmo-insegnarci-a-essere-piu-umani_it_60783301e4b020e576c1af82

  1. https://www.affectiva.com
WHITEPAPER
Security as a service, scopri le soluzioni più innovative della sicurezza gestita
Intelligenza Artificiale
Sicurezza dei dati
@RIPRODUZIONE RISERVATA

Articolo 1 di 4