Frank Pasquale: "Il pericolo delle macchine che studiano e fingono emozioni" - Agenda Digitale

Affective computing

Frank Pasquale: “Il pericolo delle macchine che studiano e fingono emozioni”

implementazioni aziendali dell’informatica affettiva non riguardano tanto il servizio alle persone quanto il loro modellamento. Preservare la privacy e l’autonomia delle nostre vite emotive dovrebbe avere la priorità su una ricerca fuorviata e manipolativa di macchine delle emozioni.

27 Apr 2021
Frank Pasquale

Brooklyn Law School

L’intelligenza artificiale (AI) è una parola chiave del nostro tempo. L’IA è il Santo Graal delle aziende tecnologiche. Gli amministratori delegati la cercano per risparmiare su lavoro umano e disciplinarlo. Una fiorente letteratura accademica si occupa delle sue implicazioni etiche, legali e sociali. Sia l’IA ristretta (narrow ai), progettata per integrare i lavoratori, che l’IA più ampia, progettata per sostituirli, stanno guadagnando slancio.

Il messaggio alla loro base è seducente: registrare tutto ciò che gli umani fanno, e alla fine possiamo prevedere e simulare con una macchina ogni loro espressione e azione.

Le preoccupazioni sull’AI ben fondate

Aspetti preoccupanti del software di decodifica umana stanno già emergendo. Più di mille esperti hanno recentemente firmato una lettera che condanna l’analisi facciale “predittiva del crimine” . La loro preoccupazione è ben fondata.

WEBINAR
18 Novembre 2021 - 15:00
PNRR: Cybersecurity e innovazione digitale (sicura).
Sicurezza
Cybersecurity

Mala innovazione: se bisogna fermarsi per salvare l’umano

I ricercatori di psicologia hanno dimostrato che i volti e le espressioni non sono necessariamente mappati in modo chiaro su particolari tratti ed emozioni, per non parlare dei più ampi stati mentali evocati nell’”aggressione detection”. Poiché “le istanze della stessa categoria di emozioni non sono né espresse in modo affidabile attraverso né percepite da un insieme comune di movimenti facciali”, scrivono i ricercatori, le capacità comunicative del volto sono limitate. I pericoli di un’errata interpretazione sono chiari e presenti in tutti questi scenari.

Ma cos’è intelligenza artificiale, cos’è intelligenza

Così, nonostante la sua rapida crescita, l’AI stessa è ancora un termine dibattuto, e significativo solo in un contesto storico. L’intelligenza pure è un concetto dibattuto. È storicamente legata, relativa ai problemi di un’epoca (sia personale che collettiva), invece che astratta dal tempo e dalo spazio. Infatti, anche le verità o le guide morali apparentemente più eterne possono essere false o inappropriate in certi contesti. Come ha osservato la psicologa Susana Urbina, “l’intelligenza è un’astrazione, un costrutto che deduciamo in base ai dati a nostra disposizione e ai nostri criteri. Come tale, non è qualcosa su cui tutti possono concordare o quantificare oggettivamente”[1].

La crescente popolarità delle teorie delle “intelligenze multiple” complica ulteriormente l’IA. Queste includono “l’intelligenza linguistica, l’intelligenza logico-matematica, l’intelligenza spaziale, l’intelligenza musicale, l’intelligenza corporeo-cinestetica, l’intelligenza naturalistica, l’intelligenza interpersonale e l’intelligenza intrapersonale”[2].  I programmi di apprendimento automatico hanno da tempo superato le prestazioni umane in molti effort matematici, e se l’intelligenza “corporeo-cinestetica” include la fabbricazione, gli esseri umani hanno da tempo superato le macchine in compiti che sono ripetitivi e faticosi. Né è difficile immaginare i robot della Boston Dynamics programmati per sconfiggere qualsiasi squadra di calcio vivente.

Se consideriamo altre intelligenze, la questione è più controversa. Un programma potrebbe facilmente mettere insieme milioni di combinazioni concepibili di note, esporre gli ascoltatori ad esse e scoprire così ciò che è più popolare. Questa cosa è intelligenza musicale? Acume artistico? Magia del marketing? Forse gli esperti possono aiutarci, dando recensioni “cieche” (“doppio cieco”) delle composizioni umane e delle macchine.

Un tale test di Turing elitario potrebbe accreditare un’IA compositiva con “prestazioni di livello umano” una volta che una massa critica di intenditori preferisse la musica dell’IA a quella di un compositore esperto (o almeno non potesse distinguere tra composizioni meccaniche e umane).

In Galatea 2.2, il romanziere Richard Powers ha immaginato un software a cui si insegna a imitare gli studenti laureati in inglese che fanno esami basati sulla scrittura di un saggio su grandi romanzi. Dato un corpus abbastanza grande di risposte di esami passati, questa evoluzione sembra sempre più plausibile. Eppure siamo molto, molto lontani dall’inventare programmi in grado di esprimere tutto ciò che un buon insegnante potrebbe dire su tali romanzi; per non parlare della robotica che sarebbe al limite solo una simulazione passabile di un tale insegnante.

Affective computing

Lo Stato dovrebbe investire in un tale progetto di affective computing? Dovremmo lavorarci noi? Queste domande rientrano probabilmente nelle categorie dell’intelligenza “interpersonale” e “intrapersonale”, se vogliamo seguire il quadro delle intelligenze multiple. Sono sfaccettature dell'”intelligenza autentica” – un'”intelligenza artificiale” che combina giudizio, saggezza e creatività[3].

L’intelligenza artificiale si concentra sulla realizzazione più efficiente di obiettivi prefissati; l’intelligenza autentica è necessaria per decidere meglio quali dovrebbero essere i nostri obiettivi. Troppa letteratura sull’IA elude la questione degli obiettivi e dei valori, assumendo invece che “noi” (comprese costrutti così ampi come l’umanità nel suo complesso) condividiamo dei valori, e ora dobbiamo metterci al lavoro per sviluppare linee guida etiche e regolamenti per implementarli. Un passo verso l’intelligenza autentica è riconoscere il tragico pluralismo dei valori umani, e quanto sia difficile immaginare un’IA programmata per rendere giustizia a tutti loro.

Codificare la saggezza

Nonostante l’ardua sfida di prescrivere la saggezza “intrapersonale” attraverso il codice, cioè conoscere sé stessi e i propri commitment più profondi, gli imprenditori tecnologici stanno andando avanti, sotto forma di app per la terapia. Alcune di queste applicazioni portano la gig economy alla psichiatria, collegando i pazienti ai terapeuti (e prendendo una quota dei compensi). Altre sono prescritte da terapisti delle dipendenze, per incoraggiare a seguire un programma di trattamento e per raccogliere dati su craving e ricadute. Le app più ambiziose mirano a sostituire le persone, promettendo un incontro terapeutico (o qualcosa di simile) quando un consulente è assente o troppo costoso.

Tutti questi termini di cura, che indicano diverse vocazioni e professioni, possono confondere. Qual è esattamente la differenza tra uno psichiatra, uno psicologo, un consulente, un operatore sanitario di comunità, un assistente sociale clinico, un sacerdote o un life coach? In che modo le licenze professionali preservano la qualità e quando invece escludono i lavoratori potenzialmente qualificati? Come molte cose nell’assistenza sanitaria americana, l’accesso all’assistenza di qualità per la salute mentale è discontinuo e inaccessibile per troppi. Certamente un’app per la terapia è un “qualcosa” che potrebbe essere meglio del “niente” di cui soffrono ora i non serviti?

Con questo aut aut, è probabile che le app di terapia guadagnino popolarità. I regolatori imbarazzati saranno riluttanti a vietare (o anche a limitare) la tecnologia che pretende di colmare le lacune di un sistema sanitario rotto. Man mano che le app si diffonderanno, “impareranno” quali modelli di parole, immagini e suoni sembrano più in grado di alleviare la depressione, l’ansia o la rabbia, per le migliaia o milioni di “doppelganger di dati” che ora stanno creando dai nostri dati. Tutto ciò è un progresso, vero?

Io non credo. Troppe app di terapia non sono propriamente basate su evidenze, e una crescente letteratura medica ha messo in dubbio la loro efficacia[4].

Non dobbiamo avere robot di cura

Sconfortato come sono dalla prospettiva di robot terapeuti che gradualmente battono gli umani nel conforto, nella creazione di significato e nell’accettazione di sé, potrei soffermarmi a lungo su quella letteratura sull’efficacia.

Ma questo sarebbe un errore. Inquadrare la questione della robo-terapia come una questione di efficacia presuppone un telos: che alla fine saremo capaci di creare macchine che assumano ruoli ora distintamente umani. Una volta che questo telos è assunto, intere prospettive di discussione sulla natura e lo scopo della tecnologia scompaiono. Presupporrebbe ossia che siamo su un binario; l’unica questione è quanto velocemente possiamo progredire lungo di esso[5].

Il discorso dell’efficacia nella valutazione delle app fa parte di quella che ho considerato una “prima ondata” di responsabilità algoritmica: riforme progettate per garantire che le aziende e i governi stiano sviluppando una tecnologia utile e non discriminatoria che faccia ciò che promette. Un classico esempio di questa “prima ondata” è assicurare che i sistemi di riconoscimento facciale possano identificare persone di tutte le etnie, dato che in passato non sono riusciti a identificare un numero sproporzionato di individui appartenenti a minoranze.

Chiediamoci se dobbiamo perseguire certe tecnologie

La “seconda ondata” si deve chiedere però se certe tecnologie debbano essere perseguite. Molti attivisti e accademici hanno rifiutato il riconoscimento facciale universale tout court, in quanto innovazione che merita censura, indipendentemente dai suoi meriti, perché distrugge la nostra capacità di rimanere anonimi in una folla. Lo stesso si può dire di alcune tecnologie di detenzione domestica: possono anche essere meglio di una cella, ma presagiscono anche un livello di sorveglianza granulare e di controllo degli individui che anche i più duri critici dell’incarcerazione di massa faticano ad accettare.

Scorza: “Sulle regole AI l’Europa pone la prima pietra, ma sarà sfida enorme: ecco perché”

Appagamento da condizionamento operativo

La sorveglianza e il controllo è ciò che in definitiva è inquietante e alienante nella prospettiva dei terapisti robot. Pensate ai passi concreti che dovremmo fare per arrivare a un mondo fantascientifico di terapeuti chatbot indistinguibili da quelli umani. Questa transizione comporta una sorveglianza massiccia degli esseri umani, al servizio della creazione di macchine sofisticate progettate per ingannare gli esseri umani e fargli credere che stanno vivendo un autentico incontro terapeutico.

Questa prospettiva non è allettante, per quanto i designer di esperienze utente possano fare i primi passi verso di essa. Considerate come la tanto sbandierata app Woebot è progettata per automatizzare gli aspetti della terapia cognitivo-comportamentale. Woebot inizia le conversazioni con gli utenti offrendo risposte semplici e dicotomiche. Per esempio, vicino all’inizio della sua interazione, Woebot può scrivere: “I miei dati dal mio studio a Stanford mostrano che ci vogliono circa [14 giorni] perché le persone si abituino a [chattare con me] e comincino a sentirsi meglio”. L’utente non può digitare domande critiche come: “Quale studio di Stanford? Quanti partecipanti c’erano? A cosa è stato esposto il gruppo di controllo?”. Piuttosto, le due risposte consentite sono “Ha senso” o “Hmm …”. Tali risposte binarie si presentano ripetutamente nell’app, disciplinando la risposta dell’utente.

Per qualcuno condizionato dai test a scelta multipla, da semplici giochi telefonici come Candy Crush, e dai binomi “mi piace/non mi piace” di Facebook, Instagram e Twitter, i pulsanti di risposta di Woebot possono essere una gradita continuazione della deriva digitale senza attrito. Essi tolgono l’onere di spiegare sé stessi, articolare una risposta intelligente, e decidere se essere caldi o scettici. Tutto ciò può dare sollievo a coloro che sono già oppressi dalla depressione.

Al contrario, c’è un metodo di trattamento – noto come talk therapy – che ritiene che tale articolazione sia lo scopo stesso della consulenza, non qualcosa da evitare.  L’ascesa delle app per la terapia rischia di emarginare ulteriormente la talk therapy a favore di approcci più comportamentali, che cercano semplicemente di terminare, silenziare, sopraffare o contraddire i pensieri negativi, piuttosto che esplorare il loro contesto e le loro origini ultime. Quando le app per la salute mentale sono guidate da un’intelligenza artificiale ristretta, esse beneficiano e rafforzano un approccio utilitaristico ai pazienti, che inquadra i loro problemi semplicemente come impedimenti alla produttività.[7].

Questa definizione ristretta del problema della salute mentale è un pericolo particolare quando le corporazioni e i governi cercano di dare un volto amichevole ai loro servizi e richieste. Consideriamo, per esempio, un’app di terapia che si confronta con un lavoratore che si lamenta del suo tempo sul lavoro. Il lavoratore si sente sottopagato e sottovalutato, ed esprime queste preoccupazioni all’app. Ci sono diverse risposte potenziali a questo problema. Per esempio, l’app potrebbe consigliare l’assertività, spingendo il lavoratore a chiedere un aumento. All’altro estremo, l’app potrebbe prescrivere una rassegnazione attendista al proprio destino, esortando ad apprezzare tutto ciò che si ha già. Oppure potrebbe mantenere una studiata neutralità, scavando sempre più a fondo nelle ragioni del disagio del lavoratore. Indovinate quale risposta un datore di lavoro potrebbe voler vedere nelle applicazioni di benessere fornite ai suoi lavoratori? Una prescrizione di solidarietà ha la possibilità di competere su un tale mercato? 8

La grande promessa dell’analitica predittiva nell’assistenza sanitaria è la capacità di trovare modi ottimali di fornire assistenza. Ma nel caso di problemi di salute mentale ordinari, ci possono essere più modi per definire il problema. Diversi modelli commerciali possono incoraggiare diversi modi di definire la malattia mentale, o il suo trattamento. I venditori di un’applicazione gratuita con un modello basato sulla pubblicità possono voler incoraggiare gli utenti a tornare il più spesso possibile. Un servizio basato sull’abbonamento non ottimizzerebbe necessariamente il “tempo sulla macchina”, ma potrebbe mirare a usare altre forme di manipolazione per promuoversi.  Gli auto-rapporti di benessere possono essere una “verità di base” non controversa con cui misurare il valore delle app. Ma il concetto di benessere è stato colonizzato da aziende e governi, e legato intimamente a misure più oggettive, come la produttività9.

Abbiamo anche bisogno di pensare profondamente se le scale Likert quantificabili dei sentimenti sono modi irrimediabilmente rozzi di valutare il valore della terapia.

Il nucleo riduzionista dell’informatica affettiva 

A molti dei problemi dettagliati sopra, gli entusiasti dell’affective computing hanno una risposta semplice: Aiutateci a risolvere il problema. Alcuni di questi appelli sono il classico Tom Sawyering, dove i ricercatori chiedono ai critici di lavorare gratuitamente per de-biasare i loro sistemi. Altri sembrano più sinceri, compensando adeguatamente gli esperti nelle implicazioni etiche, legali e sociali dell’IA per aiutare a progettare meglio i sistemi sociotecnici (piuttosto che limitarsi a ripulire dopo i tecnologi). Poiché i gruppi minoritari sono invitati a partecipare allo sviluppo di analizzatori di emozioni più equi e trasparenti, alcuni dei peggiori abusi dei software di previsione e assunzione del crimine potrebbero essere evitati.

Ma dovremmo davvero puntare ad “aggiustare” l’affective computing? Cosa comporta una metafora così meccanica? Uno degli ex colleghi di Picard al MIT, il defunto Marvin Minsky, si lamentava nel suo libro The Emotion Machine che “sappiamo molto poco di come il nostro cervello gestisce” le esperienze comuni:

“Come funziona l’immaginazione? Quali sono le cause della coscienza? Cosa sono le emozioni, i sentimenti e i pensieri? Come riusciamo a pensare? Contrasta questo con i progressi che abbiamo visto per rispondere alle domande sulle cose fisiche. Cosa sono i solidi, i liquidi e i gas? Cosa sono i colori, i suoni e le temperature? Cosa sono le forze, le sollecitazioni e le tensioni? Qual è la natura dell’energia? Oggi, quasi tutti questi misteri sono stati spiegati in termini di un numero molto piccolo di leggi semplici”.

Anche le emozioni, secondo la sua logica, dovrebbero essere soggette alla riduzione scientifica. Propone di scomporre i “sentimenti” o le “emozioni” in parti costitutive, un passo verso la loro quantificazione come le temperature o le velocità. Una domanda di brevetto di Affectiva, l’azienda co-fondata da Picard, descrive in dettaglio proprio come tale quantificazione potrebbe funzionare, analizzando i volti per catturare le risposte emotive e generare “un punteggio di coinvolgimento”. Se le istituzioni acquistano questo tipo di presupposti, gli ingegneri continueranno a fare queste macchine che cercano di attualizzarli, coccolando clienti e pazienti, lavoratori e studenti, con stimoli finché non reagiscono con la risposta desiderata – il modo in cui la macchina ha già deciso che certe emozioni devono apparire.

Dall’interno di una cornice ingegneristica, la ricerca scientifica dietro l’affective computing è incontestabile, non politica – qualcosa che deve necessariamente essere lasciato agli esperti di AI. Il ruolo dei critici non è quello di diffidare della scienza, ma di aiutare gli ingegneri a riflettere i valori sociali del consenso nel modo in cui applicano le loro scoperte sull’analisi facciale, che, come nota un altro deposito di brevetto Affectiva, potrebbe “includere l’analisi del mercato dei prodotti e dei servizi, l’identificazione biometrica e di altro tipo, gli utilizzi da parte delle forze dell’ordine, la connettività dei social network e i processi sanitari, tra molti altri usi”.

C’è un altro e migliore framing disponibile rispetto a quello ingegneristica, però – una più politica, incentrata su controversie di lunga data riguardanti la natura delle emozioni, il potere delle macchine di caratterizzarci e classificarci, e lo scopo e la natura dei sentimenti e degli stati d’animo stessi. Da questa prospettiva, l’affective computing non è semplicemente un’elaborazione pragmatica delle persone, ma una forma di governo, un mezzo attraverso il quale i soggetti sono classificati sia per i capi azienda che per i loro tirapiedi. Trattare le persone come individui, con vite emotive complesse e in evoluzione, richiede tempo e lavoro. Attribuire loro un qualche “punteggio di impegno” o classificatore è un modo scalabile, risparmiando così lo sforzo umano che una volta sarebbe stato dedicato ad esplorazioni più conversazionali degli stati emotivi.

Opportunità di business pericolose

Questa capacità di scala a sua volta alimenta la redditività delle applicazioni di affective-computing – lo stesso software può essere adattato a molte situazioni e poi applicato a vaste popolazioni per trarre conclusioni utili. Abbiamo visto quanti soldi si possono fare nel condizionare le persone a interagire in modi standardizzati in piattaforme come Twitter e Facebook – compresi i “cuori” e i pulsanti di reazione. Ora immaginate le opportunità di business nella standardizzazione delle risposte emotive offline. Ogni tipo di cattiva comunicazione potrebbe apparentemente essere evitata. Una volta che la comunicazione stessa è stata costretta all’interno di bande strette di indicatori emotivi leggibili dalla macchina, più messaggi e preferenze verrebbero trasmessi istantaneamente.

Questo è un progetto pericoloso, però, perché i significati di, diciamo, un ghigno in un ambiente sperimentale controllato, un cinema, un appuntamento a cena e una rapina a mano armata, sono probabilmente abbastanza distinti. James A. Scott ha esplorato i pericoli della “leggibilità” come progetto politico-economico nel suo classico Seeing Like a State, che descriveva la tracotanza burocratica basata su presupposti errati della realtà sociale. Scott teorizza i disastri che vanno dal Grande balzo in avanti della Cina alla collettivizzazione in Russia e alla villaggizzazione obbligatoria in Etiopia e Tanzania come radicati negli sforzi falliti dello stato di “conoscere” i suoi soggetti:

“Come ha fatto lo stato a prendere gradualmente in mano i suoi soggetti e il loro ambiente? Improvvisamente, processi così disparati come la creazione di cognomi permanenti, la standardizzazione di pesi e misure, l’istituzione di rilevamenti catastali e registri della popolazione, l’invenzione della proprietà terriera, la standardizzazione del linguaggio e del linguaggio legale, la progettazione delle città e l’organizzazione dei trasporti sembravano comprensibili come tentativi di leggibilità e semplificazione. In ogni caso, i funzionari hanno preso pratiche sociali eccezionalmente complesse, illeggibili e locali, come le usanze di possesso della terra o di denominazione, e hanno creato una griglia standard per poterle registrare e monitorare a livello centrale”.

Le crisi di travisamento – o di rappresentazione forzata – possono sorgere anche in ambiziosi progetti di affective-computing. Non tutte le classificazioni di una persona come, diciamo, “arrabbiata”, sono basate su letture accurate degli stati emotivi. Potrebbero essere proiezioni, letture strategiche o letture errate; o semplici errori. Ma indipendentemente dall’accuratezza, diventano fatti sociali con peso e influenza in vari database, che a loro volta informano i decisori.

Così la metrica delle emozioni non cerca semplicemente di fornire una rappresentazione di ciò che è, ma è anche un metodo per produrre soggetti che sono suscettibili ai mezzi di controllo che la metrica alimenta e gestisce. In altre parole, gran parte dell’affective computing non si occupa tanto di catturare gli stati emotivi esistenti quanto di postularli. Definisce particolari manifestazioni emotive come normative in particolari circostanze e poi sviluppa sistemi (come i depositi di brevetto Affectiva menzionati sopra) per premiare, imporre, o anche controllare la conformità con queste norme. Mentre la visione a lungo termine dell’affective computing è ora inquadrata come un regno pacifico di computer piacevoli e utenti felici, la sua disattenzione alle dinamiche di potere tradisce un campo facilmente riproponibile a fini meno emancipatori.

Per esempio, se, avendo visto una serie di esecuzioni sommarie ampiamente pubblicizzate da parte della polizia, la maggior parte delle persone inizia ad avvicinarsi agli agenti di polizia con estrema deferenza, questo comportamento potrebbe essere catturato e normalizzato, risultando in un software che calcola “punteggi di obbedienza” per i sospetti. Ma questa pratica non si limiterebbe a riportare la realtà. Piuttosto, contribuirebbe a creare nuove realtà e potrebbe facilmente aumentare il rischio di più violenza contro coloro che non riescono a eseguire correttamente l’obbedienza in futuro. Come la classica “spirale del silenzio” di Noelle-Neumann (Spiral of Silence), una “spirale del servilismo” è un pericolo distintivo di un mondo affettivamente compresso da autorità sempre più suscettibili, guardinghe e intolleranti.

La spirale della sottomissione

I computer affettivi possono essi stessi rimanere intrappolati in tali spirali, innovando le manifestazioni di preoccupazione o di rispetto per coloro che sono soggetti ai loro interventi. Un programma Medicare ora presenta avatar parlanti di cani e gatti, progettati per calmare gli anziani. Comandati a distanza in un modo che ricorda il film Sleep Dealer, gli avatar hanno lo scopo di dare un volto kawaii per l’assistenza dei lavoratori distanti, mentre forse risparmiano ai lavoratori la fatica emotiva mentre questi controllano e rispondono loro clienti. Si può immaginare che i commercianti aggiungerebbero personaggi sorridenti e animati ai chioschi di auto-riciclaggio in base ai modelli di navigazione internet di un cliente. Potremmo anche dare il benvenuto a sistemi automatizzati che simulano la preoccupazione – paradisi meccanici in un mondo senza cuore.

Ma queste comodità non sono meno manipolabili perché sono personalizzate. Come ha sostenuto Daniel Harris in Cute, Quaint, Hungry, Romantic, l’aspetto carino ha una curiosa dualità: intesa a evocare calore e cura, le creature carine sono anche abiette, patetiche, indifese, innocue. Quando una corporazione o uno Stato senza volto dispiega tale retorica visiva, il significato in primo piano è la cura e la preoccupazione, ma in agguato sullo sfondo c’è un’altra risonanza di questa gradevolezza: l’infantilizzazione, esacerbata dalla sensazione che i controllori del sistema non solo ti ritengono troppo insignificante per occuparti personalmente, ma non possono nemmeno preoccuparsi di evocare un avatar umano per consentire la loro distanza.

Queste dinamiche sottili e ricorsive del sentimento – e la linea sottile tra gesti premurosi e paternalistici – non sembrano disturbare la maggior parte del lavoro nell’affective computing. Il modello di attività mentale del campo è più comportamentista (cercare gli stimoli migliori per provocare le risposte desiderate) che fenomenologico (interpretare riccamente il significato delle situazioni). Da questa prospettiva, le emozioni sono essenzialmente strumenti pragmatici. I sentimenti sono funzionali come un pulsante “mi piace” o un semaforo: la gioia e l’amore affermano il proprio stato attuale; la paura e la tristezza provocano un senso di disagio, un bisogno di fuggire o di lottare, di criticare o di lamentarsi. Le emozioni sono in gran parte trattate come autonome e univoche piuttosto che come stimoli all’articolazione o alla valutazione dialogica e alla riflessione sulla propria situazione.

I ricercatori hanno descritto molteplici progetti di affective-computing come modi per rilevare – e persino prevedere – le risposte emotive, concepite in questo modo limitato. Per esempio, l’IA potrebbe trovare modelli di microespressioni (espressioni facciali rapide e fugaci) che spesso precedono la rabbia più ovvia. I dipartimenti di polizia potrebbero cercare di prevedere il crimine basandosi su poco più del contegno di una persona. I sistemi di servizio al cliente vogliono usare il software di analisi della voce per determinare fino a che punto possono ritardare la chiamata di un cliente prima che la negligenza diventi fastidiosa. Alcuni datori di lavoro pensano che le onde cerebrali dei lavoratori contengano indizi critici sul loro impegno e sui livelli di stress.

Tali programmi possono fornire dati preziosi per una società o un governo che cerca di massimizzare i profitti o di sottomettere una popolazione. Ma stanno davvero “calcolando l’affetto”, rendendo leggibile a macchina qualcosa di ineffabile e interiore come l’emozione? I critici sostengono che il calcolo dell’affetto è molto più difficile di quanto i ricercatori lo facciano sembrare. Sottolineano i molti modi in cui le espressioni facciali (e altri indicatori ostensibili dell’emozione, come la frequenza cardiaca o la risposta galvanica della pelle) non riescono a trasmettere accuratamente gli stati d’animo discreti. Lo spostamento degli occhi è un segno di distrazione o di profonda riflessione sul problema in questione? Quando un sorriso è una smorfia? O un occhiolino, un tic, nella classica formulazione dell’antropologo Gilbert Ryle? E perché dovremmo supporre che trasformare espressioni involontarie o semivolontarie in forme di interazione computerizzata (o opportunità di classificazione computazionale) servirebbe i nostri interessi meglio di quelli dei clienti delle aziende leader dell’affective computing? La storia vergognosa delle cosiddette macchine della verità dovrebbe guidare il lavoro futuro speso per “decodificare” meccanicamente l’intenzione, i livelli di stress e la sincerità.

In conclusione

L’affective computing è tanto un motore quanto una macchina fotografica, un modo di organizzare e riorganizzare la realtà sociale (piuttosto che semplicemente registrarla). Più diventa comune, più questi sistemi sociotecnici ci incentiveranno a regolare i nostri stati “emotivi” esteriori per far sì che i computer si comportino come vorremmo. Naturalmente, facciamo questo nella conversazione con le persone tutto il tempo – la comunicazione strategica e strumentalizzata sarà sempre con noi. Ma questi sistemi saranno più manipolabili perché saranno molto più limitati nel modo in cui trarranno le conclusioni. E grazie alla magia della capacità di scala, tenderanno anche ad essere molto più effettivi delle conversazioni una tantum.

In troppe delle sue attuali implementazioni, l’affective computing ci richiede di accettare come vere certe idee funzionaliste sulle emozioni, il che porta ad un comportamentismo depoliticizzato e sminuisce i nostri processi coscienti di esperienza o riflessione emotiva. Proprio come la manipolazione di precisione delle emozioni attraverso le droghe non garantirebbe la “felicità”, ma introdurrebbe solo un’economia psichica radicalmente nuova di appetiti e avversioni, desideri e malumori, le implementazioni aziendali dell’informatica affettiva non riguardano tanto il servizio alle persone quanto il loro modellamento. Preservare la privacy e l’autonomia delle nostre vite emotive dovrebbe avere la priorità su una ricerca fuorviata e manipolativa di macchine delle emozioni.

Note

1 Susan Urbina, “Tests of Intelligence,” in Robert J. Sternberg and Scott Barry Kaufman, eds., The Cambridge Handbook on Intelligence (Cambridge: Cambridge University Press, 2011).

2 Katie Davis, Joanna Christodoulou, Scott Seider, and Howard Gardner, “Multiple Intelligences,” in Robert. Sternberg and Scott Barry Kaufman, eds., The Cambridge Handbook on Intelligence (Cambridge: Cambridge University Press, 2011).

3 Alcuni psicologi specializzati nello studio dell’intelligenza hanno ampliato il loro campo di indagine per esplorare tali preoccupazioni. Vedi, per esempio, Robert J. Sternberg, Wisdom, Intelligence, and Creativity Synthesized (Cambridge: Cambridge University Press, 2003). Questo libro contesta, tra le altre questioni   dubbie, l’idea che l’intelligenza sia ciò che i test d’intelligenza misurano.

4 Ariel Bogle, “Too many mental health apps put style over substance,” Mashable, Nov. 30, 2016, http://mashable.com/2016/11/30/mental-health-apps-little-evidence/#6IAWdZ.f8mqO; Emily Anthes, “Mental health: There’s an app for that,” Nature, April 6, 2016, http://www.nature.com/news/mental-health-there-s-an-app-for-that-1.19694 (At the time it was written, Nature’s article estimated that there were nearly 5,000 available apps addressing mental health.).

5 Questo è stato anche il genio retorico dietro il test di Turing. Era un’educazione dei sentimenti, verso l’accettazione della personalità dell’IA come telos di un corpo di ricerca che avrebbe potuto essere altrettanto facilmente inquadrato come aumento dell’intelligenza, un modo di assistere gli umani. Il classico test di Turing non è tanto uno standard filosofico per valutare il successo dell’IA quanto un dispositivo retorico per abituare i lettori ad assumere che lo status di persona debba essere concesso al compimento di certi compiti.

6 Enrico Gnaulati, Saving Talk Therapy: How Health Insurers, Big Pharma, and Slanted Science Are Ruining Good Mental Health Care (Boston: Beacon Press, 2018).

7 Elizabeth Cotton, “Working in the Therapy Factory,” Healthcare: Counselling and Psychotherapy Journal 20(1) (2020): 16-18; Catherine Jackson and Rosemary Rizq, eds., The Industrialisation of Care: Counselling, Psychotherapy and the Impact of IAPT (Monmouth, UK: PCCS Books, 2019).

8 For more on the financialization of mental health status, see Will Davies, The Happiness Industry: How the Government and Big Business Sold Us Well-Being (London: Verso, 2015).

9 Gordon Hull and Frank Pasquale, “Toward a Critical Theory of Corporate Wellness,” BioSocieties13:1 (2018), 190-212.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4