Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

TECNO-FILOSOFIA

Pregiudizio, la trappola cognitiva dell’intelligenza artificiale

Il processo di induzione è basilare per la sopravvivenza umana. Consente di fare economia mentale e prendere decisioni rapide in mancanza di un esame completo delle circostanze. Ma se applicato ai sistemi di AI le cose cambiano. E il rischio è la produzione di distorsioni pericolose. Ecco perché

16 Ott 2019
Giovanni Salmeri

Università degli Studi di Roma Tor Vergata

teoria dell'argomentazione

Le applicazioni dell’intelligenza artificiale crescono. E con esse le critiche. Caratterizzate però spesso da un elemento ricorrente: l’effetto distorsivo prodotto dai “bias” generati dal background umano su cui è stato impostato il processo decisionale del sistema.

Quasi ogni giorno si leggono aneddoti, analisi, previsioni che inducono alla cautela e mostrano i possibili rischi, anche quando non si voglia giungere alle diagnosi catastrofiste di un Eric Sadin (che peraltro, bontà sua, riesce a filosofeggiare sull’intelligenza artificiale per un intero libro senza mai citare uno studio serio). I problemi sono molti e complessi, così come è vasto e complesso il campo dell’intelligenza artificiale stessa: il manuale introduttivo a cura di Stuart J. Russell e Peter Norvig è nella sua terza edizione un enorme volume di 27 capitoli e 1.164 pagine. Mi pare però che in molte delle critiche recenti vi sia un elemento ricorrente che può essere isolato e discusso con più facilità.

Facciamo un passo indietro di 35 anni. Nel 1984 viene pubblicato un libro destinato ad un enorme successo: Le armi della persuasione, di Robert Cialdini. L’autore è uno psicologo sociale che vuole spiegare (come recita il sottotitolo della traduzione italiana) «come e perché si finisce col dire di sì». Si tratta per esempio di spiegare perché una pubblicità funziona, perché ci lasciamo convincere da un venditore porta a porta, o da chi ci chiede di contribuire economicamente ad una causa, o perché scegliamo un’azienda invece di un’altra.

Se le scelte degli esseri umani fossero tutte razionali, ci sarebbe ben poco da spiegare: ogni «sì» verrebbe detto dopo aver analizzato pro e contro e aver dato ad ogni voce il peso che in quel momento, per i motivi più diversi, vogliamo attribuirle. Le cose invece non funzionano sempre così. Anzi, non funzionano quasi mai così.

Pregiudizio alla base delle decisioni umane

La maggior parte delle scelte vengono compiute basandosi su alcuni pochi elementi isolati e spesso marginali, che ci suscitano un’impressione positiva o negativa. Quando siamo noi a dover convincere qualcuno, sappiamo anche come usare attivamente alcuni di questi elementi: se andiamo ad un colloquio di lavoro probabilmente pensiamo al nostro abbigliamento, per esempio. Le persone vengono dunque assunte per come sono vestite? Sì, anche.

Ancora: la rivista online Conversation ha attirato l’attenzione su un’altra applicazione di intelligenza artificiale che a settembre è stata usata per la prima volta nel Regno Unito, ma già da qualche anno circolava nel resto del mondo: l’analisi facciale nei colloqui di lavoro. In fondo, gli esseri umani classificano le persone anche solo per la loro faccia e la loro espressione, no?

L’informatica aiuta solo a rendere più efficiente questo processo, confrontando automaticamente le espressioni di un candidato con le migliaia altre memorizzate di chi è stato assunto con successo e di chi è stato respinto. La compagnia che ha ideato il sistema afferma che in questo modo la decisione sull’assunzione può essere velocizzata del 90%. C’è bisogno di dire che cosa conclude questo articolo molto preoccupato? Che ovviamente un sistema simile «è creato all’interno della nostra società, segnata da un’intera gamma di differenti generi di preconcetti, pregiudizi, diseguaglianze e discriminazioni. I dati grazie ai quali gli algoritmi “imparano” a giudicare i candidati contengono questo insieme preesistente di credenze».

Dobbiamo dunque concludere che gli esseri umani sono normalmente stupidi? Al contrario: questa è proprio una componente essenziale della loro intelligenza. Essi hanno sviluppato strategie che consentono di fare economia mentale e prendere decisioni rapide in mancanza di un esame completo delle circostanze. Scegliamo la frutta al mercato con uno sguardo solo, con una rapida chiacchierata intuiamo se di una persona possiamo fidarci, con un’occhiata alla scacchiera troviamo una mossa buona senza analizzare milioni di combinazioni possibili.

Il meccanismo più frequente è quello della generalizzazione: se per cinque volte la frutta con un certo aspetto è risultata buona, pensiamo che anche la sesta volta sarà così, e un po’ alla volta ci comportiamo come se debba essere sempre così: e similmente, più o meno, per persone o situazioni di qualsiasi tipo.

WHITEPAPER
Cos’è cos’è l’imaging multiview e in quali ambiti può trovare applicazione?
Intelligenza Artificiale

Chi conosce un poco la storia della filosofia sa che questo meccanismo, in termini tecnici «induzione», è stato oggetto di critiche taglienti. Grosso modo la conclusione raggiunta è questa: l’induzione spiega sì moltissimi comportamenti umani, anzi la maggior parte di essi: ma non è mai un procedimento veramente affidabile.

Anzi, in alcuni casi è deleterio: per esempio «pregiudizio» è il nome che diamo all’induzione quando ci porta a pronunciare giudizi umani sulla base di precedenti, senza tener conto che ogni caso è unico, e soprattutto che ogni persona è unica: quando gli atti hanno la loro radice nella libertà, nulla impedisce che chi finora è stato un delinquente domani sia un santo, per esempio. O viceversa.

Inutile mettere il “pregiudizio” nel mirino

Ma tuonare sdegnati contro i «pregiudizi» non serve a niente: se li cancellassimo, non solo cancelleremmo anche tante strategie di sopravvivenza (girare a piedi da sola di notte in un quartiere malfamato? No, grazie!), ma getteremmo nel secchio, appunto, una parte essenziale dell’intelligenza. Proviamo a prescrivere ai medici di un pronto soccorso di non far nulla se non dopo aver acquisito i dati di tutte le analisi teoricamente necessarie, abbandonando i loro «pregiudizi» medici (lo «sguardo clinico», si dice), e vediamo che cosa ci rispondono.

A questo punto, possiamo ripensare a non pochi casi in cui l’Intelligenza artificiale viene accusata di effetti deleteri. Sei abbastanza affidabile per ricevere un prestito dalla banca? L’intelligenza artificiale decide: ma ovviamente, visto che tra le periferiche dei computer non c’è la palla di cristallo, si tratta di vedere nella situazione del richiedente quali sono i fattori che lo rendono più o meno a rischio: sulla base dell’esperienza sono più affidabili i maschi o le femmine? Gli ispanici o gli anglosassoni? Chi ha un lavoro fisso o chi non ce l’ha? I giovani o gli anziani?

Oppure: ti si può concedere la libertà condizionata? Allora diamo in pasto ad un algoritmo il colore della tua pelle, la tua situazione familiare, il tuo quartiere o la tua città di provenienza, il tipo di reato che hai commesso.

Artificiale e umano: stessi bias, risultati diversi

Benché appaia a prima vista scandaloso, questo è esattamente il modo in cui funziona negli esseri umani l’induzione. Se l’intelligenza artificiale deve imitare i processi dell’intelligenza umana, li sta imitando bene. Forse, però, con una differenza cruciale: che gli esseri umani, oltre a possedere un cumulo crescente di esperienze e pregiudizi, sanno anche che essi sono, appunto, pregiudizi, generalizzazioni mai veramente affidabili. Lo sanno quando formulano giudizi e lo sanno quando li ricevono: e così gran parte delle vicende umane sono costituite non solo dall’azione del pregiudizio, ma anche dal tentativo di correggerlo, rivederlo, smentirlo. Il fatto invece che tali valutazioni siano affidate ad una macchina suscita l’impressione che siano oggettive, indubitabili. In ogni caso non è certo la macchina che può dubitare dell’algoritmo con cui è programmata.

Negli anni 80 il grande informatico Edsger Dijkstra esprimeva, con il tono spicciativo che gli era proprio, tutto il suo disprezzo nei confronti dell’intelligenza artificiale. Che cosa stupida, diceva, sforzarsi di far sì che i computer imitino l’uomo in ciò che lui sa già fare tanto bene, anziché sfruttare la loro capacità di far benissimo le cose che l’uomo sa fare male: per esempio innumerevoli calcoli in tempi rapidissimi.

L’osservazione era grossolana, ma in qualche cosa gli sviluppi seguenti l’hanno confermata: se oggi un programma come stockfish, istallabile in qualsiasi computerino, è in grado di sconfiggere a scacchi senza problemi il campione mondiale, non è perché imiti bene lo straordinario e imperfetto intuito umano, ma perché lo sostituisce con ciò che un computer sa fare benissimo: l’analisi rapidissima di milioni di sviluppi della partita.

E le cronache di questi mesi mostrano che c’è almeno qualcos’altro che i computer non dovrebbero mai imitare: la tendenza a prevedere il comportamento libero altrui sulla base di generalizzazioni. Gli uomini certo lo fanno: ma solo in mancanza di meglio, e in linea di principio pronti a cambiar idea, in quel gioco dei rapporti umani che è il bello della vita. L’intelligenza artificiale in generale ci può aiutare, i pregiudizi artificiali proprio no.

@RIPRODUZIONE RISERVATA

Articoli correlati