La sostituzione dell’uomo con la macchina è ben accetta e diffusa per molte applicazioni. Nessuno metterebbe in dubbio le capacità di un computer nell’ambito dell’aritmetica o del controllo ortografico, le cui funzionalità sono ben definite e la cui correttezza è condivisa ed indiscussa.
Anche per la meccanica, di maggiore o minore precisione, ci si affida spesso all’automazione e alla robotica, come avviene, ad esempio, per compiti di assemblaggio o distribuzione, in cui i movimenti possono essere programmati in anticipo e può esserci necessità di esercitare una forza fisica di prerogativa non umana.
La fiducia nei confronti delle macchine diventa problematica in sistemi per i quali i criteri di buona riuscita o di correttezza del lavoro sono più complicati, come nei casi di agenti intelligenti adattivi, nei sistemi di raccomandazione di prodotti o servizi, nella guida automatica.
Gli agenti intelligenti adattivi
Gli agenti intelligenti adattivi sono in grado di prendere decisioni in base a regole che vengono da essi stessi modificate con l’aggiungersi di nuove informazioni disponibili. Ad esempio, alcuni nuovi modelli di smartphone registrano gli orari in cui il proprietario, giorno dopo giorno, inizia ad usarli al mattino e come consuma la batteria durante la giornata; passato qualche tempo, questi dispositivi sono in grado di prevedere le modalità di utilizzo ed ottimizzano automaticamente la carica della batteria a seconda di quella previsione, anche se il proprietario li ha tenuti collegati al caricatore dalla sera al mattino. Se le abitudini dell’utente cambiano con il passare del tempo, il sistema di ottimizzazione si adatterà ad esse. Qual è il criterio esatto con cui potremmo stabilire se il sistema funziona o no? Il nostro concetto individuale di funzionamento soddisfacente potrebbe essere diverso da quello che l’azienda produttrice ha utilizzato per scrivere l’algoritmo di ottimizzazione di ricarica della batteria. Di conseguenza, per qualcuno il sistema sarà considerato del tutto affidabile mentre per qualcun altro non lo sarà altrettanto.
I sistemi di raccomandazione
Allo stesso modo, i sistemi di raccomandazione offrono consigli su prodotti o servizi da acquistare in base a ciò che stimano siano le nostre preferenze. Con alcuni di tali sistemi abbiamo familiarità in tanti: i prodotti che ci consiglia Amazon dopo aver cercato o acquistato qualcosa sul loro sito, i video di Youtube correlati alla nostra ricerca, i film o i documentari proposti da Netflix a ciascuno dei profili che abbiamo creato con il nostro account.
I sistemi di raccomandazione più sofisticati, come quelli della piattaforma di streaming musicale Spotify utilizzano algoritmi di apprendimento automatico, o machine learning, per tentare di anticipare le nostre preferenze future a partire dalla grande quantità di dati che hanno a disposizione su di noi, sul nostro comportamento e le nostre scelte, così da fornirci offerte personalizzate. Anche in questo caso, i criteri di accuratezza del sistema non sono definiti chiaramente: potremmo guardare alle valutazioni, o rating, delle raccomandazioni, alle scelte che l’utente fa dopo aver ricevuto la raccomandazione (se la segue oppure no), a cosa ci aspettiamo dal sistema (che ci mostri prodotti e servizi simili per determinati aspetti a quelli che abbiamo appena acquistato o che ci permetta di esplorare e scoprire qualcosa di completamente diverso).
L’affidabilità del sistema non è una caratteristica oggettiva, da tutti condivisibile.
Le automobili a guida autonoma
L’esempio forse più eclatante di difficoltà ad affidarsi alle macchine è quello delle automobili a guida autonoma. La promessa dell’industria era di avere automobili completamente autonome entro il 2017, stima poi aggiornata al 2019, poi al 2020… ma a maggio 2021 siamo ancora molto lontani dal raggiungere quell’obiettivo. Tali rinvii non aiutano certo ad accrescere la fiducia nei confronti della tecnologia, così come gli isolati ma molto pubblicizzati incidenti fatali, come quello in cui perse la vita in Florida nel 2016 il guidatore di una Tesla con pilota automatico inserito, o quello in cui un veicolo Uber investì una donna a Tempe, Arizona nel 2018). I ritardi nello sviluppo tecnologico hanno anche contribuito a convincere grandi investitori del settore come Lyft a vendere la loro attività di guida autonoma, forse prevedendone una bassa redditività nel breve-medio termine. Essendo molti incidenti stradali causati da errore umano o distrazione, di cui le auto a guida autonoma non soffrono, esse hanno il potenziale di salvare centinaia di migliaia di vite umane, eppure facciamo fatica ad affidarci agli algoritmi che le governano. Ancora una volta, i criteri con cui giudichiamo l’affidabilità di un computer o un algoritmo non sono oggettivi e condivisi.
Il fenomeno della avversione agli algoritmi
Gli esempi appena descritti sono accomunati da una caratteristica distintiva: il fatto che ci siano diverse soluzioni per uno stesso problema e debba essere quindi esercitata una qualche forma di giudizio per scegliere la soluzione migliore. L’automobile autonoma potrebbe essere chiamata a scegliere come evitare un passante, accelerando per superare un incrocio prima che il passante attraversi o rallentando per consentirglielo. Entrambe le soluzioni implicano il bilanciamento di due criteri in conflitto, tempo e sicurezza, ed occorre giudizio e discernimento per prendere una decisione. A torto o a ragione, in casi simili gli uomini tendono a fidarsi poco dei sistemi automatizzati – un fenomeno noto come avversione agli algoritmi (Dietvorst, Simmons, and Massey 2015; Prahl and Van Swol 2017). Perché questa mancanza di fiducia? O meglio, in quali situazioni non ci fidiamo di sistemi decisionali automatizzati? Dopotutto, ci fidiamo quasi ciecamente di alcuni algoritmi, come quelli che governano il motore di ricerca di Google, che invece, paradossalmente, contribuiscono a volte a dare una visione distorta o limitata della realtà.
Recenti lavori accademici hanno esplorato il modo in cui percepiamo e valutiamo le decisioni prese automaticamente dagli algoritmi, insieme ai fattori che influenzano la propensione umana a seguire o rifiutare i loro suggerimenti. A seconda del contesto specifico in cui si applicano, sembra esserci considerevole eterogeneità nelle nostre attitudini verso tali suggerimenti. Per quanto riguarda il giornalismo, ad esempio, è stato osservato un pregiudizio contro gli umani: un esperimento in Corea del Sud (Jung et al. 2017) ha mostrato che uno stesso articolo presentato come scritto da un essere umano viene considerato di qualità inferiore, sia da lettori che da giornalisti, rispetto a quando viene presentato come generato automaticamente da un algoritmo.
Viene spontaneo domandarsi se questo risultato possa essere replicato in altri ambiti ed in altre culture – la Corea del Sud è uno dei Paesi più avanzati quanto a diffusione ed utilizzo della tecnologia, quindi potrebbe non essere il campione più adatto se si vuole cercare di capire cosa determina la fiducia verso di essa.
Il tema dell’infallibilità (nostra e degli algoritmi)
Un altro studio sulle capacità di uomini e algoritmi di fare previsioni sul successo accademico di studenti di Master in Business Administration a partire da dati di ammissione (Dietvorst, Simmons, and Massey 2015) ha in effetti mostrato avversione agli algoritmi. A quanto è risultato, quando osserviamo una persona e un algoritmo commettere un errore, tendiamo a perdere fiducia nell’algoritmo più velocemente di quanto facciamo con l’umano: dopotutto, se vogliamo trovare un sostituto per le decisioni umane, pretendiamo che tale sostituto ne prenda di migliori, che sia appunto sovrumano. Ecco, quindi, uno dei motivi della mancanza di fiducia verso i sistemi automatici: se errare è tipicamente umano, da ciò che umano non è ci aspettiamo l’infallibilità.
Curiosamente, un secondo motivo risiede nella generale sovrastima che abbiamo nelle nostre capacità (Johnson and Fowler 2011). Sì, sappiamo che essendo umani possiamo sbagliare, ma proprio noi no – forse gli altri – e generalmente non accettiamo volentieri l’idea di lasciare la responsabilità delle nostre scelte ad altri (umani o no), vogliamo sentirci in controllo delle nostre vite (un fenomeno che spiega anche la predilezione di alcuni per il trasporto terrestre su quello aereo, nonostante quest’ultimo sia molto più sicuro; Klein and Kunda 1994; Slovic 1987). In effetti, quando ci viene data la possibilità di utilizzare un algoritmo come semplice base per le nostre previsioni, uno strumento che ci fornisce solo un punto di partenza da modificare, lasciando a noi la decisione finale, la nostra avversione verso di esso diminuisce in modo significativo (Dietvorst, Simmons, and Massey 2018).
Algoritmi in ambito medico, personalizzato è meglio
Sembrano poi esserci delle peculiarità nella nostra bassa fiducia negli algoritmi in ambito medico. Quando cerchiamo un parere medico, tendiamo a ritenere un algoritmo meno capace rispetto ad un essere umano di considerare la nostra unicità (Longoni, Bonezzi, and Morewedge 2019). L’avversione all’algoritmo, dunque, in questo caso si riduce se il consiglio da esso generato viene descritto come specificatamente personalizzato per noi, oppure se viene diretto non a noi ma ad una terza parte: noi siamo unici, diversi da tutti gli altri. Paradossalmente, la medesima caratteristica che ci rende meno avversi agli algoritmi (appunto, la personalizzazione) è anche quella che può renderli problematici, come accade nel caso dei motori di ricerca che, personalizzando i risultati in base a tutte le informazioni a disposizione su di noi, sono percepiti come affidabili ma rischiano di mostrare a ciascuno una realtà diversa – fenomeno alla base di importanti problematiche di polarizzazione nelle piattaforme virtuali (Levy 2021). Chissà se le grandi aziende tecnologiche come Google e Facebook erano a conoscenza degli effetti che la personalizzazione ha sulla fiducia verso i loro algoritmi.
Interpretabilità e fiducia
Altro fattore importante che influisce sulla fiducia degli umani negli algoritmi è la loro interpretabilità. Rimanendo in ambito medico, è stato dimostrato (Cadario, Longoni, and Morewedge 2020) che l’avversione agli algoritmi è causata almeno in parte dal fatto che essi siano percepiti come delle inscrutabili scatole nere, le cui raccomandazioni non sono spiegabili quanto quelle fornite da un essere umano. Tuttavia, questa miglior comprensione delle spiegazioni fornite da un essere umano è nella maggior parte dei casi illusoria: sarebbe come fidarsi più dell’insegnante che legge dal libro di testo parola per parola piuttosto che del testo stesso. Di conseguenza, quando i pazienti sono esposti a maggiori informazioni sulle modalità con cui l’algoritmo ha raggiunto determinate conclusioni, l’avversione diminuisce. Occorre sottolineare tuttavia, che l’evidenza empirica riguardo al rapporto tra trasparenza dell’algoritmo e fiducia nelle sue raccomandazioni non è affatto definitiva. Ad esempio, sembra che ci fidiamo di più se abbiamo giusto qualche informazione sul processo utilizzato da un algoritmo per raggiungere una determinata raccomandazione, ma non troppa (Kizilcec 2016): del resto, la maggior parte dei pazienti legge le prime righe di un bugiardino prima di assumere un farmaco consigliato dal proprio medico, ma raramente esamina l’intera lista di controindicazioni.
Il concetto di fiducia è complesso e varia da disciplina a disciplina. Nella sicurezza informatica la fiducia, dove possibile, viene persino evitata, nel senso che si preferisce costruire sistemi in cui non ci sia bisogno di fidarsi degli altri per garantire la sicurezza propria e della comunità di utenti (Satoshi Nakamoto Institute 2001). Molti sistemi distribuiti, come quelli fondati sulla blockchain, ad esempio, fanno della mancanza della necessità di fiducia verso un’autorità centrale il loro punto di forza. In maniera simile, uno dei principali vantaggi della crittografia end-to-end nella comunicazione sta proprio nel fatto che gli utenti non debbano necessariamente fidarsi di chi fornisce il servizio di comunicazione (la compagnia telefonica o quella che ha prodotto il dispositivo che utilizzano per comunicare): la cifratura di per sé garantisce una conversazione privata e sicura, perché non consente al fornitore del servizio alcun accesso alla comunicazione.
Non tutto può però essere decentralizzato, e ogni qualvolta sia necessario, o anche semplicemente conveniente, che un fornitore di servizi agisca da autorità centrale, si crea una forma di vulnerabilità (Wang and Emurian 2005) che rende la fiducia una condizione necessaria all’inizio ed al proseguimento di un rapporto col fornitore stesso. Nel mondo reale “la fiducia è il capitale sociale che può creare cooperazione e coordinazione.” Nel mondo virtuale è “l’aspettativa fiduciosa, in una situazione di rischio online, che le proprie vulnerabilità non vengano sfruttate” (Corritore, B. Kracher, and S. Wiedenbeck 2003; traduzione di chi scrive). Non conosciamo ancora tutti i segreti della fiducia nei confronti degli algoritmi, ma sappiamo che è fondamentale per convincerci ad usare nuove soluzioni tecnologiche senza pensieri, dalle app di tracciamento come Immuni alle automobili a guida autonoma come Tesla.
Bibliografia
Cadario, R., Longoni, C., & Morewedge, C. (2020). Understanding and Utilizing Medical Artificial Intelligence. Available at SSRN: https://papers.ssrn.com/sol3/papers.cfm?abstract_ id=3675363.
Corritore, C. L., Kracher, B., & Wiedenbeck, S. (2003). On-line trust: concepts, evolving themes, a model. International Journal of Human-Computer Studies, 58(6), 737-758.
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114.
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2018). Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them. Management Science, 64(3), 1155-1170.
Johnson, D. D., & Fowler, J. H. (2011). The evolution of overconfidence. Nature, 477(7364), 317-320.
Jung, J., Song, H., Kim, Y., Im, H., & Oh, S. (2017). Intrusion of software robots into journalism: The public’s and journalists’ perceptions of news written by algorithms and human journalists. Computers in Human Behavior, 71, 291-298.
Kizilcec, R. F. (2016, May). How much information? Effects of transparency on trust in an algorithmic interface. In Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems (pp. 2390-2395).
Klein, W. M., & Kunda, Z. (1994). Exaggerated self-assessments and the preference for controllable risks. Organizational Behavior and Human Decision Processes, 59(3), 410-427.
Levy, R. E. (2021). Social media, news consumption, and polarization: Evidence from a field experiment. American Economic Review, 111(3), 831-70.
Longoni, C., Bonezzi, A., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46(4), 629-650.
Prahl, A., & Van Swol, L. (2017). Understanding algorithm aversion: When is advice from automation discounted?. Journal of Forecasting, 36(6), 691-702.
Slovic, P. (1987). Perception of risk. Science, 236(4799), 280-285.
Wang, Y. D., & Emurian, H. H. (2005). An overview of online trust: Concepts, elements, and implications. Computers in Human Behavior, 21(1), 105-125.