Le macchine, a diversi livelli – che si tratti dell’interfaccia di un sito web, di un assistente vocale come Siri, Alexa o Cortana, di una chatbot o di un vero e proprio robot sociale – ci suggeriscono delle cose: “potresti provare anche questo”, “se ti è piaciuto questo, allora…”, “gli altri utenti hanno scelto questo”, e così via.
Al di là dei problemi di privacy che sorgono (dal momento che i suggerimenti dipendono dai dati individuali raccolti), una questione interessante sollevata dall’EGE (2018) consiste nel chiedersi se dovrebbero esserci dei limiti a questo fenomeno: dovrebbero esserci delle cose che le macchine non possono suggerirci? Chi stabilisce questi limiti? E sulla base di cosa?
La teoria della “spinta gentile” e l’influenzabilità dell’essere umano
Queste domande possono essere declinate in diversi modi: il più semplice, forse, riguarda i limiti dei suggerimenti pubblicitari. Noto è stato il caso di una donna che ha pubblicato un articolo sul Washington Post per diffondere la sua triste storia: dopo aver perso il bambino quasi alla fine della gravidanza, le varie piattaforme che utilizzava continuavano a mostrarle pubblicità legate alla nascita e all’accudimento dei bambini, contribuendo ad amplificare il suo dolore (Brockell 2018).
Con un significato un po’ diverso, un caso interessante a questo proposito, è quello del nudging e della sua applicazione all’IA. La cosiddetta nudge theory (Thaler & Sunstein 2008) si inserisce nell’ambito dell’architettura della scelta e consiste in tutte quelle “spintarelle”, come dice il nome stesso, che servono a indurre qualcuno a scegliere una strada piuttosto che un’altra. Un esempio banale: mettere il cibo salutare all’altezza degli occhi, dove è più visibile e quindi sarà più facilmente scelto dal cliente del negozio o della mensa.
L’idea, infatti, è che queste spinte debbano essere verso il meglio, e dunque non avere scopi malevoli. Non si tratta, ad ogni modo, di scelte obbligate, anzi il nudging sta proprio nel fatto che la scelta resta nelle mani di chi usufruisce del servizio. I presupposti, però, sono una certa concezione dell’individuo, di stampo comportamentista, per cui a certi stimoli risponderanno (quasi) certamente determinate risposte. Inoltre, per essere tale, il nudging non dovrebbe comportare incentivi o disincentivi economici. La teoria, dunque, pur mantenendo l’idea che l’individuo sia libero, si inserisce nell’ambito dell’economia comportamentale e parte dal presupposto che gli esseri umani siano fortemente influenzati, nelle loro scelte, dall’ambiente che li circonda (Ross 1977).
L’applicazione del nudging all’intelligenza artificiale
La questione diventa ancora più interessante quando viene applicata alle nostre interazioni con le macchine e, quindi, quando i suggerimenti e le spintarelle vengono dall’intelligenza artificiale (molto interessante a questo proposito Mele et alia 2021). Anche questo potrebbe sollevare dei problemi di trasparenza, tali per cui potrebbero esserci dei nudge di cui non ci rendiamo conto, perché non espliciti – a differenza dei suggerimenti a cui abbiamo fatto riferimento all’inizio che, trattandosi di proposte, sono espliciti. Lo stesso esempio della disposizione della frutta non è così trasparente: potremmo non renderci affatto conto, ma forse nemmeno domandarci, perché la frutta si trovi proprio lì e non altrove. Questo è un primo punto da tenere a mente.
Molte IA, molti nudging
Secondo punto, anche per l’IA esistono casi molto differenti tra loro, soprattutto perché esistono molti tipi di IA – così come molti tipi di nudging. Questi ultimi possono essere suddivisi in base a numerosi criteri (in Mele et alia 2021 ne troviamo una rassegna esaustiva). Ai nostri occhi, molto interessante è la questione dei robot sociali che proprio interagendo socialmente con noi possono suggerirci determinate cose e, così facendo, “spingerci” verso il meglio.
Venendo a esempi concreti, un caso interessante è costituito da Mabu (Catalia Health). Si tratta di un robot sociale utilizzato per pazienti con malattie croniche, con lo scopo di incentivare e migliorare le cure di questi stessi pazienti. La piattaforma intelligente a cui Mabu è connesso impara i gusti e le abitudini del suo utente, con cui può così intrattenere delle conversazioni mirate.
Un altro esempio è ElliQ (Intuition Robotics), anche in questo caso un robot sociale che consiste in un corpo stilizzato di piccole dimensioni e uno schermo separato. Il suo scopo è spingere gli anziani a rimanere attivi e sociali e, dunque, evitare stili di vita eccessivamente sedentari, non solo da un punto di vista fisico, ma anche mentale e sociale e ricordare loro gli appuntamenti medici.
Se fosse vero che c’è una intelligenza artificiale senziente
Conclusioni
Questi scenari pongono sicuramente numerose sfide di tipo etico: il Parlamento europeo (2021) riconosce tra queste, le questioni della “esplicabilità” e trasparenza delle macchine. Con ciò si intende il fatto che il loro comportamento dovrebbe essere chiaro e prevedibile da parte degli utenti che ne fanno uso, senza incorrere però in quella che viene chiamata “info-besity”, ovvero un eccesso di informazioni tale da essere privo di utilità.
Questo tema si lega a quello delle note black box, ma può configurarsi anche diversamente, se inteso come l’idea che un robot, se interrogato, dovrebbe essere in grado di dare una spiegazione del proprio comportamento, proprio come chiediamo a bambino: perché hai buttato il libro a terra? Infatti, una cosa è comportarsi in modo comprensibile, un’altra è fornire la spiegazione di ogni minimo comportamento, o meglio spiegare ogni singolo passaggio che permette alle macchine di produrre un determinato output. Per questo riterremmo giusto che il bambino rispondesse “perché ero arrabbiato” o “per dispetto”, ma non pretendiamo da lui la spiegazione fisiologica del gesto o ogni singolo pensiero fatto dal suo cervello prima.
Anche nei casi dei robot social che abbiamo descritto, le sfide etiche si intrecciano ai grandi vantaggi che è possibile ottenere da simili interazioni, che permettono non solo soluzioni ottimali ai loro utenti, ma aumentano anche le loro possibilità agentive e offrono soluzioni concrete a casi problematici. In questo senso, l’architettura della scelta può fornire un aiuto valido, ma richiede una consapevolezza costante dei limiti che andrebbero imposti e, dunque, la necessità che i suggerimenti siano espliciti e possano essere sempre compresi da chi li riceve. Altro presupposto indispensabile è che le spinte siano davvero orientate a migliorare le scelte e, di conseguenza, la vita di chi liberamente ma comunque in parte indotto sceglie di accogliere i suggerimenti del proprio robot.
Bibliografia
G. Brockell (2018, Dec. 12), “Dear tech companies, I don’t want to see pregnancy ads after my child was stillborn”, Washington Post.
European Commission, Directorate-General for Research and Innovation, European Group on Ethics in Science and New Technologies, Statement on artificial intelligence, robotics and ‘autonomous’ systems : Brussels, 9 March 2018, Publications Office, 2018, https://data.europa.eu/doi/10.2777/531856
European Parliament, Directorate-General for Internal Policies of the Union, Przegalinska, A., State of the art and future of artificial intelligence, European Parliament, 2021, https://data.europa.eu/doi/10.2861/613707
P.G. Hansen & A.M. Jespersen (2013), “Nudge and the manipulation of choice: A framework for the responsible use of the nudge approach to behaviour change in public policy”, European Journal of Risk Regulation, 31 (4): 1-28.
C. Mele, T. Russo Spena, V. Kaartemo, M.L. Marzullo (2021), “Smart nudging: How cognitive technologies enable choice architectures for value co-creation”, Journal of Business Research, 129: 949-960.
L. Ross (1977), “The intuitive psychologist and his shortcomings: Distortions in the attribution process”, Advances in Experimental Social Psychology, 10: 173-220.
R. Thaler & C. Sunstein (2008), Nudge: The gentle power of choice architecture, Yale University Press, New Haven, CT.