Contro gli algoritmi che ci manipolano, l’educazione psicosociale degli utenti - Agenda Digitale

l'analisi

Contro gli algoritmi che ci manipolano, l’educazione psicosociale degli utenti

Al netto delle responsabilità dei progettisti e della necessaria regolamentazione del controllo esercitato dai sistemi di AI, è fondamentale che siano soprattutto gli utenti a essere alfabetizzati a un uso che non è tecnico ma sempre più psico-sociale per conoscere processi ed effetti dell’uso delle tecnologie digitali

30 Apr 2021
Daria Grimaldi

docente di psicologia sociale delle comunicazioni di massa, Università di Napoli Federico II

L’accelerata dei processi di digitalizzazione nell’ultimo anno ha portato una serie di riflessioni che non possono essere più rimandate e che riguardano la capacità degli individui di comprendere e controllare i processi in atto.

La disponibilità di enormi quantità di dati ha reso facile ricavare nuove informazioni e rimandare un gran numero di decisioni agli algoritmi: dal semplice profiling che spinge Netflix a suggerirci un film, passando ai sistemi che aiutano le banche a determinare la nostra affidabilità creditizia, fino ad arrivare agli strumenti per la diagnosi di problemi di salute o al deep learning, utilizzato per intervenire sulla questione climatica, tra le altre cose.

Se da una parte gli sviluppi hanno garantito importanti progressi, i rischi derivanti dall’automazione del bias sono esacerbati dalla quantità di dati ora generati, che gli utenti stessi condividono volontariamente in svariati modi e che si prevede quadruplicheranno entro il 2025. Questo enorme volume di dati se da una parte riduce i costi e sveltisce i processi decisionali, dall’altra rischia di lasciare carta bianca all’utilizzo di algoritmi per scopi manipolatori.

Il problema non è, chiaramente, l’algoritmo in sé, ma la crescita che l’ingerenza delle tecnologie sta avendo su tutti i livelli della nostra realtà sociale, dal nostro privato quotidiano, all’impatto sulla democrazia e sulla governance, senza che, contemporaneamente, la società ed i singoli individui siano in grado di comprenderne a pieno le implicazioni d’uso e senza sufficiente risonanza delle questioni etiche connesse a questo impatto.[1]

Il tema è ampio, come il dibattito che ormai già da anni, soprattutto dopo le elezioni del 2016, si è costruito attorno al peso che hanno gli algoritmi nelle realtà sociali in termini di manipolazione di massa.[2]

Gli algoritmi e le manipolazioni

Da un punto di vista sociale è importante considerare che l’impatto della rapida crescita digitale è legato al generarsi di un crescente divario digitale che può minare una ripresa inclusiva, sia a breve che a lungo termine. [3]

E-Guide
Fashion e luxury retail: nuove strategie grazie ad AI e customer experience
Fashion
Intelligenza Artificiale

A questo si associano le preoccupazioni etiche più urgenti correlate al ruolo delle tecnologie come persuasori occulti: [4]

  • l’amplificazione dei pregiudizi insiti (anche implicitamente) nella progettazione
  • una crescita ineguale che aumenta pericolosamente il digital divide
  • la deregolamentazione e il monopolio in gruppi privati, i cui obiettvi sono essenzialmente costruiti sul profitto commerciale.

“Algocrazia”: come l’intelligenza artificiale minaccia la libertà umana

Amplificazione dei pregiudizi

Il problema che emerge, guardando al futuro è, anzitutto, di ordine etico e riguarda la probabilità che questi algoritmi possano perpetuare ed inasprire bias decisionali, come quelli basati su tratti sociali e razziali.[5]

Come sottolineò già nel 2018 la studiosa Safija Noble in Algorithms of Oppression[6], i programmatori hanno pregiudizi, così come chi definisce le regole su cui loro lavorano.

Tali pregiudizi possono derivare da dati di addestramento basati su inferenze errate, volutamente o inconsapevolmente distorte a monte, basati su informazioni di partenza non rappresentative o incomplete che lasciati alla discrezione dell’automatismo potrebbero crescere il numero di decisioni inique e potrebbero erroneamente riflettere le disuguaglianze storiche caratterizzanti il decision making, per così dire, “analogico” invece di andare ad ottimizzare le prestazioni. Se non controllati, algoritmi di parte possono portare a decisioni che possono avere un impatto collettivo e disparato su determinati gruppi di persone anche senza l’intenzione del programmatore di discriminare.[7]

Il lavoro tra controllo e digital divide

Un contesto in cui la distorsione dell’uso degli algoritmi può avere un impatto incredibile è, ad esempio, il mondo del lavoro dove sempre più aziende private si rivolgono alla gestione algoritmica per monitorare la produttività dei dipendenti. Senza un’attenta considerazione, il luogo di lavoro algoritmico del futuro potrebbe finire come una distopia basata sui dati” scrive Mike Walsh.[8]

Essere gestiti algoritmicamente significa non solo essere soggetti più di prima a monitoraggio e sorveglianza costanti, ma anche avere meno probabilità di fare carriera cominciando dal basso.

Nelle organizzazioni basate sull’intelligenza artificiale, difatti, esiste un problema non indifferente noto come “limite di codice”, riconosciuto come un vincolo nella crescita professionale e nella opportunità di carriera dei lavoratori che, non venendo monitorati da persone, non hanno la stessa possibilità che c’era in passato di avere successo nella stessa azienda.

La rapida digitalizzazione nelle interazioni sociali e nel lavoro ha ampliato le competenze digitali essenziali, tra cui comunicazione, sicurezza informatica ed elaborazione delle informazioni, rendendo così le lacune nell’alfabetizzazione digitale la possibile causa della nascita di una vera e propria “sottoclasse digitale”. Così denuncia il rapporto Future of Jobs del World Economic Forum, per il quale si stima che l’automazione potrebbe spostare 85 milioni di posti di lavoro in soli cinque anni e che i lavoratori esclusi dalle risorse digitali perderanno le opportunità di istruzione e occupazione costantemente create dall’economia digitale globale.[9]

Sia nelle economie sviluppate che in quelle emergenti, il rapido passaggio al lavoro a distanza rischia di creare nuovi divari tra i lavoratori della conoscenza e quelli in settori pratici che non possono lavorare a distanza e potrebbero non disporre delle competenze e degli strumenti digitali per trovare altro impiego. [10]

“Coded Bias”, così abbiamo delegato il nostro razzismo agli algoritmi

La governance e i monopoli

Contestualmente all’aumento dell’uso dei social network, cresce una “economia dell’attenzione” che concentra nelle mani di pochi privati il controllo della maggior parte delle piattaforme, all’interno delle quali si concretizza il quotidiano della comunicazione di massa.

L’ambivalenza degli utenti è data dalla consapevolezza della necessarietà del progresso, che però si accompagna sia alla mancanza di fiducia nelle grandi aziende tecnologiche che alla preoccupazione per l’incapacità di usare la tecnologia in modo critico e responsabile, da parte della maggior parte delle persone.

Questa sfiducia nell’industria tecnologica ha avviato il fenomeno del techlash normativo e affonda le radici nella paura che si è generata intorno al potere stesso dei Big del digitale.

La risposta dei governi, orientata ad aumentare la protezione degli utenti o incrementare le pressioni normative sui mercati digitali, non è considerata una strada univocamente positiva: laddove i governi decidono di intervenire direttamente si teme la limitazione della libera espressione, dove rimandano la regolamentazione ai privati si teme l’aumento sproporzionato del potere di questi ultimi sull’opinione pubblica.[11]

Il Techlash normativo, difatti, rischia di considerare qualunque intervento come una restrizione di Internet, una sorta di azione censoria che limita la libera espressione, propria delle prime utopie su cui è nata la rete: di volta in volta in causa ci sono i governi o le aziende.

Nella ricerca sulla percezione del rischio (GRPS) si legge che uno dei rischi a lungo termine più probabile potrebbe proprio essere la concentrazione del potere digitale, ovvero la tendenza a limitare il discorso politico e sociale a un numero limitato di piattaforme che hanno la capacità di filtrare le informazioni, accumulando dati e potenzialmente prestandosi alla manipolazione degli stessi, senza che venga di fatto garantita una sufficiente trasparenza su come vengano utilizzati.[12]

Disinformazione e manipolazione sono di fatto un problema che nei social va ad influenzare l’opinione pubblica, riuscendo oggi ad orientarla concretamente ed agire sulla realtà sociale.[13]

Progettazione etica ed alfabetizzazione digitale

Il comun denominatore dei fenomeni appena descritti è nel ruolo persuasorio degli artefatti digitali, percepiti in maniera sempre più indipendente dai propri creatori e dagli stessi utilizzatori. Progettati con l’intento endogeno di rendere più facili da raggiungere gli obiettivi desiderati, semplificare ed ottimizzare processi decisionali e personalizzare le esperienze utente, attivano nel raggiungimento di questi scopi strategie manipolatorie che aumentano la motivazione degli utilizzatori, incentivando processi d’uso non sempre critici.

Allo strutturale intento persuasorio si affiancano altri due, quello esogeno, che prevede che la modifica del comportamento dell’utente sia voluta da un soggetto che cerca di manipolare un altro attore; e l’intento autogeno, che si manifesta quando è il soggetto stesso a decidere di utilizzare una tecnologia per migliorare i propri comportamenti.[14]

Pensiamo ad esempio alla profilazione propria dei social network nelle campagne di advertising: l’intendo endogeno del sistema è offrire la migliore esperienza utente al fine di aumentare la permanenza all’interno della piattaforma: più al cliente vengono proposti contenuti compatibili più avrà voglia di restare all’interno. Allo stesso modo i brand utilizzano i medesimi algoritmi per targettizzare le proprie campagne ed arrivare esattamente ai propri clienti obiettivo, al fine di indurli all’acquisto (intento esogeno). Gli utenti, infine, nell’iscriversi alle pagine o alle newsletter, generano l’intento autogeno della manipolazione, così da avere facilmente aggiornamenti sui propri prodotti preferiti.

Da una parte, quindi, una progettazione volutamente orientata a manipolare i comportamenti degli utilizzatori richiede una riflessione a monte, dall’altra una scarsa consapevolezza da parte degli utenti nel potere delle tecnologie della persuasione richiede una maggior consapevolezza d’uso.

È necessario un accordo generale e sistemico sul fatto che la tecnologia persuasiva sia realizzata in modo etico ed il ruolo della progettazione responsabile richiede un esame approfondito delle conseguenze intenzionali e non intenzionali degli strumenti tecnologici.[15]

Secondo Berdichevsky e Neuenschwander un parametro universalmente valido è che i creatori di tecnologia persuasiva non dovrebbero mai cercare di persuadere qualcuno di qualcosa di cui loro stessi non vorrebbero essere persuasi .[16]

Conclusioni

Al netto del ruolo di responsabilità dei progettisti e della necessaria regolamentazione del controllo esercitato dagli strumenti, diviene sempre più necessario che siano soprattutto gli utenti a essere alfabetizzati ad un uso che non è tecnico ma sempre più psico-sociale.

La soluzione a lungo termine per una crescita sostenibile risiederà nella capacità di fornire su vasta scala un sistema formativo che permetta di conoscere intrinsecamente processi ed effetti dell’uso delle tecnologie digitali, non tanto o solo tecnicamente, ma in termini di gestione psicosociale dei fenomeni connessi.

Note

  1. Come espresso nella risoluzione del Parlamento Europeo del 20 gennaio 2021 l’Intelligenza artificiale è, ad esempio, un punto centrale nel Patto Verde Europeo ed ha anche un obiettivo nevralgico il rilancio dell’economia post COVID-19. L’Intelligenza Artificiale nei programmi UE: rischi e benefici: https://www.altalex.com/documents/news/2021/02/10/intelligenza-artificiale-programmi-ue-rischi-e-benefici; si veda anche:Intelligenza artificiale: questioni relative all’interpretazione e applicazione del diritto internazionale: https://images.go.wolterskluwer.com/Web/WoltersKluwer/%7Bbf393c12-ee6b-443a-80b1-f87d5892e4c6%7D_parlamento-europeo-risoluzione-20-gennaio-2021-intelligenza-artificiale.pdf
  2. Kaye D, Libertà vigilata. La lotta per il controllo di Internet, Treccani, 2021
  3. Global Risk Report 2021: https://www.weforum.org/reports/the-global-risks-report-2021 Si veda: World Economic Forum. 2020. Markets of Tomorrow: Pathways to a New Economy. Insight Report. October 2020. http://www3.weforum.org/docs/WEF_Markets_of_Tomorrow_2020.pdf
  4. Si veda: https://en.unesco.org/artificial-intelligence/ethics
  5. Lee, N. T., Resnick, P. and Barton, G. 2019. “Algorithmic bias detection and mitigation: Best practices and policies to reduce consumer harms”. Brookings Institution. 22 May 2019.https://www.brookings.edu/research/algorithmic-bias-detection-and-mitigation-best-practices-and-policies-to-reduce-consumer-harms/
  6. Noble S. in Algorithms of Oppression: how search engines reinforce racism, NY University Press, NY 2018
  7. Lopez, G.. The First Step Act, Congress’s Criminal Justice Reform Bill, Explained.” Vox, December 3, 2018. https://www.vox.com/future-perfect/2018/12/3/18122392/first-step-act-criminal-justice-reform-bill-congress
  8. Walsh, M. 2019. “When Algorithms Make Managers Worse”. Harvard Business Review. 8 May 2019. https://hbr. org/2019/05/when-algorithms-make-managers-worse
  9. Walsh, M. 2020. “Algorithms Are Making Economic Inequality Worse”. Harvard Business Review. 22 October 2020. https://hbr.org/2020/10/algorithms-are-making-economic-inequality-worse
  10. World Economic Forum, in partnership with Marsh & McLennan Companies and Zurich Insurance Group. 2020. The Global Risks Report 2020. Insight Report. Chapter 6 False Positive. January 2020. http://reports.weforum. org/global-risks-report-2020/false-positive/
  11. Kaye, Op. cit
  12. ILO (International Labour Organization). 2020. Global Employment Trends for Youth 2020: Technology and the future of jobs. March 2020. https://www.ilo.org/wcmsp5/groups/public/—dgreports/—dcomm/—publ/ documents/publication/wcms_737648.pdf
  13. Per i ricercatori dell’Oxford Internet Institute, la propaganda computazionale è “un seria minaccia alla vita pubblica” che richiede delle azioni politiche da parte dei governi che vadano oltre il demandare alle aziende private una regolamentazione interna, che non fa altro che aumentare il potere oligarghico dei Big Tech. Bradshaw S., Howard P. N., Challenging truth and trust: a global inventory of organized social media manipulation, oxford Internet Institute, luglio 2018: https://demtech.oii.ox.ac.uk/research/posts/challenging-truth-and-trust-a-global-inventory-of-organized-social-media-manipulation/
  14. B.J. Fogg, (2005) Tecnologie della persuasione. Un’introduzione alla captologia, la disciplina che studia l’uso dei computer per influenzare idee e comportamenti,Apogeo, Milano,
  15. Tucker, K.K., Persuasive Technology: How Can We Make It More Ethical?https://www.infusedinnovations.com/blog/secure-intelligent-workplace/persuasive-technology-how-can-we-make-it-more-ethical
  16. Berdichevsky D. Neuenschwander E., Toward an ethics of persuasive technology, Communications of the ACM, Vol. 42, No. 5 https://dl.acm.org/doi/10.1145/301353.301410
WHITEPAPER
Cloud Contact Center: scopri come scegliere i giusti KPI e migliorare le performance degli operatori
Big Data
Cloud
@RIPRODUZIONE RISERVATA

Articolo 1 di 3