Strapotere degli algoritmi, le conseguenze della datificazione sulle giovani generazioni | Agenda Digitale

l'analisi

Strapotere degli algoritmi, le conseguenze della datificazione sulle giovani generazioni

Cosa vuol dire avere le proprie esperienze mediate, formulate, scelte da un software? Quanto e in che modo la mediazione algoritmica incide su sviluppo e autonomia di crescita? Si sente la mancanza di un dibattito sull’impatto dell’opacità pervasiva degli algoritmi negli anni dello sviluppo. Tutti i rischi per i più piccoli

28 Ott 2020
Ivana Bartoletti

Autrice di An Artificial Revolution, Esperta di privacy e etica del digitale, Co-Founder, Women Leading in AI Network


I risvolti dell’esposizione al digital advertising e al behavioural targeting durante la crescita sono ancora ignoti. In altre parole, che effetto avrà sullo sviluppo della personalità e sulle scelte di vita la presenza di un supercomputer che nell’ombra della nostra vita online studia, analizza, cataloga, raccomanda e suggerisce?

È una domanda importante, specie nel momento in cui si discute dell’etica del (e nel) digitale, pensando in particolare ai più piccoli e a come navigano un mondo che continuamente scavalca il confine tra fisico e digitale.

Di seguito vorrei pertanto toccare due punti a mio parere fondamentali. Il primo riguarda la protezione dei dati, intesa come protezione dalla manipolazione algoritmica nei casi in cui comporta la riduzione di autonomia decisionale.

Vorrei poi considerare l’equilibrio tra fairness ed efficacia dell’advertising algoritmico, quando la prima viene sacrificata alla seconda per ragioni commerciali, cristallizzando gli effetti degli stereotipi. Un problema questo che a mio parere pone questioni molto serie per le giovani generazioni.

En passant, giova segnalare che la rilevanza del tema è ormai chiara anche nelle sedi istituzionali, in particolare del Parlamento europeo, che lavora a una moratoria sul behavioural advertising.

La manipolazione dei dati tramite algoritmi

La manipolazione dei dati tramite algoritmi è oramai realtà quotidiana: il credito, l’advertisement personalizzato, l’accesso ai servizi, i sistemi predittivi. La società algoritmica è un modello in cui gli algoritmi hanno una funzione editoriale (curando la panoramica di notizie a cui abbiamo accesso), una funzione creativa (creando, nel caso degli algoritmi predittivi, i nessi tra passato, presente e futuro) e una funzione di ingresso (regolando l’accesso a servizi ed opportunità). Questo ruolo è costruito sul processo di “datificazione” della nostra società, nel senso di trasporre in dati tutti i fenomeni che ci circondano, per poi estrarre conclusioni, correlazioni e, talora, causalità.

Il GDPR si fonda sul concetto della protezione del dato come protezione della dignità umana. La pervasività della sorveglianza, nascosta sotto l’apparenza di efficacia benigna, ha un aspetto indiscutibile di disgregazione della cornice protettiva intorno al dato personale, che nell’epoca algoritmica significa corrodere quella dignità individuale che la stessa GDPR vuole difendere.

Nella manipolazione algoritmica, l’utilizzo pervasivo dei dati personali conduce questi sistemi al ruolo di gate, vera e propria “porta” sulla conoscenza, sulla realtà e sulle opportunità. È per questo motivo che ritengo necessario, parlando dei più giovani, interrogarsi sulle conseguenze dell’algo-gate sulla crescita.

Cosa vuol dire avere le proprie esperienze mediate, formulate e scelte da un software? Credo sia particolarmente rilevante per quanto riguarda l’impiego dell’intelligenza artificiale nel settore educativo, dove nuovi strumenti consentono un apprendimento più personalizzato e focalizzato sulle caratteristiche di ognuno. Per quanto attraente, specialmente rispetto agli studenti più piccoli e con difficoltà che possono essere ignorate dal mainstream, non si può non chiedersi quanto questa mediazione algoritmica incida sullo sviluppo e l’autonomia personale di crescita.

“Datizzati” alla nascita: a rischio i diritti delle nuove generazioni

WHITEPAPER
Come è cambiato in Italia il quadro normativo dei pagamenti digitali verso la PA?

Il conflitto tra fairness ed efficacia

E qui arrivo al secondo punto, il conflitto tra fairness ed efficacia. L’obiettivo di un algoritmo dal punto di vista commerciale è quello di “funzionare”, ottenendo il massimo numero di “click”; o, nel contesto educativo, quello di rispondere al meglio alle esigenze dell’utente. Per raggiungere questo scopo, l’algoritmo deve poter intercettare gli interessi, le caratteristiche e le abitudine dell’utente. Quanto più la raccomandazione si insinua negli aspetti prevedibili del consumatore/utente, quanto più sarà efficace in termini commerciali.

Dal punto di vista etico, però, sorge un problema: un risultato efficiente non è necessariamente eticamente corretto. Un esempio concreto: se tradizionalmente le ragazze prediligono le materie letterarie (perché in Occidente permane in parte la dicotomia scienza/umanesimo), gli annunci e il targeting di studi universitari di questo tipo avranno un efficacia maggiore verso il pubblico femminile rispetto, per esempio, a un pubblico prevalentemente maschile. Al di là del risultato commerciale, è etico utilizzare degli algoritmo per irrobustire gli stereotipi esistenti?

La domanda è pertinente e urgente, e riguarda la soluzione del conflitto fairness/efficacia in campo algoritmico: non c’è dubbio che le giovani generazioni rischiano di crescere in presenza di questo conflitto irrisolto, con terribili consequenze per la loro emancipazione e le loro libertà.

Il dibattito etico sulla robotica e sui sistemi di intelligenza artificiale sta vivendo un momento importante, alimentato da contributi filosofici, sociologici e legali. Ritengo però che in questo dibattito non debbano prevalere le voci di chi vorrebbe risolvere questioni etiche complesse tramite procedure per via empirica; questo è l’atteggiamento dell’industria tecnologica, le cui priorità commerciali sono comprensibili. Parimenti, non possiamo lasciare il dibattito etico nelle mani delle competenze normative e legali, poiché siamo in un terreno non testato, e la cornice legislativa potrebbe rivelarsi inadeguata.

Conclusioni

Il dibattito etico potrebbe invece profittare di una nuova apertura, interrogandosi sulle questioni accennate in questo articolo. Se da un lato occorre spronare la filosofia affinché esca dal proprio fortilizio per esplorare aree nuove, quale ad esempio la relazione bambini-robot, si dovrebbe anche allargare il dibattito a voci sinora assenti per motivi di rappresentazione e potere. Ad esempio, gli studi sulla funzione algoritmica nelle ricerche su Google, magistralmente condotti da Safiya Noble, hanno chiarito la necessità della funzione accademico/investigativa come pungolo che ha portato l’industria stessa a correggere problemi di rappresentazione dovuti a dinamiche di potere. Mi spiego: Google dovette cambiare il proprio algoritmo, posto di fronte al fatto che la ricerca ‘unprofessional hair cut’ mostrava donne nere con i capelli al naturale.

Quando però parliamo di algoritmi con funzione editoriale, creativa e di cura, allora si sente la mancanza di un dibattito sull’impatto di questa opacità pervasiva negli anni dello sviluppo. In altre parole, non potendo adottare la via empirica, quali strumenti abbiamo per valutare le eventuali distorsioni di una personalità non ancora matura? Di certo la vulnerabilità insita nell’essere bambini (cui fa riferimento la GDPR stessa) si traduce in uno sbilanciamento di potere e, dunque, di rappresentanza.

Ecco, io credo che questo sia un problema centrale che dobbiamo porci, se vogliamo essere noi umani in controllo del digitale, e non viceversa.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4