Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

L'ANALISI

Algoritmi vs diritti, è tempo di una “democracy by design”

La “black box” alla base della comunicazione social rischia di far saltare i pilastri della società di diritto. Uno scenario su cui l’Europa ha acceso i riflettori facendo emergere le contraddizioni della civiltà digitale. Ecco i termini del dibattito e le strategie che stanno emergendo

06 Dic 2019
Laura Di Braccio

Avvocato/DPO


Dai processi elettorali all’autodeterminazione dell’individuo: i meccanismi che sottendono la logica dell’algoritmo rischiano di minacciare i fondamenti della democrazia. Un tema che rimbalza dall’Europa agli Usa, dove si reclama sempre più la “trasparenza” dei criteri applicativi degli algoritmi.

L’ha chiarito bene la deputata Alexandria-Ocasio Cortez, nel corso dell’audizione del CEO di Facebook, Mark Zuckerberg sul tema “Libra” davanti alla Commissione servizi finanziari della Camera del Congresso degli Stati Uniti. Si è rivolta a lui con queste parole:

Io penso che lei non disdegni di usare il comportamento passato di una persona per determinarne quello futuro. Ecco perché, per prendere decisioni su Libra, dobbiamo scavare nel comportamento di Facebook riguardo alla democrazia.

Il riferimento, oltre che a Cambridge Analytica, è agli strumenti di machine learning – algoritmi di persuasione che permettono alle piattaforme social non solo di prevedere le scelte degli utenti, ma anche di influenzarle, con possibile enorme impatto sulla libertà degli individui e sulla democrazia.

Algoritmo, il focus del Consiglio d’Europa

Le parole della deputata americana fanno ecco a quelle pronunciate dal Consiglio d’Europa che, con la Raccomandazione del 13 febbraio 2019 “On the manipulative capabilities of algorithmic process”, ha richiamato l’attenzione degli stati membri sulla capacità degli algoritmi di mettere a rischio la sovranità cognitiva delle individui, e cioè il loro diritto di essere padroni dei propri processi decisionali e di pensiero e sulla necessità di un intervento regolatore di controllo democratico da parte degli Stati.

Come sottolineato dal Consiglio d’Europa“In questo contesto conviene portare un’attenzione particolare all’immenso potere che il progresso tecnologico ha conferito a quelli – siano essi entità pubbliche o di attori privati – che hanno il potere di usare questi strumenti algoritmici senza sorveglianza o controllo democratico adeguato. I livelli sottili, subconsci e personalizzati della persuasione algoritmica possono avere effetti significativi sull’autonomia cognitiva dei cittadini e sul loro diritto a formarsi una opinione e a prendere decisioni indipendenti”.

Un atteggiamento inerziale verso il problema può avere come effetto l’erosione dei fondamenti stesso del Consiglio d’Europa i cui pilastri centrali sono, è bene ricordarlo, la difesa dei diritti dell’uomo, della democrazia e dello Stato di diritto.

Da più parti emerge la necessità di una svolta: dal contratto di Tim Berners Lee per salvare il Web a un recente rapporto di Amnesty International secondo cui il modello di business basato sui nostri dati mette in pericolo i diritti fondamentali.

Digital society, c’è vita oltre il data sharing: una soluzione win win

L’illusione della disintermediazione

Una prova? Al TED di Vancouver Carole Cadwalladr, la cronista dell’Observer candidata al Premio Pulitzer per il suo lavoro su Cambridge Analytica (e, per lo stesso motivo, bannata a vita da Facebook), ha spiegato come i social hanno influito sulla Brexit.

La giornalista ha denunciato pubblicamente che nei giorni immediatamente precedenti il voto, la campagna ufficiale per il Leave ha riciclato quasi 750 mila sterline attraverso un’altra entità che la commissione elettorale aveva giudicato illegale, e con questi soldi “ha scaricato una tempesta di disinformazione, con annunci menzogneri che dicevano che 76 milioni di turchi stavano per entrare nell’Unione Europea. Questi annunci non erano visibili a nessuno se non agli utenti stessi, e non agli altri perché non erano il target scelto. Questa notizia è emersa dopo che il Parlamento inglese ha costretto Facebook a consegnare questi annunci (….). Il punto chiave del meccanismo che ha permesso a Facebook di sottrarsi al controllo dietro il pretesto della privacy degli utenti, è che gli annunci non erano visibili a nessuno se non all’utente che li riceveva  sul suo Neews Feed. E solo a lui”.

L’esperimento della WWW Foundation

Su quest’ultimo tema, cruciale per la comprensione del problema, nel 2018 la World Wide Web Foundation di Tim Berners Lee (coinventore del world wide web) ha svolto un esperimento che ha in parte chiarito il funzionamento dell’algoritmo che seleziona i contenuti dei due miliardi di utenti di Facebook. Tramite la creazione di sei profili identici che seguivano le stesse fonti informative, l’esperimento, basato in Argentina, ha evidenziato come gli algoritmi scelgono la dieta informativa degli utenti.

Si è scoperto che:

  1. ad ogni profilo sono stati mostrati in media da uno a sei post su tutte le pagine che stavano seguendo;
  2. alcuni post di taglio politico o sociale sono stati completamente omessi dai feeds, quali, ad esempio, quelli relativi agli episodi di omicidio di genere (femminicidio), tema “caldo” in quanto legato alla campagna #NiUnaMenos;
  3. i sei profili, benché identici, sono stati esposti a diversi set di storie.

Queste diete informative personalizzate, sottolinea la ricerca, sono costruite come se il nostro giornalaio di fiducia tagliasse via dal giornale che stiamo acquistando gli articoli che ha deciso che non dobbiamo leggere. Da ciò  il rischio che si crei una esasperazione delle divisioni tra e all’interno delle comunità a cui manca sempre più un corpus di notizie condiviso e quindi una comprensione condivisa della realtà.

Per valutare l’impatto cognitivo di queste pratiche sulla popolazione, si consideri che in alcuni paesi Facebook è la principale fonte di informazione per una grande fetta della popolazione (45% negli Stati Uniti, 75% in Argentina).

A ciò si aggiunge che, complice l’illusione di comunicare “orizzontalmente”  con gli altri utenti, il livello di consapevolezza del pubblico degli utenti social verso questi meccanismi è bassissima.

Quali misure contro il potere dell’algoritmo

Come scrive Norberto Bobbio (L’età dei diritti, Torino, Einaudi, 1990) i diritti non nascono tutti in una volta. “Nascono quando devono o possono nascere. Nascono quando l’aumento del potere dell’uomo sull’uomo, che segue inevitabilmente al progresso tecnico, cioè al progresso della capacità dell’uomo di dominare la natura e gli altri uomini, crea o nuove minacce alla libertà dell’individuo oppure consente nuovi rimedi alla sua indigenza”.

Il diritto alla sovranità cognitiva, rimasto a lungo confinato fra i “nuovi diritti inascoltati”, ha trovato ora un primo riconoscimento ufficiale, accompagnato da un richiamo molto forte da parte del Consiglio d’Europa all’urgenza e necessità di una sua protezione.

E’ noto che il tema di fondo legato agli algoritmi è la loro opacità, dove la necessità di trasparenza non riguarda tanto il funzionamento tecnico dell’algoritmo, bensì i criteri applicativi che lo governano.

Tuttavia, tale diritto alla trasparenza sta a valle di una tutela molto più incisiva che il Consiglio d’Europa suggerisce agli stati membri di adottare tramite misure di controllo democratico sugli algoritmi, invitandoli a “valutare attentamente la necessità di adottare misure regolamentari o altre più stringenti al fine di garantire una sorveglianza appropriata e democraticamente legittima del disegno, dello sviluppo, della diffusione e dell’utilizzazione degli strumenti algoritmici in vista di mettere in opera una protezione efficace contro le pratiche sleali e di abuso di posizione del potere economico” .

In questo quadro è molto importante l’attenzione da portare alla comunicazione politica ed ai processi elettorali, dei quali deve essere preservata equità ed integrità, “vigilando affinché gli elettori abbiano accesso a dei livelli di informazioni comparabili per l’insieme dello spettro politico ed abbiano coscienza dei pericoli del redlining politico che si verifica quando le campagne politiche si rivolgono solo alle persone più influenzabili, affinché siano protette contro le pratiche sleali e la manipolazione”.

Mi pare, dunque, che l’invito di fondo abbia per oggetto l’introduzione da parte degli Stati membri di un principio coercitivo di “democracy by design che neghi la liceità di quegli algoritmi dotati di logiche incompatibili con il diritto umano alla sovranità cognitiva e con il rispetto dei valori democratici e dello Stato di diritto.

Si tratta di una scelta politica che sottende un modello di democrazia che non può prescindere dalla consapevolezza della sua fragilità e della necessità di strumenti di controllo e di garanzia adeguati alle nuove forme di minaccia.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4