Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

privacy

Come gli algoritmi ci influenzano nelle spese e nella politica

Un portale dell’Università di Cambridge ci permette di capire come sia possibile predire la nostra personalità sulla base dei dati “seminati” sui nostri social network. Gli algoritmi ci capiscono e ci influenzano: ecco le conseguenze politiche e commerciali che non tutti sanno

17 Ott 2019

Armando Iovino

Data Protection Officer presso Provincia di Mantova


Ancora pochi hanno esatta contezza di quante informazioni si possono estrarre dai nostri dati disseminati sul web e sui vari social, per chi questi dati li controlla o chi ha gli algoritmi per analizzarli.

Una prima idea del valore dei big data può venire dalla classifica delle aziende di maggiore valore al mondo.

Immagine che contiene screenshot Descrizione generata automaticamente

Nel 2000 in questa classifica era presente la sola Microsoft e il resto delle posizioni erano popolate da aziende appartenenti al settore petrolifero, finanziario, farmaceutico e della grande distribuzione; se a tutto questo uniamo il fatto che nella classifica sono presenti solo aziende americane e cinesi e che nel 2019 Cina e India cresceranno del 7%, gli USA del 4% e il Ghana del 9%, mentre la Germania legata al settore manifatturiero (come quasi tutto il resto dell’Europa) cresce dello 0.9%, si capisce come l’Europa non sia più l’ombelico del mondo e sia completamente dipendente per i servizi digitali da provider appartenenti a Paesi terzi.

Privacy e algoritmi, i rischi (sottovalutati) del trattamento dati

In tutto questo si inserisce il GDPR che nelle intenzioni del legislatore europeo doveva essere il “mezzo” per favorire la libera circolazione dei dati all’interno dell’Unione e di conseguenza favorire lo sviluppo digitale, ma per farlo era necessario “iniettare” fiducia nel sistema e il farmaco giusto dovevano essere le regole imposte dal GDPR a tutti i paesi membri in egual misura.

Che il Regolamento sia la medicina giusta non ne sono convinto, ma questo lo vedremo nel tempo.

Durante l’attività di consulenza e formazione capita spesso che le motivazioni del GDPR non vengano apprezzate e il luogo più comune che mi tocca sentire è: “Ma a cosa serve la privacy, se tanto i nostri dati ce li hanno tutti!”.

La delusione è doppia quando mia moglie stessa apprezza Amazon quando le propone di continuo la borsa dei suoi sogni in ogni pagina della sua navigazione web, fino a quando invogliata dal vederla in vendita ad 1 euro in meno del solito prezzo capitola definitivamente a scapito della mia carta di credito.

È ovviamente inconsapevole dell’esistenza di una intelligenza artificiale che si alimenta con la raccolta dei suoi dati ed è in grado di predire quello che sarà il suo comportamento.

Si tratta di far comprendere all’utente “medio” il perché del GDPR e l’importanza di difendere le libertà civili ed individuali dell’interessato messe a rischio dal trattamento dei sui dati personali mediante la profilazione con sistemi automatizzati.

Riporto l’esempio di un test eseguito dai giornalisti di “Report” che tentando di prenotare una stanza attraverso un noto portale di prenotazioni alberghiere utilizzando dispositivi diversi con sistemi operativi differenti e collegandosi da diverse posizioni d’Italia, con loro sorpresa per la stessa stanza hanno ottenuto prezzi differenti.

Profilazione sulla base della capacità di spesa

L’algoritmo che “decreta” il prezzo giusto tiene conto di diversi elementi: probabilmente se mi connetto con un sistema operativo iOS posso spendere qualcosa in più rispetto a ad un altro utente che si connette con uno “sfigatissimo” Windows XP, se mi connetto dal centro di Milano probabilmente ho la possibilità di spendere qualcosa in più rispetto all’utente che si collega dalla periferia di Catanzaro.

Questo comporta una profilazione dell’utente sulla base della sua capacità di spesa, ma di tutto questo meccanismo non c’è traccia sull’informativa e ne consegue che l’utente ne rimane inconsapevole.

Per rincarare la dose mi piace sempre prendere come esempio il sistema messo a punto da Cambridge Analytica a supporto della campagna elettorale del premier Usa Donald Trump e del referendum per la Brexit.

Questione ormai arcinota e della quale si è discusso ampiamente, ma che l’utente “medio” non ne ha mai compreso i veri pericoli.

Social network e capacità di prevedere la nostra personalità

Per far comprendere i risvolti “inquietanti” ad una platea non tecnica, utilizzo sempre il portale messo a punto dal dipartimento di Psicometria dell’Università di Cambridge in una versione demo e che ha alla base un algoritmo (sinonimo di intelligenze artificiale) che permette di predire la nostra personalità sulla base dei dati “seminati” sui nostri social network.

Uno dei diritti sanciti dal GDPR è quello relativo alla portabilità dei dati, ovvero l’interessato può richiedere al provider tutti i dati personali raccolti in un formato intellegibile, ed ovviamente i social network si sono “attrezzati” per concedere l’esercizio del diritto e restituire i dati raccolti in varie tipologie di formato (json, csv, ec.).

La richiesta è molto semplice e all’interno del portale si trovano dei tutorial che spiegano in maniera molto semplice come farlo. Una volta ottenuta la restituzione dei miei dati li ho caricati all’interno del portale:

Immagine che contiene screenshot Descrizione generata automaticamente

Come si può vedere dallo screenshot il sistema ha “preso in pasto” e riconosciuto i dati prelevati dai miei profili Facebook e Twitter, il portale dà la possibilità di inserire anche le informazioni contenute nel profilo Linkedin.

Premetto che il mio profilo Twitter non è molto curato e il profilo Facebook pur essendo attivo da diversi anni non è sicuramente nutrito come quello di un nativo digitale ed è principalmente utilizzato per postare qualche foto di vacanza o mettere qualche like a post di amici, non faccio quindi un utilizzo professionale dei due social.

Non mi resta quindi che schiacciare il tasto “make prediction” ed attivare l’algoritmo che mi dirà chi sono e soddisfare la mia curiosità.

Ecco i primi risultati:

Immagine che contiene screenshot Descrizione generata automaticamente

Mi balza all’occhio che mi viene restituita un’età di 24 anni e avendone 47 non posso che essere contento, ma ripensandoci meglio mi viene il dubbio che sulla base di quello che faccio sui social, l’algoritmo mi consideri meno maturo rispetto a quello che in realtà dovrei essere, conferma (e meno male) che con buona probabilità sono di sesso maschile e poi valuta sulla base del modello OCEAN o Big Five, quelle che sono le caratteristiche della mia personalità stabilendo in sostanza che sono un “medio man”, l’unico parametro che si discosta dalla media è quello che mi decreta un “orso” a cui non piace lavorare in team, ma preferisce il lavoro in solitudine.

Proseguendo vedo questo:

Immagine che contiene screenshot Descrizione generata automaticamente

Anche da questi parametri la mia digital footprint, non promette niente di buono perché suggerisce che ho un’intelligenza media, che non sono molto soddisfatto della mia vita e che non sarò mail un leader, ma sono considerato una “pecora” destinata a seguire il gregge senza mai riuscire a comandarlo. Vi risparmio il mio profilo junghiano perché sentenzia che la mia personalità è irreversibile con scarsa possibilità che possa migliorare nel tempo.

Proseguendo con la predizione vedo anche questo:

Immagine che contiene screenshot Descrizione generata automaticamente

L’algoritmo mi restituisce anche il mio orientamento religioso, ma sono sicuro di non aver mai messo un like o pubblicato post relativi al mio Credo e poi stabilisce anche il mio orientamento politico e anche qui posso confermare di non aver mai espresso particolari “simpatie” per alcun schieramento politico, eppure la mia digital footprint sentenzia che ho il 65% delle possibilità di essere un liberale che traducendo la descrizione sotto il diagramma, in Italia verrei visto come un “Comunista”, ma se fossi negli Stati Uniti, probabilmente sarei un Democratico.

Così Trump ha sfruttato Cambridge Analytica

Il punto è proprio questo: Trump non può permettermi di votare per la Clinton e deve necessariamente farmi cambiare idea! Come fare? Ci pensa la seconda parte del programma di Cambridge Analytica: dopo aver raccolto dati (e qui stanno ancora cercando di capire bene come hanno fatto), messo a punto algoritmi per la profilazione degli elettori, devono mettere in campo sistemi di digital marketing che prevedevano l’invio di dark post (o fake news) personalizzate sulla base dei risultati della profilazione.

Se ho messo un like ai programmi di health care di Obama, basta inviarmi un articolo che parla di come questa politica abbia causato un buco di qualche miliardo di dollari nelle casse del Tesoro americano e che dovrà essere riempito con i soldi dei contribuenti. Forse è meglio votare Trump che mi promette di cancellare il programma di Obama e di non aumentarmi le tasse!

Se ho mostrato una certa apertura alle politiche a favore dell’immigrazione, mi potrebbe arrivare una fake news riportante la notizia che a poche miglia da casa mia un immigrato sudamericano armato fino ai denti ha sterminato una famiglia. Potrebbe essere che comincio a pensare che sia giusto armarmi per difendermi e convincermi sulla necessità di costruire un muro ai confini con il Messico.

Sono stati costruiti anche delle immagini e contenuti appetibili per invogliare l’utente ad aprire una pagina Facebook con contenuti diffamatori e notizie false sul rivale politico.

Tutto questo sembra abbia contribuito alla vittoria elettorale di Trump violando la libertà di espressione politica.

Le conseguenze della profilazione

Ma vi chiedo: se foste degli addetti alla selezione personale di un’azienda, mi assumereste con questo profilo? E quale sarebbe la giusta retribuzione per questo profilo?

Io potrei essere quello che descritto dall’algoritmo, ma potrei anche non esserlo. E sulla base di un meccanismo che non conosco e che potrebbe sbagliare, vengono violate le mie libertà civili ed individuali.

Facile e scontato il paragone con il Grande fratello di George Orwell, ma sbagliato perché il “1984” descritto dall’autore prevedeva l’esistenza del “Ministero della Verità” al quale ti potevi rivolgere se ritenevi che avesse sbagliato, ma in questo caso da chi vado? Dall’algoritmo? Una scatola nera il cui contenuto è difficilmente decifrabile e non risulta chiaro da quale Big Data si alimenta la sua Machine Learning?

Si rischia il mondo immaginato dal filosofo Michelle Foucault in “Sorvegliare e punire” dove è descritta la sorveglianza della collettività sull’individuo per conformarlo al Potere.

Il buon Stefano Rodotà, primo Garante Privacy, riteneva che la profilazione è pericolosa perché porta alla banalizzazione dell’individuo: non veniamo più considerati per quello che in realtà siamo, ma solo per quello che acquistiamo, consumiamo e sulla nostra digital footprint.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4