Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

l'analisi

Privacy e Facebook: tre motivi per cui è una sfida difficile per l’Europa

Nonostante le buone intenzioni dell’Europa, La ricombinazione dei dati e sfruttamento commerciale non sarà frenata dal GDPR. La consapevolezza dei cittadini è sempre sfavorita dal contesto. E lo sviluppo dei big data analytics darà il colpo di grazia

12 Apr 2018

Fabiana Di Porto

professore associato di Diritto dell’economia, Università del Salento


Il 2018 è stato l’anno del risveglio per i sostenitori della libera circolazione dei dati (cfr. la Proposta di Regolamento del 13 settembre 2017): le cronache del Russiagate e di Cambridge Analytica hanno mostrato al mondo quanto la protezione dei dati gestita privatamente e l’accumulo degli stessi da parte di un piccolo gruppo di grandi aziende possano essere problematici.

Ebbene, sembra che nonostante le buone intenzioni della Commissione europea, questa sia una sfida molto complicato

Ricombinazione dei dati e sfruttamento commerciale

In tempi di cambiamenti repentini, alcune questioni legate al rapporto tra norme a tutela della concorrenza e alla protezione dei dati che sembravano sopite nel dibattito dottrinale, sono tornate con urgenza alla ribalta. La ri-combinazione di dati personali e non personali da parte di aziende digitali dominanti, acquisite attraverso il web, è una di queste. La ri-combinazione implica che i dati appartenenti a un individuo siano raccolti per formare uno o più profili comportamentali e, soprattutto, che i profili siano sfruttati commercialmente per vendere prodotti o servizi “mirati”.

Ma anche che tali dati e profili siano eventualmente rivenduti ad altre società. Pertanto, sebbene la ricombinazione sia il fulcro delle economie di scala e di scopo che consente la fioritura della data economy, oltre una certa soglia essa funge anche da leva per il potere di mercato di grandi imprese di dati (in particolare delle piattaforme), consentendone l’ulteriore accumulo e sfruttamento.

Già il Parlamento europeo, nella sua Risoluzione “Implicazioni dei Big data in termini di diritti fondamentali” del 14 marzo 2017, era stato profetico nel sottolineare che, grazie agli algoritmi di big data analytics, “le informazioni sensibili sulle persone possono essere dedotte da dati non sensibili, circostanza che rende poco chiara la distinzione tra dati sensibili e non-sensibili” (punto 3).

In altre parole, le garanzie tecniche come l’anonimizzazione dei dati personali (prevista nel GDPR – che entrerà in vigore il 25 maggio 2018) potrebbero essere nullificate, dato che frammenti di dati non personali, una volta ri-combinati tramite gli algoritmi, aumentano la possibilità di reidentificazione e quindi di profilazione.

Pertanto, la proposta di Regolamento sopra menzionata sul libero flusso di dati, improntata alla più ampia liberalizzazione dell’accumulo e trattamento massivi di dati non personali da parte di imprese europee ed estere, troverà solo limitati vincoli nel GDPR, e pertanto contribuirà ad amplificare ulteriormente il potere di mercato.

La consapevolezza dei cittadini per la privacy

Strettamente connesso, è il tema, ben noto, della limitata consapevolezza e comprensione che i consumatori (e i cittadini, più in generale) tendono ad avere sia dei dati che trasmettono alle piattaforme (e delle varie implicazioni legali e sociali), sia dei loro diritti di accesso e controllo sull’utilizzo di tali dati, anche mediante l’elaborazione. Ciò è dovuto all’incidenza di ben noti bias cognitivi ed euristiche, come il sovraccarico informativo, il problema dell’accumulo, l’inerzia, l’overconfidence, che influenzano il processo decisionale dell’individuo (Tversky & Kahneman 1978, Ben-Shahar e Schneider 2014). Benchè i consumatori tendano a considerare la privacy online una priorità, le evidenze empiriche dimostrano che essi trascorrono pochissimo tempo a leggere i privacy statement prima di scaricare una “app” (è il cosiddetto “no-reading” bias). Ciò, a sua volta, dimostra che la conoscenza dei diritti derivanti dal GDPR (come l’accesso, il controllo e la portabilità dei dati) è ben lungi dall’essere diffusa.

Inoltre, è un luogo comune che online “i dati” siano la valuta e che quindi le regole di concorrenza non siano idonee a porre un freno al potere di mercato delle piattaforme, anche quando si tratti di “data superdominance” (la concorrenza è “one click away” e i dati sono acquisibili, in quanto reperibili ovunque, a basso costo). Tuttavia, online, più che i dati, ciò che ha valore sono i “profili”, e questi possono essere ottenuti anche facendo leva su altri bias, come l’euristica del “gratuito” o il “prendere o lasciare” (Sugden, Wang ,Zizzo 2015). Questi, a loro volta, portano a quella che viene definita “collusione asimmetrica” (Dow Shüll 2012) tra consumatori e società di big data, che conduce i primi ad accettare una sorveglianza altamente granulare e continua in cambio di servizi personalizzati gratuiti (benefici a breve termine); con l’effetto a lungo termine di erodere la loro capacità di autodeterminazione.

In altri termini, il potere di mercato è acquisito o aumentato (o entrambi) facendo leva, “sfruttando”, i bias evocati ovvero l’inconsapevolezza degli utenti sui loro diritti di accesso e controllo dei propri dati.

Big data analytics e privacy

Un ulteriore profilo riguarda l’intersezione tra l’esercizio del potere economico e l’autonomia individuale nei mercati digitali. L’avvento della quarta rivoluzione, infatti, aggrava il problema dell’asimmetria informativa da parte del consumatore, riducendo così l’estensione della sua autonomia contrattuale (Di Porto, 2017). Raccogliendo “tracce” digitali del consumatore, le aziende che utilizzano big data analytics (a prescindere dalla dimensione) possono anticipare gran parte della sua volontà contrattuale (ad esempio, la disponibilità a pagare, il livello di qualità accettabile, ecc.). Esempi sono rinvenibili nei prezzi algoritmici mirati, nelle classifiche, nelle recensioni e perfino nei risultati delle ricerche, che sono profilati sui nostri gusti e interessi. Consentire alle aziende di manipolare attraverso gli algoritmi le informazioni che producono e distribuiscono a beneficio dei consumatori, significa indebolire la validità e la genuinità delle loro scelte sui mercati. Ogni volta che la capacità di condizionare algoritmicamente le preferenze e le convinzioni dei consumatori viene esercitata da “tech giants” (i cosiddetti GAFA (M)) superdominanti, allora v’è da domandarsi se non sia a rischio la democrazia economica.

Vedi invece tutto ciò che le istituzioni possono fare per tutelare la privacy contro i big del web.

https://www.agendadigitale.eu/sicurezza/privacy/privacy-tutto-cio-che-le-istituzioni-possono-fare-contro-i-big-del-web/

Articolo 1 di 3