La spinta verso la privacy e la difficoltà di ottenerla nell'era digitale - Agenda Digitale

il saggio

La spinta verso la privacy e la difficoltà di ottenerla nell’era digitale

Le tecnologie, le interfacce e le forze di mercato possono influenzare il comportamento umano. Ma probabilmente non possono alterare la natura umana. Se la privacy è sia culturalmente specifica sia culturalmente universale, è probabile che la ricerca della privacy di tutti noi non si dissolva. Il saggio di Acquisti

02 Ago 2021
Alessandro Acquisti

Professor of Information Technology and Public Policy at the Heinz College, Carnegie Mellon University

Il nostro obiettivo in questo articolo è quello di rivedere diversi filoni della letteratura di scienze sociali sulla privacy per capire il processo decisionale dei consumatori sulla privacy e ricavarne implicazioni per la politica. In particolare, esaminiamo i fattori psicologici ed economici che influenzano il desiderio e la capacità dei consumatori di proteggere la loro privacy.

I consumatori di fatto si preoccupano e agiscono per proteggere la loro privacy? Le prove dell’elevata preoccupazione per la privacy nelle società occidentali sono ampie e durature. Nel caso degli Stati Uniti, si possono trovare nei sondaggi seminali di Alan Westin del secolo scorso, in cui la stragrande maggioranza degli americani ha riferito di sentirsi preoccupata da potenziali abusi delle loro informazioni (Westin, 2001). E si può trovare nei recenti sondaggi che mostrano che la maggioranza degli americani è preoccupata per la raccolta di dati da parte delle aziende (Pew, 2019). Eppure, nonostante le solide prove di una preoccupazione costante per la privacy, un filo comune nella letteratura sulla privacy evidenzia l’affermazione che, anche se le persone dicono che si preoccupano, in realtà non lo fanno – come dimostrato da divulgazioni online apparentemente disattente (Johnson, 2020; Miller, 2014). La privacy non è più una norma sociale, si dice, o, di fatto, la privacy è morta (Sprenger, 1999).

Non siamo d’accordo. Sondaggi, studi sul campo ed esperimenti – così come il senso comune – dimostrano che i consumatori si impegnano in comportamenti che regolano la privacy continuamente e in scenari sia online che offline, attraversando le diverse dimensioni e definizioni di privacy, da quella spaziale a quella informativa. L’impulso per la privacy è sottovalutato in parte perché le azioni individuali per proteggere la privacy sono così onnipresenti e secondarie che passano inosservate, o non vengono interpretate come comportamenti di privacy.

The Drive for Privacy and the Difficulty of Achieving It in the Digital Age

Privacy, le prove che ci teniamo “naturalmente”

Nella nostra vita quotidiana nel mondo offline, ci impegniamo istintivamente e continuamente in comportamenti di privacy senza nemmeno pensare: abbassare la voce durante conversazioni intime; lasciare un gruppo di persone per rispondere a una chiamata personale; inclinare un documento che stiamo leggendo in modo che sia protetto da occhi indiscreti; e tirare le tende per garantire la privacy nelle nostre camere da letto. Uno psicologo sociale americano, Irwin Altman (1975), ha sostenuto che i comportamenti di privacy sono così onnipresenti e comuni che avvengono con poca consapevolezza. Scrivendo decenni prima dell’era di Internet – e quindi concentrandosi sullo spazio personale piuttosto che sull’informazione – ha notato che la protezione dello spazio personale è istintiva e universale, attraverso il tempo e la geografia: Le trasgressioni dello spazio personale invocano una varietà di reazioni, tra cui lo spostamento dello sguardo, la rottura del contatto visivo, la rotazione del corpo o l’adozione di posture protettive (Altman, 1977).

WHITEPAPER
Quali sono le minacce digitali che mettono in pericolo le vendite al dettaglio?
Retail
Sicurezza

Le intuizioni di Altman si applicano anche a come le persone interagiscono su Internet. Anche online, ci impegniamo continuamente in comportamenti che delimitano i contorni della nostra vicinanza o apertura agli altri. Più volte al giorno, ci alterniamo tra diversi account di posta elettronica o personaggi online per separare la sfera personale da quella professionale; scegliamo le impostazioni della privacy per gestire la visibilità dei nostri post sui social media; rispondiamo privatamente ai messaggi di gruppo, selezionando attentamente i destinatari delle nostre risposte; inseriamo (o ci affidiamo a password precedentemente memorizzate) per mantenere private le informazioni nei nostri account online; impostiamo avvisi “Sono occupato!” sui profili di messaggistica istantanea per dire alle persone di non contattarci, in questo momento; e attiviamo e disattiviamo la telecamera o l’audio nelle conference call, a seconda di ciò che vogliamo (o dobbiamo) mostrare agli altri. Le motivazioni precise dietro questi comportamenti sono diverse; il loro tratto comune è il tentativo dell’individuo di regolare i confini delle proprie interazioni con gli altri.

Le osservazioni sui comportamenti di ricerca della privacy online vanno ben oltre l’aneddotica. Ecco solo alcuni dei molti esempi provenienti da studiosi contemporanei e dalle loro ricerche empiriche.

Si consideri un sondaggio seminale di Pew (2013): Ha scoperto che una schiacciante maggioranza (86%) degli adulti statunitensi intervistati ha riferito di aver fatto dei passi online per rimuovere o mascherare le proprie impronte digitali. I passi sono stati diversi, dai meno ai più sofisticati, tra cui la cancellazione dei cookie, la crittografia delle e-mail, evitando di usare il proprio nome e utilizzando reti private virtuali.

Gli auto-rapporti non sempre riflettono il comportamento reale. Tuttavia, gli studi sul campo di osservazione delle scelte dei consumatori forniscono anche prove del comportamento di ricerca della privacy. I comportamenti comprendono molti scenari diversi in cui la privacy (e le invasioni della privacy) giocano un ruolo nella vita dei consumatori: fastidio del telemarketing, sorveglianza governativa, tracciamento online, intrusioni nei social media, e così via.

Per esempio, nel 2007, dopo che la Federal Trade Commission aveva aperto il National Do Not Call Registry (un database con i numeri di telefono degli individui che non vogliono essere contattati dai telemarketer), il 72% degli americani si era iscritto alla lista (Bush, 2009). E in seguito alle rivelazioni fatte da Edward Snowden nel 2013 riguardo ai programmi segreti di sorveglianza del governo, i consumatori statunitensi sono diventati meno propensi a leggere gli articoli di Wikipedia percepiti come sensibili alla privacy (Penney, 2016). Oppure considerate quanto segue: Gli utenti di Facebook che erano membri della rete della Carnegie Mellon University nel 2005 hanno progressivamente transizionato verso una condivisione meno pubblica delle informazioni personali nel tempo: Mentre l’86% di questi utenti condivideva pubblicamente la propria data di nascita nel 2005, la percentuale di loro che lo faceva è diminuita di anno in anno, fino al 22% nel 2009 (Stutzman et al., 2013). Inoltre, mentre solo una minuscola percentuale di utenti di Facebook su quella stessa rete Facebook aveva modificato le proprie impostazioni di ricerca e visibilità predefinite (altamente visibili) nel 2005 (Gross & Acquisti, 2005), solo il 7% circa degli utenti di Facebook studiati da Fiesler et al. (2017) non aveva modificato le proprie impostazioni di privacy predefinite nel 2017. Mentre i due campioni sono diversi, e l’autoselezione non può essere esclusa, la disparità nelle scelte nel tempo è netta.

Prove del comportamento di ricerca della privacy provengono anche da esperimenti di laboratorio e sul campo. Molti di essi si concentrano su scambi che coinvolgono la privacy dei dati e ricompense monetarie. Per esempio, un esperimento sul campo che ha testato il divario tra disponibilità a pagare e disponibilità ad accettare per la privacy ha mostrato che oltre il 50% dei partecipanti non era disposto a scambiare una carta regalo anonima da 10 dollari con una tracciabile da 12 dollari – in sostanza rifiutando un aumento del 20% dei premi per cedere informazioni sulle loro decisioni di acquisto (Acquisti, John, & Loewenstein, 2013).

Riconoscere le complessità e riconciliare le prove

Anche se abbiamo deliberatamente evidenziato le prove di comportamenti alla ricerca della privacy per contrastare una narrativa prevalente di preoccupazioni che scompaiono, esistono ampie prove di persone che non si preoccupano di proteggere le informazioni, o che si impegnano pubblicamente in comportamenti che solo poco tempo fa erano considerati altamente privati. Ci sono prove del fatto che i consumatori non sono disposti a pagare per la protezione dei dati (Beresford et al., 2012; Preibusch et al., 2013), e scelgono di rinunciare ai dati personali in cambio di piccole comodità e piccole ricompense (Athey et al., 2017). Anche se ormai è noto che le app mobili raccolgono e condividono informazioni sensibili con terze parti (Almuhimedi et al., 2015), il numero di download di app aumenta ogni anno (Statista, 2016). Le grandi violazioni dei dati sono diventate comuni (Fiegerman, 2017), eppure la maggior parte delle persone sembra disposta a fidarsi delle aziende con informazioni personali in cambio di benefici relativamente piccoli (Ghose, 2017). E una pletora di comportamenti quotidiani online, diffusi e facilmente osservabili, sembrano indicare una generale mancanza di preoccupazione.

L’evidenza del comportamento di ricerca di informazioni da sola, tuttavia, non contraddice l’argomento che i consumatori si preoccupano della privacy. In primo luogo, il lavoro di Altman (1975, 1977) serve come antidoto alle semplici nozioni di privacy come una condizione statica di ritiro, protezione o occultamento delle informazioni (per esempio, Posner, 1978). Altman ha interpretato la privacy come un processo dialettico e dinamico di regolazione dei confini. La regolazione della privacy comprende sia l’apertura che la chiusura del sé agli altri. Bilanciando e alternando le due cose, gli individui gestiscono i confini interpersonali per raggiungere i livelli desiderati di privacy – una quantità ottimale di interazione sociale, o un equilibrio ottimale tra rivelare e proteggere le informazioni personali.

La regolamentazione della privacy è quindi dinamica – un processo altamente dipendente e reattivo ai cambiamenti di contesto e un processo che si applica ugualmente alle molte diverse dimensioni della privacy che la letteratura ha esplorato (una diversità che questo manoscritto abbraccia, come evidenziato dai diversi scenari di consumo che copre). Coerentemente con questo resoconto (vedi anche Petronio 2002), gli esempi apparentemente contrastanti di comportamenti di ricerca di protezione e divulgazione illustrano come, mentre gestiamo la privacy continuamente, non proteggiamo continuamente i nostri dati. Sarebbe indesiderabile (e irrealizzabile) per qualsiasi individuo farlo.

In secondo luogo, l’evidenza di comportamenti apparentemente incuranti della privacy evidenzia un problema più profondo: La privacy è straordinariamente difficile da gestire, o regolare, nell’era di Internet. Considerate, ancora una volta, alcuni degli esempi di comportamenti protettivi presentati in precedenza in questa sezione; essi hanno un secondo lato. Anche se gli utenti di Facebook sulla rete della Carnegies Mellon University sono diventati meno propensi a condividere le loro informazioni personali con gli estranei tra il 2005 e il 2009, i cambiamenti nell’interfaccia di Facebook tra la fine del 2009 e l’inizio del 2010, influenzando la visibilità di alcuni campi del profilo, hanno bruscamente invertito questa tendenza protettiva, rendendo di nuovo pubbliche, per una parte significativa degli utenti, le informazioni personali che quegli utenti avevano cercato di mantenere private (Stutzman et al., 2013). Allo stesso modo, anche se un sondaggio di DuckDuckGo (2017) ha trovato che una parte sostanziale degli utenti di Internet ha cercato di utilizzare la navigazione privata, ha anche trovato che due terzi di questi utenti hanno frainteso (in realtà, sopravvalutato) il grado di protezione che la navigazione privata ha fornito. E, mentre un sondaggio Instamotor ha rilevato che l’89% degli intervistati ha fatto almeno un passo per proteggere i dati, la percentuale di intervistati che ha fatto tutti questi passi è stata estremamente piccola; infatti, alcuni dei passi più protettivi (come l’uso di VPN) sono stati adottati da una piccola minoranza (Lewis, 2017). Non a caso, questi passi erano anche quelli meno familiari agli utenti medi e più costosi da adottare.

Questo sguardo più sfumato alle prove suggerisce che le affermazioni relative alla privacy “morta” troppo spesso confondono i desideri con le opportunità – ciò che le persone vogliono e ciò che possono effettivamente ottenere. Il desiderio di privacy può essere virtualmente universale; i consumatori, sia offline che online, cercano continuamente di regolare i confini tra pubblico e privato. Tuttavia, le opportunità e la capacità di farlo efficacemente – per raggiungere i livelli desiderati di privacy – potrebbero ridursi. Come suggeriscono gli esempi precedenti, le ragioni sono sia psicologiche che economiche.

Gli individui possono gestire efficacemente la privacy online? Ostacoli comportamentali

Gli economisti usano il termine “preferenze rivelate” per riferirsi a come le vere valutazioni dei consumatori possono essere rivelate dal loro comportamento, come le loro scelte sul mercato. Applicato al campo della privacy, un argomento di preferenze rivelate presupporrebbe che i consumatori proteggano e condividano esattamente ciò che desiderano, dalla divulgazione di informazioni personali sui social media alla copertura delle impronte online usando tecnologie che migliorano la privacy. Le scelte che fanno, secondo questa prospettiva, dovrebbero essere ottimali per loro personalmente e per la società nel suo complesso: Se i comportamenti relativi alla privacy esprimono una vera preferenza per la privacy, i risultati di mercato basati sulle scelte dei consumatori, in assenza di esternalità, massimizzerebbero l’utilità aggregata.

In superficie, tale ragionamento sembra coerente con la nozione altmaniana di privacy come un processo di regolazione dei confini, secondo cui l’individuo sceglie deliberatamente quando e cosa proteggere o condividere. In realtà, la regolazione della propria privacy è aspirazionale: nei termini di Altman, la privacy desiderata potrebbe non corrispondere alla privacy raggiunta, e i comportamenti di mercato potrebbero non sempre catturare necessariamente le preferenze sottostanti per la privacy. Ci concentriamo, in questa sezione, su alcuni fattori psicologici che causano la discrepanza.

La letteratura sulla privacy ha sempre più attinto alla ricerca in psicologia e in economia comportamentale per fornire prove empiriche di numerosi processi che influenzano, e talvolta compromettono, il processo decisionale relativo alla privacy (Margulis 2003). Questi fattori vanno dal “calcolo” della privacy alle emozioni; dall’informazione asimmetrica alla razionalità limitata; e dalla rassegnazione e dall’impotenza appresa ai bias cognitivi e comportamentali (Acquisti, Brandimarte, & Loewenstein, 2015). Molta ricerca comportamentale è stata condotta, negli ultimi due decenni, sui fattori psicologici che influenzano il processo decisionale sulla privacy. La lezione di questa letteratura è che i “fattori non normativi” (fattori che presumibilmente non influenzano i veri costi e benefici della condivisione) possono facilmente influenzare le scelte di privacy osservate.

Alcuni di questi sono riassunti nella Tabella 1. Insieme, essi spiegano quando i comportamenti relativi alla privacy catturano le preferenze reali e quando non lo fanno.

Psychological factorDescriptionRepresentative consequenceFirms’ response
Information asymmetriesConsumers are unaware of the diverse ways firms collect and use their dataConsumers cannot respond to risks they are unaware ofIncreases firms’ ability to collect and use consumer information
Bounded rationalityConsumers lack the processing capacity to make sense of the complexities of the information environmentFew read, or even could make sense of, privacy policiesWriting policies using sophisticated, legalistic terms that obscure the central issues
Present biasOveremphasizing immediate, and under-weighing delayed, costs and benefitsConsumers will incur long-term costs—for example, intrusive profiling and advertising—in exchange for small immediate benefits—for example, online discountsOffering small benefits in exchange for consumer data sharing
IntangibilityPutting little weight on outcomes that are intangible—difficult to isolate or quantifyConsequences of privacy violations are often diffuse and difficult to connect with specific actionsMaking it difficult for consumers to draw connections between specific acts of data sharing and specific privacy violations (e.g., price discrimination)
Constructed preferencesUncertainty about one’s preferences leads people to rely on crude decision heuristics that often run counter to considerations of objective costs and benefitsSticking with default privacy settingsSetting defaults that are advantageous to the firm rather than to the consumer
Illusory controlThe feeling (often illusory) that one is in control of a situation leads to increased risk-takingConsumers share more when given more granular control over privacy settingsProvide consumers with more granular privacy controls to encourage disclosure
HerdingThe tendency to imitate the behavior of other peopleConsumers share more when they see others sharing more on social mediaProvide social media feeds that convey a maximal sense of others’ sharing
AdaptationThe tendency to get used to risks that are unchanged over time or that increase graduallyDespite ever-increasing violations of privacy, consumers adapt to them and accept themChange data usage practices gradually
The drive to shareThe powerful drive to share information, including personal informationSharing of highly private, or even incriminating, information (e.g., on social media)Working behavioral levers that elicit the motive to share (e.g., recommending photographs to share)

Tabella 1: Alcuni fattori psicologici che influenzano le decisioni sulla privacy

Il lato dell’offerta della privacy

I fattori psicologici influenzano, e in qualche misura distorcono, la domanda di mercato osservata per la privacy. I fattori economici influenzano la sua offerta.

Un’offerta di privacy esiste nel mercato. Sono state sviluppate tecniche e protocolli per proteggere i dati in quasi tutte le attività online immaginabili, dalla posta elettronica alla messaggistica istantanea, dalla pubblicità online ai servizi di social media online. Alcuni di questi strumenti sono stati incorporati in prodotti ora disponibili per i consumatori, come i servizi VPN, e-mail crittografate facili da usare, motori di ricerca e mappe non traccianti, browser anonimi e piattaforme di messaggistica sicura. Alcune grandi aziende tecnologiche hanno iniziato a cercare di sfruttare le loro caratteristiche private come fonte di vantaggio competitivo (Panzarino, 2019). E la maggior parte dei servizi online offre in varia misura controlli sulla privacy come opt-out, impostazioni di visibilità e così via.

Allo stesso tempo, vivere nel mondo moderno significa essere soggetti a un tracking continuo e onnipresente. Che ne siamo consapevoli o meno, sia i nostri comportamenti online che offline sono costantemente tracciati, da telecamere di sorveglianza (Satariano, 2019), tecnologie di riconoscimento dei volti (Feng, 2019), auto a noleggio che attivano il tracciamento GPS di default (Mapon, 2017), moltitudini di app che condividono con un opaco ecosistema di intermediari i dati personali dei nostri telefoni (Almuhimedi et al., 2015), e tracker utilizzati dalle aziende per imparare e prevedere il nostro comportamento di navigazione (Federal Trade Commission, 2016). Anche i confini tra le nostre esistenze online e offline si stanno erodendo: Gli strumenti statistici sono utilizzati per abbinare insiemi di dati appartenenti allo stesso individuo attraverso domini e servizi, mettendo in pericolo la nozione stessa di anonimato e permettendo di dedurre informazioni personali da dati pubblici non sensibili (Narayanan & Shmatikov, 2008).

Le forze che guidano questa incessante invasione della sorveglianza in ogni aspetto della nostra vita sono in parte comportamentali (il nostro crescente adattamento e assuefazione al tracciamento), ma in gran parte economiche: La riduzione dei costi sia della sorveglianza che dell’immagazzinamento dei dati, così come il crescente valore di (e il successo nella) monetizzazione dei dati personali, aumenta la domanda delle aziende per il tracciamento, facendo così diminuire l’offerta di privacy. Un tale risultato era stato previsto da Hirshleifer (1978), che ha mostrato come le imprese private fossero incentivate a sovrainvestire nella raccolta di informazioni: Le risorse utilizzate per acquisire e diffondere tali informazioni sarebbero state uno spreco dal punto di vista della società.

L’ascesa della sorveglianza come modello economico (Zuboff 2015) ha implicazioni diverse dai sovrainvestimenti delle imprese. In primo luogo, i mercati con significative asimmetrie informative (come, sicuramente, il mercato della privacy) possono portare a inefficienza economica e persino a fallimenti di mercato (Akerlof 1970). Inoltre, le forze di mercato perdono, in parte, la loro capacità di limitare le pratiche di utilizzo dei dati da parte delle imprese se gli effetti di rete (particolarmente potenti nelle piattaforme di mercato a due lati come i motori di ricerca, le reti pubblicitarie e i social media) portano a incumbent quasi-monopolisti.

Mentre il dibattito sulla concorrenza, l’antitrust e la regolamentazione dei dati è sfumato e in evoluzione, la concorrenza ridotta e gli effetti di rete si rafforzano a vicenda, e permettono agli incumbent di accumulare più dati e l’attenzione degli utenti (ad esempio, dal comportamento di ricerca), poi entrano nei mercati di altri servizi (ad esempio, le mappe di navigazione), che a loro volta permettono una maggiore raccolta di dati (e più attenzione degli utenti), e rendono possibile all’incumbent di fornire ancora più servizi di qualsiasi nuovo concorrente. L’aumento della raccolta di dati – sia in termini di aumento della quota di un mercato di consumo che di inferenze sempre più dettagliate su ogni consumatore – può quindi portare a servizi migliori e più preziosi, ma anche a meno opzioni esterne disponibili per i consumatori che cercano la privacy.

Gli effetti di rete basati sui dati tendono anche a creare dei potenti “lock-in” nei prodotti attuali – come i social network online, il cui valore risiede precisamente nell’impegno continuo di una base di utenti in crescita – rafforzando gli incumbent. Questo crea ciò che è stato definito un’esternalità della privacy (Acquisti, Taylor, & Wagman, 2016): L’uso da parte di altre persone di servizi invasivi della privacy aumenta il costo per i consumatori attenti alla privacy di non usarli. All’estremo, i costi dei consumatori per scegliere opzioni protettive diventano impraticabilmente grandi da accettare. Una volta che l’assenza di privacy diventa il default, o la norma sociale, le opzioni di privacy rischiano di scomparire del tutto dal mercato.

A peggiorare le cose, i costi marginali di protezione dei consumatori aumentano rapidamente con il grado di protezione richiesto. Poiché così tanto di ciò che facciamo è ora tracciato, c’è semplicemente troppo da imparare e da proteggere. Tutti possono, con poco sforzo, evitare di pubblicare il loro numero di previdenza sociale sul loro profilo Facebook. Usare una VPN è più costoso in termini cognitivi, di usabilità ed economici. Tentare di nascondere la maggior parte delle proprie impronte digitali dal monitoraggio di terzi è quasi incalcolabilmente impegnativo e, alla luce delle tecnologie di sorveglianza in continua evoluzione, in definitiva inutile.

L’interazione tra economia e psicologia

Mentre alcune aziende possono promuovere attivamente la privacy, c’è una frazione quasi sicuramente maggiore che risponde a, e in larga misura sfrutta, le caratteristiche psicologiche dei consumatori (Sezione 3) per i propri fini. Prima che il termine “modelli oscuri” iniziasse ad essere divulgato (Gray et al., 2018), la ricerca comportamentale sulla privacy aveva evidenziato come i fornitori di piattaforme possano sfruttare i cambiamenti di interfaccia per influenzare la scelta della privacy (Hartzog, 2010). Le aziende, per esempio, hanno un profondo apprezzamento dell’impatto delle inadempienze (Acquisti, John, & Loewenstein, 2013), e unendosi a una lunga tradizione (per esempio, quella di iscrivere i consumatori ad abbonamenti a riviste che continuano se non vengono disdetti proattivamente), impostano le inadempienze sulla privacy in modo liberale, contando sulla pigrizia e la disattenzione dei consumatori (si veda la Tabella 1 per una sintesi dei diversi modi in cui le aziende possono trarre vantaggio dalla psicologia dei consumatori in materia di privacy).

Anche la trasparenza e il controllo possono essere usati per spingere i consumatori verso una maggiore divulgazione (Acquisti, Adjerid, & Brandimarte, 2013). La trasparenza e il controllo sono componenti importanti della gestione della privacy. Per esempio, riducono la sensazione di violazione emotiva e la sfiducia dei clienti nei casi in cui i dati personali condivisi con le aziende sono soggetti a vulnerabilità (Martin et al., 2017). Ma, a causa degli ostacoli comportamentali che abbiamo evidenziato sopra, non sono condizioni sufficienti per la protezione della privacy. Infatti, fattori economici come gli effetti di rete e il lock-in possono esacerbare gli ostacoli comportamentali, dando ad alcune aziende più dati, più attenzione agli utenti, più controllo e, in definitiva, più capacità di influenzare il comportamento dei consumatori. In definitiva, gli approcci di “responsabilizzazione” (Giesler & Veresiu, 2014) dei consumatori alla privacy, basati sui cosiddetti regimi di notifica e consenso, cioè la fiducia nella “scelta” dei consumatori (Solove, 2012), non hanno reso conveniente o addirittura fattibile per i consumatori raggiungere i livelli desiderati di privacy.

Si consideri l’evoluzione storica del tracciamento online, che è iniziato con i “cookie” del browser. Quando gli utenti hanno iniziato ad adottare i cookie manager per impedire il tracciamento cross-site, l’industria della pubblicità online ha sviluppato i cosiddetti cookie “flash” per evitare le strategie di deviazione dei consumatori. E, quando gli utenti hanno iniziato ad acquisire strumenti per difendersi da questa nuova forma di tracciamento, l’industria è passata a strategie di tracciamento ancora più intrusive e più difficili da nascondere: fingerprinting dei dispositivi, deep packet inspection e così via. Il consumatore in cerca di privacy nell’era digitale non può fare affidamento sulle norme sociali condivise e sui comportamenti intuitivi di Altman, che funzionavano in un mondo offline. È un moderno Sisifo costantemente costretto a imparare nuove strategie, con scarso successo.

Privacy desiderata vs. desiderabile

Un valido contrappunto agli argomenti che abbiamo appena considerato è che i livelli desiderati di privacy, anche se irraggiungibili, possono in realtà superare ciò che sarebbe ottimale per i consumatori. Se, nell’era dell’analitica, la raccolta e l’analisi dei dati possono essere fonte di grande progresso tecnologico ed economico, allora la perdita di privacy, lungi dall’essere una minaccia al benessere della società, può essere un prezzo necessario per un maggiore benessere del consumatore e della società. Quindi, le quantità desiderabili di privacy possono essere meno di quello che i consumatori dicono di volere. Potrebbero, infatti, essere esattamente i livelli che i mercati già producono.

Il fatto che una grande utilità possa essere estratta dai dati è innegabile e non viene messo in discussione qui. Piuttosto, esaminiamo da una serie di angolazioni la premessa che i risultati del mercato soddisfino gli equilibri ottimali dell’uso e della protezione dei dati. Cosa ci dice effettivamente l’economia della privacy sui compromessi associati alla condivisione dei dati e come vengono distribuiti i benefici dei dati?

Chi beneficia della raccolta dei dati dei consumatori?

Gli equilibri di mercato possono anche non essere vantaggiosi per il benessere dei consumatori in termini relativi, se la maggior parte dei benefici derivanti dalla raccolta e dall’uso dei loro dati vanno a beneficio di altri soggetti, come gli intermediari di dati che, grazie a una combinazione di potere di mercato e supremazia nella tecnologia di sorveglianza, hanno un controllo quasi incontrastato sui dati.

Consideriamo, per esempio, la pubblicità mirata online. Secondo gli addetti ai lavori, la raccolta e l’uso dei dati dei consumatori per indirizzare gli annunci creano vantaggi economici per tutte le parti coinvolte: commercianti, consumatori, editori e intermediari (AdExchanger, 2011).

In realtà, su basi teoriche, il targeting può aumentare o diminuire (Bergemann & Bonatti, 2011; De Corniere & De Nijs, 2016) il benessere degli stakeholder diversi dagli intermediari dei dati. E la ricerca empirica disponibile ci dice molto poco su come i benefici degli annunci mirati siano assegnati agli stakeholder diversi dai commercianti e dagli intermediari stessi. I dati delle reti pubblicitarie suggeriscono che rinunciare al targeting comportamentale costa agli editori e agli ad exchange circa 8,5 dollari per consumatore (Johnson et al., 2020). Eppure, un sondaggio Digiday 2019 dei dirigenti degli editori ha rilevato che per il 45% degli intervistati, il targeting comportamentale degli annunci non ha “prodotto alcun beneficio degno di nota”, e il 23% ha affermato che ha “effettivamente causato un calo dei loro ricavi pubblicitari” (Weiss, 2019). E che dire dei consumatori stessi? I costi di ricerca dei consumatori scendono grazie agli annunci mirati? I prezzi che pagano per i prodotti pubblicizzati sono in media più alti, o più bassi, di quelli che avrebbero pagato per prodotti trovati tramite ricerca? E la qualità di quei prodotti? C’è bisogno di molta più ricerca in quest’area.

Ramificazioni non economiche: La “materia oscura” della privacy

Le nostre argomentazioni si sono finora concentrate solo sulle implicazioni economicamente quantificabili delle scelte di privacy in contesti specifici, come la pubblicità mirata. Due considerazioni critiche sorgono quando cerchiamo di guardare un quadro più ampio.

In primo luogo, i costi della privacy in tutti gli scenari sono probabilmente impossibili da combinare in una stima definitiva e aggregata della “perdita” causata da una generalizzata mancanza di privacy. E questo non perché i costi della privacy siano pochi e rari, ma per la ragione opposta: Sono molto comuni, ma molto diversi nella forma, eterogenei nella probabilità e variabili nella grandezza. Essi vanno dal furto d’identità alla discriminazione dei prezzi; dallo spreco di attenzione e tempo al danno psicologico; dalla discriminazione nella pubblicità mirata alle bolle di filtraggio; e dallo stigma alle rare ma catastrofiche conseguenze personali (si veda, ad esempio, Acquisti, Taylor, & Wagman, 2016; Calo, 2011; Solove, 2005, 2007). Da qui il problema dell’aggregazione e della stima. Per esempio, nella misura in cui i dati raccolti surrettiziamente attraverso app intrusive nella privacy possono avere un effetto sulle elezioni di un paese, come possiamo quantificare (o anche dimostrare) questo impatto e la sua pletora di ramificazioni a valle?

In secondo luogo, e in modo correlato, non abbiamo nemmeno considerato molte delle ramificazioni più consequenziali della perdita di privacy. Chiamiamo questa “materia oscura” economica: Sappiamo che c’è, ma non possiamo quantificarla. Le ramificazioni includono il valore collettivo della privacy (Regan, 1995); il suo ruolo nel preservare lo spazio per la soggettività individuale (Cohen, 2010); e il suo ruolo nel proteggere la libertà (Westin, 1967), la dignità (Schoeman, 1984), e l’equità (Jagadish, 2016), o la stessa integrità della vita sociale (Nissenbaum, 2009). Se i risultati del mercato rispondono principalmente agli incentivi economici, gli equilibri di mercato potrebbero non tenere conto di queste implicazioni intricate, indirette, meno tangibili, e tuttavia probabilmente ancora più critiche della protezione dei dati.

Quindi, cosa si dovrebbe fare?

Se è improbabile che i risultati del mercato producano non solo i livelli di privacy che i consumatori desiderano, ma anche i livelli che sarebbero desiderabili per loro, cosa – se qualcosa – può essere fatto per correggere gli squilibri della privacy? Consideriamo nell’ultima sezione di questo articolo una serie di strategie che sono state proposte: suggerimenti, schemi di propertizzazione dei dati, tecnologie che migliorano la privacy e regolamentazione.

Alcuni degli ostacoli comportamentali e psicologici che abbiamo considerato sopra possono essere contrastati, o migliorati, attraverso interventi comportamentali, per allineare i risultati della privacy con le preferenze ex ante (Acquisti, 2009). In letteratura sono stati esplorati numerosi nudges per la privacy, dalla modifica delle impostazioni di visibilità predefinite dei social media al rendere le conseguenze delle scelte di privacy più salienti per gli utenti (Acquisti, Adjerid, Balebako, et al., 2017). Purtroppo, mentre i nudges si sono dimostrati in qualche modo efficaci negli esperimenti e nelle prove sul campo (per esempio, Zhang & Xu, 2016), non è chiaro che gli interventi comportamentali localizzati possano da soli correggere l’enorme squilibrio che i consumatori incontrano online tra la loro capacità di gestire i dati personali e quella dei fornitori di piattaforme di raccoglierli. Controllando le interfacce utente, i fornitori rimangono in controllo dell’architettura di scelta.

Gli schemi di propertizzazione dei dati sono stati proposti in letteratura fin dalla metà degli anni Novanta. Laudon (1996) ha proposto la creazione di mercati di dati personali, dove i consumatori avrebbero scambiato diritti con le organizzazioni sulla raccolta e l’uso delle loro informazioni, “monetizzando” così i loro dati. Col tempo, le barriere tecnologiche alla proposta di Laudon sono svanite. Sono emerse startup di monetizzazione dei dati e i politici hanno incorporato la propertizzazione dei dati o i “dividendi dei dati” nelle loro piattaforme (Daniels, 2019). Anche se attraente a certi livelli (Arrieta-Ibarra et al., 2018), gli schemi di propertizzazione dei dati incontrano ostacoli nella pratica (Acquisti, Taylor, & Wagman, 2016). Una questione è se i consumatori, che in un tale schema dovranno decidere a chi vendere i loro dati e a quanto, siano in grado di assegnare valutazioni eque e ragionevoli ai propri dati, considerando gli ostacoli informativi e comportamentali che abbiamo evidenziato nelle sezioni precedenti. Una seconda questione è che gli schemi che monetizzano la privacy corrono il rischio di esacerbare la disuguaglianza, creando un mondo in cui solo i ricchi possono avere la privacy, o in cui i già ricchi ottengono più di chiunque altro per i loro dati. Infine, considerando le conseguenti dimensioni non economiche della privacy, alcuni potrebbero trovare ripugnante l’idea di darle un prezzo, o mettere in dubbio la correttezza di permettere alle persone di venderla, proprio come molti si chiedono se le persone dovrebbero essere autorizzate a vendere i propri organi per il trapianto.

Inoltre, gli schemi di propertizzazione dei dati basati sul mercato soffrono di una sfida economica quasi insormontabile. I dati più preziosi sono contestuali e dinamici; sono creati nell’interazione tra i fornitori di servizi esistenti e i consumatori; e – in assenza di un intervento normativo che stabilisca protezioni di base – è improbabile che questi fornitori cedano la loro proprietà ad altri. Quindi, gli schemi di propertizzazione dei dati possono semplicemente aggiungersi a un ecosistema di sorveglianza diffusa, piuttosto che sostituirlo.

Poiché permettono sia la protezione che l’analisi dei dati, le cosiddette Privacy-Enhancing Technologies (o PETs) offrono significativi benefici potenziali individuali e sociali. Tuttavia, è improbabile che molti consumatori ne approfittino, a causa dell’inconsapevolezza dell’esistenza delle PET, della sfiducia o dei costi percepiti (e reali). Pertanto, le barriere al successo delle tecnologie PET sono sia di natura psicologica che economica. Spingere la responsabilità del loro utilizzo sugli individui – cioè aspettarsi che essi navighino in un universo di soluzioni di autodifesa disparate ed eterogenee in una gamma sempre crescente di scenari in cui i dati sono tracciati – sposterebbe ancora una volta costi esorbitanti sui consumatori in termini di usabilità, cognitivi ed economici (come i costi di opportunità derivanti dalla perdita di funzioni nei servizi quando le PET sono implementate). In ogni caso, proprio come nel caso dei nudge e degli schemi di propertizzazione dei dati, l’implementazione delle PET è una soluzione intrinsecamente individualista: In assenza di un intervento normativo ad ampio raggio che sostenga la loro diffusione rendendo la privacy il default (Cavoukian, 2009), è difficile vedere come un approccio patchwork di soluzioni localizzate – che funzionano solo in circostanze specifiche, su app o sistemi specifici, in scenari specifici – possa andare lontano nell’affrontare quello che è intrinsecamente un problema sistemico di privacy.

In breve: interventi psicologicamente informati, schemi di propertizzazione dei dati e (soprattutto) tecnologie di miglioramento della privacy possono essere strumenti utili per la gestione della privacy. Tuttavia, a causa delle loro barriere e limitazioni, concludiamo anche che nessuno è probabile che funzioni come previsto in assenza di una regolamentazione sostanziale e completa. Le politiche di regolamentazione dovrebbero imporre un quadro di protezione della privacy di base, affrontando sia gli ostacoli dal lato dei consumatori che i fattori dal lato dell’offerta che abbiamo considerato in questo articolo.

Conclusione

La conclusione finale di questo articolo può sembrare pessimistica. Abbiamo mostrato che le persone si preoccupano e agiscono per gestire la loro privacy, ma affrontano ripidi ostacoli psicologici ed economici che rendono quasi irraggiungibile non solo la privacy desiderata, ma anche quella desiderabile. Concludiamo che gli approcci alla gestione della privacy che si basano puramente sulle forze di mercato e sulla responsabilizzazione del consumatore hanno fallito. Un intervento politico completo è necessario se l’obiettivo di una società è quello di permettere ai suoi cittadini di essere nella posizione di gestire la privacy in modo efficace e a loro vantaggio.

Anche se le nostre conclusioni, come abbiamo notato, possono sembrare pessimistiche, alcune delle prove che abbiamo discusso in questo articolo forniscono un barlume di speranza. Tornando al punto di partenza, le dichiarazioni che la privacy è morta, abbiamo sostenuto, confondono le opportunità con i desideri. Le opportunità di privacy delle persone si stanno notevolmente riducendo. Eppure, nel corso della storia, gli individui – dai tedeschi dell’Est sotto la Stasi (Betts, 2010; Sloan & Warner, 2016) agli adolescenti sui social media (Boyd & Marwick, 2011) – hanno rivelato una notevole tenacia nei loro tentativi di ritagliarsi spazi privati per se stessi e per i loro gruppi, di fronte a tutte le difficoltà – anche in pubblico e persino sotto sorveglianza. Le tecnologie, le interfacce e le forze di mercato possono influenzare il comportamento umano. Ma probabilmente, e speriamo, non possono alterare la natura umana. Se la privacy, come ha proposto Altman, è sia culturalmente specifica che culturalmente universale, è probabile che la ricerca della privacy da parte delle persone non si dissolva.

Bibliografia

Abowd, J. M., & Schmutte, I. M. (2019). An economic analysis of privacy protection and statistical accuracy as social choices. American Economic Review, 109(1), 171–202.

Acquisti, A. (2004). Privacy in electronic commerce and the economics of immediate gratification. In Proceedings of the 5th ACM conference on electronic commerce.

Acquisti, A. (2009). Nudging privacy: The behavioral economics of personal information. IEEE Security & Privacy, 7(6), 82–85.

Acquisti, A., Adjerid, I., Balebako, R., Brandimarte, L., Cranor, L.F., Komanduri, S., Leon, P.G., Sadeh, N., Schaub, F., Sleeper, M., & Wang, Y. (2017). Nudges for privacy and security: Understanding and assisting users’ choices online. ACM Computing Surveys (CSUR), 50(3), 1-41.

Acquisti, A., Adjerid, I., & Brandimarte, L. (2013). Gone in 15 seconds: The limits of privacy transparency and control. IEEE Security & Privacy, 11(4), 72–74.

Acquisti, A., Brandimarte, L., & Loewenstein, G. (2015). Privacy and human behavior in the age of information. Science, 347(6221), 509–514.

Acquisti, A., & Gross, R. (2006). Imagined communities: Awareness, information sharing, and privacy on the Facebook. In International workshop on privacy enhancing technologies. Springer.

Acquisti, A., John, L. K., & Loewenstein, G. (2012). The impact of relative standards on the propensity to disclose. Journal of Marketing Research, 49(2), 160–174.

Acquisti, A., John, L. K., & Loewenstein, G. (2013). What is privacy worth? The Journal of Legal Studies, 42(2), 249–274.

Acquisti, A., Taylor, C., & Wagman, L. (2016). The economics of privacy. Journal of Economic Literature, 54(2), 442–492.

Adjerid, I., Acquisti, A., Telang, R., Padman, R., & Adler-Milstein, J. (2016). The impact of privacy regulation and technology incentives: The case of health information exchanges. Management Science, 62(4), 10421063.

AdExchanger. (2011, October 28). If a consumer asked you, “Why is tracking good?”, what would you say? https://adexchanger.com/online-advertising/why-is-tracking-good/

Adjerid, I., Pe’er E., & Acquisti, A. (2018). Beyond the privacy paradox: Objective versus relative risk in privacy decision making. MIS Quarterly, 42(2), 465–488.

Ajzen, I., & Fishbein, M. (1977). Attitude-behavior relations: A theoretical analysis and review of empirical research. Psychological Bulletin, 84(5), 888–918.

Akerlof, G. A. (1970). The Market for” Lemons”: Quality Uncertainty and the Market Mechanism. The Quarterly Journal of Economics, 84(3), 488-500.

Almuhimedi, H., Schaub, F., Sadeh, N., Adjerid, I., Acquisti, A., Gluck, J., Cranor, L., & Agarwal, Y. (2015, April). Your location has been shared 5,398 times! A field study on mobile app privacy nudging. In Proceedings of the 33rd annual ACM Conference on Human Factors in Computing Systems (pp. 787–796).

Altman, I. (1975). The environment and social behavior. Brooks/Cole Pub. Co.

Altman, I. (1977). Privacy regulation: Culturally universal or culturally specific? Journal of Social Issues, 33(3), 66–84.

Arrieta-Ibarra, I., Goff, L., Jiménez-Hernández, D., Lanier, J., & Weyl, E. G. (2018). Should we treat data as labor? Moving beyond “free”. AEA Papers and Proceedings, 108, 38–42.

Athey, S., Catalini, C., & Tucker, C. (2017). The digital privacy paradox: Small money, small costs, small talk (No. w23488). National Bureau of Economic Research.

Bamberger, K. A., & Mulligan, D. K. (2019). Privacy law: On the books and on the ground. In The handbook of privacy studies: An interdisciplinary introduction (p. 349).

Barassi, V. (2019). Datafied citizens in the age of coerced digital participation. Sociological Research Online, 24(3), 414–429.

Barnes, S. B. (2006). A privacy paradox: Social networking in the United States. First Monday, 11(9).

Barth, S., de Jong, M. D., Junger, M., Hartel, P. H., & Roppelt, J. C. (2019). Putting the privacy paradox to the test: Online privacy and security behaviors among users with technical knowledge, privacy awareness, and financial resources. Telematics and informatics, 41, 55–69.

Bergemann, D., & Bonatti, A. (2011). Targeting in advertising markets: Implications for offline versus online media. The RAND Journal of Economics, 42(3), 417–443.

Beresford, A. R., Kübler, D., & Preibusch, S. (2012). Unwillingness to pay for privacy: A field experiment. Economics Letters, 117(1), 25–27.

BERR (Department for Business, Enterprise, and Regulatory Reform) (2008). Regulation and innovation: evidence and policy implications. BERR Economics Paper n. 4, United Kingdom.

Bettinger, E. P., Long, B. T., Oreopoulos, P., & Sanbonmatsu, L. (2012). The role of application assistance and information in college decisions: Results from the H&R Block FAFSA experiment. The Quarterly Journal of Economics, 127(3), 1205–1242.

Betts, P. (2010). Within walls: Private life in the German Democratic Republic. Oxford University Press.

Boyd, D., & Marwick, A. E. (2011). Social privacy in networked publics: Teens’ attitudes, practices, and strategies. In A decade in Internet time: Symposium on the dynamics of the Internet and society.

Brandimarte, L., Acquisti, A., & Loewenstein, G. (2013). Misplaced confidences: Privacy and the control paradox. Social Psychological and Personality Science, 4(3), 340–347.

Brandom, R. (2018, October 24). Tim Cook wants a federal privacy law—But so do Facebook and Google. The Verge. https://www.theverge.com/2018/10/24/18018686/tim-cook-apple-privacy-law-facebook-google-gdpr

Burtch, G., Ghose, A., & Wattal, S. (2015). The hidden cost of accommodating crowdfunder privacy preferences: A randomized field experiment. Management Science, 61(5), 949–962.

Bush, G. W. (2009). Economic regulation. Chapter 9. White House Archives. https://georgewbush-whitehouse.archives.gov/cea/ERP_2009_Ch9.pdf

Calo, R. (2011). The boundaries of privacy harm. Indiana Law Journal, 86, 1131.

Carbone, E., & Loewenstein, G. (2020.) Dying to divulge: The determinants of, and relationship between, desired and actual disclosure. https://ssrn.com/abstract=3613232.

Cavoukian, A. (2009). Privacy by design: The 7 foundational principles. Information and Privacy Commissioner of Ontario, Canada.

Chen, B. X. (2018, March 21). Want to #DeleteFacebook? You can try. New York Times. https://www.nytimes.com/2018/03/21/technology/personaltech/delete-facebook.html

CISCO (2019). Consumer Privacy Survey: The growing imperative of getting data privacy right. CISCO Cybersecurity Series 2019. https://www.cisco.com/c/dam/en/us/products/collateral/security/cybersecurity-series-2019-cps.pdf

Cohen, J. E. (2010). What privacy is for. Harvard Law Review, 126, 1904.

Daniels, J. (2019, February 12). California governor proposes ‘new data dividend’ that could call on Facebook and Google to pay users. CNBC. https://www.cnbc.com/2019/02/12/california-gov-newsom-calls-for-new-data-dividend-for-consumers.html

De Corniere, A., & De Nijs, R. (2016). Online advertising and privacy. The RAND Journal of Economics, 47(1), 48–72.

Dienlin, T., & Trepte, S. (2015). Is the privacy paradox a relic of the past? An in‐depth analysis of privacy attitudes and privacy behaviors. European Journal of Social Psychology, 45(3), 285–297.

Downs, A. (1957). An economic theory of democracy. Harper & Row.

Draper, N. A., & Turow, J. (2019). The corporate cultivation of digital resignation. New Media & Society, 21(8), 1824–1839.

DuckDuckGo. (2017, January). A study on private browsing: Consumer usage, knowledge, and thoughts. Technical report. https://duckduckgo.com/download/Private_Browsing.pdf

Federal Trade Commission. (2016, June). Online tracking. https://www.consumer.ftc.gov/articles/0042-online-tracking

Feng, E. (2019, December 16). How China is using facial recognition technology. NPR. https://www.npr.org/2019/12/16/788597818/how-china-is-using-facial-recognition-technology

Fiegerman, S. (2017, September 7). The biggest data breaches ever. CNN Business. http://money.cnn.com/2017/09/07/technology/business/biggest-breaches-ever/index.html

Fiesler, C., Dye, M., Feuston, J. L., Hiruncharoenvate, C., Hutto, C. J., Morrison, S., Roshan, P. K., Pavalanathan, U., Bruckman, A. S., De Choudhury, M., & Gilbert, E. (2017). What (or who) is public? Privacy settings and social media content sharing. In Proceedings of the 2017 ACM conference on computer supported cooperative work and social computing (pp. 567–580).

Gerber, N., Gerber, P., & Volkamer, M. (2018). Explaining the privacy paradox: A systematic review of literature investigating privacy attitude and behavior. Computers & Security, 77, 226–261.

Ghose, A. (2017). Tap: Unlocking the mobile economy. MIT Press.

Giesler, M., & Veresiu, E. (2014). Creating the responsible consumer: Moralistic governance regimes and consumer subjectivity. Journal of Consumer Research, 41(3), 840–857.

Godinho de Matos, M., & Adjerid, I. (2019). Consumer behavior and firm targeting after GDPR: The case of a telecom provider in Europe. NBER Summer Institute on IT and Digitization.

Goldberg, I. (2002). Privacy-enhancing technologies for the Internet, II: Five years later. In International workshop on privacy enhancing technologies. Springer.

Goldfarb, A., & Tucker, C. E. (2011). Privacy regulation and online advertising. Management Science, 57(1), 57–71.

Goldfarb, A., & Tucker, C. (2012). Privacy and innovation. Innovation Policy and the Economy, 12(1), 65–90.

Gray, C. M., Kou, Y., Battles, B., Hoggatt, J., & Toombs, A. L. (2018). The dark (patterns) side of UX design. In Proceedings of the 2018 CHI conference on human factors in computing systems (pp. 1–14).

Gross, R., & Acquisti, A. (2005). Information revelation and privacy in online social networks (The Facebook case). In Proceedings of the 2005 ACM workshop on privacy in the electronic society (pp. 71–80).

Habib, H., Colnago, J., Gopalakrishnan, V., Pearman, S., Thomas, J., Acquisti, A., Christin, N., & Cranor, L. F. (2018). Away from prying eyes: Analyzing usage and understanding of private browsing. In Fourteenth symposium on usable privacy and security (SOUPS 2018) (pp. 159–175).

Hartzog, W. (2010). Website design as contract. American University Law Review, 60, 1635.

Henrich, J., Heine, S. J., & Norenzayan, A. (2010). The weirdest people in the world?. Behavioral and Brain Sciences, 33(2–3), 61–83.

Hirsch, D. D. (2013). Going Dutch: Collaborative Dutch privacy regulation and the lessons it holds for US privacy law. Michigan State Law Review, 83.

Hirshleifer, J. (1978). The private and social value of information and the reward to inventive activity. In Uncertainty in economics (pp. 541–556). Academic Press.

Hoofnagle, C. J., & Urban, J. M. (2014). Alan Westin’s privacy homo economicus. Wake Forest Law Review, 49, 261.

Jagadish, H. V. (2016). The values challenge for Big Data. In Bulletin of the IEEE computer society technical committee on data engineering (pp. 77–84).

Jentzsch, N., Preibusch, S., & Harasser, A. (2012). Study on monetising privacy. an economic model for pricing personal information. European Network and information Security Agency (ENISA).

John, L., Acquisti, A., & Loewenstein, G. (2011). Strangers on a plane: Context-dependent willingness to divulge sensitive information. Journal of Consumer Research, 37(5), 858–873.

Johnson, B. (2020, January 11). Privacy no longer a social norm, says Facebook founder. he Guardian. https://www.theguardian.com/technology/2010/jan/11/facebook-privacy

Johnson, G. A., Shriver, S. K., & Du, S. (2020). Consumer privacy choice in online advertising: Who opts out and at what cost to industry?. Marketing Science, 39(1), 33–51.

Kang, R., Dabbish, L., Fruchter, N., & Kiesler, S. (2015). “My data just goes everywhere”: User mental models of the Internet and implications for privacy and security. In Eleventh symposium on usable privacy and security (SOUPS 2015) (pp. 39–52).

KFF. (2020, April). Coronavirus, social distancing, and contact tracing. Health tracking poll. https://www.kff.org/global-health-policy/issue-brief/kff-health-tracking-poll-late-april-2020/

Kokolakis, S. (2017). Privacy attitudes and privacy behaviour: A review of current research on the privacy paradox phenomenon. Computers & Security, 64, 122–134.

Kunreuther, H., Ginsberg, R., Miller, L., Sagi, P., Slovic, P., Borkan, B., & Katz, N. (1978). Disaster insurance protection: Public policy lessons. Wiley.

Laudon, K. C. (1996). Markets and privacy. Communications of the ACM, 39(9), 92–104.

Lewis, B. (2017, November 7). Americans Say Data Privacy is Important, but Few Take Steps to Protect Themselves. Instamotor. https://instamotor.com/blog/online-data-privacy-survey

Madejski, M., Johnson, M., & Bellovin, S. M. (2012, March). A study of privacy settings errors in an online social network. In 2012 IEEE international conference on pervasive computing and communications workshops (pp. 340–345). IEEE.

Mapon. (2017, June 9). GPS tracking for rental cars: How to break from the mold. https://www.mapon.com/us-en/blog/2017/06/gps-tracking-for-rental-cars-how-to-break-from-the-mold

Margulis, S. T. (2003). Privacy as a social issue and behavioral concept. Journal of social issues, 59(2), 243-261.

Marreiros, H., Tonin, M., Vlassopoulos, M., & Schraefel, M. C. (2017). “Now that you mention it”: A survey experiment on information, inattention and online privacy. Journal of Economic Behavior & Organization, 140, 1–17.

Martin, K. (2020). Breaking the privacy paradox: the value of privacy and associated duty of firms. Business Ethics Quarterly, 30(1), 65–96.

Martin, K. D., Borah, A., & Palmatier, R. W. (2017). Data privacy: Effects on customer and firm performance. Journal of Marketing, 81(1), 36–58.

Martin, K., & Nissenbaum, H. (2016). Measuring privacy: An empirical test using context to expose confounding variables. Columbia Science and Technology Law Review, 18(1), 176–218.

McDonald, A. M., & Cranor, L. F. (2008). The cost of reading privacy policies. Information System: A Journal of Law and Policy for the Information Society, 4, 543.

McGeveran, W. (2016). Friending the privacy regulators. Arizona Law Review, 58, 959.

Melumad, S., & Meyer, R. (2020). Full disclosure: How smartphones enhance consumer self-disclosure. Journal of Marketing, 84(3), 28–45.

Miller, C. C. (2014, November 12). Americans say they want privacy, but act as if they don’t. New York Times. https://www.nytimes.com/2014/11/13/upshot/americans-say-they-want-privacy-but-act-as-if-they-dont.html

Miller, A. R., & Tucker, C. (2009). Privacy protection and technology diffusion: The case of electronic medical records. Management Science, 55(7), 1077–1093.

Moore Jr, B. (1984). Privacy: Studies in social and cultural history. Routledge.

Murphy, R. F. (1964). Social distance and the veil. American Anthropologist, 66(6), 1257–1274.

Narayanan, A., & Shmatikov, V. (2008). Robust de-anonymization of large sparse datasets. In 2008 IEEE symposium on security and privacy. IEEE.

Nissenbaum, H. (2009). Privacy in context: Technology, policy, and the integrity of social life. Stanford University Press.

Noam, E. M. (1997). Privacy and self-regulation: Markets for electronic privacy. Privacy and Self-Regulation in the Information Age, 21–33.

Norberg, P. A., Horne, D. R., & Horne, D. A. (2007). The privacy paradox: Personal information disclosure intentions versus behaviors. Journal of Consumer Affairs, 41(1), 100–126.

Olson, M. (1965). The Logic of Collective Action. Cambridge University Press.

Palen, L., & Dourish, P. (2003). Unpacking” privacy” for a networked world. In Proceedings of the SIGCHI conference on Human factors in computing systems (pp. 129-136).

Panzarino, M. (2019, March 19). Apple ad focuses on iPhone’s most marketable feature: Privacy. Techcrunch. https://techcrunch.com/2019/03/14/apple-ad-focuses-on-iphones-most-marketable-feature-privacy/

Pennebaker, J. W. (1997). Opening up: The healing power of emotional expression. Guilford.

Penney, J. W. (2016). Chilling effects: Online surveillance and Wikipedia use. Berkeley Technology Law Journal, 31, 117.

Petronio, S. (2002). Boundaries of privacy: Dialectics of disclosure. Suny Press.

Pew Research Center. (2012). Privacy management on social media sites. https://www.pewresearch.org/internet/2012/02/24/privacy-management-on-social-media-sites/.

Pew Research Center. (2013). Anonymity, privacy and security online. https://www.pewresearch.org/internet/2013/09/05/anonymity-privacy-and-security-online/.

Pew Research Center. (2015). Americans’ privacy strategies post-Snowden. https://www.pewresearch.org/wp-content/uploads/sites/9/2015/03/PI_AmericansPrivacyStrategies_0316151.pdf.

Pew Research Center. (2019). Americans and privacy: Concerned, confused and feeling lack of control over their personal information. https://www.pewresearch.org/internet/wp-content/uploads/sites/9/2019/11/Pew-Research-Center_PI_2019.11.15_Privacy_FINAL.pdf.

Posner, R. A. (1978). Economic theory of privacy. Regulation, 2, 19–26.

Preibusch, S., Kübler, D., & Beresford, A. R. (2013). Price versus privacy: An experiment into the competitive advantage of collecting less personal information. Electronic Commerce Research, 13(4), 423–455.

Quine, W. V. (1976). The ways of paradox. Harvard University Press.

Regan, P. M. (1995). Legislating privacy: Technology, social values, and public policy. The University of North Carolina Press.

Romanosky, S., Telang, R., & Acquisti, A. (2011). Do data breach disclosure laws reduce identity theft? Journal of Policy Analysis and Management 30(2), 256–286.

Rosenberg, M., Confessore, N., & Cadwalladr, C. (2018, March 17). How Trump consultants exploited the Facebook data of millions. New York Times. https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html

Sanchez-Rola, I., Dell’Amico, M., Kotzias, P., Balzarotti, D., Bilge, L., Vervier, P. A., & Santos, I. (2019, July). Can I opt out yet? GDPR and the global illusion of cookie control. In Proceedings of the 2019 ACM Asia conference on computer and communications security (pp. 340–351).

Satariano, A. (2019, September 15). Real-time surveillance will test the British tolerance for cameras. New York Times. https://www.nytimes.com/2019/09/15/technology/britain-surveillance-privacy.html

Savage, S. J. & Waldman, D. M. (2015). Privacy tradeoffs in smartphone applications. Economics Letters, 137, 171–175.

Schoeman, F. (1984). Privacy: Philosophical Dimensions. American Philosophical Quarterly, 21(3), 199-213.

Sloan, R. H., & Warner, R. (2016). The self, the Stasi, and NSA: Privacy, knowledge, and complicity in the surveillance state. Minnesota Journal of Law, Science and Technology, 17, 347.

Slovic, P. (1995). The construction of preference. American Psychologist, 50(5), 364.

Solove, D. J. (2005). A taxonomy of privacy. University of Pennsylvania Law Review, 154, 477.

Solove, D. J. (2007). I’ve got nothing to hide and other misunderstandings of privacy. San Diego Law Review, 44, 745.

Solove, D. J. (2012). Introduction: Privacy self-management and the consent dilemma. Harvard Law Review, 126, 1880.

Solove, D. (2021, forthcoming). The myth of the privacy paradox. George Washington Law Review, 89.

Spiekermann, S., Grossklags, J., & Berendt, B. (2001, October). E-privacy in 2nd generation e-commerce: Privacy preferences versus actual behavior. In Proceedings of the 3rd ACM conference on electronic commerce (pp. 38–47).

Sprenger, P. (1999, January 26). Sun on privacy: “Get over it.” Wired. https://www.wired.com/1999/01/sun-on-privacy-get-over-it/

Statista. (2016, November 23). Number of mobile phone users worldwide from 2015 to 2020. https://www.statista.com/statistics/274774/forecast-of-mobile-phone-users- worldwide/

Stutzman, F. D., Gross, R., & Acquisti, A. (2013). Silent listeners: The evolution of privacy and disclosure on Facebook. Journal of Privacy and Confidentiality, 4(2), 7–41.

Svirsky, D. (2019). Three experiments about human behavior and legal regulation [Doctoral dissertation, Harvard University, Graduate School of Arts & Sciences].

Taylor, H. (2001). Testimony on “Opinion surveys: What consumers have to say about information privacy.” Hearing before the Subcommittee on Commerce, Trade and Consumer Protection. Serial No. 107-35. https://www.govinfo.gov/content/pkg/CHRG-107hhrg72825/html/CHRG-107hhrg72825.htm

Tamir, D. I., & Mitchell, J. P. (2012). Disclosing information about the self is intrinsically rewarding. Proceedings of the National Academy of Sciences, 109(21), 8038–8043.

Tsai, J. Y., Egelman, S., Cranor, L., & Acquisti, A. (2011). The effect of online privacy information on purchasing behavior: An experimental study. Information Systems Research, 22(2), 254–268.

Varian, H. R. (1996). Economic aspects of personal privacy. In Privacy and self-regulation in the information age. National Telecommunications and Information Administration, US Department of Commerce.

Vitak, J., & Ellison, N. B. (2013). “There’s a network out there you might as well tap”: Exploring the benefits of and barriers to exchanging informational and support-based resources on Facebook. New Media & Society, 15(2), 243–259.

Vitak, J., & Kim, J. (2014). “You can’t block people offline”: Examining how Facebook’s affordances shape the disclosure process. In Proceedings of the 17th ACM conference on computer supported cooperative work & social computing (pp. 461–474).

Weiss, M. (2019, June 5). Digiday research: Most publishers don’t benefit from behavioral ad targeting. Digiday. https://digiday.com/media/digiday-research-most-publishers-dont-benefit-from-behavioral-ad-targeting/

Westin, A. (1967). Privacy and freedom. Atheneum.

Westin, A. (2001). Testimony on “Opinion surveys: What consumers have to say about information privacy.” Hearing before the Subcommittee on Commerce, Trade and Consumer Protection. Serial No. 107-35. https://www.govinfo.gov/content/pkg/CHRG-107hhrg72825/html/CHRG-107hhrg72825.htm

White, T. B., Novak, T. P., & Hoffman, D. L. (2014). No strings attached: When giving it away versus making them pay reduces consumer information disclosure. Journal of Interactive Marketing, 28(3), 184–195.

Wong, J. C. (2019, March 18). The Cambridge Analytica scandal changed the world: But it didn’t change Facebook. The Guardian. https://www.theguardian.com/technology/2019/mar/17/the-cambridge-analytica-scandal-changed-the-world-but-it-didnt-change-facebook

Wong, R. Y., & Mulligan, D. K. (2019). Bringing design to the privacy table: Broadening “design” in “privacy by design” through the lens of HCI. In Proceedings of the 2019 CHI conference on human factors in computing systems.

Zhang, B. & Xu, H. (2016). Privacy nudges for mobile applications: Effects on the creepiness emotion and privacy attitudes. In Proceedings of the 19th ACM conference on computer-supported cooperative work & social computing.

Zuboff, S. (2015). Big other: surveillance capitalism and the prospects of an information civilization. Journal of Information Technology, 30(1), 75-89.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4