Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

La riflessione

La profilazione social influenza le scelte elettorali: come funziona e quali difese

Il pensiero delle elezioni riporta la mente al caso Cambridge Analytica e a come la profilazione e l’acquisizione dei dati possa influire sul voto e sulle scelte politiche degli utenti. Utile dunque approfondire la questione, che abbraccia temi tecnologici, etici e culturali

06 Set 2019
Andrea Tironi

Project Manager - Digital Transformation


Il 2020 sarà anno di elezioni importanti. Quelle americane, certo – per cui si riportano prezzi record per la pubblicità elettorale su social (Facebook in primis), soprattutto acquistate dai democratici. Ma chissà forse anche in Italia, dato che non sapremo quanto reggerà il nuovo Governo.

Nell’ottica di pensare a nuove elezioni, non si può dimenticare il caso Cambridge Analytica, che per altro continua a portare sviluppi: nei giorni scorsi è emerso un documento da cui risulta che Facebook ha sottovalutato i segnali iniziali del problema.

Non bisogna dimenticare: in ogni momento, anche mentre stiamo leggendo qui, c’è chi prosegue l’acquisizione e compravendita di dati per profilarci al meglio in modo da influenzarci, con pubblicità relative a biscotti, a un detersivo, oppure per farci votare questo o quell’altro candidato. A volte agendo al limite delle regole, a volte forzandole.

La profilazione

Questo è quello che ha fatto Cambridge Analytica, come ormai ampiamente dimostrato in maniera oggettiva sia nell’ambito della Brexit che nelle elezioni USA 2016. Addirittura si dice che la Brexit sia stata un “esperimento riuscito” in vista delle elezioni USA. Il CEO Alexander Nix (anche CEO di Strategic Communication Laboratories) lo spiegava molto bene qualche settimana prima del voto USA nel 2016, in questo video. In poche e chiare parole Nix dice: profilare il pubblico dei cittadini, clienti, consumatori per genere, per nazione, per razza, per classe sociale è cosa obsoleta. Le persone vanno profilate per caratteristiche comportamentali, in base ai 5 tratti del Modello Ocean (detti Big five):

Questi tratti di personalità sono definiti come:

  • Estroversione
  • Amicalità
  • Coscienziosità
  • Stabilità emotiva
  • Apertura mentale

Una volta classificata la persona in base a questi parametri, è semplice capire a cosa sarà più sensibile e quindi capire come indirizzarla in una determinata direzione in base allo scopo. Si tratta di una persona ansiosa? Proponi una soluzione che le dia tranquillità e la comprerà. Alexander Nix dice anche che un altro modello è morto: quello della pubblicità generalista. Ora i banner vanno fatti praticamente ad hoc perchè la pubblicità deve colpire proprio te, perchè sei fatto in un determinato modo, e deve colpirti proprio nel modo in cui potrebbe colpirti una frase di una persona che ti conosce bene per indirizzarti verso un obiettivo preciso (magari, votare un candidato). E qui si ferma Nix e proseguiamo noi.

Questi modelli di classificazione secondo modello Ocean e successiva pubblicità mirata, sono molto efficaci se il messaggio che si vuole passare è di paura o rabbia, che sono leve a cui le persone sono molto sensibili, come ad esempio capita nei messaggi populisti. E questo spiega come Cambridge Analytica in un periodo di crescita dei movimenti populisti abbia fatto la sua fortuna. Non solo nel 2016, ma molto prima anche in campagne elettorali di altri paesi.

EVENTO
Tutto quello che c'è da sapere sulla Cloud migration. Scopri specificità, opportunità e ingredienti
Cloud

Ma c’è un baco: come fai a conoscere una persona in modo da classificarla in base al Modello Ocean 5? Devi avere tanti dati di questa persona (qualche centinaio). Ma non è un problema se a darteli sono siti online dove le persone si iscrivono per contattare altre persone, per farsi amici e intanto postano la loro vita, i loro gusti, le loro preferenze, lasciandole pubbliche (ad esempio i social, ad esempio Facebook). E così si chiude il giro.

Acquisizione e vendita dei dati

Le persone regalano al sistema dati in cambio di servizi di condivisione e storage, il sistema (in maniera illegale o legale mediante informative che nessuno legge) li vende a chi li analizza e che fa una valutazione comportamentale per poi restituire pubblicità (o “spinte” elettive) a questo o quel candidato. Ad oggi, David Carroll, professore e co-protagonista di The Great Hack (film documentario uscito il 24 Luglio e che consigliamo di vedere giusto per darsi un’idea di quanto successo e sta succedendo nella guerra dei dati), non è riuscito a farsi dare da Cambridge Analytica i propri dati nonostante una battaglia legale che l’ha visto vincitore. Quindi non sapremo mai cosa Cambridge Analytica aveva davvero in mano delle persone (cittadini USA, ma anche inglesi con il Brexit, ma anche italiani nelle elezioni del 2012 visto che un partito populista italiano di cui non è trapelato il nome, era cliente della società di studi comportamentali). anche perchè Cambridge Analytica è fallita circa 1 anno fa.

Del resto, come mostra The Great Hack , la ricerca della verità sta comunque proseguendo, grazie alla giornalista Carole Cadwalladr (qui un suo Ted Talk), dell’Observer, che dopo la vittoria della Brexit si è domandata: ma come mai in alcune zone dell’UK dove praticamente ogni infrastruttura è finanziata dalla UE, le persone hanno votato pro Brexit? E chiedendo alla persone ha scoperto che tutte avevano credenze assolutamente fasulle sulla realtà dell’UE (immigrati inclusi) e che le avevano raccolte sui social, in particolare Facebook. Da lì l’escalation che ha portato a coinvolgere Cambridge Analytica, Facebook e lo stesso Mark Zuckemberg, che in un’udienza in cui è stato chiamato per rispondere a delle domande sulla cessione ed uso dei dati da parte di Cambridge Analytica presi da Facebook, ha solo saputo dire “non so devo chiedere al mio Staff”.

Quella che si sta combattendo è una battaglia per i dati? Si, ma non solo. Per la privacy? Ancora si, ma non ancora abbastanza. Come sempre nella storia la battaglia è per il potere e il potere, oggi, è dove ci sono i dati. Quando si parla di BigData credo che la parola di Sundar Pichai, CEO di Google conti qualcosa. E ha detto una cosa che dovrebbe far riflettere e preoccupare. “Per me I dati non sono come il petrolio, sono come la luce solare, che si rinnova continuamente…”. Infatti Google (come tante altre big tech) ha in piedi flussi di dati che analizza continuamente. Dati freschi, attuali, rilevanti. Quelli sono preziosi.

Il ruolo dei Poli strategici nazionali

E li sta il potere: tanti dati, freschi, attuali, per profilare persone e quindi influenzarne i comportamenti, che siano comprare un vestito o votare un candidato. E essendo dati sempre rinnovati, permettono sempre di influenzare la persona, anche nell’evolvere della sua personalità che continuamente cambia nel tempo. Ma se i dati sono così importanti, allora cosa deve fare la PA italiana per i suoi dati? Probabilmente cercare il più possibile di gestirli in casa, come le infrastrutture? Rispondere a questa domanda non è semplice e richiede sicuramente in primis di sbrogliare il nodo dei PSN (poli strategici nazionali). Questi erano nati come punto di aggregazione dei dati della PA e posizionamento di infrastrutture strategiche e non, ma il tempo e le latenze nell’individuazione hanno poi portato probabilmente ad una valutazione di alternative come i CSP (cloud service provider) e i SAAS (software as a service).

Mentre i PSN dovrebbero essere completamente sotto sovranità italiana, i CSP comprendono già alcune big tech del cloud. E in un’epoca dove il dazio è la normalità e la “mia sovranità è più importante della tua”, ospitare dati su CSP non italiani potrebbero essere un problema a medio termine. Per stare nel paradossale (ma non troppo) potrebbe essere che un domani Trump litighi con uno dei nostri premier e decida di influenzare le big tech per non erogare più servizi cloud? (come fatto con Google per Android verso la Cina?). Oppure che vengano messi dazi sui giga trasferiti dai cloud service provider? Oppure ancora che per motivi di “sicurezza nazionale” cloud service provider USA debbano fornire dati dei loro clienti al governo USA? Oppure fornirli e basta, senza spiegazioni particolari e senza che si sappia? Chi può saperlo.

Conclusione

Il tema ha aspetti tecnologici, etici e culturali, oltre che economici, e non si può esaurire in poche righe, ma va valutato in tutte le sue dimensioni anche di prospettiva e di sovranità, vista in dimensione locale. E forse andrebbe valutato più a livello Europeo (come indicato in questo articolo) che italiano, visto che probabilmente la UE ha la forza di fare datacenter europei con tutti i sacri crismi delle big tech USA, mentre i singoli stati in questi avrebbero maggiori difficioltà. Ma anche questo ragionamento che sulla carta ha il suo senso, è reso molto difficile da un’Europa unita ma disunita e dal diffondersi dei movimenti populitisti e sovranisti, e qui si torna agli algoritmi che aiutano i candidati a vincere le elezioni, in un circolo che si autoalimenta.

Post scriptum: Cambridge Analytica ha chiuso, ma i suoi dipendenti lavorano ancora in altre aziende e i modelli comportamentali utilizzati (non solo da CA) non sono spariti. Attenzione quindi alle prossime elezioni, perché potremmo pensare di votare il candidato che ci piace, quando invece è un algoritmo che ha deciso per noi in base alla profilazione che è derivata dalla raccolta dei nostri dati, convincendoci di un’opinione che anche solo poche settimane prima non avevamo. Appuntamento al 2020, con le elezioni USA e le possibili elezioni italiane.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3