Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

disinformazione

Pubblicità politica ingannevole sui social: quali soluzioni

Forme di monitoraggio dei contenuti circolanti in rete sono praticabili e possono essere realizzate con la collaborazione dei big del web, come dimostra l’Ad Tool Library di Facebook. Che però non funziona come dovrebbe, come rileva un nuovo studio. Vediamo allora cosa occorre per la trasparenza della propaganda online

02 Ago 2019

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant


La nuova release della Ad Tool Library di Facebook – un vero e proprio archivio delle inserzioni politiche (che rimarranno disponibili per sette anni), accessibile a tutti gli utenti in nome della trasparenza della pubblicità/propaganda politica – non sembra funzionare secondo le modalità annunciate lo scorso marzo dalla compagnia.

Lo rilevano due studi sull’affidabilità dell’archivio redatti rispettivamente dal Governo francese e dai ricercatori di Mozilla (realizzatore del browser Firefox), come riporta un recente articolo del New York Times: lo strumento messo a punto da Facebook per garantire la massima trasparenza degli annunci e la responsabilizzazione degli inserzionisti di fatto non renderebbe possibile monitorare la pubblicità politica.

Si evidenziano molti bug, limitazioni tecniche imposte da Facebook in termini di modalità di ricerca e di recupero, riscontro di identiche ricerche che forniscono risultati diversi ponendo il problema dell’affidabilità e, in caso di estrazione di un quantitativo enorme di dati, il blocco della piattaforma.

Il dubbio, a questo punto, è lecito: si tratta davvero di semplici difficoltà tecniche?

Le misure messe in atto da Facebook

Sappiamo quanto Facebook si stia adoperando per recuperare la propria reputazione ed immagine a fronte delle varie accuse degli ultimi due anni e alle multe inflitte, dovute principalmente all’omesso controllo della gestione dei dati dei propri utenti, al non rispetto delle varie normative negli Stati Uniti e in Europa in termini di leggi antitrust, GDPR e di obbligo di diffusione di informazioni corrette.

Proprio in un’ottica di maggiore trasparenza degli annunci e di responsabilizzazione degli inserzionisti, la società ha attuato diverse misure, soprattutto per quanto riguarda la disinformazione politica a fronte degli scandali degli ultimi anni (i.e. Cambridge Analytica).

Da un lato, prima di pubblicare contenuti (a pagamento) di carattere elettorale o politico, Facebook rende obbligatorio ottenere l’autorizzazione, registrandosi e fornendo una serie di informazioni identificative, a partire dalla nazione di residenza dell’inserzionista – in modo da sapere chi, di fatto, si cela dietro ad ogni annuncio – impedendo di fare propaganda politica al di fuori del proprio Paese al fine di proteggere l’integrità delle elezioni e ridurre al minimo le opportunità di commettere abusi.

Dall’altro lato, il colosso statunitense ha sviluppato poi la Ad Tool Library, per permettere a chiunque l’accesso alle informazioni in termini di chi paga, quanti soldi ha investito, a quali persone ha scelto di rivolgersi e con quale frequenza sono stati pubblicati i post.

I media e gli osservatori possono, in teoria, attraverso la Ad Tool Library monitorare i vari fenomeni nel corso di campagne elettorali attraverso le API (Application Programming Interface – Interfaccia di programmazione delle applicazioni) dell’archivio in modo tale da consentire lo sviluppo di applicazioni/servizi per accedere alle informazioni inerenti ai diversi partiti e candidati.

Quanto è efficace l’Ad Tool Library?

Ma, come rivelato dal NYT, i problemi della piattaforma impedirebbero, di fatto, il monitoraggio delle delle inserzioni di natura politica.

Nasce a questo punto spontanea la domanda se veramente Facebook voglia porre rimedio a queste difficoltà tecniche riscontrate, dato che, dopo diversi mesi, esse risultano ancora irrisolte (nonostante abbia comunicato di aver ovviato ad esse) e dato che il colosso ha impedito che venissero notificati nuovi bug sostenendo che ne erano stati già notificati troppi.

Ovviamente sappiamo che l’accesso a milioni di pubblicità mediate API non risulti semplice, ma non possiamo accettare che un colosso del web come Facebook non sia in grado di ovviare alle varie problematiche riscontrate.

Inoltre, secondo quanto riscontrato dal Governo francese, risulta che, una settimana prima delle elezioni, Facebook abbia rimosso circa il 31% della pubblicità della Ad Tool Library francese, senza dare alcuna spiegazione, tra cui almeno 11 pubblicità che risultavano aver violato la legge francese in termini di elezioni. Secondo il colosso tali rimozioni sarebbero state causate da un’incorretta catalogazione, impedendo così l’analisi di tutte le pubblicità, anche di quelle non conformi alle modalità di catalogazione di Facebook. Di conseguenza, sono stati sollevati dei dubbi sull’affidabilità dell’applicazione e risulta in contrasto con quanto affermato in precedenza, ossia, che “la Library contiene dati relativi ad ogni pubblicità attiva e inattiva riferita a tematiche sociali, elezioni o politica a partire da Marzo 2019. Queste pubblicità saranno conservate e rese disponibili per 7 anni”.

Come procedere nella lotta alle fake news

Ci troviamo di fronte ad una tematica molto “calda”, che tocca il ruolo e la responsabilità dei colossi del web e la salvaguardia della corretta informazione e la conseguente lotta alle fake news ed alla manipolazione in rete.

Sappiamo che la disinformazione avviene in modo frammentato e polarizzato e non trova contraddittorio. Ne consegue che il moltiplicarsi dei rischi di manipolazione dell’utente richiede il diffondersi di strumenti atti a incrementare il contraddittorio in rete.

Forme di monitoraggio dei contenuti circolanti in rete sono senza dubbio praticabili e possono essere realizzate tramite la collaborazione dei colossi del web: le misure attuate da Facebook attraverso l’implementazione di filtri automatici, segnalazione degli utenti, attività di “fact checking” e l’Ad Tool Library (seppure con molti disservizi) ne sono un esempio.

E’ necessario un codice comune di buone pratiche per garantire la trasparenza dei contenuti sponsorizzati, in particolare per quelli che riguardano la politica; maggior chiarezza sul funzionamento degli algoritmi; agevolare l’accesso a fonti di informazioni e punti di vista differenti da parte degli utenti; adottare misure per l’identificazione e la chiusura  di account falsi e come gestire i bot automatici.

Non dobbiamo però dimenticare che tali iniziative sono soprattutto motivate sia da logiche di mercato che sfruttano la pubblicità di tali strumenti, sia dalla necessità di difendere e consolidare il capitale reputazionale dei colossi del web rafforzando così il loro ruolo dominante dato che pochi sono i concorrenti in grado di offrire tali prestazioni aggiuntive.

Ma un’altra osservazione sorge spontanea e precisamente: dal momento che i colossi del web sono liberi di adottare tali modalità di monitoraggio, entro quali limiti un attore può essere esente dalla responsabilità per l’utilizzo illecito dei propri servizi da parte de propri utenti? Inoltre come può un attore che opera nel mercato in una posizione di monopolio, o quasi tale, decidere di rimuovere un contenuto o renderne difficile il reperimento, senza che la sua attività possa essere messa in discussione e contestata dal soggetto che ha inizialmente pubblicato quel determinato contenuto?

Ne deriva che saranno sempre più necessari protocolli di intesa con i colossi del web e l’incentivazione da parte degli stessi di forme di autoregolamentazione e di linee guida atte a diffondere strumenti critici per l’approccio e l’utilizzo della rete, allo scopo di verificare l’attendibilità delle informazioni e identificare le “fake news”. Stiamo parlando di “alfabetizzazione mediatica” che necessita di notevoli investimenti in termini di progetti di sensibilizzazione e programmi di formazione atti a sviluppare l’uso critico dei media online.

Ma i singoli Paesi sono pronti ad investire in questo ambito? Oppure risulterà più semplice, a parte l’attuazione di qualche normativa più severa, lasciare il sopravvento alle logiche di mercato, prendendo atto che anche l’informazione sia diventata, oramai, una merce come le altre?

@RIPRODUZIONE RISERVATA

Articolo 1 di 3