Open Research and Transparency

Targeting politico: Facebook punta sulla trasparenza col progetto “FORT”

Di fronte alla rilevanza delle questioni di natura politica e all’instabilità sociale provocata dalla disinformazione, Meta apre alla trasparenza come precisa e prioritaria scelta d’azione per evitare interferenze nelle elezioni anche come conseguenza dell’uso improprio della pubblicità digitale. Nasce così il progetto FORT

22 Giu 2022
Angelo Alù

PhD, Consigliere Internet Society Italia, saggista e divulgatore digitale

facebook

La holding Meta (che raggruppa l’insieme delle piattaforme rientranti nella proprietà di Mark Zuckerberg) lancia ufficialmente un nuovo progetto con l’intento di fornire ai ricercatori maggiori informazioni sul targeting degli annunci politici nell’ottica di incrementare da subito il livello di trasparenza sul funzionamento dei sistemi di advertising online che influenzano il processo decisionale degli utenti anche rispetto alle imminenti scadenze elettorali: lo riporta un recente articolo del “The New York Times”.

Targeting politico, i paletti Ue: ecco i nuovi obblighi per le big tech

Il progetto FORT

Facebook Open Research and Transparency project (FORT) offre, in tal senso, – nel pieno rispetto della privacy (come precisa al riguardo la piattaforma dedicata al progetto) – una vasta gamma di dataset incrociati in grado di monitorare l’impatto di ogni annuncio recante contenuti politici e sociali sulle scelte delle persone. In altri termini, assicurando la protezione dei dati personali, la piattaforma si prefigge l’obiettivo di consentire ai ricercatori la possibilità di analizzare il complesso fenomeno del targeting politico su larga scala secondo un approccio computazionale multidisciplinare che prevede l’accesso ad un insieme variegato di informazioni disponibili in un “ambiente controllato” all’interno di una “piattaforma scalabile” per analizzare i dati comportamentali umani e comprendere i complessi fenomeni sociali legati alle implicazioni “politiche” della Rete.

WHITEPAPER
Efficienza, sostenibilità e sicurezza con la gestione e tenuta dei libri sociali digitali
Dematerializzazione
Digital Transformation

Per perseguire tali obiettivi, il progetto FORT valorizza la contaminazione empirica delle scienze sociali computazionali, come settore emergente nell’ultimo decennio, al fine di perfezionare, mediante l’implementazione di efficaci metodi di validazione analitica, la potenza di calcolo attualmente disponibile tramite tecnologie digitali, sull’assunto che la ricerca interdisciplinare postula il possesso di adeguate competenze trasversali in grado di processare ed esaminare i dati raccolti su larga scala, a condizione che siano operative infrastrutture informatiche sicure e affidabili anche a presidio della privacy individuale degli utenti.

Per FORT un’architettura cloud scalabile, flessibile e sicura

Proprio con l’intento di “democratizzare l’infrastruttura dei dati necessaria per condurre la ricerca sulle scienze sociali computazionali”, superando le criticità esistenti (soprattutto in termini di risorse limitate), Meta ha creato la sua piattaforma Facebook Open Research and Transparency project, basata su un’architettura cloud scalabile, flessibile e sicura, con l’ulteriore impegno di sviluppare standard pubblici open source sempre più evoluti e stabili che consentano di creare infrastrutture performanti per la condivisione generale dei dati.

In particolare, il progetto FORT, ispirandosi all’interfaccia aperta di calcolo interattivo JupyterLab preposta all’elaborazione dei linguaggi di programmazione, richiama il rispetto di adeguati standard di sicurezza ritenuti indispensabili quando bisogna accedere ai dati “sensibili” degli utenti.

Al fine di organizzare in modo efficiente i relativi flussi computazionali generati, la piattaforma FORT fornisce svariati strumenti di calcolo senza richiedere il pagamento di un corrispettivo d’uso per consentire ai ricercatori di analizzare gratuitamente una mole significativa di dataset processati all’interno di una rete privata virtuale che utilizza la standardizzazione di protocolli di sicurezza verificabili – costantemente aggiornati – in grado di proteggere le informazioni delle persone e al contempo facilitare le analisi computazionali richieste dai ricercatori.

Lo sviluppo progettuale di Facebook Open Research Transparency si aggiunge all’ulteriore iniziativa “Ad Library” già realizzata nel 2019 da Zuckerberg – e in passato criticata a causa di una serie di imperfezioni tecniche riscontrate – per combattere le fake news e condividere anche informazioni sul targeting degli annunci politici, rendendo disponibili, a fini di analisi, i relativi criteri di targeting elaborati dagli inserzionisti nell’ottica di incrementare il livello di comprensione e conoscenza sulle pratiche di advertising utilizzate e al contempo però mantenere privati i dati personali riferibili ai propri utenti.

La trasparenza come precisa e prioritaria scelta d’azione

Di fronte alla riconosciuta rilevanza che assumono le questioni di natura politica ed elettorale nel dibattito generale dell’opinione pubblica, e preso atto degli insidiosi fattori di instabilità sociale provocati dalla circolazione di massime campagne di disinformazione online, il gruppo Meta apre così alla trasparenza come precisa e prioritaria scelta d’azione per evitare il rischio di possibili interferenze nelle elezioni anche come conseguenza dell’uso improprio della pubblicità digitale.

Pubblicità online, clickbait e cause della disinformazione

Di certo, la pubblicità online, costituente la “linfa vitale” delle piattaforme di social media, contribuisce – anche indirettamente – ad alimentare la diffusione delle fake news al punto da mettere in discussione, nel medio-lungo termine, la sostenibilità di tali modelli di business in assenza di un innovativo sistema pubblicitario progettato per intercettare articoli di notizie “false” che contengono “contenuti ingannevoli, falsi o fuorvianti”, nell’ambito di una nuova regolamentazione adeguata a fronteggiare le criticità riscontrate.

A onor del vero, però, sebbene sia indubbiamente auspicabile ridurre l’impatto di viralizzazione associato ai contenuti più “urlati” che riescono a raggiungere elevati livelli di engagement social, dando invece maggiore “peso” alle notizie affidabili, complete e pertinenti che circolano online, pensare che la causa della disinformazione sia determinata esclusivamente dalla polarizzazione comunicativa legata alle caratteristiche delle piattaforme sociali è fuorviante e illusorio.

Il fenomeno del cosiddetto “clickbait” in realtà riflette una pratica generale molto diffusa nel settore dell’editoria che – spesso consapevolmente – sfrutta a proprio vantaggio il sistema di advertising online per attirare, grazie appunto alla tecnica degli “acchiappaclick”, il maggior numero possibile di utenti mediante titoli “accattivanti” o “sensazionalisti” in grado di facilitarne la relativa condivisione tra il grande pubblico, con il risultato di incrementare i proventi pubblicitari generati.

Ben oltre, dunque, la rigorosa funzione di vigilanza sull’ambiente online attribuita, con sempre maggiori oneri, ai gestori delle piattaforme sociali (spesso finiti nel “tritacarne mediatico” da responsabili diretti della dilagante disinformazione online come preoccupante “male assoluto” collegato al “lato oscuro” della Rete), non sempre, da parte degli stessi operatori editoriali, è considerata conveniente – e di certo risulta oltremodo costosa – la creazione e la produzione di contenuti originali e approfonditi rispetto alla scelta profittevole di confezionare titoli “ad effetto” da diffondere sui social per ottenere un numero esponenziale di click da cui dipendono i ricavi legati alle campagne pubblicitarie attivate.

Social network e inquinamento elettorale: la strategia di Facebook

Negli ultimi tempi il pericolo di “inquinamento elettorale” connesso alla dilagante crescita di campagne di disinformazione online a causa della circolazione incontrollata di fake news, sta inducendo invero i social network a rivedere la propria “filosofia” aziendale, mediante la pianificazione di misure restrittive di “filtro” per rendere “più difficile” la diffusione virale della disinformazione elettorale e oscurare il contenuto di notizie errate o incomplete relative ad aggiornamenti elettori, limitandone la visibilità del relativo flusso.

Pertanto, sebbene le piattaforme sociali non abbiano diretti incentivi economici – e allo stato attuale specifici obblighi normativi – ad arginare concretamente la diffusione di fake news, rispetto alla specifica finalità lucrativa di cui sono portatrici nel perseguimento del proprio obiettivo di monetizzazione pubblicitaria basato sulla gestione profilata del micro-targeting), già nel recente passato, ad esempio, Mark Zuckerberg, presentando il white paper “Online Content Regulation” sulla regolamentazione dei contenuti online, ha invocato l’esigenza di una necessaria cooperazione tra operatori telematici e legislatori, nell’ottica di superare anche le implicazioni negative degli “incentivi perversi” provocati dalla pubblicazione dei contenuti veicolati online, unitamente alla costituzione di team di fact-checker, con l’ulteriore impegno di implementare il sistema di rilevazione degli account falsi.

Il perfezionamento degli algoritmi di indicizzazione

Per combattere le fake news, si è intensificato il perfezionamento degli algoritmi di indicizzazione mediante il cd. “Temporal Interaction EmbeddingS (TIES)” che ha consentito di monitorare circa 2,5 milioni di account (con un rapporto 80/20 reali/falsi) e 130.000 post, di cui circa il 10% sono etichettati come disinformazione. Durante i periodi di campagna elettorale, è stata frequente l’eliminazione di gruppi Facebook ritenuti responsabili di incentivare l’odio online, così come degna di nota è stata la costituzione di un Centro di informazioni sul voto per aggiornamenti completi e attendibili sulle elezioni in corso.

Un fondo per pagare i creatori di contenuti

Facebook ha inoltre annunciato l’intenzione – recentemente rilanciata da Zuckerberg nella sua pagina, di pagare i creatori di contenuti, mettendo a disposizione un fondo pari ad 1 miliardo di dollari per finanziare l’attivazione di nuovi programmi di bonus progettati come strumenti premiali destinati ai “creatori di ottimi contenuti”, contestualmente al progetto “Supporting Independent Voices” ideato per fornire supporto a scrittori, esperti e giornalisti che pubblicano informazioni in modo indipendente, e allo sviluppo della piattaforma “Facebook Journalism Project” che offre corsi di formazione, programmi di finanziamento e partnership in grado di realizzare un modello interattivo e sostenibile di giornalismo di qualità per diffondere notizie a livello globale, combattere la disinformazione e promuovere l’alfabetizzazione giornalistica.

Conclusioni

Oltre agli sforzi volontari delle piattaforme digitali, e ben oltre la semplice predisposizione di riforme legislative realizzate in materia con l’intento di incrementare gli standard di trasparenza, di sicurezza e affidabilità del sistema pubblicitario virtuale per garantire la conoscenza sulla descrizione completa degli annunci, compreso il numero di visualizzazioni, le tariffe praticate e la generalità degli acquirenti/inserzionisti (emblematica, in tal senso, la disciplina prevista dal cd. “Honest Ads Act”), nonché per combattere la disinformazione online mediante uno stringente approccio regolatorio recante vincoli maggiormente prescrittivi (come il recente disegno di legge brasiliano sulle fake news), risulta indispensabile favorire lo sviluppo di un ecosistema digitale aperto e inclusivo, ove sia possibile beneficiare, in condizioni di effettività e piena consapevolezza generale, dei vantaggi offerti dalle tecnologie digitali, riducendo al minimo i rischi di manipolazione connessi al “lato oscuro” della Rete. Una battaglia da fare, prima e anzitutto, sul piano culturale.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4