Facebook sa di seminare odio e falsità ma non riesce a smettere: servono regole - Agenda Digitale

le inchieste del WSJ

Facebook sa di seminare odio e falsità ma non riesce a smettere: servono regole

Le tecnologie che possono alterare il flusso della diffusione delle notizie, come gli algoritmi utilizzati dai social network, possono condizionare direttamente le persone e incidere sui loro percorsi di scelta, diventando un rischio per la democrazia. Le big tech ne sono consapevoli e chiedono l’intervento del legislatore

23 Set 2021
Giacomo D’Alfonso

analista Hermes Bay

Il Wall Street Journal ha avuto accesso ad alcuni memo aziendali di Facebook in merito a problematiche generate nel 2018 da un aggiornamento dell’algoritmo del News Feed di Facebook. Nel tentativo di aumentare le interazioni fra utenti che erano in declino da tempo, l’algoritmo era stato modificato per privilegiare contenuti che suscitassero un maggior numero di like e commenti, finendo tuttavia col favorire contenuti divisivi e commenti tossici.

Nel 2018 la società di Zuckerberg viene travolta dal Facebook-Cambridge Analytica data scandal che aveva portato a delle fortissime critiche al social network americano accusato tanto negli USA, quanto in Europa, di essere stato un vettore di disinformazione e di essere negligente nella conservazione dei dati dei propri utenti.

Da quanto riportato dal WSJ appare evidente che Facebook, nel tentativo di migliorare il proprio algoritmo di suggerimento dei contenuti per gli utenti, sembrerebbe aver ottenuto l’effetto contrario di quello che sperava, penalizzando i contenuti di valore e implementando la diffusione dei contenuti “tossici”.

Instagram (Facebook) tossico per le teenager: se il profitto social vince su tutto

Facebook è consapevole dei danni che fa

La lettura dei memo interni mostra che la realtà aziendale di Facebook è ben consapevole dei problemi della piattaforma e degli effetti cinetici che il suo funzionamento ha sulla società. Per questo alcuni ingegneri sono intervenuti più volte proponendo al CEO e fondatore di inserire nuove modifiche all’algoritmo per correggere la diffusione di notizie sensazionalistiche o quelle scatenanti le emozioni più negative. Stando alla documentazione interna, Zuckerberg ha sempre declinato le proposte preoccupato dalla possibile diminuzione dell’interazione degli utenti con la piattaforma.

WEBINAR
28 Ottobre 2021 - 12:00
FORUM PA 2021- Sanità: Cybersecurity, conoscere per non rischiare
Sicurezza
Cybersecurity

La posizione del fondatore non sorprende particolarmente, poiché Facebook è una società privata il cui business è essenzialmente legato alla vendita del tempo che i propri utenti dedicano al social network. Una sua diminuzione ha inevitabili riflessi anche sui profitti.

Social e propaganda politica, così si diffondono i contenuti che fomentano l’odio

Un elemento interessante è sicuramente dato dall’esistenza di un dibattito interno a Facebook rispetto agli effetti che il social network ha sul mondo cinetico e in particolare per gli aspetti legati alla propaganda politica. Nel dibattito del 2018, era discusso, ma non era accertato – né tantomeno ammesso dalle società proprietarie– che i social network potessero avere una qualche responsabilità rispetto a fenomeni degenerativi di meccanismi di propaganda politica, quali il fenomeno delle fake news o del contagio informativo (Rinaldo Mattera, Grillodrome, Mimesis, Milano 2017).

All’epoca, un’ammissione pubblica dei proprietari delle piattaforme in questo senso, avrebbe significato una grossa assunzione di responsabilità.

Nell’ottobre del 2018, ad esempio, un’inchiesta indipendente, commissionata da Facebook (BSR, report “Human Rights Impact Assessment: Facebook in Myanmar.”), su pressione di molti organismi internazionali, comprese le Nazioni Unite, ha concluso che il social network ha contribuito a creare un clima favorevole alla proliferazione di atti in violazione dei diritti umani in Myanmar. Secondo il rapporto, per anni sul social network è stata condotta una campagna d’odio contro la minoranza Rohingya, attraverso pagine create appositamente per diffondere disinformazione, senza che Facebook intervenisse in alcun modo per ridurre la loro presenza e censurare i contenuti più violenti.

Solo a seguito della commissione e della pubblicazione del rapporto, Facebook è intervenuta concordando con le conclusioni del report, soprattutto rispetto al fatto che il social network fosse stato utilizzato per fomentare l’odio e si è assunta la responsabilità di non aver ostacolato tali attività, senza però ammettere un ruolo diretto nelle violenze (Alex Warofka, An Independent Assessment of the Human Rights Impact of Facebook in Myanmar, 5 Novembre 2018, Facebook).

Ora Facebook chiede regole

Nel 2018, molto probabilmente, ammettere una correlazione tra un fenomeno cinetico e la realtà dei social network avrebbe certamente significato spianare la strada alle paventate ipotesi di regolamentazione esterna, vero e proprio fumo negli occhi per qualsiasi CEO di una società digitale. Oggi, una soluzione in tal senso, non sembra nemmeno spaventare lo stesso Zuckerberg che durante il Munich Security Conference del 2020 ha dichiarato come sia necessario l’intervento del legislatore su tematiche come «elections, content moderation, privacy e data portability». (Zuckerberg, Mark, “Mark Zuckerberg at Munich Security Conference” (2020). Zuckerberg Videos. Video 268).

Un ulteriore aspetto da considerare alla luce della pubblicazione dei memo è: quanto Mr. Zuckerberg ha il controllo di Facebook? La domanda non è peregrina ed è la stessa che nel corso dell’audizione al Parlamento Europeo è stata rivolta a Zuckerberg dall’eurodeputato Guy Verhofstadt che chiese a Mark Zuckerberg se fosse realmente in grado di riparare agli errori della sua piattaforma o se ne avesse letteralmente perso il controllo.

In quell’occasione il magnate americano eluse la domanda, ma da quello che emerge dalla lettura dei memo, la realtà sembra essere chiaramente quella della perdita del controllo: i tentativi di correggere i risultati dell’algoritmo da parte di Facebook dimostrano una realtà di test quasi continua in cui i risultati non sono mai corrispondenti –se non oppositi– agli obiettivi prefissati.

Sembra quindi necessario andare verso una maggiore responsabilizzazione dei social network, proprio per l’importanza e il ruolo che questi hanno assunto nella vita sociale e i rischi collegati da una loro malagestione. Uno di quelli più gravi è certamente il rischio di distorsione degli equilibri democratici.

Certo nuove regole le chiedono a gran voce i dipendenti della stessa Facebook, ora super critici (dicono i sondaggi) verso il “capo”. Nell’attesa che la politica si metta d’accordo, c’è da chiedersi se il social sarà in grado di cambiare pelle.

Conclusioni

Se la società è sui social network, le tecnologie che possono alterare il flusso della diffusione delle notizie possono condizionare direttamente le persone e incidere sui loro percorsi di scelta. Proprio ragionando sulla compatibilità tra sistema democratico e social network, Antonello Soro, nel suo libro “Persone in Rete” ha individuato quattro punti di attacco che partendo dalle piattaforme digitali colpiscono i meccanismi democratici distorcendone i processi:

  1. Attacco al pluralismo.
  2. Attacco alla corretta informazione dei cittadini.
  3. Attacco alla libera formazione del consenso elettorale.
  4. Attacco alla diversificazione dell’offerta politica e alla condizione di parità nella competizione.

Elaborare una difesa, sembra essere la vera sfida per le democrazie del futuro.

WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 3