Social, tutti i dubbi sui report sulla moderazione di contenuti | Agenda Digitale

trasparenza

Social, tutti i dubbi sui report sulla moderazione di contenuti

Mettendo a confronto tra loro i report sulla trasparenza della moderazione di contenuti pubblicati dalle grandi piattaforme digitali come Facebook, YouTube, Twitter, Twitch, LinkedIn e TikTok, emergono alcune inquietanti somiglianze: assenza di esempi concreti e innumerevoli errori di moderazione non giustificati

18 Mag 2021
Jacopo Franchi

Web content strategist, scrittore, autore del blog “Umanesimo Digitale”

Dati privi di qualsiasi valore scientifico, milioni di contenuti rimossi e non rimossi senza che sia possibile verificare un solo esempio concreto, migliaia di errori di moderazione privi di una motivazione verificabile: 17.194.632 video da YouTube, di cui 16.191.045 grazie al rilevamento automatico; 13,1 milioni di contenuti d’odio da Facebook, di cui 12,5 milioni tramite rilevamento automatico; 89.132.938 video da TikTok, di cui 82.358.834 tramite rilevamento automatico; 130.274.022 messaggi in chat da Twitch, di cui 98.818.954 tramite rilevamento automatico; 925.700 account di Twitter, di cui 842.387 tramite rilevamento automatico; 79.498.500 contenuti di spam o di scam da LinkedIn, di cui 79.300.000 in maniera automatica.

Tutti i problemi del potere social nel verdetto dell’oversight board Facebook su Trump

Sono questi i contenuti e gli account rimossi dalle grandi piattaforme digitali nel secondo semestre 2020 (nel primo semestre nel caso di Twitter e LinkedIn, ultimo periodo di cui si conoscono i dati) secondo quanto si legge nei rispettivi report sulla trasparenza. A mancare, tuttavia, in questa lista potenzialmente infinita di numeri e grafici è proprio l’oggetto principale a cui essi fanno riferimento: gli account e i contenuti rimossi, di cui non sono disponibili esempi concreti per valutare la loro effettiva violazione delle policy di pubblicazione.

L’impossibilità di verificare alcun dato riportato

Non uno dei 17 milioni di video rimossi da YouTube sono mostrati nel report o nei suoi allegati per una verifica più approfondita, non uno dei 13 milioni di contenuti d’odio rimossi da Facebook possono essere letti oggi per giudicare la correttezza dell’intervento di moderazione automatico o manuale, così come non è possibile vedere uno solo degli 89 milioni di video rimossi da TikTok, di cui 74 milioni addirittura prima che qualsiasi utente potesse vederli.

WEBINAR
30 Giugno 2021 - 12:00
Taglio netto di costi e tempi: ecco il Webinar che svela i segreti della rivoluzione RPA
Intelligenza Artificiale
IoT

Paradossalmente, tanto più i report sulla trasparenza diventano dettagliati e mostrano uno spaccato dei contenuti rimossi per tipologia, tanto meno essi consentono di farsi un’idea più precisa degli autori e del contesto in cui questi stessi contenuti sono stati prodotti. Di fronte alla mancanza assoluta di una controprova, questi dati potrebbero essere stati inventati, gonfiati o sottostimati senza che nessun ricercatore possa verificarlo di persona: non valgono nulla, ai fini della ricerca, e nessun giornalista serio dovrebbe riportarli nei suoi articoli senza poter accedere alla fonte originale.

Mancando del tutto i casi concreti, viene meno anche la possibilità per gli utenti di imparare dagli “errori” e dalle violazioni altrui: che cosa intende Facebook per “contenuti d’odio”? Quali sono gli account “di scam” che LinkedIn non tollera? E in che cosa consiste la “disinformazione” che YouTube ha così massivamente censurato? Le policy di pubblicazione a cui ogni utente delle piattaforme digitali dovrebbe attenersi sono ancora oggi un documento di migliaia di parole di testo prive di qualsiasi riferimento a contenuti e situazioni concrete che hanno portato a un intervento di moderazione.

L’opacità dei report sulla trasparenza non è un gioco di parole, ma la constatazione del fatto che ad oggi questi documenti sembrano essere più uno strumento di relazioni pubbliche nei confronti delle istituzioni nazionali e sovranazionali che non uno strumento a disposizione di utenti, inserzionisti e ricercatori per comprendere meglio le scelte di moderazione delle piattaforme digitali, al fine di trovare una spiegazione dei motivi per cui innumerevoli contenuti vengono o non vengono rimossi, malgrado la loro evidente violazione delle policy stesse.

Ogni contenuto ripristinato è un errore per il quale qualcuno paga le conseguenze

In quanto strumenti di relazioni pubbliche nei confronti di quelle istituzioni che nel corso degli ultimi anni hanno fortemente ridimensionato i contenuti ammessi o tollerati sulle piattaforme digitali, a seconda del Paese di riferimento, i report sulla trasparenza servono oggi a esaltare lo sforzo compiuto da Facebook, TikTok, YouTube e altre piattaforme minori nello sviluppo di sistemi di intelligenza artificiale volti a riconoscere e censurare in maniera automatica i contenuti potenzialmente “a rischio”. Per quanto non sia possibile, dai report, distinguere tra i contenuti segnalati dall’intelligenza artificiale e rimossi da un operatore umano e i contenuti rimossi da un sistema interamente automatico, nondimeno a una lettura superficiale dei dati sembra oggi evidente quanto le piattaforme siano in grado di intervenire in maniera massiccia, immediata e brutale contro i loro stessi utenti (e inserzionisti): quanto i sistemi di moderazione automatica possano raggiungere risultati altrimenti impensabili fino a pochi anni fa, rimuovendo o anche solo semplicemente individuando i contenuti da far rimuovere ai moderatori “umani” chiamati a prendere sempre più decisioni, in un periodo di tempo sempre insufficiente rispetto al necessario.

Gli errori, è il caso di dirlo, non si contano più: nello stesso periodo preso in esame sono stati 70 mila i contenuti d’odio rimossi e in seguito ripristinati da Facebook, 165 mila i video rimossi e in seguito ripristinati da YouTube, addirittura 2,9 milioni i video eliminati e poi ripristinati da TikTok in seguito a un appello degli utenti, mentre non sono noti i numeri degli errori commessi dai moderatori umani o automatici sulle altre piattaforme digitali menzionate all’inizio dell’articolo. Anche in questo caso, tuttavia, non è possibile vedere un solo esempio dei contenuti che sono stati ripristinati e ricostruire gli errori commessi durante il processo di moderazione. I numeri raccontano solo una parte della realtà, trascurando i danni reputazionali ed economici che le piattaforme infliggono ai loro stessi “creator”, amministratori di pagine e gruppi, a causa di un sistema costruito per rispondere sempre più rapidamente alle pressioni delle autorità di tutto il mondo senza prevedere alcuna effettiva forma di tutela nei confronti dei propri utenti, che al massimo possono inoltrare un appello e attendere pazientemente un messaggio di scuse predefinito.

Censura automatica, un boomerang che potrebbe ritorcersi contro le piattaforme 

A oggi, l’unico elemento certo che è possibile ricavare dai report di trasparenza è che le piattaforme digitali stanno investendo massicciamente nello sviluppo di sistemi di moderazione automatica, in sostituzione o – più probabilmente – in appoggio al lavoro dei moderatori di contenuti manuali. Un investimento economico ma soprattutto reputazionale, volto ad anticipare le richieste dei governi di risolvere i problemi legati alla diffusione di contenuti d’odio, razzisti, di violenza sessuale o terroristica, e al sempre più indistinto campo delle cosiddette “fake news”: mettendo in evidenza la percentuale di contenuti rimossi o segnalati in automatico rispetto al totale dei contenuti moderati, i report di trasparenza servono a esaltare la capacità e le promesse della censura tecnologica in luogo della ben più tradizionale e lenta censura “tradizionale”.

Tanto più la percentuale di contenuti moderati da sistemi automatici si avvicina al 100% del totale, tanto più le piattaforme potrebbero trovarsi nella scomoda posizione di dover gestire sempre più richieste, sempre più urgenti da parte dei governi e delle autorità nazionali e sovranazionali per intervenire laddove le segnalazioni “manuali” non sortiscono gli effetti desiderati. Dopo gli anni in cui i social media hanno autocelebrato la capacità dei propri algoritmi di individuare i contenuti migliori per ciascun utente senza la mediazione degli uomini, stiamo oggi entrando nel periodo in cui gli stessi social media stanno celebrando la capacità dei propri sistemi automatici di individuare (e rimuovere) i contenuti peggiori senza dover attendere i tempi del giudizio umano: una promessa incredibilmente audace, nella misura in cui il suo stesso successo potrebbe portare le autorità a chiedere una censura ancora più pervasiva, capillare e performante di quanto avvenga già ora. Senza, tuttavia, alcuna tutela o garanzia per quegli utenti che vengono penalizzati senza aver violato alcuna legge, senza aver dubitato un solo istante della possibilità di perdere pensieri, ricordi e contenuti affidati alle piattaforme a causa dell’intervento di un sistema di moderazione onnipresente e senza volto.

E la chiamano “trasparenza”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4