YouTube continua ad amplificare la disinformazione: perché sembra un problema irrisolvibile - Agenda Digitale

studio Mozilla

YouTube continua ad amplificare la disinformazione: perché sembra un problema irrisolvibile

Da un lato censori, dall’altro propugnatori di odio o fake news. Una ricerca di Mozilla punta il dito contro la “contraddizione intrinseca” degli algoritmi di YouTube che tendono ad alimentare meccanismi d’indignazione, per incrementare il profitto con inserimenti pubblicitari ad hoc

13 Lug 2021
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

L’algoritmo di YouTube non ce la fa proprio, sembra, a non essere strumento di disinformazione. Nonostante i passi avanti, continua ad amplificarla.

Come evidenziato da una nuova ricerca[1] pubblicata qualche giorno fa dai ricercatori di Mozilla.

Ma perché?

AI e reti neurali: così i social ci illudono di avere il controllo, mentre decidono per noi

Youtube e disinformazione

Siamo alle solite, insomma. Youtube, che raccomanda alcune tipologie di video agli utenti della piattaforma, è stato accusato per anni di “alimentare” – mediante Intelligenza Artificiale – discorsi d’odio, estremismo politico e disinformazione (fake news), con il fine di incrementare il proprio profitto con inserimenti pubblicitari ad hoc.

WHITEPAPER
Cloud, omnicanalità e intelligenza artificiale: porta il tuo Contact Center nel futuro
Digital Transformation
Intelligenza Artificiale

Se Google, la Big Tech proprietaria di YouTube, ha annunciato alcune modifiche alle sue policy, nonché la limitazione (ovvero la cancellazione) degli account “acchiappa-click”, non è ancora del tutto chiaro fino a che punto l’azienda di Mountain View sia effettivamente intenzionata a combattere il fenomeno che interessa la sua piattaforma video.

YouTube, sotto la lente di Mozilla il duplice comportamento degli algoritmi

La polarizzazione dei contenuti su YouTube fa salire i profitti

La ricerca Mozilla (proprietaria del noto browser Firefox) sostiene che l’Intelligenza Artificiale di YouTube continua a foraggiare diversi e numerosi contenuti di basso livello, divisivi e disinformativi, col fine ultimo di catturare l’attenzione degli utenti e innescare il tipico senso di indignazione “popolare”, seminando divisione o polarizzazione attorno a un argomento, oltre a diffondere disinformazione infondata o nociva su un certo topic. Un modus operandi, secondo Mozilla, atto a indirizzare gli utenti verso i numerosi annunci pubblicitari della società californiana.[2]

Nello studio di Mozilla, uno dei più grandi del suo genere, trentasettemila volontari hanno utilizzato un’estensione del browser che ha monitorato il loro utilizzo di YouTube per un periodo di 10 mesi, fino a maggio 2021. Quando un partecipante segnalava un video come problematico/inappropriato (per svariati motivi), l’estensione era in grado di tracciare se tale video fosse stato raccomandato allo spettatore dall’algoritmo di YouTube oppure se fosse stato “trovato” in maniera indipendente dall’utente di turno.

Lo studio di Mozilla: ecco i numeri che puntano l’indice contro YouTube

I video segnalati dai partecipanti come “discutibili” includevano una parodia sessuale del noto film di animazione “Toy Story” nonché un video elettorale che suggeriva (falsamente) che il fondatore della Microsoft Bill Gates avesse assunto studenti coinvolti con il movimento Black Lives Matter per contare le schede elettorali negli stati USA “in bilico” (ossia gli stati federali che, tradizionalmente, fanno da ago della bilancia durante le elezioni presidenziali statunitensi), lasciando intendere che le ultime elezioni statunitensi fossero state pilotate.

In seguito alle segnalazioni, YouTube ha rimosso circa duecento video inappropriati che, nel frattempo (e secondo Mozilla), hanno accumulato più di centosessanta milioni di visualizzazioni prima della loro cancellazione o del loro oscuramento.

YouTube – Google, Dottor Jekyll o Mister Hyde?

YouTube si giustifica affermando di aver ridotto considerevolmente le raccomandazioni di contenuti, che definisce dannosi, a meno dell’un percento dei video visualizzati dagli utenti. L’azienda di proprietà Google ha affermato di aver apportato trenta cambiamenti nel corso dell’ultimo anno per affrontare il problema in esame.

Il team di sicurezza della società californiana afferma che il suo sistema automatizzato rileva, ad oggi, il novantaquattro percento dei video che violano le policy di YouTube, rimuovendo la maggior parte di essi prima che ricevano le prime dieci visualizzazioni.

Fake news, estremismo e teorie del complotto su YouTube. Il rischio di tracimare dal virtuale al reale

Ma YouTube è stato “perseguitato” per anni da crescenti preoccupazioni circa i pericoli dei video presenti sulla sua piattaforma, anche per la notevole presenza di minorenni tra i suoi utenti. Nel corso del 2020 YouTube ha eliminato i canali che promuovono alcune teorie del complotto ed estremiste che, secondo la società di Google, potrebbero arrecare diversi danni al mondo reale se non adeguatamente contrastate. L’assalto al Campidoglio degli Stati Uniti dello scorso 6 gennaio 2021 è ancora un ricordo vivo negli USA.

Video sharing, cifre da capogiro

L’azienda di San Bruno attribuisce al suo algoritmo “di raccomandazione” di trainare più di due terzi del miliardo di ore di visualizzazione giornaliera che ha contribuito a generare quasi 20 miliardi di dollari di entrate l’anno scorso.

Le poco più di settecentomila ore di video che vengono caricate ogni giorno non vengono (ovviamente) controllate da moderatori umani prima di essere pubblicate.

La politica contraddittoria degli algoritmi di YouTube

Fa parte di una precisa strategia di lunga data, atta a dare priorità agli upload degli utenti e a controllare i costi di gestione. Come risultato della mancata sorveglianza “a monte”, YouTube utilizza l’apprendimento automatico (Machine Learning) per cercare di “catturare” i video che violano le sue policy prima che gli utenti li vedano (basta pensare al già citato limite delle dieci visualizzazioni). La politica degli algoritmi ha ridotto i contenuti “borderline”, pubblicati sulla piattaforma, del settanta percento negli ultimi tre anni.

La duplice natura degli algoritmi di YouTube

La ricerca di Mozilla ha, senza dubbio, accentuato quella sorta di “contraddizione intrinseca” tra gli algoritmi di YouTube, con uno che raccomanda video problematici mentre l’altro – quasi in parallelo – cerca di rimuoverli. I ricercatori di Mozilla hanno notato che i partecipanti hanno raramente riferito di essersi imbattuti in video problematici quando hanno cercato il contenuto in autonomia; mentre l’algoritmo ha raccomandato loro cose che non volevano vedere. Tuttavia, YouTube ha dichiarato che i suoi sondaggi mostrano che gli utenti sono generalmente soddisfatti di ciò che la piattaforma raccomanda loro.

Tra gli altri risultati dello studio di Mozilla spiccano quelli relativi ai video che i partecipanti hanno trovato discutibili. Si tratta di video che avevano il 60% percento di probabilità in più di essere raccomandati in Paesi dove l’inglese non è la lingua madre, in particolare Brasile, Germania e Francia. Più di un quinto dei video sono stati segnalati per ciò che i partecipanti hanno classificato come disinformazione, spesso su questioni politiche o in relazione alle Fake News sul Covid-19, mentre il 10% percento dei video sono stati classificati per contenuti d’odio e il 7% percento per contenuti sessuali.

La proprietà intellettuale dell’algoritmo, ostacolo per approfondire il problema

YouTube rifiuta di fornire informazioni pubbliche su come funziona il suo Algoritmo di raccomandazione, perché lo considera proprietario. Di conseguenza, studiarlo senza conoscerne le specifiche può risultare difficile per ricercatori “esterni”. Come si è visto, Mozilla ha tentato di superare questo “ostacolo” creando un’estensione per il suo browser e arruolando migliaia di partecipanti per fornire una serie di dati indipendenti su larga scala. Ma questo stratagemma, per l’appunto, aggira l’ostacolo senza affrontarlo. Maggiori dettagli si avranno se e quando YouTube deciderà di rendere pubblico il suo algoritmo. [3]

Note

  1. Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform’s Very Own Policies. Mozilla. https://foundation.mozilla.org/en/blog/mozilla-investigation-youtube-algorithm-recommends-videos-that-violate-the-platforms-very-own-policies/
  2. YouTube’s recommender AI still a horror show, finds major crowdsourced study. Tech Crunch. https://techcrunch.com/2021/07/07/youtubes-recommender-ai-still-a-horrorshow-finds-major-crowdsourced-study/
  3. YouTube’s Search Algorithm Directs Viewers to False and Sexualized Videos, Study Finds. The Wall Street Journal. https://www.wsj.com/articles/youtubes-search-algorithm-directs-viewers-to-false-and-sexualized-videos-study-finds-11625644803
WEBINAR
27 Ottobre 2021 - 09:30
FORUM PA 2021- One Health, prevenzione e cura attraverso l'innovazione digitale
Digital Transformation
Sviluppo Sostenibile
@RIPRODUZIONE RISERVATA

Articolo 1 di 3