il commento

Razzismo e odio, i social fanno ancora da megafono: perché è un problema

I social media fanno ancora fatica a impedire che le loro piattaforme siano come cassa di risonanza per video violenti e ideologie estremiste. Come dimostra l’ultima sparatoria suprematista bianca. Il tema è rilevante soprattutto in vista dell’acquisizione di Twitter da parte di Musk e del Digital services act

17 Mag 2022
Alessandro Longo
Alessandro Longo

Direttore agendadigitale.eu

La diffusione online di filmati ripresi dallo sparatore razzista di Buffalo negli Usa mostra come le aziende di social media facciano ancora fatica a impedire che le loro piattaforme siano come cassa di risonanza per video violenti e ideologie estremiste.

Buffalo mass shooting suspect intentionally targeted Black people, officials say

Tutto questo tre anni dopo che una sparatoria di massa in Nuova Zelanda, sempre a sfondo suprematista bianco, è stata trasmessa in live-streaming online.

Da quel momento la situazione è migliorata perché allora ci avevano messo alcune ore per bloccare i video – un’eternità, in tempo di internet – e ora solo pochi minuti.

E tuttavia non è abbastanza poco: alcuni utenti hanno subito visto, scaricato i video e li hanno modificati per ingannare l’algoritmo di moderazione; quindi li hanno diffusi ancora, sui social stessi o su altri luoghi della rete meno moderati.

Un tema che diventerà bollente quando entrerà in vigore il Digital services act europeo, dove – a quanto si legge nell’attuale bozza approvata – le big tech hanno per la prima volta l’obbligo a moderare i contenuti, con tanto di sanzioni in caso di ritardi.

Come ci si radicalizza online, le reti sociali chiuse: ecco i fattori in gioco

La sparatoria su Twitch in live streaming

La sparatoria di sabato in un supermercato, che ha causato 10 morti e tre feriti in un quartiere a prevalenza afro-americana, è stata infatti trasmessa su Twitch, un sito di proprietà di Amazon specializzato in live streaming.

WHITEPAPER
Clienti soddisfatti e fidelizzati? Ecco come fare un e-commerce di successo!
Big Data
Marketing

Twitch ha rimosso lo streaming meno di due minuti dopo gli spari, ha dichiarato, più velocemente di quanto le piattaforme abbiano impiegato per rispondere a precedenti incidenti. Ma versioni del video erano ancora presenti su Facebook, Twitter e YouTube più di un giorno dopo.

Tech Against Terrorism, un gruppo sostenuto da aziende e governi che combatte le attività terroristiche online, ha dichiarato lunedì di aver trovato contenuti associati allo sparatore di Buffalo su oltre 70 piattaforme diverse.

Che hanno fatto Meta, Twitter e Youtube

I rappresentanti di Meta, Twitter e YouTube hanno dichiarato di aver lavorato per rimuovere al più presto tutti i post sulla sparatoria di Buffalo che violano le loro policy.

Hate speech, troppo diverse le norme Usa-Europa: ecco perché

Il video le viola doppiamente perché è violento ed è anche un crimine d’odio razziale.

I limiti della moderazione

Quando gli utenti Facebook hanno cercato di segnalare il contenuto come una violazione delle regole, che non consentono contenuti che “esaltano la violenza”, in alcuni casi è stato detto loro che i link non violavano le politiche di Facebook, secondo le schermate visionate dal New York Times.

Da allora Facebook ha iniziato a rimuovere i post con i link al video e un portavoce di Facebook ha dichiarato che i post violano le regole della piattaforma. Alla domanda sul perché ad alcuni utenti sia stato notificato che i post con link al video non violavano le norme, il portavoce non ha risposto.

Twitter non ha rimosso molti post con link al video della sparatoria e in molti casi il video è stato caricato direttamente sulla piattaforma. Una portavoce dell’azienda ha inizialmente detto che il sito avrebbe potuto rimuovere alcune istanze del video o aggiungere un avviso di contenuto sensibile, poi ha detto che Twitter avrebbe rimosso tutti i video relativi all’attacco.

Tutti segnali che qualcosa negli algoritmi ancora non funziona.

Non solo: prima della sparatoria, l’imputato 18enne Payton Gendron, ha pubblicato online i propri piani, dicendo di aver scelto Twitch perché la piattaforma è di libero accesso. “Credo che la diretta streaming di questo attacco mi dia una certa motivazione, perché so che alcune persone faranno il tifo per me”, ha scritto su Discord e 4Chan.

L’attentatore, bianco suprematista, inizialmente aveva pianificato di trasmettere il suo attacco su Facebook, ma a gennaio ha deciso di passare a Twitch per il suo pubblico più giovane.

Molte delle grandi piattaforme di social media consentono a chiunque di trasmettere facilmente video in diretta da uno smartphone o da un computer con poche o nessuna restrizione. Ciò ha reso possibile la trasmissione di atti di violenza in tempo reale – e la registrazione degli stessi – anche se ciò viola le politiche delle piattaforme.

Il caso Christchurch

Le insidie della tecnologia di live-streaming sono state oggetto di particolare attenzione tre anni fa, dopo che una sparatoria di massa in due moschee a Christchurch, in Nuova Zelanda, che ha ucciso 51 persone, è stata trasmessa su Facebook nel 2019. Nello stesso anno, un attacco vicino a una sinagoga che ha ucciso due persone ad Halle, in Germania, è stato trasmesso su Twitch.

Contenuti illegali, così i Governi vogliono cambiare internet: ecco tutte le nuove leggi

Gli operatori delle piattaforme affermano di aver migliorato i tempi di risposta alle violazioni delle policy investendo in tecnologie di rilevamento e ampliando i team di moderazione dei contenuti.

Gli esperti del settore hanno detto che la velocità con cui Twitch ha interrotto la trasmissione del sospetto Buffalo è stata impressionante. Tuttavia, secondo loro, è ancora relativamente facile per qualcuno ripubblicare contenuti vietati modificandoli in modo da evitare il rilevamento.

Facebook ha impiegato circa un’ora per rimuovere la trasmissione di Christchurch, della durata di 17 minuti, che secondo l’azienda, ora nota come Meta, era stata visualizzata 4.000 volte. Una registrazione del filmato è stata inoltre ripostata milioni di volte sulla piattaforma e su altre, ha dichiarato Facebook.

La moderazione su Twitch

Dopo la sparatoria di Halle, Twitch ha dichiarato che cinque persone hanno guardato il live stream di 35 minuti del sospetto sull’incidente e una registrazione è stata vista sulla piattaforma da circa 2.200 persone in 30 minuti prima di essere segnalata e rimossa.

Twitch ha dichiarato che negli ultimi due anni l’azienda ha raddoppiato le dimensioni del suo team di sicurezza e quadruplicato il numero di professionisti della moderazione dei contenuti disponibili a rispondere alle segnalazioni degli utenti, ottenendo una riduzione del 96% del tempo medio necessario all’azienda per rispondere alle segnalazioni.

Twitch utilizza diversi meccanismi per individuare e rimuovere la violenza sulla sua piattaforma, tra cui una tecnologia di rilevamento e un sistema di segnalazione degli utenti, secondo Angela Hession, responsabile della fiducia e della sicurezza dell’azienda.

Ha dichiarato che Twitch sta collaborando con le forze dell’ordine e con il Global Internet Forum to Counter Terrorism, una coalizione no-profit di aziende di social media creata in risposta al massacro di Christchurch. La missione del gruppo è impedire a terroristi ed estremisti violenti di sfruttare le piattaforme digitali.

Perché questo è un problema per la società

L’incapacità dei social di risolvere la questione è un problema per molti motivi, come si può desumere da questa vicenda.

  • La possibilità di avere video live (e non) danno stimolo a potenziali attentatori, che così sanno di avere ciò che cercano: un’audience per le proprie gesta e per il proprio pensiero violento.
  • La presenza dei video può ispirare altri attentatori e in generale fare pubblicità all’ideologia suprematista bianca.
  • I social sono sfruttati anche per diffondere pensiero cospirazionista e razzistico, che a sua volta alimenta violenza e divisioni sociali. Il suprematismo bianco sostiene la teoria infondata di un complotto per sostituire i bianchi a vantaggio di altre etnie.

I social rimuovono i contenuti d’odio, collegabili direttamente alla violenza. Tuttavia sono più blandi – in nome della libertà di espressione – con post razzistici che non incitano esplicitamente alla violenza o alla discriminazione di persone specifiche.

Ma le fake news non sono (solo) quello che pensate

Twitter e Musk

Il tema assume particolare rilevanza in questi giorni in cui Twitter potrebbe passare nelle mani del miliardario di Tesla Elon Musk, che ha sempre detto di voler rendere più libero e trasparente il social. Al punto da voler rimuovere il ban dell’account di Donald Trump, l’ex presidente USA bloccato su tutti i social perché ritenuto corresponsabile, moralmente, dell’incitamento al tentativo di colpo di Stato di gennaio 2021. Twitter ha abbracciato progressivamente una maggiore responsabilizzazione sui contenuti, aumentando la moderazione.

Non è ancora chiaro come Musk voglia cambiare regole ed equilibri. Tuttavia molti esperti hanno notato quanto sarebbe pericoloso ridurre la moderazione, in nome della libertà di espressione, in una fase in cui le responsabilità sociali e politiche dei social e delle big tech in generale sono sempre più evidenti. E riconosciute ormai da tutti i Governi.

Le prospettive col Digital Services Act

Il Digital Services Act europeo segna la fine dell’auto-regolamentazione dei social e di altre piattaforme (come Google). Diventeranno obbligate a rimuovere prontamente i contenuti pericolosi segnalati loro e se non lo fanno rischiano sanzioni fino al 6 per cento dei ricavi globali.

Dovranno anche sospendere account recidivi.

Nasce inoltre il diritto inverso: degli utenti di appellarsi in modo chiaro e trasparente per contestare la rimozione di post o sospensione di account.

In poche parole le piattaforme diventeranno accountable, dovranno rendere conto di quello che fanno – o non fanno – con i contenuti e i propri utenti.

Musk ha già detto che rispetterà le regole europee.

Di nuovo, non è chiaro come ci riuscirà se intende perseguire la propria filosofia. Né è chiaro come il digital services act in effetti sarà operativo in pratica; come si potrà stabilire se un contenuto in effetti andava o non andava rimosso. Ci sono in effetti situazioni grigie. Idem sarà complicato reputare responsabile una piattaforma di non essere riuscita a rimuovere prontamente qualcosa, quando gli algoritmi possono essere così ingannati artatamente da modifiche dei video.

Le nuove regole europee sono un punto di inizio per cominciare ad affrontare davvero un problema su cui negli ultimi anni si sono spese solo moltissime parole. Gli Stati Uniti sono ancora bloccati nella formulazione di proposte di legge in merito. L’Europa ancora una volta fa avanguardia sul tema delle regole nel digitale. E potrebbe ispirare altre legislazioni, un po’ come fatto con la privacy e il GDPR.

Bene; ma prepariamoci ad affrontare un grossissimo scoglio di applicazione delle regole.

Tutto sommato, è una svolta positiva per la rete e per la società intrisa di digitale che si passi a un approccio più maturo e più complesso.

Dove a provare a tenere l’equilibrio tra diversi diritti e istanze non sono più poche enormi società private, con le proprie regole auto-decise, ma c’è un confronto democratico basato anche su regole e leggi di istituzioni elette da cittadini (direttamente o indirettamente). E che a loro – a tutti noi – alla fine rispondono.

WHITEPAPER
Evolvere il rapporto con i tuoi clienti e renderlo più redditizio: scopri come con questo documento!
Marketing
Advertising
@RIPRODUZIONE RISERVATA

Articolo 1 di 3