estremismo e stragi

Odio online e armi per tutti, la miscela esplosiva che scuote gli Usa: quale via d’uscita?

Gran parte dell’America non vuole mettere in discussione un concetto di libertà che prevede la possibilità di diffondere odio on line e di assistere a carneficine ispirate da teorie cospirazioniste in auge sul web. È davvero impossibile trovare una soluzione? E se sì, quale ruolo e responsabilità attribuire alle big tech?

06 Giu 2022
Antonino Mallamaci

avvocato, Co.re.com. Calabria

hate_speech3

In America si continua a sparare e a uccidere, utilizzando spesso armi da guerra dagli effetti micidiali. Ad ogni strage, viene puntualmente alla ribalta il dibattito infuocato sulla “libertà di possedere qualsiasi arma”. E il NYT lancia l’allarme, l’ennesimo, sulla diffusione capillare sul web di contenuti violenti e razzisti.

Disinformazione e complottismi online, tutte le misure di Governi e social network a contrasto

Stragi e odio online: quali connessioni?

Così, si viene a sapere che il soggetto che ha preso letteralmente di mira, il 14 maggio, con un attacco premeditato trasmesso in streaming, gli avventori di un supermercato frequentato soprattutto da afroamericani provocando la morte in pochi minuti di 10 persone, il 30 marzo scorso aveva fatto una bella gita virtuale su siti razzisti e antisemiti. Su BitChute ha ascoltato una conferenza di una estremista finlandese sul declino della classe media americana. Su YouTube ha trovato un video orribile di un’auto che guidava nei quartieri neri di Detroit. La settimana dopo ha chattato in gruppi nascosti su Reddit e 4chan e ha letto articoli sulla razza su HuffPost e Medium. Ancora, si è abbeverato di sapere con “documentari” su siti Web estremisti e con tutorial sulle armi su YouTube. Il ragazzo, diciottenne, ha agito da solo ed era, secondo le Autorità, un emarginato. Ha agito da solo, è vero, ma ha dimorato in numerose comunità online dove lui e i suoi simili guardano e condividono contenuti razzisti e violenti.

WHITEPAPER
L’ERP di TeamSystem modulo per modulo: come si integra il gestionale su misura
Amministrazione/Finanza/Controllo
Dematerializzazione

Secondo gli esperti, molte delle idee inquietanti che alimentano le atrocità non sono più relegate in una manciata di angoli oscuri del web difficili da trovare. Sempre più punti vendita, sia marginali che mainstream, ospitano contenuti bigotti e pregni d’odio, spesso in nome della libertà di parola. E l’incapacità, o la riluttanza, dei servizi online di stroncare i contenuti violenti minaccia di attirare più persone verso post che incitano all’odio.

Molte immagini e testi che il giovane aveva nei suoi scritti, tra cui un diario e un “manifesto” di 180 pagine, circolano da anni online. Spesso anche su Reddit e Twitter.

Quanto succede, a Buffalo e in tanti altri luoghi degli USA e non solo, rivela i limiti degli sforzi di aziende come Twitter e Google per moderare post, immagini e video che promuovono l’estremismo e la violenza. Rimangono on line abbastanza da poter aprire una pipeline che consente agli utenti di trovare siti Web più estremi a solo un clic o due di distanza.

Eric K. Ward, ricercatore senior al Southern Poverty Law Center e direttore esecutivo del Western States Center, afferma che il contenuto violento o razzista che cerchi “Non ti cade da solo in grembo: devi iniziare a cercarlo. Ma una volta che inizi, il problema è che inizia a pioverti addosso in abbondanza”.

Atti di estremismo violento, ruolo e responsabilità dei social

L’attacco di Buffalo ha rinnovato l’attenzione sul ruolo che i social media e altri siti web continuano a svolgere negli atti di estremismo violento, con critiche provenienti dal pubblico e da funzionari del governo.

“Il fatto che questo atto di barbarie, questa esecuzione di esseri umani innocenti, possa essere trasmesso in live streaming sulle piattaforme dei social media e non rimosso entro un secondo mi dice che ci sono responsabilità”, ha detto il governatore Kathy Hochul di New York dopo la sparatoria a Buffalo. Quattro giorni dopo, il procuratore generale dello stato ha annunciato di aver avviato un’indagine sul ruolo svolto dalle piattaforme.

In una dichiarazione, un portavoce di Facebook si è difeso affermando che la piattaforma rileva oltre il 96% dei contenuti legati a organizzazioni di odio prima che vengano segnalati. Twitter ha rifiutato di commentare. Alcuni dei post sui social media su Facebook, Twitter e Reddit che il New York Times ha identificato attraverso ricerche di immagini inverse sono stati cancellati; alcuni degli account che condividevano le immagini sono stati sospesi.

Quel miscuglio tossico di disinformazione razzista ed estremista che ha ispirato la strage di Buffalo

L’accusato degli omicidi, Payton Gendron, ha dettagliato il suo attacco a Discord – app di chat emersa dal mondo dei videogiochi nel 2015 – e l’ha trasmessa in streaming in diretta su Twitch, di proprietà di Amazon. La società è riuscita a rimuovere il suo video in due minuti, ma molte delle fonti di disinformazione da lui citate sono rimaste on line. L’inchiesta del NYT ha chiarito come Payton Gendron abbia preparato tutto online, raccogliendo suggerimenti su armi e tattiche e trovando ispirazione in altri razzisti e in attacchi precedenti che ha in gran parte imitato. Complessivamente, il materiale raccolto testimonia una visione contorta e razzista della realtà. L’uomo armato considerava quelle idee un’alternativa alle opinioni tradizionali.

I suoi scritti mappano in dettaglio i siti web che lo hanno motivato. Gran parte delle informazioni che ha messo insieme riguardano collegamenti o immagini che ha selezionato per avvalorare e rafforzare le sue opinioni razziste.

Pandemia e radicalizzazione

La sua radicalizzazione sarebbe iniziata dopo l’inizio della pandemia, quando era confinato a casa sua. Ha ricevuto le notizie principalmente da Reddit prima di unirsi a 4chan. Ha seguito argomenti sulle armi e sulla vita all’aria aperta, prima di trovarne un altro dedito alla politica. Infine, si è posizionato in un luogo virtuale fatto di un miscuglio tossico di disinformazione razzista ed estremista.

Sebbene abbia frequentato siti come 4chan, abbastanza ai margini, ha anche trascorso molto tempo su YouTube. Qui ha trovato scene grafiche di telecamere della polizia e video che descrivono suggerimenti e trucchi con le armi. Con l’avvicinarsi del giorno dell’attacco, ha guardato altri video su YouTube su sparatorie di massa e agenti di polizia impegnati in scontri a fuoco.

YouTube ha affermato di aver esaminato tutti i video che sono apparsi nel diario. Tre video sono stati rimossi perché collegati a siti Web che violano le norme sulle armi da fuoco di YouTube, che “proibisce i contenuti destinati a istruire gli spettatori su come fabbricare armi da fuoco, produrre accessori che convertono un’arma da fuoco normale in automatica o trasmettere in live streaming contenuti che mostrano qualcuno che maneggia un’arma da fuoco”, secondo Jack Malon, un portavoce di YouTube.

Contrasto all’odio online, mission impossible? Le misure globali e i problemi irrisolti

I pericoli del ritorno in auge della “teoria della grande sostituzione”

Anche questa volta, la voglia di agire ammazzando è stata ispirata dalla convinzione che una cospirazione ebraica internazionale intendesse soppiantare gli elettori bianchi con immigrati che gradualmente prenderanno il potere politico in America.

In definitiva, la tristemente nota “teoria della grande sostituzione”, che ha radici nella bufala antisemita zarista de “I Protocolli dei Savi di Sion“, un presunto complotto ebraico per soppiantare il cristianesimo in Europa.

Anche due romanzieri francesi, Jean Raspail e Renaud Camus, a quattro decenni di distanza, hanno immaginato ondate di immigrati che avrebbero preso il potere in Francia. Camus, socialista “evolutosi” in populista di estrema destra, ha coniato la locuzione “le grand remplacement”, dando questo titolo a un romanzo nel 2011.

Il precedente di Christchurch

Gendron, secondo i documenti che ha inviato, sembrava non aver letto nessuno di questi; ha invece attribuito la nozione di “grande sostituto” agli scritti online pubblicati dall’uomo armato che ha ucciso 51 musulmani in due moschee a Christchurch, in Nuova Zelanda, nel 2019.

E, a proposito di Musulmani e della strage di Christchurch, un recentissimo rapporto del Centro per il contrasto all’odio digitale (CCDH) fa chiarezza, ancora una volta, sulle responsabilità di Big Tech.

“In una dichiarazione congiunta nel 2019 – si legge nella presentazione del rapporto del CEO Imran Ahmed – Meta, Twitter e Google si sono impegnati a sostenere l’appello di Christchurch per eliminare i contenuti terroristici ed estremisti violenti online. “Per garantire, hanno scritto, che stiamo facendo tutto il possibile per combattere l’odio e l’estremismo che portano alla violenza terroristica”. Questo rapporto rivela che le società di social media, tra cui Facebook, Instagram, TikTok, Twitter e YouTube, non hanno agito sull’89% dei post contenenti odio anti-musulmano e contenuti islamofobici segnalati loro. I ricercatori del CCDH, utilizzando gli strumenti di segnalazione delle piattaforme, hanno rintracciato 530 post che contengono contenuti inquietanti, bigotti e disumanizzanti e che prendono di mira i musulmani attraverso caricature razziste, teorie cospirazioniste e false affermazioni. Questi post sono stati visualizzati almeno 25 milioni di volte. Molti dei contenuti offensivi erano facilmente identificabili, eppure nulla è stato fatto. Instagram, TikTok e Twitter consentono agli utenti di utilizzare hashtag come #deathtoislam, #islamicancer e #raghead. I contenuti diffusi tramite gli hashtag hanno ricevuto almeno 1,3 milioni di visualizzazioni.

L’impatto dell’inazione dei social

Secondo Ahmed, quando i social media non agiscono sanno che esiste una significativa minaccia di danni offline, e che consentire a questi contenuti di essere promossi e condivisi mette ulteriormente in pericolo queste comunità guidando le divisioni sociali, normalizzando il comportamento abusivo e incoraggiando attacchi e abusi offline. Peggio ancora, le piattaforme traggono profitto da questo odio, monetizzando allegramente. Per loro, l’odio è un buon affare.

Facebook e Instagram non sono riusciti ad agire sull’89% dei contenuti che promuovono la teoria del complotto “Great Replacement”, che ha ispirato ed è stata utilizzata dai terroristi che hanno commesso massacri all’attacco alla moschea di Christchurch nel 2019 e all’Albero di Fucilazione della sinagoga della vita nel 2018. I contenuti cospirazionisti e razzisti individuati in questo rapporto diffondono e perpetuano l’odio nei confronti dei musulmani e della loro fede. Ha un effetto agghiacciante su queste comunità e impedisce loro di esercitare la propria libertà di religione e di parola online. I legislatori, i regolatori e la società civile non credono più alle società di social media quando promettono di agire contro l’estremismo e l’odio. I guasti sistemici e incontrollati devono essere affrontati e le aziende tecnologiche devono essere ritenute responsabili. Meta è stata citata in giudizio dalle vittime del genocidio dei Rohingya, per non aver affrontato gli attacchi anti-musulmani sulle loro piattaforme, eppure Facebook non ha agito sul 94% dei post in questo campione. Lo status quo non è sufficiente per incentivare le aziende tecnologiche ad assumersi seriamente le proprie responsabilità nei confronti delle comunità musulmane e di altri gruppi.

Tre direttrici per responsabilizzare le piattaforme

Ad avviso del CCHD, l’azione delle Autorità, nazionali e internazionali, dovrebbe essere imperniata su tre direttrici:

  • imporre la trasparenza degli algoritmi (che selezionano quale contenuto
    amplificare), degli standard comunitari (quali regole vengono applicate, come e quando) ed economici (dove, quando, da chi e utilizzando quali dati, viene collocata la pubblicità, che costituisce la maggior parte dei ricavi per le piattaforme).
  • ritenere responsabili le piattaforme di social media a livello individuale, comunitario e nazionale per l’impatto dei contenuti che monetizzano
  • ritenere responsabili i dirigenti dei social media per la loro condotta come amministratori di piattaforme per la moderazione dei contenuti, per la loro amplificazione, per la progettazione istituzionale e dell’esperienza utente.

Anche i ricercatori di Media Matters for America, organizzazione no-profit di orientamento liberale, hanno trovato almeno 50 annunci su Facebook negli ultimi due anni che avallano e sostengono la teoria della “Grande sostituzione” e temi correlati. Molte delle pubblicità provenivano da candidati a cariche politiche, anche se Meta nel 2019 ha garantito che avrebbe vietato i contenuti di nazionalisti e separatisti bianchi su Facebook e Instagram.

I ricercatori di Media Matters for America hanno verificato che 907 post sugli stessi temi, su siti di destra, hanno attirato più di 1,5 milioni di utenti, molto più dei post destinati a sfatarli.

Sebbene il video della sparatoria di Buffalo sia stato rimosso da Twitch, è riemerso su 4chan. Da allora il video si è diffuso ad altre piattaforme marginali come Gab, ma anche su Twitter, Reddit e Facebook.

L’accusa di Angelo Carusone, presidente di Media Matters for America, è netta ed esplicita: “I social media hanno consentito, in un periodo di tempo abbastanza breve, a idee e cospirazioni nefaste, che un tempo ribollivano in relativo isolamento, di proliferare nella società, riunendo persone animate dall’odio. Gli odiatori non sono più isolati, sono ora collegati grazie ai social”.

In una situazione così grave, per l’online che deflagra a colpi di armi da fuoco e morti a decine nell’offline, continua il dibattito sulla necessità di intervenire per regolamentare tanti aspetti dei social media.

L’ardua impresa di una legislazione Usa che metta d’accordo democratici e repubblicani

L’Europa, come sappiamo, ha fatto enormi passi avanti, se non altro a livello normativo, con il DSA e il DMA, e siamo in attesa di conoscere le modalità mediante le quali questi regolamenti saranno applicati su scala nazionale attraverso le Autorità indipendenti.

Negli Usa, con le elezioni di mid – term alle porte, appare ardua l’impresa di legiferare mettendo d’accordo Democratici e Repubblicani. Uno scoglio insuperabile si frappone tra le parole e i fatti, ed è quello della diversità degli obiettivi che i due schieramenti si pongono nel voler mettere ordine in un ambito lasciato a briglie sciolte da tanti anni. In estrema sintesi, per i democratici sembra essenziale intervenire sulla Sezione 230, la norma che rende le piattaforme non responsabili dei contenuti postati, per contrastare fake news ed hate speech.

Per i repubblicani, invece, la preoccupazione principale è quella di impedire alle società di Big Tech di cancellare post ed account, ciò in ossequio al principio della libertà d’espressione contenuto nel primo emendamento della costituzione, risalente al 1791: “E’ vietato al Congresso di fare alcuna legge per il riconoscimento di qualsiasi religione o per proibirne il libero culto; o per limitare la libertà di parola, o di stampa; o il diritto del Popolo a riunirsi in forma pacifica, e a presentare petizioni al Governo per la rettifica di torti subiti”: stando così le cose, lo stallo è difficile da superare, e a questo punto alcuni Stati a guida repubblicana, come il Texas e la Florida, hanno deciso di adottare delle leggi per perseguire il loro scopo almeno a quel livello. I governanti texani e quelli della Florida hanno approvato norme volte a consentire ai residenti di citare in giudizio le società di social media se i loro contenuti o account sono stati banditi dalle loro piattaforme. Entrambi gli stati hanno affermato che le loro leggi mirano a prevenire pregiudizi anticonservatori dei principali giganti della tecnologia, anche se queste si sono affrettate a negare di essere di parte o di interferire con il dibattito politico.

La legislazione della Florida vieta ai siti di social media di “bannare” qualsiasi candidato in corsa per cariche pubbliche nello stato, sottoponendo i trasgressori a multe fino a 250.000 dollari al giorno. Impedisce inoltre ai siti di limitare la visibilità dei contenuti sui candidati politici e vieta la censura delle “imprese giornalistiche” in base al loro contenuto.

Sull’applicazione delle leggi si sono pronunciati diversi giudici, che hanno deciso in maniera anche opposta.

Ora è intervenuta la Corte suprema, dopo che due gruppi che rappresentano Google, Facebook e altri giganti della tecnologia hanno presentato un ricorso d’urgenza. La Corte, con una maggioranza striminzita di 5 voti a favore e 4 contro, ha stoppato l’applicazione della legge del Texas.

Tre componenti, dei 4 contrari, hanno affermato di non aver preso una decisione sulla costituzionalità della legge; avrebbero solo voluto che la legge entrasse in vigore in attesa di un giudizio definitivo.

Conclusioni

In conclusione, dibattito quanto mai aperto, anche sulla costituzionalità delle leggi statali oltre che sulle tante proposte sfornate dai legislatori nell’ultimo anno. Il dato incontestabile è che la miscela esplosiva di discorso d’odio e diffusione capillare di armi continua a fare danni enormi, lasciando a terra centinaia di morti, anche bambini.

La convention della RIFLE in Texas, tenuta a pochi giorni di distanza dall’ultima mattanza proprio in quello stato, ha ribadito, col sostegno dell’ex presidente Trump, che una parte consistente dell’America non è disposta a mettere in discussione un concetto di libertà che prevede la possibilità di diffondere odio on line e di assistere a carneficine che nelle teorie cospirazioniste e primatiste, così di casa sul web, trovano la loro linfa. In questo caso non vitale, ma orrendamente mortale.

WHITEPAPER
Employee engagement da remoto: i tool che aumentano partecipazione e produttività
Digital Transformation
Risorse Umane/Organizzazione
@RIPRODUZIONE RISERVATA

Articolo 1 di 4