Gab, MeWe, Rumble: come sono i "nuovi" social alt-right | Agenda Digitale

Disinformazione

Gab, MeWe, Rumble: come sono i “nuovi” social alt-right

Dopo il ban di Trump dai principali social e il blocco di Parler, è evidente che la mancanza di norme comuni che dettino le basi per la lotta alla disinformazione e all’hate speech, abbia semplicemente spostato il fenomeno su piattaforme diverse. Ecco quelle in ascesa e le azioni per combattere il fenomeno alla radice

22 Gen 2021
Marina Rita Carbone

Consulente privacy

Le “azioni di contenimento” intraprese dalle Big Tech nei confronti di un soggetto politico di spicco quale il Presidente uscente degli Stati Uniti d’America Donald Trump – la rimozione (a tempo indeterminato) dei suoi profili sulle piattaforme più importanti, come Facebook, Twitter e YouTube – e la successiva “espulsione” del social Parler dai server Amazon e dai principali app store, hanno suscitato numerose reazioni contrarie: fra tutti, alcuni hanno affermato che i colossi del web avrebbero reagito in modo eccessivo, altri hanno lasciato la piattaforma per dirigersi verso lidi “più sicuri”.

Proprio questi ultimi, hanno favorito la rinascita di social minori come Gab, MeWe e Rumble. Ma come funzionano questi social e, soprattutto, perché la disinformazione e l’hate speech sono così difficili da contrastare?

Gab: il social preferito da Qanon ed estremisti

Come anticipato, la chiusura di Parler ha comportato il flusso degli utenti dello stesso verso piattaforme differenti, come Gab, nato nel 2016 come alternativa a Twitter e Facebook e dotata di minori restrizioni dei contenuti rispetto ad altre piattaforme.

[QUIZ] SECURITY/BACKUP
Protezione dei dati: sei sicuro di avere una strategia efficace? Scoprilo nel Quiz
Big Data
Sicurezza

Tale piattaforma era divenuta tristemente nota nel 2018, in occasione dell’attentato antisemita alla Sinagoga di Pittsburgh che ha portato alla morte di 11 persone. Ciò che era emerso da un’analisi dei contenuti presenti sul social era allarmante (il responsabile dell’attentato aveva pubblicato per anni contenuti antisemiti, arrivando, da ultimo, ad affermare che “non poteva stare a guardare mentre la sua gente veniva massacrata”), e aveva portato anche in tal caso all’adozione di provvedimenti rigidi da parte dei proprietari dei server; Gab si è, però, dotato nel seguito di server proprietari, browser dedicati e applicazioni non presenti sullo Store, tornando nuovamente accessibile.

Agli occhi dei propri utenti Gab si presenta come quella piattaforma che permette di condividere qualsivoglia teoria o osservazione senza limiti, mossa da un generale principio di libertà di parola.

Gab è orgogliosa di consentire agli utenti di pubblicare ciò che vorrebbero, e si fregia della propria natura “indipendente”, sebbene affermi, all’interno delle proprie policies, di “agire per prevenire e rimuovere qualsiasi attività illegale nella nostra comunità”.

La struttura di Gab è del tutto peculiare, in quanto decentralizzata e dotata di un codice sorgente aperto, pubblico, che consente agli utenti di “controllare la loro esperienza sui social media alle proprie condizioni, piuttosto che ai termini stabiliti da Big Tech”.

La scelta di un codice sorgente aperto e pubblico si fonda sulle seguenti motivazioni, riportate sullo stesso sito web di Gab e dichiaratamente schierate: “tu, l’utente, hai una scelta quando usi Gab Social: puoi avere un account su Gab.com o, se non ti piace quello che stiamo facendo su Gab.com o semplicemente vuoi gestire la tua esperienza, puoi far girare il tuo proprio Social server Gab che controlli, che ti consente di comunicare con milioni di utenti sui propri server federati da tutto il mondo, inclusi gli utenti su Gab”.

E mentre tutti gli occhi erano puntati sulle grandi piattaforme, che gradualmente e non senza difficoltà cercavano di contenere un fenomeno ormai esploso, Gab cercava di farsi nuovamente strada, raccogliendo tutti gli utenti che si sentivano in qualche modo “traditi” dai cambiamenti che, di volta in volta, avvenivano nelle politiche di tolleranza delle Big Tech (già a ottobre, infatti, molti membri Qanon espulsi da Facebook avevano trovato rifugio in Gab).

Lo stesso Andrew Torba, fondatore di Gab, ha più volte dichiarato di essere contro i “giornalisti diabolici”, contro le Big Tech, il principale pericolo per la libertà di espressione.

Dando uno sguardo più attento al contenuto dei Termini e delle Condizioni, si appalesa, seppur in modo più soft, l’intento della piattaforma di attuare solo limitate attività di moderazione dei contenuti.

A seguito di numerosi riferimenti al Primo Emendamento, si legge: “Tuttavia, data la libertà di espressione che permettiamo, potrebbero esserci circostanze in cui non siamo in grado di determinare se il contenuto è protetto dal Primo Emendamento o meno e la prudenza può richiederci di sbagliare dalla parte della cautela. Di conseguenza, la Società si riserva il diritto di intraprendere qualsiasi azione in relazione a qualsiasi contributo dell’utente che riteniamo necessario o appropriato a nostra esclusiva discrezione.” Tra le ipotesi di azione, sono incluse, ovviamente, le violazioni dei “Content Standards”, i quali proibiscono all’utenza, ad esempio, di:

  • Pubblicare contributi che possono aiutare, favorire, assistere, consigliare, procurare o sollecitare la commissione di, né costituire un tentativo o parte di una cospirazione di commettere, qualsiasi atto illecito. “A scanso di equivoci”, si precisa “un discorso puramente offensivo o l’espressione di un’idea o di un’opinione offensiva o controversa, come regola generale, sarà di cattivo gusto, ma non sarà illegale negli Stati Uniti”.
  • Minacciare illegalmente.
  • Incitare il compimento imminente di azioni che vadano contro la legge.
  • Pubblicare contributi osceni, sessualmente espliciti o pornografici, salvo la nudità non sia utilizzata a scopi educativi/medici o come forma di protesta.
  • Violare qualsiasi brevetto, marchio, segreto commerciale, diritto d’autore o altra proprietà intellettuale o altri diritti di qualsiasi altra persona.
  • Dare l’impressione che i contenuti siano approvati o provengano da Gab o da qualsiasi altra persona o entità, se non è così.
  • Pubblicare link che rimandino a qualsiasi contenuto ritenuto in violazione degli standard.

Si specifica, infine, che “Sebbene i nostri Content Standards, secondo quanto espresso nel Primo Emendamento, non vietino discorsi offensivi, ti incoraggiamo vivamente a garantire che i tuoi contributi siano cordiali e civili. La fondazione di una società libera richiede che le persone risolvano pacificamente le loro divergenze attraverso il dialogo e il dibattito. Gab esiste per promuovere il libero flusso di informazioni online. Siamo del parere che l’esercizio responsabile, da parte di un individuo, dei diritti di libertà di parola sia la sua ricompensa e, di norma, gli editori online più rispettati tendono ad essere quelli che si comportano più civilmente e presentano le loro argomentazioni in modo più intelligente”.

Una formula, questa, che, innanzi ai fatti e al tenore dei contenuti che è possibile vedere pubblicati, appare più come una clausola di stile che come un effettivo modus operandi, o meglio, come una vera intenzione di costruire un ambiente sereno e pacifico. Ad un primo sguardo, le maglie di moderazione della piattaforma appaiono quasi inesistenti, al pari di quelle presenti in Parler, sebbene Torba abbia recentemente dichiarato di aver provveduto a “fermare immediatamente” una serie di nuovi account che stavano minacciando di attuare atti violenti nei confronti dei pubblici ufficiali.

MeWe, il “social network del futuro”

Oltre a Gab, di recente è registrato un forte aumento anche degli utenti di MeWe, social che afferma di essere incentrato su “fiducia, controllo e amore” e di avere a cuore la vita privata dei propri utenti, i cui dati non sono oggetto di pubblicità, targeting, riconoscimento facciale o manipolazione del flusso di notizie.

La piattaforma, nata con intenti neutrali e non dichiaratamente schierati come nel caso di Gab o Parler, permette di vedere e condividere post, chattare, fare dei video in diretta e pubblicare degli audio vocali, ed è stata prediletta, negli ultimi tempi, soprattutto dagli utenti no-vax, a seguito delle politiche adottate da Facebook nei confronti delle fake news sul Covid-19 e sul vaccino.

Le condizioni di servizio di MeWe vieterebbero, in particolare, di:

  • Violare qualsiasi norma o regolamento;
  • Molestare (incluso lo stalking), intimidire (incluso il bullismo) o danneggiare un altro utente;
  • Postare contenuto illegale, pericoloso, osceno o pornografico;
  • Postare contenuti incentrati sull’odio, sulle minacce, intimidatori, o che incitino alla violenza, gratuita e non;
  • Utilizzare MeWe per fini illegali, ingannevoli, malevoli o discriminatori;
  • Promuovere, incoraggiare o assistere qualsiasi parte terza a fare una qualsiasi delle azioni precedentemente esposte.

La violazione delle condizioni del servizio comporta la cancellazione dell’account o del contenuto, anche senza preavviso.

Sebbene vi sia un atteggiamento meno “permissivo” dei contenuti che incitano all’odio o alla violenza, appare evidente come la piattaforma non sia munita di specifici protocolli che consentano, invece, di verificare se un determinato contenuto sia lesivo e pericoloso in quanto foriero di disinformazione.

Anche in questo caso, sembra quasi che tali condizioni di servizio siano da ritenersi più clausole di stile che condizioni effettivamente efficaci nei confronti della lotta al fenomeno dell’odio e della disinformazione sulla piattaforma.

Lo spazio grigio nella lotta alla disinformazione e all’odio online

Svolte le dovute premesse, appare opportuno, in conclusione, svolgere alcune considerazioni di natura giuridica. È evidente, infatti, come la mancanza di un indirizzo legislativo comune, di norme di indirizzo comune che dettino le basi per la lotta alla disinformazione e all’hate speech, abbia semplicemente spostato il fenomeno su piattaforme diverse, quest’ultime peraltro dotate non solo di soglie di tollerabilità ben più alte rispetto alle contestate Twitter e Facebook, ma anche di possibilità ben minori, già sotto il profilo tecnico, per poter efficacemente e tempestivamente moderare i contenuti presenti.

Samuel Woolley, ricercatore del Center for Media Engagement (CME) all’Università del Texas, i cui progetti di ricerca si focalizzano sulla propaganda, sui media emergenti e sulle modalità tramite le quali i gruppi politici manipolano l’opinione pubblica, ha affermato, a tal riguardo, che “C’è un presupposto comune per cui la maggior parte della disinformazione e della propaganda politica che la società sperimenta online provenga da Facebook o YouTube o Twitter. Nei fatti, la disinformazione si diffonde su Internet. Vediamo disinformazione su siti di social media più piccoli, da Parler a Gab e persino Pinterest o LinkedIn. Alcune delle piattaforme più piccole, tra cui Pinterest, sono particolarmente brave a moderare questa disinformazione sulle loro piattaforme. Ma per molte delle altre piattaforme più piccole su cui circola la disinformazione e la propaganda è molto, molto difficile moderare questo tipo di contenuti. E mentre stiamo accendendo i riflettori su Facebook, Twitter e YouTube e mentre queste aziende stanno effettivamente facendo, relativamente parlando, molto per cercare di combattere questi problemi, molti altri siti di social media semplicemente non hanno le risorse o il tempo o il know-how per farlo”.

Anche la stessa definizione di attività “illegittima” o “pericolosa”, non essendo normativamente adeguata agli insorgenti fenomeni, figli dell’era digitale, non appare attualmente adeguata.

Ne deriva che ogni azione attuata dalle Big Tech, non solo si colloca in un momento successivo all’evento lesivo, ma risolve solo una piccola parte del problema o, nella maggior parte dei casi, non ha risultato alcuno. Nel resto del web, infatti, i medesimi contenuti “censurati” sulla piattaforma social continuano, indisturbati, a dilagare, all’interno di uno spazio grigio che sinora è tato regolato esclusivamente da policies di società private e non, invece, da leggi, siano esse di natura statale o, invece, di natura comunitaria.

Conclusioni

I limiti dell’attuale impianto normativo appaiono, in conclusione, evidenti, in quanto eccessivamente vincolati al potere decisionale, alle strategie ed ai limiti stessi dei social che dovrebbe mirare a regolamentare.

In assenza di una regolamentazione significativa e chiara, che enunci i principi del funzionamento libero e, allo stesso tempo, sicuro dei social, le aziende tecnologiche hanno anche pochi incentivi a regolamentare in modo massiccio le proprie piattaforme, essendo queste mosse anche da intenti di natura economica.

È in tal senso che si pone l’azione normativa iniziata, nel 2020, dall’Europa con l’adozione del Digital Services Act e del Digital markets Act, fra i cui obiettivi rientra anche la lotta alla disinformazione ed alle fake news. L’obiettivo che ci si pone è quello di costruire uno standard comune che possa combattere il fenomeno alla radice, rimodernando l’intero sistema di moderazione dei contenuti online (che diverrebbe più semplice ed esplicito rispetto a quello attuale, consentendo anche di agire in tempo più breve, avendo chiara l’indicazione dei comportamenti da ritenersi pericolosi) e introducendo nuove responsabilità per tutti coloro (grandi o piccoli) che si rendano colpevoli della violazione di tali standard.

Digital event, 15 giugno
CyberSecurity360Summit: cyber risk, normative e strategie per vincere le sfide della sicurezza
Legal
Sicurezza
@RIPRODUZIONE RISERVATA

Articolo 1 di 3