hate speech

Troppe molestie nel gaming online: come intervenire

Le piattaforme di gaming rivelano in misura ancora più evidente che il mondo è linguaggio (la loro esistenza dipende da codici). Intervenire con regolamenti condivisi contro l’hate speech – fin troppo tollerato nel mondo del gaming online – è pertanto un valore che va preferito e scelto razionalmente. Vediamo in che modo

09 Set 2020
Lorenza Saettone

Filosofa specializzata in Epistemologia e Cognitivismo. Collabora con l’istituto di Network Cultures. Tirocinante presso Scuola di Robotica


Se l’hate speech è un problema che riguarda tutti gli ambienti online, la differenza è che nel gaming la comunicazione violenta sembra essere una pratica tollerata.

Le comunità tossiche di videogamer si giustificano sostenendo che “internet funziona così”. È come se vomitare odio sull’altro fosse talmente inscritto nel tessuto del web da diventare l’etichetta richiesta da chi vi partecipa.

Tuttavia ciò non avviene solo tra gli ambienti digitali. Nelle comunità in cui la competizione è un aspetto primario, pare che l’hate speech sia più evidente, entrando a far parte delle “regole del gioco”. Ad esempio tra le tifoserie del calcio, tra le curve degli stadi, le reciproche offese hanno toni che oltrepassano il decoro, fino a diventare veri e propri atti di odio e violenza.

Qui di seguito alcune proposte nelle comunità di gaming per gestire l’hate speech.

Core: free-to-play e free-to-create ma non free-to-abuse

Core è una piattaforma “free-to-play” e, in particolare, “free-to-create” della start-up Manticore Games. L’idea è lasciare agli utenti tutta la libertà di programmare un videogioco multiplayer e di condividerlo con gli altri della community, accettando consigli, idee e, quindi, crescendo insieme. La nota negativa è che possono essere usati solo gli sprite della piattaforma, senza la possibilità di crearne di propri attraverso la modellazione digitale. I videogiochi non sono solo storytelling e codice. La loro messa in opera si basa anche su tantissimi creativi come musicisti e grafici. Escludere dalla piattaforma disegnatori e compositori, potrebbe perpetuare il pregiudizio per il quale dietro a tale medium solo gli informatici siano necessari.

Per l’educazione potrebbe essere interessante proporre questa piattaforma con cui giocare, sperimentando le proprie capacità di programmazione. Se già Scratch è una community oltre ad essere un linguaggio a blocchi e un metodo con cui avvicinare i più piccoli (ma non solo) al pensiero computazionale, Core è una piattaforma per ragazzi più grandi, con linguaggio testuale Lua e possibilità di ottenere soldi dai giochi che si programmano. La motivazione a impegnarsi nell’informatica verrebbe, in tal senso, sostenuta da un codice più spendibile sul mercato del lavoro e da introiti e visibilità immediati. I fondatori, Frederic Descamps e Jordan Maynard, dichiarano che verrà infatti ricompensato il gioco più votato dagli utenti, così da motivare i game designer a fare sempre meglio. Non solo, probabilmente i giochi potranno essere anche caricati su altre piattaforme – aspetto interessante per chi desidera imparare e convertire gli stessi test in lavoro.

Il linguaggio Lua con cui programmare i videogiochi è abbastanza accessibile, permettendo di essere usato anche da utenti alle prima armi. Insomma, Core vorrebbe essere per il design dei videogiochi quello che è YouTube per i video. Analogamente alla piattaforma di Google, vorrebbero permettere una monetizzazione. In base a modalità ancora non definite, gli sviluppatori dovrebbero percepire una quota mensile: dicono tre euro al mese moltiplicato per il numero di utenti che hanno giocato al videogame.

Il rischio, tuttavia, è quello che la community subisca la stessa ricaduta di odio di YouTube e di altri social e comunità di gaming. Un caso noto è quello di Roblox, per esempio. Siccome è una possibilità più che realistica, le piattaforme online devono già alla nascita anticipare le strategie di moderazione che implementeranno.

I creatori di Core hanno affermato che prenderanno a modello i metodi già impiegati da altri social network, così da impedire che si generino situazioni spiacevoli. Roblox, citato precedentemente, ha conosciuto diversi casi di molestie, ricevendo fiumi di critiche dai genitori che hanno visto i propri figli subire attacchi e abusi di varia natura. Anche questa è una piattaforma attraverso cui si può sperimentare la programmazione di mondi, co-creando giochi. In questo caso la monetizzazione avviene soprattutto per microtransizioni. A tal proposito sono successi tantissimi casi di bambini che hanno finito per prosciugare la carta dei genitori, attirati dai pop-up per i pagamenti addizionali. Non solo, qualche anno fa una bimba era stata addirittura virtualmente stuprata da alcuni avatar che avevano creato oggetti fallici con i quali avevano simulato l’abuso sessuale.

Per evitare il verificarsi di altri episodi di questo tipo, i creatori di Roblox hanno inserito un parental control , anche per impedire che i ragazzini giocassero a videogame non selezionati da Roblox stesso. È infatti possibile sviluppare mondi in cui violenza e sesso sono protagonisti delle dinamiche.

La censura e l’auto-regolazione non sono materia per algoritmi

Anche alla luce delle esperienze delle altre piattaforme, l’idea che i fondatori di Core propongono è di affidarsi ai giocatori e ai creatori stessi, dando loro tutti gli strumenti per flaggare i troll e segnalare eventuali giochi inappropriati. L’idea è creare una comunità collaborativa che si occupi di gestire la propria convivenza civile, in base sia a regole generali di adeguatezza sia a norme interne che piano piano emergono dalle relazioni.

Perché il regolamento non può essere qualcosa di privato?

Il CEO di Core games, Frédéric Descamps, sostiene che bisogna definire a priori cosa sia accettabile e cosa no. Affinché un utente rispetti le regole, queste devono esistere prima del comportamento da moderare. Inoltre (come ben sottolineava Wittgenstein a proposito del linguaggio) le norme devono essere pubblicamente controllabili, altrimenti non sarebbero giudicabili né i comportamenti né i giudizi. Se non ci fossero regolamenti condivisi e pubblici, qualunque azione potrebbe essere vietata o permessa senza criterio. Ogni regola potrebbe, in ogni momento e da chiunque, essere manipolata ad hoc. Senza garanzie, ogni moderazione si trasformerebbe in qualcosa di arbitrario. Infine, gli stessi gli utilizzatori della piattaforma hanno bisogno di conoscere quale sia il confine lecito, per auto-regolarsi responsabilmente.

Perché comportarsi bene? Perché intervenire a sostegno degli sconosciuti?

La motivazione per cui una community si auto-regoli, scegliendo la “via della virtù”, deriva dall’esistenza della piattaforma stessa. Come la comunicazione, proprio perché esista, deve fondarsi e seguire regole etiche, anche la comunità online, perché sia possibile convivere, deve auto-censurare quelle condotte che impediscono il gioco stesso.

Non solo, il fatto che una comunità sia tollerante non implica che lo debba essere anche nei confronti degli intolleranti. Se le regole richiedono ci sia reciproco rispetto, ciò non vuole dire che gli irrispettosi vadano rispettati, anzi, coloro che non accettano le regole comunitarie, manifestando esplicita intolleranza, non possono essere considerati parte del gruppo. Gli intolleranti si escludono a priori. Ciò permette, dunque, alla comunità tollerante di non applicare le sue regole a chi non le sottoscrive. Lo stesso deve riguardare le piattaforme online. Chi non ammette la convivenza serena come norma strutturale delle piattaforme deve essere escluso da quegli ambienti. Ne va del gruppo stesso e dell’incolumità di quegli individui che invece hanno approvato il contratto.

Come decidere cosa sia un illecito? Libertà di parola o libertà di non subire abusi?

Il problema, aggiunge Descamps, riguarda sempre le situazioni intermedie. Se con gli estremi è facile moderare, più difficile è intervenire nelle situazioni “grige”.

Chiaramente non è semplice definire cosa sia l’hate speech e come applicare la censura. La tensione tra libertà di parola e di odio è lo stesso conflitto che Freud imputava alla nascita della civiltà e del conseguente senso di colpa. La libertà di nuocere al prossimo nasce quando l’altro diventa parte della mia società, dei miei interessi, delle mie relazioni; quando diventa indispensabile per la mia stessa sopravvivenza. Al nascere della civiltà non è più possibile lasciare che l’Es si esprima in completa libertà. Pertanto diventa necessario moderare l’energia inconscia con sistemi di punizione interni ed esterni. È l’esistenza dell’altro, della sua libertà di non subire dolo che richiedono la nascita dell’etica. Le regole di convivenza civile, i no dell’ambiente e l’inviolabilità delle altre persone vengono introiettati, assumendo, così, la forma di Super Ego.

Il problema maggiore è stabilire la soglia che divide nettamente la comunicazione inappropriata dall’ironia lecita. Gli stessi videogame di guerra hanno tutta la dignità di esistere, a maggior ragione che non ci sono evidenze per cui debbano essere censurati.

A proposito di censura, Milton, nel 1644, scrisse, argomentando in maniera estremamente lucida, il primo saggio sulla libertà di parola e quindi di stampa. Egli sosteneva che la censura fosse deleteria per il Bene stesso.

L’esistenza del Male può essere un’occasione di dibattito etico, in grado di riconfermare la Virtù. Analogamente, non censurare flame ed immagini “forti” potrebbe rappresentare un’opportunità con cui definire il bene grazie alla negazione del male. Infatti, seguendo le teorie degli opposti, ogni cosa -è- attraverso il confronto con il suo contrario. In sostanza, il bene esiste perché c’è il male.

Non solo, il bene è premiabile unicamente quando un soggetto sceglie in modo volontario di non fare il male. Tuttavia tale decisione presuppone sempre che l’individuo si trovi di fronte a un’alternativa non censurata, potendo imboccare la via sbagliata. Il male in Terra è necessario, senza esso non avrebbero valore le lodi (né il giudizio divino nell’Aldilà).

In ogni caso, è anche vero che la libertà spesso conduce a effetti non totalmente accettabili. Il liberismo nell’economia crea, per esempio, una forte ingiustizia sociale. John Rawls, nella sua teoria politica, sostiene che bisogna innanzitutto lasciare la libertà di azione e poi intervenire riparando l’ingiustizia che il free trade genera. Anche per le comunità online la libertà è il presupposto. In seguito bisogna che la comunità stessa e gli algoritmi gestiscano il setaccio del bene e del male. Per farlo è necessario, però, concordare su cosa sia l’hate speech, senza flaggare ogni situazione anche blandamente ingiusta o semplicemente ironica. Le parole non hanno significati sempre uguali. Assumono sensi in base al contesto, alle culture, al non detto, alle intenzioni e alle conseguenze che si trascinano dietro nel rapporto con gli altri. Non è facile.

Molestie in Realtà Virtuale e un’analisi alle proposte di Renee Gittins

Anche le community di Realtà Virtuale stanno proponendo diversi sistemi per evitare abusi nei loro ambienti di gioco.

Indossando il visore, il videogame non passa più attraverso il controller. Il commutatore elettronico appare quasi un punto di cucitura, una specie di “ghiandola pineale” tra avatar e gamer, dove l’anima, fatta di emozioni e volontà, siamo noi, mentre il personaggio, seppur dotato di immaterialità, in questo caso è la res extensa. Nella Realtà Virtuale interveniamo nell’ambiente online senza mediazioni. I nostri movimenti fisici si riflettono immediatamente su quelli dell’avatar. Il dualismo, insomma, non passa più attraverso cavi e pulsanti. Ciò offre una fortissima esperienza immersiva. Pertanto, non è difficile intuire che gli abusi nella Realtà Viruale sono percepiti in maniera molto più invadente e realistica.

Renee Gittins (direttore esecutivo dell’associazione International Game Developers) ha affermato che bisogna intervenire con regole nette perché non si verifichino più casi di molestie sulle piattaforme multiplayer VR. In tal senso, in una conferenza al Ludicious X (la versione in streaming del Ludicious Game festival), ha esposto alcune indicazioni su come moderare ambienti come Rec Room, High Fidelity, AltspaceVR.

Hide button

La prima proposta intende sfruttare il fatto che il molestatore sia pur sempre uno sprite e come tale deve rispondere alle regole del codice. Se ogni utente potesse avere un bottone con cui nascondere chi sta invadendo in modo pericoloso il nostro spazio vitale, sarebbe veloce sfuggire a episodi spiacevoli. Se un avatar si avvicina eccessivamente a noi, se ci sentiamo oppressi, se ci tocca, basterebbe implementare la possibilità di renderci reciprocamente invisibili. In modo semplice e rapido potremmo, così, riprendere a giocare come se il disturbatore non fosse mai esistito.

Stanze

Un’altra strategia potrebbe essere quella di dichiarare anticipatamente la natura degli ambienti di gioco: se in un mondo verrà permesso l’utilizzo di un linguaggio da adulti o se la moderazione sarà più restrittiva. Di certo esplicitare ciò non impedisce a un molestatore di disturbare. La funzione serve solo per impedire che gli ambienti multiplayer diventino troppo “asettici”, escludendo dal gioco chi accettasse liberamente di tollerare un linguaggio più esplicito.

Per gli esiliati, Renee aggiunge che potrebbe essere creata una stanza apposita. Insomma, si genererebbe una specie di carcere (o di Purgatorio) nel quale espiare la propria colpa in attesa di essere riammessi nel gioco. Secondo lei, in questo modo gli utenti capirebbero che molestare rovina il loro stesso divertimento. La “stanza della vergogna” diventerebbe un deterrente in grado di dissuadere chi volesse comportarsi in modi non ammessi.

L’obiettivo è portare i molestatori a riflettere sui reati? Dovrebbero fare qualche pubblica ammenda? Me lo immagino sul modello dei confessionali del Medioevo. Sarebbe collocato in una zona ben visibile, perché la community possa controllare che il reo inizia il percorso di riabilitazione. Lì gli hater dovrebbero dichiarare i rispettivi mea culpa. Infine, con qualche punizione, potrebbero finalmente essere riammessi nella comunità.

Comunità che si auto-regola

Come per Core, la comunità stessa dovrà auto-regolarsi, controllando i soggetti che potrebbero minare la sua integrità. Tuttavia, per evitare abusi di potere, dice la Gittins, bisognerebbe inserire dei valori soglia, per esempio un numero minimo, in un certo lasso di tempo, di voti negativi contro un utente tale da bloccarlo. In realtà anche così potrebbero comunque verificarsi prepotenze da parte degli accusatori, i quali facilmente potrebbero concordare falsi report nei confronti di un soggetto per escluderlo dal gioco.

Per evitare gli abusi bisognerebbe premiare il virtuoso. Gittins, a tal proposito, concludeva il suo discorso al Ludicious sostenendo quanto sia indispensabile un sistema di premi per le buone condotte, così da incentivare i comportamenti positivi.

I teorici del condizionamento operante, infatti, dimostrarono che il rinforzo positivo fissa gli apprendimenti in misura maggiore rispetto alle punizioni. Pertanto, lodare le community non tossiche e la buona nomea dei singoli giocatori potrebbe essere molto più efficace per creare un ambiente di gioco rilassato. Si verrebbe a generare un gruppo di utenti motivati a intervenire a favore di avatar in difficoltà, portandoli a segnalare, immantinente, ogni vero disturbatore che andasse a interrompere l’equilibrio raggiunto.

Conclusioni

Restringere la libertà di parola delle persone entro i confini della buona convivenza civile, in realtà, non è un valore in se stesso. Dipende piuttosto da quanto sia importante salvaguardare il gruppo e le relazioni di solidarietà tra i membri. Il linguaggio esiste solo entro una società, è il risultato di convenzioni socialmente stabilite. Pertanto, proteggere gli attori da conversazioni violente vuol dire difendere l’esistenza della parola stessa. Il linguaggio, quando viene utilizzato per offendere il prossimo, finisce per annichilire la società e, di conseguenza, se stesso.

La conversazione, per certi versi, mi ricorda il processo descritto dall’antropologo polacco Bronisław Malinowski a proposito della Kula, la cerimonia che avveniva sulle isole Trobriand. Gli indigeni intraprendevano viaggi molto lunghi in canoa per approdare su un’altra isola dell’arcipelago e scambiarsi reciprocamente vari oggetti. Non era un semplice baratto di collane e bracciali. L’intenzione era quella di scambiarsi lo spirito del portatore che le cose racchiudevano in sé. Questa cerimonia permetteva alle persone di conoscersi attraverso le chincaglierie. Nella conversazione noi scambiamo parole, non oggetti, ma l’intenzione è sempre quella di condividere chi siamo nel dialogo. Nel linguaggio, siccome ogni proferazione contiene la personalità, l’intenzione, il tono del parlante, viene sempre trasferita una parte di sé. Impedire che si verifichino discorsi di odio sulle piattaforme online vuol dire, allora, tutelare lo spirito che ogni parola porta con sé. Le molestie sono ferite nell’anima, quanto la violazione delle norme di conversazione.

Il mondo è linguaggio e le piattaforme online rivelano questa essenza in misura ancora più evidente (la loro esistenza dipende da codici). Pertanto intervenire con regolamenti condivisi a tutela della parola è un valore che va preferito e scelto razionalmente per l’essere stesso, compreso quello che siamo noi.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4