Twitch e il ban per le condotte offline: pro e contro dell’autoregolazione delle piattaforme - Agenda Digitale

servizi digitali

Twitch e il ban per le condotte offline: pro e contro dell’autoregolazione delle piattaforme

Attuare condotte illecite al di fuori della piattaforma e addirittura offline costerà caro agli utenti di Twitch. Dopo l’Oversight Board di Facebook, un’altra piattaforma avvia un’azione di filtro che sulla carta dovrebbe rafforzare la sicurezza e allineare il social ai dettami del futuro DSA. Ma è proprio così?

22 Apr 2021
Monia Donateo

Polimeni.Legal

È di pochi giorni fa l’annuncio del nuovo aggiornamento delle condizioni d’uso di Twitch che, dopo essersi mossa già lo scorso gennaio per contenere comportamenti illeciti perpetrati al proprio interno ha deciso ora di allargare le maglie della tutela dei suoi utenti oltre il mondo digital.

I motivi alla base della decisione

A gennaio la piattaforma di live streaming di proprioetà di Amazon ammette che sulla sua piattaforma si perpetrano costantemente condotte di molestie e abusi ai danni dei propri utenti. Decide così di rendere più rigide le regole con la pubblicazione di una sezione di regole ad hoc per garantire maggior protezione a tutta la sua community.

WHITEPAPER
Quali sono le strategie da seguire per difendersi contro gli attacchi di phishing?
Sicurezza
Cybersecurity

Twitch ora va oltre. La novità è che stabilisce un vero e proprio sistema sanzionatorio che vede come “pena” più gravosa la sospensione a tempo indeterminato di un account del soggetto che abbia attuato comportamenti ritenuti illeciti anche al di fuori dalla propria piattaforma e addirittura offline.

Tra le linee guida per la community, troviamo elencate alcune fattispecie di illecito come violenza mortale ed estremismo violento, attività o reclutamento a fini terroristici, minacce esplicite e/o credibili di violenza di massa, guida o militanza nell’ambito di gruppi notoriamente volti all’odio, violenza sessuale e/o atti sessuali non consensuali, o loro favoreggiamento volontario, sfruttamento sessuale di minori, come adescamento e richiesta/distribuzione di materiale pedopornografico, azioni in grado di compromettere direttamente ed esplicitamente la sicurezza fisica della community di Twitch, minacce esplicite e/o credibili contro Twitch e il suo staff.

Ovviamente si riserva di valutare altri illeciti non espressamente contemplati in detta sezione.

Qual è il fine? Ovviamente quello di rafforzare la sicurezza dei propri utenti, magari bloccando a monte, laddove è già possibile saperlo, potenziali soggetti che si siano già macchiati di un reato. Si tratta quindi di un’azione preventiva che, di fatto, filtra l’accesso alla propria piattaforma; nonché estromette gli utenti già iscritti noti per aver posto in essere siffatte azioni, per esempio, su Facebook, TikTok et similia, ma ora anche “per strada”.

Come funziona il ban

Oltre a raccogliere le prove già ufficiali come le sanzioni comminate delle autorità, per applicare le proprie regole (come la sospensione dell’account a tempo indeterminato) Twitch si avvarrà sia delle segnalazioni degli utenti verificandone la veridicità, che di un team interno di indagini. Quest’ultimo demanderà le questioni sospette ad un altro team esterno (“agenzia investigativa di terze parti”) o alle forze dell’ordine.

In particolare, per prendere validamente in esame le segnalazioni degli utenti (per fatti avvenuti sia online che offline) richiederà prove concrete come i link comprovanti, ad esempio, la violazione perpetratasi su altre piattaforme (a titolo esemplificativo un link di un post offensivo su Facebook). Quindi niente screenshot o contenuti di terze parti che non riconducano in maniera diretta al “luogo” dell’illecito. A sua discrezione, per la verifica del materiale prodotto a sostegno delle accuse mosse contro un utente, potrà decidere di avvalersi delle risultanze di investigatori di terze parti o comunque di esperti legali esterni. Infatti, Twitch mette a disposizione un contatto diretto con una “squadra investigativa” ingaggiata al di fuori del servizio. (“Tali segnalazioni raggiungono direttamente il team globale responsabile delle indagini sulle accuse per gravi illeciti al di fuori del servizio, e vengono gestite con la massima riservatezza”).

In ogni caso, anche dopo aver intrapreso provvedimenti contro un utente, Twitch ammette la possibilità di contraddittorio per ottenere, ad esempio, il ripristino dell’account in presenza di prove che escludano si tratti di una personalità pericolosa o ancora pericolosa per la community (ad esempio, un reo che ha già espiato la sua pena ed è stato riabilitato nella società). Tuttavia, non ammette ricorso contro sospensioni dovute a illeciti “particolarmente gravi” a prescindere dal tempo trascorso dal fatto.

Twitch si allinea alle prescrizioni del DSA?

Non possiamo esimerci dal considerare come questa nuova azione appaia assai in linea con le prescrizioni della proposta di Regolamento Europeo, il Digital Services Act (DSA), che promuove un comportamento proattivo della piattaforme nel filtrare azioni illecite da parte degli utenti. Tuttavia, Twitch, stando alla previsione normativa (per come di seguito meglio delineata) dovrà fornire spiegazioni su tutti i meccanismi decisionali che sta intraprendendo.

Occorre ricordare che le norme che disciplinano la fornitura di servizi digitali nell’UE sono rimaste sostanzialmente invariate dall’adozione della direttiva sul commercio elettronico nel 2000, risultando anacronistiche rispetto al sempre più repentino evolversi delle tecnologie e dei modelli digitali. L’Europa sta cercando di fronteggiare, nell’ambito delle procedure legislative attuali, le nuove sfide sociali, come la diffusione di merci contraffatte, le azioni di incitamento all’odio e disinformazione online in genere. In questo contesto, a dicembre 2020, la Commissione Europea ha presentato una nuova proposta legislativa, appunto il Digital Services Act, tesa a modificare la (ormai anacronistica) direttiva n. 2000/31/CE e stabilire standard più elevati di trasparenza e responsabilità per governare il modo in cui i fornitori di servizi di piattaforma moderano i contenuti, sulla pubblicità e sui processi algoritmici.

Le grandi piattaforme come Twitch e Facebook, secondo questa proposta di legge, saranno soggette a uno standard più elevato di trasparenza e responsabilità per il modo in cui moderano i contenuti, gestiscono le adv e implementano processi algoritmici. Saranno tenuti a valutare i rischi sistemici derivanti dal funzionamento e dall’uso dei loro servizi almeno una volta all’anno.

Dovranno, inoltre, valutare tre categorie di rischio:

  • il potenziale uso improprio della piattaforma da parte dei propri utenti;
  • l’impatto del loro servizio sui diritti fondamentali (ad esempio diritti alla privacy, libertà di espressione) dovuti, ad esempio, ai propri sistemi algoritmici (ndr visto il caso di Twitch non si può escludere la necessità di fornire un report anche sui parametri di applicazione delle proprie regole senza l’utilizzo degli algoritmi);
  • la manipolazione dei propri sistemi attraverso la creazione di account falsi, che portano alla diffusione, ad esempio, di fake news ed incidere negativamente sul bene salute, sui processi elettorali e sulla pubblica sicurezza.

In buona sostanza, l’Europa è intenzionata a richiedere ai giganti del web l’adozione di misure efficaci di controllo e mitigazione dei contenuti, di modo da scoraggiare e limitare la diffusione di condotte illegali. Per spiegarne il relativo funzionamento, dovranno inoltre sottoporsi a audit esterni e indipendenti, compilare e rendere disponibili pubblicamente i dettagli richiesti. Vi sarà presumibilmente una Commissione esterna, istituita dall’Europa, che avrà accesso ai dati necessari per monitorare e valutare la conformità di tutte le azioni poste in essere in attuazione della normativa.

Stante la completa autonomia delle Big Tech, che da meri fornitori di servizi, senza alcuna possibilità di intervento e controllo, sono diventati regolatori e giudici di sé stessi, questa futura normativa potrebbe costituire dei validi meccanismi di cooperazione e co-regolamentazione.

Perché le piattaforme possono autogiudicarsi?

Twitch introduce questo contatto esterno con autorità ed esperti legali di terze parti quasi a voler risultare la piattaforma più virtuosa che agisce per il mero interesse di ordine pubblico e sicurezza all’interno del proprio servizio.

Tutto lodevole, autorevole e rassicurante, ma siamo davvero sicuri della bontà degli strumenti di controllo e di verifica o ci sono margini di errore così come ha dimostrato Facebook stessa istituendo un Oversight Board organo di controllo (apparentemente) terzo ed imparziale?

Il dubbio è legittimo e la domanda non può ancora trovare risposta certa finché non vedremo la messa in opera di queste azioni.

Ad ogni modo, per quanto concerne i comportamenti rientranti nelle fattispecie di odio e di molestie – a differenza di Facebook – Twitch non si avvarrà del l’utilizzo di algoritmi perché ci dice testualmente che “tutti gli interventi sono eseguiti da revisori umani sulla base di violazioni documentate delle nostre Linee guida per la community; il numero di segnalazioni inviate contro un canale non influisce sulla probabilità che il canale venga sospeso. D’altra parte, inviare grandi quantità di segnalazioni fittizie, o incoraggiare altri a farlo, comporterà una sospensione del tuo account Twitch.”

Sta di fatto che a prescindere dalle prove più o meno genuine ricevute, dalle conferme esterne da parte delle autorità ed esperti legali (che non vengono svelati per l’asserita riservatezza), l’ultima parola spetta comunque a Twitch che può spegnere totalmente gli account senza fornire motivazione o possibilità di contraddittorio.

Conclusioni

Sebbene Twitch non rientri (ancora) tra quelle piattaforme di servizi di intermediazione B2C – e non sia dunque obbligata, ai sensi del Regolamento europeo n. 1150/2019, ad offrire debita motivazione e strumenti di contraddittorio sulle azioni di limitazione, sospensione o cancellazione degli account – dobbiamo sempre tenere a mente che il mondo digitale è reale.

Le piattaforme, anzi le Big Tech, sono la prevalente fonte di comunicazione dove ci è concesso di vantare il diritto di informarsi e di essere informati. Da qui la necessità di una nuova regolamentazione (come il DSA) che, ad avviso di chi scrive, ha un tempo di approvazione fin troppo lento rispetto allo sviluppo delle dinamiche digitali. Non possiamo che prendere atto di quanto la nostra vita digitale, i diritti che su queste piattaforme esercitiamo e vantiamo sono governati da scelte sempre cangianti che seguono le bandiere degli interessi di mercato più forti e dove, di certo, i nostri diritti fondamentali non sono in prima linea.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy
@RIPRODUZIONE RISERVATA

Articolo 1 di 4