responsabilità delle piattaforme

Contenuti d’odio dai social, Ziccardi: “I sei punti che domineranno il dibattito”

Non è facile prevedere il futuro sul tema della rimozione dei contenuti d’odio, ma certamente la discussione si sposterà, e in alcuni casi si è già spostata, su sei punti. Vediamo quali sono

20 Dic 2021
Giovanni Ziccardi

Information Society Law Center, Università degli Studi di Milano

Il tema assai caldo, e spigoloso, della rimozione dei contenuti d’odio e illegali dalle piattaforme è ancora oggi al centro di un vivace dibattito che si è infiammato dopo la scelta dell’Unione Europea di accelerare – con diverse propose di Regolamenti – nella creazione del tanto atteso “mercato unico digitale” dei dati, dei servizi, delle piattaforme e dell’intelligenza artificiale.

Il dibattito, come è noto, è nato attorno al 2000, quando la scelta politica dell’Unione Europea di limitare la responsabilità delle piattaforme e dei fornitori di contenuti per stimolare lo sviluppo del mercato europeo del digitale (senza soffocare in partenza il futuro business delle piattaforme) ha condizionato pesantemente il futuro sino a oggi.

Moderazione dei contenuti social: cosa sappiamo sulle liste di “intoccabili”

Tre Paesi – la Germania, la Francia e l’Austria – hanno quindi deciso, tra il 2018 e il 2021, di prendere l’iniziativa con leggi statali miranti proprio alla limitazione di un asserito strapotere delle piattaforme nella gestione dei contenuti d’odio e una discrezionalità nelle scelte di cosa rimuovere.

Al contempo l’Unione Europea ha manifestato la volontà, con il Digital Service Act, di “centralizzare” il tema e di prevedere una disciplina uniforme per tutti gli Stati, criticando non velatamente l’azione dei tre Stati. Per di più, la normativa francese è incappata in un brutto giudizio di incostituzionalità.

Non è facile prevedere il futuro, sul tema, ma certamente il dibattito si sposterà, e in alcuni casi si è già spostato, su sei punti.

Vediamoli insieme.

Una definizione certa dei tempi di rimozione

Quali potrebbero essere dei tempi corretti, per le piattaforme, per la rimozione dei contenuti d’odio o illeciti?

Non è facile dare una risposta. Sinora le proposte normative, e le norme già vigenti, ruotano attorno a tre “scadenze”: 1 ora, 24 ore o 7 giorni.

WHITEPAPER
Una guida per acquisire nuovi clienti con il digital onboarding
Marketing
Trade

Il termine di 1 ora dalla segnalazione da parte dell’autorità è visto come congruo, da molti, per i contenuti correlati al terrorismo (propaganda, radicalizzazione, chiamata all’azione e attentati) e, in alcuni casi, anche per pedopornografia e tratta di minori.

Il termine di 24 ore si pensa congruo per contenuti d’istigazione all’odio, soprattutto razziale, religioso, omofobico e antisemita.

Il termine di 7 giorni sembra essere il più adatto per quei contenuti che hanno necessità di una review – o vaglio accurato che dir si voglia – in quanto potrebbero essere, seppur crudi, consentiti dai principi di libertà di manifestazione del pensiero.

Di certo, la scelta dei tempi deve anche tener conto della complessità della gestione dei contenuti, oggi, in piattaforme che hanno assunto ormai dimensioni enormi e che spesso hanno pochissimo personale deputato al primo intervento sulle segnalazioni.

Il tempo di reazione coinvolge anche un secondo dibattito circa le competenze specifiche che dovrebbero avere i dipendenti delle piattaforme deputati a tale scelta: non è assolutamente facile comprendere, nei casi concreti, se il contenuto sia meritevole di rimozione o di protezione in una attività che si riduce spesso a click in pochi secondi seguendo alla lettera griglie ed elenchi preparati dalle piattaforme stesse. L’oscurità di tali procedure è sicuramente un grande problema da risolvere.

La necessità di una maggiore trasparenza nelle procedure interne

Un secondo dibattito ha coinvolto, soprattutto in Germania, i cosiddetti “report di trasparenza”, ossia l’obbligo, per le piattaforme, di dettagliare almeno ogni sei mesi le azioni che compiono con riferimento ai contenuti rimossi.

Si tratta dell’unico modo per raggiungere l’obiettivo di evitare l’overblocking, ossia la censura causata dalla rimozione per pura opportunità (e timore di sanzioni) di contenuti che in realtà sarebbero ammessi dall’ordinamento.

Questi report dovrebbero essere estremamente dettagliati e apparire sin da subito non solo veritieri ma, anche, molto curati: numero di richieste, decisione, motivazione, percentuale di rimozioni in rapporto alle richieste, competenze di chi decide.

Il GDPR ci ha già abituato all’importanza della trasparenza nella protezione dei diritti, e la stessa cura è necessaria anche e soprattutto con riferimento a contenuti, ed equilibri, così delicati.

L’istituzionalizzazione di soggetti qualificati (o “trusted flaggers”)

Interessante, nel futuro, l’istituzionalizzazione (da parte degli Stati o del diritto dell’Unione) di soggetti qualificati che possano garantire segnalazioni per la rimozione di contenuti considerate in qualche modo “più affidabili” e più meditate (in un’ottica di competenza) delle semplici segnalazioni degli utenti.

Tali soggetti non lavorerebbero per le piattaforme, ma per migliorare il quadro della società digitale. Si pensi non soltanto ad autorità indipendenti ma, anche, ad organizzazioni non profit, o di attivisti, che potrebbero alzare il livello qualitativo delle segnalazioni togliendole da un dibattito incontrollato e da una lite ormai quotidiana degli utenti (che usano spesso il fenomeno della segnalazione come forma di bullismo). Si tratta di un aspetto delicatissimo soprattutto in un’ottica di garanzia di imparzialità – e di indipendenza dal contesto politico – di simili enti.

La possibilità, sempre e comunque, di un “appello” nei confronti della decisione

Da più parti si sostiene che un simile progetto di riforma della gestione dei contenuti d’odio e illegali da parte delle piattaforme debba sempre prevedere la possibilità per i produttori di simili contenuti di contestare la scelta della piattaforma e di poter attivare un meccanismo di appello rapido.

Un simile meccanismo presuppone, però, una informazione immediata e trasparente al soggetto stesso delle procedure che sono state seguite e una grande cura nelle motivazioni.

Negli ultimi anni è stato delegato alle piattaforme, in molti casi, il ruolo di “giudice di primo grado” (si pensi alla disciplina del diritto all’oblio), ma tale ruolo dovrebbe anche comportare obblighi precisi nel percorso motivazionale.

Che ruolo avrà il giudice?

Come entrerà, in questo sistema di riforma, la magistratura?

Le proposte di coinvolgere i giudici sin da subito, nella gestione dell’odio, con sezioni specializzate (o simili) è inapplicabile vista la mole di contenuti d’odio che girano ogni giorno e i conseguenti milioni di reclami.

Di certo, nei casi più delicati, o che hanno un forte impatto politico, il giudice potrebbe essere il soggetto più adatto per gestire un tema così complesso e per prendere decisioni ponderate. Il linguaggio d’odio è, infatti, uno dei più complessi da gestire e da comprendere anche per gli esperti di diritto.

L’Unione Europea come “unico regolatore”

Con il Digital Service Act, e la volontà di disciplinare anche i contenuti d’odio sulle piattaforme, ci sembra che l’Unione Europa abbia chiaramente reclamato per sé una buona parte di regolamentazione del tema.

Il passaggio a una co-regolamentazione basata sul principio dell’accountability (mutuato dal GDPR e presente anche nella proposta sull’intelligenza artificiale “all’europea”) è necessario dopo il fallimento delle proposte di autoregolamentazione e di codici di condotta.

Chi gestirà una piattaforma dovrà implementare un vero e proprio sistema di governance interna dei contenuti d’odio che porterà alla necessità di investimenti mirati e alla elaborazione di processi per le segnalazioni (e la loro gestione) e per una reazione immediata che non saranno assolutamente semplici da mettere in opera.

Conclusioni

I prossimi tre anni, terminata la discussione sugli emendamenti delle proposte di regolamento dell’Unione Europea, saranno decisivi per comprendere il ruolo che avrà il Vecchio Continente nel cercare una disciplina uniforme su un tema, quello dei contenuti d’odio, che per tradizione è molto sfuggente e complesso da regolamentare. Anche perché la nuova governance dei contenuti d’odio di cui parlavamo poco sopra potrà avere un impatto economico non indifferente sulla vita stessa delle piattaforme e sull’intero ecosistema digitale delle piattaforme soprattutto se inserita nel meccanismo dell’accountability e, quindi, della obbligatoria responsabilizzazione delle piattaforme sul punto (con relative sanzioni in caso di inottemperanza).

WHITEPAPER
Clienti soddisfatti e fidelizzati? Ecco come fare un e-commerce di successo!
Big Data
Marketing
@RIPRODUZIONE RISERVATA

Articoli correlati