Moderazione online, è tempo di responsabilità per i social - Agenda Digitale

Le proposte

Moderazione online, è tempo di responsabilità per i social

L’azione legale contro Twitter e Facebook da parte dell’ex Presidente degli Stati Uniti, Donald Trump, solleva questioni fondamentali, a partire dalla libertà di espressione sui social media. Tre proposte per l’autoregolamentazione e la responsabilità per i social in attesa del varo del Digital Services Act nella UE

04 Ago 2021
Antonio Palmieri

deputato, Forza Italia

Entra nel vivo lo scontro tra l’ex presidente USA e le piattaforme social. Il 7 luglio Donald Trump ha annunciato un’azione legale contro Twitter e Facebook in seguito della sua cacciata dai due social media. Era inevitabile che finisse così. Al tempo stesso è però essenziale approfondire le questioni che lo scontro tra l’ex presidente USA e le piattaforme hanno portato clamorosamente alla ribalta, a partire dalla questione della libertà di espressione sulle piattaforme social.

Libertà d’espressione e controllo statale, quanta ambiguità dalle piattaforme

È un grande tema, del presente e del futuro, purtroppo sottovalutato, sia dalle piattaforme che dalle istituzioni. Un tema che non può essere affrontato a livello di una singola nazione, ma che richiede un intervento almeno a livello di Unione europea. A questo è dedicato il Digital Services Act (DSA) presentato dalla Commissione UE il 15 dicembre 2020.

L’iter del DSA è avviato, ma nel frattempo cosa si può fare?

La strada è quella di stipulare accordi con le piattaforme per una autoregolamentazione riveduta, corretta e migliorata, e, contemporaneamente, lavorare per approvare una normativa che sia tecnicamente praticabile e rispettosa delle libertà di tutti.

WHITEPAPER
Digital marketing 2021: 9 trend del new normal, fra MarTech e dimensione human
Marketing
Advertising

In quest’ottica, ecco tre possibili soluzioni, che potrebbero essere messe tempestivamente in campo “semplicemente” con una intesa tra Unione europea e proprietà dei social.

Prima proposta. Adottare i “Principi di Santa Clara”

Bisogna rendere più chiari e trasparenti i criteri di moderazione e rendere realmente appellabili gli atti di cancellazione di post o di sospensione di account. In questo senso, faccio mia la proposta avanzata dal co-direttore del Centro Nexa su internet e società Juan Carlos De Martin nella sua riflessione pubblicata il 13 gennaio dal quotidiano La Stampa.

Come gesto di concreta disponibilità a una maggiore responsabilizzazione, le piattaforme potrebbero sottoscrivere e attuare i “Principi di Santa Clara”, che devono il loro nome alla località nella quale si riunirono il 2 febbraio 2018 i rappresentanti di organizzazioni ed esperti accademici che supportano il diritto alla libertà di espressione online. Dopo alcuni mesi di lavoro, il 7 maggio 2018 essi formularono tre regole che aumentano la trasparenza e responsabilizzano le piattaforme circa la moderazione dei contenuti online. Applicandole, le piattaforme renderebbero la loro moderazione più equa e rispettosa dei diritti degli utenti.

Sintesi dei tre Principi di Santa Clara

  • Prima regola, numeri. Le aziende pubblicano il numero di post rimossi e gli account sospesi in modo permanente o temporaneo e le statistiche su tutti gli aspetti degli interventi di moderazione effettuati, ricorsi compresi.
  • Seconda regola, trasparenza. Le aziende informano in tempo reale ciascun utente il cui contenuto viene rimosso o l’account viene sospeso del motivo della rimozione o della sospensione. Per esperienza diretta con situazioni di questo tipo accadute a esponenti di Forza Italia, posso confermare che ciò semplificherebbe le cose e garantirebbe rispetto e trasparenza.
  • Terza regola, ricorsi. Le aziende forniscono la possibilità di presentare tempestivo ricorso a qualsiasi rimozione di contenuto o sospensione dell’account. Rendere più semplice il ricorso comporta affidare a persone (e non ad algoritmi) la gestione della pratica, purché naturalmente le persone non siano coinvolte nella decisione iniziale di sospensione.

Si tratta di tre principi semplici, chiari ed equi, che in parte sono stati ripresi anche dalla proposta di normativa avanzata dalla Commissione europea, il Digital Services Act.

Seconda proposta. Regole ad hoc per i politici

Come ulteriore clausola di salvaguardia per chi svolge attività politica, si potrebbero istituire termini di servizio particolari per tutti coloro che ricoprono incarichi istituzionali, a qualsiasi livello, purché democraticamente eletti. Sarebbe l’ennesimo privilegio per la “casta” oppure una forma di protezione rinforzata della libertà di espressione per coloro che hanno responsabilità politiche e istituzionali? Comunque la si interpreti, una cosa è certa: le piattaforme dei social media non hanno il diritto di praticare interventi politicamente discriminatori.

La mia proposta è molto semplice: nessun contenuto postato da esponenti politici eletti può in alcun modo essere rimosso dai social e nessun account di partiti o esponenti politici può essere oscurato senza un provvedimento da parte dell’autorità giudiziaria, a seguito di una violazione delle leggi vigenti. Mi rendo perfettamente conto che si tratta di una proposta molto “forte”, ma invito a considerarla da un punto di vista generale, evitando di cadere nella “trappola emotiva” prodotta dal caso di un personaggio dirompente e polarizzante come Trump, che inevitabilmente condiziona il giudizio.

Con un accordo di questo tipo, le piattaforme si sottrarrebbero anche all’accusa – per dirla in estrema sintesi – di “pendere a sinistra”. Nessuno potrebbe più accusare i proprietari dei social di privilegiare il fronte progressista a scapito di quello conservatore.

Terza proposta. Tutela rafforzata per le testate registrate

Il 12 gennaio, nei giorni caldi del dibattito innestato dall’esclusione di Trump dai social, in Italia l’accesso all’account Twitter di Libero fu limitato per “motivi di sicurezza”. Il 14 gennaio è stata tolta per ventiquattro ore da Play Store l’app del quotidiano Il Manifesto. Il 30 marzo Youtube ha chiuso definitivamente il canale ByoBlu.

Questi episodi hanno fatto notizia. Anche in questo caso, una possibile soluzione per evitare che si ripetano situazioni di questo tipo potrebbe essere quella di stabilire un accordo in forza del quale – nel caso di eventuali dubbi circa informazioni diffuse da testate giornalistiche regolarmente registrate – le piattaforme non possano agire direttamente, ma debbano segnalare all’Autorità della comunicazione del Paese della testata ciò che a loro avviso non funziona, senza fare alcun intervento di rimozione che non sia autorizzato dall’Autorità.

Come nel caso dei rappresentanti delle istituzioni, ciò consentirebbe di predisporre una situazione win-win, nella quale tutti i soggetti sarebbero garantiti nelle loro libertà e nella conseguente responsabilità.

Di questo e molto altro ancora (le piattaforme sono un soggetto pubblico o privato, sono editori o non lo sono, le bolle sono di per sé un male oppure no, gli algoritmi sono i nostri nuovi padroni eccetera) ragiono nel mio nuovo libro “Social è responsabilità. Le questioni aperte dallo scontro Trump piattaforme digitali”.

L’ho scritto perché si tratta di temi sui quali le istituzioni devono interrogarsi e rispetto ai quali tutti siamo chiamati a esercitare proprio un di più di responsabilità.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4