Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

il quadro

Disinformazione e complottismi online, tutte le misure di Governi e social network a contrasto

Social media e istituzioni affrontano il problema della diffusione – sempre più preoccupante – di teorie del complotto, fake news e disinformazione. Ecco tutti i tentativi messi in atto dalle parti. Con l’idea di fondo che una vera soluzione è ancora da trovare

22 Mar 2019

Davide Giribaldi

data protection specialist


I tragici eventi in Nuova Zelanda della scorsa settimana, con il video dell’autore della strage nelle moschee di Christchurch diffuso sui social senza freno alcuno, hanno evidenziato, una volta di più, come le politiche adottate dalle web company per contrastare la diffusione di contenuti violenti, la disinformazione e la propaganda siano inadeguate e come gli algoritmi non siano in grado di distinguere il contenuto dannoso o falso da quello positivo.

Governi ed istituzioni hanno compreso che è giunto il momento di intervenire con rapidità seppur nel rispetto del delicato equilibrio tra censura, libertà di espressione e diritto di cronaca.

Proviamo a fare una panoramica di cosa stanno facendo governi europei, le istituzioni Ue e social media per contrastare il dilagare di fake news e contenuti violenti o di propaganda, nella convinzione, però, che non esistono soluzioni facili (vedi politiche di moderazione) né si può pensare di lasciare le decisioni in mano alle sole media company.

I due fronti della partita: social media e istituzioni

Lo scenario è estremamente chiaro: le social media company che ospitano e distribuiscono contenuti sono al centro di una tempesta che assume di giorno in giorno aspetti sempre più preoccupanti perché non sono in grado di garantire la moderazione ed il controllo di tutto quanto passa all’interno delle loro piattaforme.

Dell’altra parte del campo le istituzioni osservano con crescente preoccupazione il susseguirsi di avvenimenti come disinformazione, propaganda e diffusione di contenuto violento, la cui portata è amplificata proprio dalle stesse piattaforme online incapaci di prendere qualsiasi iniziativa; è emblematico proprio il caso neozelandese quando, alcune ore dopo la strage nelle moschee, Facebook con un comunicato ufficiale dichiarava di avere appreso dalla Polizia dell’esistenza di video cruenti e di stare procedendo alla loro rimozione.

In mezzo ci sono i cittadini che sono letteralmente bombardati da notizie di ogni tipo e sempre più spesso al di fuori di qualsiasi controllo.

Siamo quindi di fronte ad uno scenario “complessivamente” molto delicato e l’approssimarsi di una serie di elezioni, tra cui quelle europee che coinvolgeranno circa un terzo della popolazione mondiale durante il 2019, stanno costringendo sia i governi che le piattaforme online a prendere una posizione quantomeno cautelativa, ma anche in questo contesto le risposte rischiano di essere poco incisive.

Il codice pratico dell’Ue contro la disinformazione

L’Unione europea si è mossa con un certo anticipo proponendo durante il 2018 un “codice pratico” contro la disinformazione a cui hanno aderito praticamente tutti i big del mondo internet che si sono impegnati a pubblicare mensilmente un report sulle singole azioni intraprese.

Ad onore del vero, la prima relazione riferita al mese di gennaio è stata un vero disastro sia dal punto di vista dei risultati che da quello dei contenuti.

Facebook ad esempio non ha dato alcun riferimento sul numero di account di disinformazione rimossi, Google ha omesso di fornire dettagli precisi sulle azioni intraprese e peggio ancora Twitter che non ha rilasciato alcun tipo d’informazione.

In attesa del report di febbraio, da alcuni giorni è attivo il Sistema di Allerta Rapido (RAS) grazie al quale le Istituzioni Ue e gli Stati membri avranno a disposizione una piattaforma open source con la quale confrontare le analisi degli specialisti e dei fact checkers che permetterà di potenziare lo scambio di dati sulle campagne di disinformazione, coordinando una risposta a livello europeo.

Come si stanno muovendo gli Stati Ue

L’Italia

L’Italia ha affidato una buona parte della lotta alla disinformazione all’Autorità per le garanzie nelle comunicazioni che ha emanato un apposito regolamento contente le disposizioni in materia di rispetto della dignità umana, del contrasto ai contenuti violenti ed offensivi ed al rispetto del principio di non discriminazione.

Per rendere più efficace la propria azione l’Agcom ha anche ratificato una convenzione con l’Istituto dei Sistemi complessi, facente parte del CNR, per la realizzazione di attività di monitoraggio tanto dei contenuti quanto del comportamento degli utenti sui social media.

Proprio Agcom ha di recente rilasciato un rapporto sulla disinformazione online i cui risultati confermano ulteriormente una situazione critica perlomeno a livello nazionale. Nel 2018 il 34% delle notizie di cronaca pubblicate mensilmente in Italia è risultato falso, cosi come il 19% delle notizie politiche ed il 18% di quelle a carattere scientifico.

Da questo studio emerge la conferma di un’esigenza complessiva di un intervento strategico e d’indirizzo politico, ma non è facile oscillare tra il tentativo di censura e la tutela della libertà di espressione.

La Francia

Ha chiesto collaborazione a Facebook per giungere ad una proposta di legge che punisca i social media che non eliminino i discorsi d’odio dalle loro piattaforme.

Sicuramente si tratta di un’iniziativa interessante, ma non tiene conto di alcuni aspetti fondamentali:

  • Facebook non ha mai condiviso i propri metodi di lavoro con nessuno ed approfittando del caso Cambridge Analytica ha addirittura negato la possibilità alle terze parti (tra cui anche gli studiosi ed i ricercatori) di accedere ad una serie di informazioni sui nostri dati, perché dovrebbe collaborare fattivamente con un governo che poi potrebbe sanzionarla?
  • Nessuno dei social media è allo stato attuale delle cose in grado di contrastare con efficacia tanto la disinformazione, che la propaganda o peggio ancora la diffusione di contenuti violenti perché la loro moderazione è affidata in prevalenza al solo controllo umano ed il caso di Christchurch purtroppo è un esempio di drammatica realtà.
  • Il proliferare di norme nazionali e non armonizzate a livello globale potrebbe di fatto ingessare ulteriormente il sistema, perché costringerebbe le piattaforme social ad un’autotutela che potrebbe sfociare nella censura.

Il Regno Unito

Per tramite del ministro al digitale Margot James propende per una regolamentazione delle responsabilità in capo ai social media proponendo di applicare gli stessi diritti e doveri degli standard di informazione tradizionale tra cui anche la verifica delle fonti oggi completamente assente nei sistemi on line.

A differenza di quanto proposto dalla Francia, la richiesta che viene dal Regno Unito punta il dito contro l’atteggiamento indifferente delle piattaforme che non si considerano responsabili per il contenuto pubblicato dai propri utenti; YouTube e Facebook ad esempio sostengono di ospitare e non di diffondere i contenuti e questa posizione consente loro di operare in una sorta di area grigia della normativa rendendoli pressoché immuni dalle potenziali accuse.

Il caso che ha sconvolto la Nuova Zelanda ha però evidenziato una serie di lacune che potrebbero rendere difficile anche l’attuazione delle proposte britanniche.

La velocità di propagazione del video incriminato è stata tale per cui si è rapidamente diffuso su altre piattaforme come YouTube, Instagram, WhatsApp ed addirittura è stato ospitato su diversi account DropBox, nel mentre è stato segmentato in più parti e ridistribuito sotto altre forme che gli hanno consentito di assumere una viralità tale per cui ancora oggi a distanza di giorni non è possibile garantirne la totale scomparsa dai media.

La Spagna

Anche la Spagna che tra aprile e maggio di quest’anno sarà impegnata in 4 differenti tornate elettorali, ha istituito un’unità speciale per combattere le minacce di attacchi informatici e le campagne di disinformazione.

Il Governo spagnolo, che considera la disinformazione una minaccia nazionale ha messo in campo gli esperti del dipartimento della sicurezza e di diversi ministeri per provare innanzitutto ad identificare le minacce.

Le ultime mosse social contro i complottismi online

I big del web, dal canto loro, stanno accelerando le misure per contrastare i fenomeni di complottismo, disinformazione e distorsione delle opinioni politico-elettorali.

Le ultime riguardano Whatsapp – proprio la piattaforma su cui Facebook .ha appena dichiarato di voler puntare molto, per un futuro più basato sulle conversazioni private. Adesso testa una funzione per fare una ricerca inversa (via Google) delle immagini condivise al suo interno. Gli utenti quindi possono facilmente verificare la fonte reale di un’immagine che gli è arrivata in chat, se è stata modificata, quindi se è affidabile. Whatsapp ha già imposto un limite di massimo cinque inoltri di un messaggio, per contrastare la circolazione di informazioni virali (e potenzialmente complottistiche). Fenomeno che in India aveva causato attacchi a minoranze etniche, sulla base di fake news.

Abbiamo visto come Facebook, Twitter e Youtube stiano lottando per cancellare account, bot e pagine che diffondono disinformazione politica allo scopo di distorcere le elezioni. 

Ma anche come stanno intervenendo sull’algoritmo per mostrare di meno i messaggi complottisti (dei no vax ad esempio) e non permettere di farci pubblicità sopra.

E’ una prima svolta rispetto all’attitudine perseguita finora, e dettata dal loro modello di business, secondo cui è meglio mostrare contenuti affini agli interessi degli utenti per catturarne tempo e attenzione. Proprio questa attitudine (algoritmica) ha favorito la creazione di echo chamber, polarizzazione e potenzialmente radicalizzazioni degli utenti.

Ricordiamo che una delle prime mosse di Facebook su questo fronte è stato adottare squadre di fact checker contro le bufale; misure però che – secondo diversi osservatori – si sono rivelate finora piuttosto inefficaci (anche per la scelta della stessa Facebook di collaborare in modo parziale e poco trasparente con i fact checker).

Val la pena segnalare anche l’impegno di Apple a sostegno di questi temi, anche se da una posizione molto diversa (non è un accusato di alimentare il fenomeno negativo, ma vi interviene per ribadire la propria differenza rispetto a concorrenti, come Google, che hanno un modello di business basato sui dati personali e quindi più “a rischio”).

Di questi giorni il supporto di Apple, anche in Italia, quindi, all’Osservatorio Giovani-Editori per sostenere realtà no profit di fact checking. Una iniziativa, questa di Apple, espressamente dettata dalla volontà di partecipare alla guerra a fake news e disinformazione online.

L’individuazione delle minacce

Quello dell’individuazione delle minacce è un ulteriore elemento di criticità da tenere in debita considerazione.

L’esperienza ci ha insegnato che spesso i contenuti dannosi si stratificano nel tempo e sono alimentati dagli algoritmi di raccomandazione, che da un lato alimentano un certo proselitismo ma dall’altro tengono abbastanza sotto traccia gli argomenti di cui trattano approfittando del fatto che le varie piattaforme on line sono più interessate alla monetizzazione che deriva dalle visualizzazioni piuttosto che dalla reale visione del contenuto.

C’è però un altro elemento forse ancora più delicato per il quale nessun algoritmo allo stato attuale delle cose è in grado di discriminare.

È infatti difficile tracciare delle linee certe di demarcazione tra i contenuti di estremisti violenti e quelli che commentano, criticano o si difendono da tali attacchi.

Pensiamo ai sostenitori dei diritti civili come l’Avvocato egiziano anti-tortura Wael Abbas che è stato cancellato da YouTube per aver pubblicato video sulla brutalità della polizia nei confronti degli attivisti. Anche Twitter ha sospeso il suo account, che conteneva migliaia di foto, video e live streaming che documentavano violazioni dei diritti umani.

Come se non bastasse nel 2017, sempre YouTube ha “inavvertitamente” rimosso migliaia di video utilizzati dai gruppi per i diritti umani per documentare atrocità in Siria.

Quale soluzione?

Se da un lato è comprensibile la richiesta di politiche di moderazione, dall’altro la storia ha insegnato che tali richieste spesso si sono ritorte contro.

A peggiorare la questione, i malintenzionati potrebbero comunque approfittare di regole restrittive a svantaggio di persone innocenti che si vedrebbero a loro volta censurare i propri contenuti, in fondo oggi è possibile segnalare un abuso su tutti i social semplicemente premendo un tasto, cosa succederebbe in un sistema di filtraggio dei contenuti più esteso?

Non mi pare nemmeno attuabile una regola che preveda il controllo preventivo dei contenuti sui social, perché in questo caso si perderebbe la possibilità di mandare comunicazioni live e cosa succederebbe nel caso di informazioni urgenti ed attendibili sul reale stato di pericolo a seguito di un evento naturale come un terremoto?

Non credo esista un’unica soluzione ad un problema di simili proporzioni, di certo non si potranno lasciare le decisioni soltanto in mano alle social media company, così come dovremo prestare la massima attenzione alle regolamentazioni e probabilmente dovremo cercare sistemi rapidi per la certificazione dei contenuti, ma lo stato dell’arte della tecnologia ci dice che siamo ancora lontani da quel momento e nel mentre le statistiche ci dicono che la quantità di dati prodotta su internet negli ultimi 30 anni sarà la stessa prodotta nel solo anno 2022, dove in un solo minuto online pubblicheremo circa 200 mila Tweet, faremo circa 4 milioni di ricerche su Google, invieremo circa 13 milioni di messaggi e visualizzeremo poco più di 4 milioni di video su YouTube, un po’ come provare a svuotare l’oceano con un bicchiere per di più bucato!

@RIPRODUZIONE RISERVATA

Articolo 1 di 4