Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

la questione

Lotta a disinformazione e odio online, che fa l’Unione europea

Il tema dell’odio online è connesso a quello della disinformazione, ed è necessario affrontarli con linee di azione integrate, come prevede anche il piano di azione europeo, di cui è stato pubblicato il rapporto sulle azioni degli operatori, con qualche risultato e molto da fare. Soprattutto sulla consapevolezza digitale

07 Nov 2019

Nello Iacono

Stati Generali dell'Innovazione


La pubblicazione dei primi report sull’attuazione del Piano di Azione europeo contro la disinformazione consente una riflessione approfondita sul tema, di particolare attualità. Nelle ultime settimane, infatti, il dibattito su disinformazione e hate speech sui social è stato caratterizzato in Italia da alcuni eventi in qualche modo intrecciati tra loro:

  • la decisione di Facebook di chiudere alcuni profili per odio razziale;
  • le inchieste della trasmissione Report sugli account fake che infoltiscono la schiera dei follower anche dei politici, e che ne supportano le politiche sulla rete;
  • l’annunciata iniziativa politica volta a combattere l’hate speech (ma anche la diffusione di fake news) attraverso l’identificazione obbligatoria tramite documenti di identità per l’apertura di un account su un social network;
  • l’istituzione della “Commissione parlamentare di indirizzo e controllo sui fenomeni di intolleranza, razzismo, antisemitismo e istigazione all’odio e alla violenza” promossa dalla senatrice Liliana Segre.

È così diventata tema di attualità politica la regolamentazione dei social, con una percezione di urgenza per interventi legislativi immediati. Con il rischio di portare nella discussione politica e mediatica (diverse testate di quotidiani si sono cimentate con questi temi, visibilmente poco conosciuti) valutazioni non del tutto ponderate e supportate da conoscenza del contesto e del tema, soprattutto sulla relazione tra contrasto all’hate speech e anonimato in rete. Relazione inesistente, come già ampiamente mostrato da diversi opinionisti, come ad esempio Arianna Ciccone, Fabio Chiusi, Riccardo Luna, Guido Scorza, e che, se invece asserita come fondamentale e base per un intervento legislativo (come quello annunciato dall’onorevole Marattin) rischia di condurci sul crinale opposto a quello raccomandato dal relatore speciale ONU per i diritti di libertà di espressione David Kaye per il quale “le tutele dei diritti umani in un contesto offline devono applicarsi anche al discorso online” e quindi il quadro di intervento per contrastare l’odio online deve essere quello stabilito dai trattati internazionali sui diritti umani, sapendo che il fenomeno da contrastare è l’incitamento all’odio, in generale, e non il fatto che succeda online.

D’altra parte, il tema dell’odio online è strettamente connesso a quello della disinformazione, ed è necessario affrontare la problematica in modo organico, perché complessa, e con più linee di azione integrate.

È, questo, l’approccio che sta provando a seguire la Commissione Europea con il suo “Piano di azione contro la disinformazione”. La pubblicazione dello stato di avanzamento del piano (a giugno) e la pubblicazione (a ottobre) del primo rapporto annuale sullo stato di avanzamento delle attività delle aziende e delle associazioni di commercio che hanno aderito al “Code of Practice” contro la disinformazione, previsto dal Piano di Azione, ci consentono di valutare il tema in modo più sistemico e generale. Ma entriamo in maggior dettaglio.

Il Piano di azione europeo contro la disinformazione

Formalizzato a dicembre 2018, e con una urgenza dettata dalle elezioni europee che erano imminenti, il piano ha identificato quattro linee di azione:

  1. aumentare le capacità delle istituzioni dell’UE di rilevare, analizzare e segnalare la disinformazione, attraverso la collaborazione tra gli stati membri e la realizzazione di strumenti specifici;
  2. rafforzare la risposta coordinata e congiunta alla disinformazione, attraverso anche la realizzazione di un Rapid Alert System, per lo scambio rapido di comunicazioni tra gli stati membri nei casi di disinformazione, soprattutto se legati a questioni politico-elettorali;
  3. mobilitare il settore privato per affrontare la disinformazione, attraverso soprattutto il codice di autoregolamentazione sulla disinformazione, lanciato a settembre 2018
  4. rafforzare la sensibilizzazione e migliorare la resilienza della società, attraverso interventi di formazione e la realizzazione di supporti (es. fact-checking) in grado di incrementare la consapevolezza digitale e mediale della popolazione europea.

Lo stato di avanzamento di giugno 2019 presenta luci e ombre. In particolare, se i risultati relativi alle elezioni europee del 2019 sono da considerarsi positivi, per la riduzione dei fenomeni di disinformazione e per il concretizzarsi di iniziative importanti come la piattaforma di condivisione (il Rapid Alarm System, messo in campo a marzo) e il sito dedicato di fact-checking, non si può essere allo stesso modo soddisfatti sulle altre linee di azione, come sottolinea lo stesso rapporto.

In particolare sembrano ancora poco efficaci le iniziative di informazione e sensibilizzazione (sostanzialmente si presenta come risultato positivo l’aver organizzato la prima Media literacy week, con 320 eventi in tutta Europa), mentre l’iniziativa legata al codice di autoregolamentazione, a cui hanno aderito le maggiori aziende di piattaforme online (Facebook, Twitter, Google, Microsoft, Mozilla), procede con qualche risultato ma ancora in una modalità non del tutto soddisfacente, almeno sulla base del primo rapporto annuale.

Le azioni intraprese dagli operatori firmatari variano in termini di velocità ed efficacia rispetto ai cinque pilastri del Codice. In generale, le azioni per sostenere i consumatori (pilastro 4) e la comunità di ricerca (pilastro 5) sono in ritardo rispetto agli impegni, ma anche destano preoccupazione i temi della monetizzazione della disinformazione (primo pilastro), la trasparenza della pubblicità politica (secondo pilastro) e l’integrità dei servizi rispetto ad account non autentici (terzo pilastro). Sono inoltre diversi tra loro i comportamenti degli operatori e per ciascun operatore rispetto agli stati membri dell’UE.

Analizziamo con maggior dettaglio alcune delle principali aree di intervento previste dal Codice.

Il codice di autoregolamentazione

pubblicità e trasparenza

Le aziende firmatarie del codice riportano che gli annunci politici sono chiaramente etichettati come contenuti sponsorizzati e includono un disclaimer “pagato per” che identifica il candidato, il partito politico o l’organizzazione che paga l’annuncio.

Purtroppo non tutte le pubblicità politiche pubblicate sulle piattaforme durante le elezioni europee siano state correttamente etichettate, il che riduce l’affidabilità degli archivi delle pubblicità politiche e le comunicazioni fornite dagli operatori sugli importi spesi.

Per quanto riguarda la trasparenza della pubblicità non politica, solo Facebook ha adottato una politica omogenea a livello dell’UE: Twitter ha una politica per gli annunci che si applica solo agli Stati Uniti, e in UE gli annunci sono apparentemente consentiti senza restrizioni, tranne che in Francia.

I numeri sui controlli realizzati dagli operatori sono comunque significativi:

  • tra primo gennaio 2019 e 31 agosto 2019, Twitter riferisce di 11.307 annunci respinti per violazione delle politiche di pratiche commerciali e di 10.639 annunci rifiutati per violazione delle norme qualitative;
  • Facebook nell’ultimo periodo ha preso al mese provvedimenti contro oltre 600.000 annunci, per violazione delle politiche sulla qualità o ad esempio per la presenza di contenuti offensivi, fuorvianti o falsi;
  • tra il primo settembre 2018 e il 31 agosto 2019, Google riferisce, ad esempio, di 314.288 azioni intraprese contro gli account Google Ads con sede nell’UE per violazioni della politica di travisamento di Google Ads e 55.876 azioni per violazioni della politica sui contenuti originali di Google Ads;
  • Microsoft nel 2018 ha sospeso quasi 200.000 account, rimosso 900 milioni di annunci non validi e 300.000 siti non validi per violazioni varie. Tra il primo luglio 2018 e il 30 giugno 2019, ha respinto oltre 169 milioni di annunci pubblicitari fuorvianti.

Integrità dei servizi

I numeri sulla rimozione dei “fake account” da parte degli operatori mostrano l’ampiezza del fenomeno:

  • nel primo trimestre del 2019 Facebook ha disabilitato 2,19 miliardi di account falsi. Tra gennaio e ottobre 2019, ha rimosso circa 7.606 account, pagine e gruppi impegnati in “coordinated inauthentic behaviour”-CIB (comportamenti progettati per indurre in errore rispetto all’identità delle persone), originari di Paesi come Egitto, Honduras, Iran, Israele, Kosovo, Macedonia del Nord, Moldavia, Romania, Russia, Arabia Saudita, Spagna, Tailandia, Emirati Arabi Uniti , Regno Unito e Ucraina;
  • Google riferisce che i suoi sistemi mirano a rilevare se è probabile che la creazione o l’accesso di un account siano offensivi, bloccando tali account e prevenendo altri tipi di condotta sospetta. Tra il 1 ° settembre 2018 e il 31 agosto 2019, ha rimosso quasi 11 milioni di canali YouTube per violazioni varie;
  • nei primi otto mesi del 2019 Twitter ha verificato proattivamente 126 milioni di account e ha preso provvedimenti contro circa il 75% degli account contestati. Nello stesso lasso di tempo, gli utenti hanno inviato circa 4,5 milioni di segnalazioni di spam;
  • Microsoft ha avviato misure per prevenire la manipolazione dei risultati di ricerca di Bing da parte dei robot. Inoltre, su LinkedIn, è vietato l’uso di robot o altri metodi automatizzati e un team dedicato applica questo divieto.

Nonostante questi numeri, la commissione UE ritiene siano necessari ulteriori sforzi e che sia da perseguire una maggiore omogeneità di comportamento. Ad esempio, sono necessarie informazioni più dettagliate per valutare meglio i comportamenti nocivi rivolti specificamente all’UE e i progressi compiuti dalle piattaforme per contrastare tali comportamenti, ma anche sono necessarie informazioni più dettagliate sulle campagne di disinformazione rilevate, inclusi gli obiettivi, i livelli di coinvolgimento e quanto utilizzato per manipolare l’opinione pubblica.

Sostenere i consumatori

Tutti gli operatori riferiscono di avere messo in campo degli strumenti per aiutare i consumatori a controllare il tipo di pubblicità visualizzata e su come cambiare le proprie preferenze. Facebook, Google e Twitter hanno riferito anche di un loro impegno verso la popolazione per l’alfabetizzazione sui media e in generale per lo sviluppo di competenze digitali. Tutti i firmatari riferiscono che stanno investendo in tecnologie utili a dare priorità alle informazioni allo stesso tempo pertinenti, autentiche e autorevoli. Tuttavia, secondo la commissione UE, gli operatori non hanno dimostrato molti progressi nella definizione e applicazione di indicatori di affidabilità in collaborazione con l’ecosistema dei media (Twitter non ha tra l’altro neanche sottoscritto questo impegno). Inoltre, i rapporti degli operatori non sono sufficientemente dettagliati per valutare gli impatti delle loro azioni su questo pilastro del Codice.

In particolare, come azioni da segnalare:

  • a maggio 2019 Twitter ha lanciato (ma non ancora in UE) una funzionalità che rimanda gli utenti a fonti istituzionali sanitarie durante la ricerca di parole chiave associate ai vaccini, e ha potenziato le funzionalità di segnalazione di contenuti fuorvianti/falsi e account spam o non autentici;
  • Facebook ha avviato azioni per avvisare gli utenti quando condividono contenuti che sono stati verificati e classificati come falsi (ma non è chiaro se in tutti gli Stati membri dell’UE). Facebook ha più che raddoppiato nell’ultimo anno le sue collaborazioni sul fact-checking, ma da questo sono escluse le affermazioni o gli annunci dei politici;
  • anche Google collabora con comunità di fact-checking e attribuisce maggiore peso nelle ricerche agli articoli verificati. Inoltre sta supportando iniziative per lo sviluppo di indicatori di affidabilità e credibilità per le fonti online. YouTube mette in mostra solo contenuti provenienti da fonti autorevoli, come notizie (ma attualmente lo fa solo in 17 Stati membri dell’UE) e segnala nei risultati di ricerca anche gli argomenti storici e scientifici che sono stati spesso soggetti a disinformazione (ma questo soltanto in Regno Unito, Germania e Spagna).
  • Microsoft ha inserito una funzione di “fact-checking” che aiuta gli utenti a trovare i contenuti verificati nei risultati di ricerca di Bing. Ha dichiarato che i suoi servizi di “Microsoft News” collaborano con oltre 1.000 fonti di notizie in tutto il mondo, che sono tutte controllate per garantire che il servizio mostri solo contenuti affidabili. Ha anche una partnership con NewsGuard, che esamina i siti di notizie online attraverso una serie di nove criteri di integrità giornalistica (ma soltanto in Italia, Germania, Francia e Regno Unito).
  • a settembre 2019, Mozilla ha implementato una protezione avanzata sul tracciamento, che blocca i cookie di tracciamento di terze parti e riduce così la possibilità che gli utenti possano essere presi di mira dalle campagne di disinformazione.

Sostenere lo sviluppo della comunità di ricerca

Facebook, Google e Twitter hanno messo in campo politiche e strumenti volti a fornire ai ricercatori e alla comunità di fact-checking l’accesso ai dati delle piattaforme. Tra questi, in particolare, l’accesso ai repository di annunci politici, una risorsa che fino al 2018 per l’UE non esisteva. I dati disponibili in questi repository sono però ancora limitati, in particolare per quanto riguarda i criteri di targeting utilizzati dagli inserzionisti politici, e le API messe a disposizione per accedere ai repository hanno funzionalità limitate, rendendo difficile e parziale la possibilità di controllo indipendente.

Tra le azioni riportate nei rapporti di avanzamento:

  • Facebook nell’aprile 2018 ha avviato una collaborazione con Social Science One (SS1), un gruppo di 83 ricercatori accademici, per condividere i dati con la comunità accademica di ricerca rispettando al contempo la privacy. A settembre 2019, ha lanciato una Deepfake Detection Challenge con l’obiettivo di produrre tecnologia per rilevare l’utilizzo dell’intelligenza artificiale nell’alterazione di un video;
  • Google collabora con l’International Fact-Checking Network (IFCN). A settembre 2019, Google ha rilasciato un ampio set di dati su deepfake visivi, per lo sviluppo di metodi di rilevamento. Il set di dati è utilizzato nel benchmark FaceForensics dell’Università di Monaco e dell’Università Federico II di Napoli;
  • Twitter ha pubblicato il primo archivio completo di tweet. Nuovi set di dati sono stati resi disponibili a gennaio, giugno, agosto e settembre 2019, fornendo accesso a oltre 30 milioni di tweet. I ricercatori di 15 paesi dell’UE hanno avuto accesso a questi set di dati (registrati oltre 20 mila accessi);
  • Microsoft ha avviato programmi di collaborazione con ricercatori, istituti di ricerca e con l’industria, compresa la partecipazione di Bing News al Trust Project, che mira a semplificare l’identificazione di notizie di qualità;
  • la Fondazione Mozilla ha lanciato campagne sulla trasparenza che hanno coinvolto 71 ricercatori e 37 organizzazioni della società civile. Nel primo trimestre del 2019, ha completato un programma di borse di studio su progetti incentrati sulla disinformazione.

Secondo la valutazione della Commissione Europea, però, nonostante queste azioni da parte delle aziende firmatarie, i risultati non sono soddisfacenti: “La fornitura di dati e strumenti di ricerca alla comunità di ricerca è ancora episodica e arbitraria e non risponde a tutte le esigenze di ricerca. Inoltre, a una comunità molto limitata di ricercatori è stato offerto l’accesso ai set di dati delle piattaforme”.

Che fare

Ci troviamo nel pieno della complessità della gestione dei fenomeni che avvengono sulla rete, per cui è importante tenere conto del fatto che:

  • devono essere affrontati almeno in ambito europeo (e il piano europeo mostra il percorso utile);
  • hanno una complessità legata alle specificità tipiche della rete (tra cui anche la facile proliferazione di account fake automatici e la propagazione immediata e diffusa dei messaggi);
  • occorre mantenersi concettualmente dentro la cornice di diritto già presente nelle dinamiche analogiche e trovare una declinazione regolamentare coerente in quelle immateriali (e questo influisce in modo decisivo sia sulle restrizioni e le libertà di azione sia sul potere che si può attribuire o riconoscere agli operatori);
  • non possono essere affrontati attraverso un solo canale di intervento, e bisogna seguire più linee di azione.

È probabile che a valle del monitoraggio del piano di azione europeo si individui la necessità di una normativa che vincoli gli operatori a un’attuazione omogenea degli impegni del Codice più importanti, in particolare per il trattamento della disinformazione e delle pratiche dichiaratamente scorrette. Sapendo che la soluzione non è però quella normativa e che sono da seguire le raccomandazioni indicate da Kaye nella sua relazione all’ONU e in particolare, tra quelle rivolte agli Stati, la necessità di “soddisfare i requisiti di legalità, necessità e proporzionalità e legittimità e sottoporre tale regolamentazione a una solida partecipazione pubblica” e allo stesso tempo di richiedere alle imprese di “rispettare nelle proprie regole gli standard dei diritti umani”, che devono comunque fare da quadro di riferimento permanente. Ben venga quindi il tavolo di confronto proposto dalla ministra Pisano e ben vengano le valutazioni della Commissione Segre, anche perché consentono di incrementare la consapevolezza politica sul tema.

Ma l’efficacia del contrasto alla disinformazione e all’hate speech si basa in gran parte sulla consapevolezza della popolazione, perché rimane fondamentale quanto affermava Tullio De Mauro, “Purtroppo l’analfabetismo è oggettivamente un instrumentum regni, un mezzo eccellente per attrarre e sedurre molte persone con corbellerie e mistificazioni”. Come ho esposto anche in occasione del rapporto Agcom, la lotta all’analfabetismo funzionale e digitale diventa fondamentale per rendere efficace la lotta alla disinformazione online, che si basa su asimmetrie di mezzi. E poiché sempre più la disinformazione online ha obiettivi politici, combatterla è una lotta chiave per la democrazia.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3