Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

propaganda online

Il complottismo dilaga sui social, quali misure per contrastarlo: il problema

I big del web stanno intervenendo sugli algoritmi per contrastare la diffusione di teorie complottiste; ma l’autoregolazione sembra un antidoto insufficiente a contrastare gruppi ben organizzati a fare proselitismo per destabilizzare il sistema. Vediamo perché e cosa fare

01 Mar 2019

Davide Giribaldi

data protection specialist


Mentre uno dei gruppi cospirazionisti più famigerati al mondo – Qanon – sembra abbia puntato i fari verso l’Europa per tentare di influenzare il voto delle elezioni europee di maggio, i social network e le principali web company (Facebook, Twitter, Pinterest, Google…) stanno cominciando a correre ai ripari per tentare di contrastare la diffusione di campagne di propaganda, fake news e teorie complottiste.

Ma le loro contromisure sono acqua fresca  di fronte all’entità e alla complessità di un fenomeno che mette a rischio la tenuta dei sistemi elettorali, e potrebbe generare la crisi delle democrazie. Tanto che anche la Commissione europea ha richiamato i principali colossi del web – Google, Facebook e Twitter – per non aver mantenuto gli impegni presi in tema di contrasto alle fake news e alla pubblicità ingannevole.

A fronte di un 2018 in cui, in Italia, la disinformazione ha interessato l’8% dei contenuti informativi
online prodotti mensilmente e ha riguardato soprattutto argomenti di
cronaca e politica (nel 53% dei casi), come ha  appena certificato l’Agcom nel suo primo
numero dell’Osservatorio sulla disinformazione online, gli scenari futuri non lasciano grosso spazio ai dubbi.

L’Agcom ha rilevato un picco delle fake news in Italia in corrispondenza con le ultime elezioni politiche e sta cercando di introdurre degli strumenti che ne limitino l’impatto per le prossime – in vista delle quali l’Autorità ha riscontrato una crescita evidente dell’attività di disinformazione online già a partire dal secondo semestre dello scorso anno. Occorre pertanto porre maggiore attenzione al bilanciamento degli interessi tra legislatori e piattaforme. Queste ultime dovranno necessariamente essere responsabilizzate e dovranno garantire trasparenza negli algoritmi, ma allo stesso tempo i governi dovranno estendere le norme a tutela dei dati personali e probabilmente ripensare i sistemi elettorali in una prospettiva adeguata ai tempi.

Proviamo di seguito a fare un quadro della situazione, con una panoramica delle proposte – interessanti ma insufficienti – delle web company e dei pericoli derivanti dalla diffusione di teorie complottiste a opera di gruppi sempre meglio organizzati e grazie ad algoritmi che fanno degli utenti delle piattaforme online i principali veicoli di diffusione della disinformazione.

Da Cambridge Analytica ai complottisti di Quanon

Il primo segnale di pericolo lo si è avuto con lo scandalo Cambridge Analytica emerso successivamente alle elezioni USA del 2016 che ha evidenziato l’esistenza di operazioni di disinformazione di massa ai danni dell’elettorato statunitense, condotte con metodologia molto simile a quella militare attraverso l’uso di Facebook e lo sfruttamento dei big data generati dalla stessa piattaforma.

Qanon è uno dei gruppi complottisti più famosi del momento: partito diverso tempo fa dagli Stati Uniti,  dopo alcuni adattamenti alle realtà del nostro continente, è in movimento per influenzare anche il voto europeo di maggio.

Il primo vero approccio con il nostro continente in realtà lo hanno fatto nel 2018 con alcune attività coordinate di disinformazione durante le elezioni in Bavaria ed appoggiando successivamente il movimento estremista di Tommy Robinson (già bannato a vita da Twitter e nelle ore scorse cacciato anche da Facebook e Instagram).

Si tratta perlopiù di soggetti in grado di alterare rapidamente il dibattito politico online orientando le nostre opinioni con alcuni semplici artifici i cui risultati sono abbastanza evidenti. Nel giro di pochissimo tempo hanno abbracciato le manifestazioni dei gilet gialli francesi contemporaneamente hanno sostenuto la protesta a favore della Brexit, amplificando ed a volte modificando le informazioni con un solo obiettivo: fare proselitismo per destabilizzare il sistema.

Come operano i gruppi di disinformazione

Come tutti gli altri gruppi sostenitori delle più disparate teorie del complotto, comunicano tra loro tramite app crittografate come Telegram, producono video, creano database di disinformazione sempre più sofisticati, tengono corsi d’istruzione sulla guerra psicologica e su come creare “meme”, ma sostanzialmente adottano tre strategie combinate:

  • sfruttano la debolezza degli algoritmi;
  • cavalcano abilmente la nostra pigrizia nel verificare errori e contraddizioni nelle loro teorie;
  • creano hashtag “cospirazionisti” mescolandoli con quelli di campagne virali e di tendenza.

Il ruolo dei social nella diffusione delle teorie complottiste

YouTube è uno dei social che più sta contribuendo alla diffusione delle teorie sul complotto: oltre al fatto che i video siano uno dei sistemi più semplici per attirare la nostra attenzione, il successo dei gruppi a sostegno delle teorie complottiste è amplificato dallo stesso algoritmo della piattaforma che tende a promuovere i video di cospirazione meglio di quelli che si basano su fatti reali, anche se complessivamente la loro diffusione in termini numerici è minima.

Il modello di business di tutti i social network si basa sulla massimizzazione del tempo che un utente trascorre sulla piattaforma, questo concetto da un lato consente di acquisire un numero sempre più ampio di dati per la corretta profilazione degli interessi del singolo e dall’altro si trasforma in moneta sonante perché più tempo passiamo sulla piattaforma, più pubblicità vediamo e più Youtube (e quindi Google) guadagna.

Sostanzialmente, una volta entrati nel sistema, siamo noi stessi ad alimentare la viralità di certi argomenti in quanto l’intelligenza artificiale della piattaforma tende a suggerirci video simili per catalizzare appunto la nostra permanenza continuando ad attrarre la nostra attenzione e stimolando allo stesso tempo i realizzatori di quei contenuti ad ulteriori produzioni (a loro volta per guadagnarci dalla pubblicità).

Guillaume Chaslot è un ex dipendente di Google che ha contribuito allo sviluppo del sistema di pubblicazione dei video di YouTube. Un po’ di tempo fa si è accorto che l’algoritmo di raccomandazione del social network che genera il 70% delle visualizzazioni dell’intera piattaforma, era viziato dall’autopromozione dei contenuti e quindi tendeva ad evidenziare certi argomenti a discapito di altri indipendentemente dal numero di visualizzazioni complessive. Oggi, attraverso il suo portale (algotransparency.org) analizza oltre 1 miliardo di ore di filmati al giorno semplicemente per scovare all’interno di circa mille canali YouTube, quali informazioni generino scostamenti rispetto al sistema di raccomandazione e nella maggior parte dei casi si tratta di video legati alle teorie del complotto.

La risposta (insufficiente) delle web company

Da alcune settimane YouTube ha finalmente annunciato un cambiamento sull’algoritmo per contrastare con più efficacia la disinformazione, lo farà limitando le raccomandazioni ai video “borderline” senza censurarli ed agirà tanto sul machine learning quanto sulle comunità di valutatori che utilizza per analizzare i propri contenuti, ma è ancora presto per comprendere l’impatto di questa scelta e servirà molto tempo per apprezzarne i risultati in maniera tangibile.

In particolare, negli ultimi giorni le web company hanno provato a bloccare il circolo vizioso che favorisce la diffusione dei contenuti no vax: Youtube li ha demonetizzati, Pinterest li ha filtrati nei risultati delle ricerche, Facebook ha smesso di metterli tra i raccomandati.

Nel corso degli ultimi mesi si è discusso sul fatto che i grandi di internet abbiano timidamente iniziato a contrastare la disinformazione a fini politici, la pressione degli utenti e dei governi si è fatta sentire molto, ma limitare le proprie azioni alla semplice rimozione dei contenuti dannosi non è sufficiente a contrastare gruppi organizzati e ben preparati dal punto di vista delle competenze tecnologiche.

Le innovazioni tecnologiche ci stanno dimostrando nei fatti che sarà sempre più difficile riconoscere i contenuti reali da quelli falsi e le social media company non possono più nascondersi dietro il fatto che non debbano essere ritenute responsabili per la diffusione dei contenuti da parte dei propri utenti.

GPT-2 e la creazione di testi (falsi)

E’ emblematico il tentativo messo in atto da parte di OpenAI, l’organizzazione no profit sull’intelligenza artificiale voluta da Elon Musk, che dopo avere annunciato la creazione di GPT-2, un sistema per la creazione dei testi molto sofisticato, ha deciso di non rendere pubblici i risultati della ricerca, solo per la pericolosità insita all’interno dello stesso strumento appena creato.

GPT-2 è un generatore di testi particolarmente potente: se gli si forniscono alcuni paragrafi di un testo su un qualsiasi argomento, è in grado di proseguire sul tema all’infinito, con dovizia di particolari, dati statistici e citazioni con la coerenza linguistica e concettuale tipica degli esseri umani; tutto così talmente credibile da fare dimenticare di essere rigorosamente falso.

GPT-2 sta solo anticipando i tempi e non è difficile ipotizzare che presto saranno di uso comune delle soluzioni in grado di generare testi il cui contenuto non sarà distinguibile da quello umano ed a quel punto sarà davvero complicato contrastare con efficacia le teorie sulla cospirazione che nel lungo periodo potrebbero alimentare divisioni sociali e minare la fiducia nei processi democratici.

Le prime contromisure dei Governi

Se ne è accorto il Parlamento inglese, la cui Commissione sul digitale, media, cultura e sport ha appena rilasciato un rapporto sul contrasto alla disinformazione e proposto una regolamentazione giuridica delle società tecnologiche.

Le conclusioni di tale rapporto sono tanto chiare quanto drammatiche: le aziende tecnologiche hanno fallito nel loro dovere di diligenza verso gli utenti sia per il mancato rispetto della loro privacy che per la mancata tutela nei confronti di contenuti dannosi provenienti da fonti non attendibili né verificabili.

In quest’ottica, Google sta provando ad anticipare le mosse ed a contenere le critiche sempre più pressanti; nei giorni scorsi ha presentato un documento ufficiale che propone l’adozione di soluzioni che siano comprensibili e prevedibili per gli utenti attraverso l’adozione di 3 strategie:

  • valorizzare la qualità del contenuto nella generazione del ranking delle notizie;
  • Fornire agli utenti un numero maggiore di informazioni di contesto;
  • Contrastare i produttori di contenuti di disinformazione, riducendo la loro presenza con un attento monitoraggio dei sistemi;

Si tratta certamente di proposte interessanti, la cui applicazione potrebbe dare risultati tangibili nel breve termine, ma non sono state date ancora evidenze circa la reale disponibilità a porla in essere.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3