Lo studio IMT-CNR

Il dibattito politico su Twitter alterato dai bot: così spingono la propaganda

Da uno studio della Scuola IMT Alti Studi Lucca, in collaborazione con l’IIT-CNR di Pisa, emergono particolari inediti sui meccanismi di funzionamento della propaganda su Twitter. Esaminiamo il ruolo delle squadre di bot

29 Giu 2020
Marinella Petrocchi

prima ricercatrice in Computer Science presso l’IIT-CNR, Pisa

Fabio Saracco

ricercatore in Sistemi Complessi presso la Scuola IMT Alti Studi Lucca


La diffusione di false informazioni e propaganda sui social media è supportata non solo da account gestiti da essere umani, generalmente operanti sotto mentite spoglie, ma anche da account automatizzati, controllati in tutto o in parte da algoritmi informatici, chiamati “bot”. I bot sono account progettati per imitare dettagliatamente il comportamento umano online.

Vediamo qual è il loro ruolo nello scambio di contenuti, sulla base dei dati emersi da uno studio condotto dalla Scuola IMT Alti Studi Lucca, in collaborazione con l’IIT-CNR di Pisa.

Social media e disinformazione

Statistiche recenti, pubblicate ad aprile 2020, mostrano come, a livello, mondiale, la popolazione attiva globalmente sui social media superi i 3,8 miliardi di persone, accesso effettuato il giorno 17 giugno 2020). L’incessante incremento di utenti ha avuto come conseguenza, tra molte altre, che i giornali tradizionali e le agenzie di stampa hanno creato account particolarmente attivi sui social network in modo da aumentare la visibilità dei loro articoli e trasformare questo cambiamento sociale in una opportunità per incrementare il loro pubblico di lettori.

Twitter si è dimostrato il social network preferito dai giornalisti in Europa, e proprio per questo motivo fornisce un ambiente perfetto per l’analisi dei dibattiti sulla società, l’economia e la politica da parte degli studiosi

Ovviamente, l’ampia libertà e la discreta facilità di pubblicare e diffondere notizie sui social comporta un rovescio della medaglia: l’avvento e la facilità d’uso dei social media è servito a potenziare, in termini di scala (capacità di raggiungere miliardi di persone) e portata (capacità di raggiungere un obiettivo mirato, ad esempio, in termini di un particolare gruppo di pubblico), la disinformazione, fenomeno genericamente definito come “la diffusione intenzionale di informazioni false volte a fuorviare o danneggiare”).

Il ruolo dei bot nella propaganda politica su Twitter: lo studio

L’uso di approcci computazionali alla propaganda ed alla notizia non veritiera, per plasmare gli atteggiamenti del pubblico attraverso i social media, si è diffuso notevolmente, andando ben oltre le attività disorganizzate di una manciata di attori. In particolare, negli ultimi 4 anni, alcune analisi realizzate dalla Oxford University hanno monitorato la prevalenza di due tipi di falsi account, attraverso i quali i governi e/o i partiti politici diffondono propaganda sui social. Un primo tipo è costituito da account manualmente gestiti da esseri umani, che operano solitamente sotto mentite spoglie, il secondo da account automatizzati, controllati in tutto o in parte dai “bot”.

Nel nostro lavoro “The role of bot squads in the political propaganda on Twitter”, recentemente pubblicato sulla rivista Communications Physics, insieme a Guido Caldarelli, Rocco De Nicola e Fabio Del Vigna, abbiamo analizzato e svelato alcuni dettagli inediti sui meccanismi attraverso i quali può manifestarsi la propaganda politica sui social media nello studio. Il lavoro si è concentrato in particolare sull’utilizzo di account bot su Twitter. Il risultato di maggior rilievo emerso è che questi software giocano un ruolo cruciale nello scambio di contenuti, e che proprio gli account “più ascoltati” di estrema destra hanno tra i loro follower un alto numero di bot, riuniti in “squadre” con lo scopo di aumentare la visibilità dei messaggi twittati dal gruppo.

In linea di principio, gli account automatici non sono né buoni, né cattivi: tutto dipende dall’utilizzo per cui sono programmati. Ad esempio, account bot sono comunemente utilizzati da parte della sede locale di una testata giornalistica online per diffondere notizie della versione nazionale della stessa testata.

La questione è però diversa quando l’account si finge “umano” e cerca di alterare la pubblica opinione con la sua interazione con altri account: diversi studi si sono concentrati sul ruolo che i bot hanno avuto durante eventi politici di notevole rilevanza, nazionale ed internazionale. In particolare è stato visto come, durante le campagne elettorali (è questo ad esempio il caso degli Stati Uniti nel 2016 e della Francia nel 2017), i bot abbiano contribuito ad alterare la discussione politica, aumentando la visibilità di alcuni messaggi, o diffondendo notizie false e/o tendenziose.

Il tema dello studio: la gestione del flusso dei migranti

Nel nostro studio abbiamo scelto come oggetto della ricerca un argomento fortemente divisivo, la gestione del flusso dei migranti dal nord-Africa all’Italia. Per farlo, abbiamo analizzato il traffico pubblicato e diffuso su Twitter sull’intervallo di 30 giorni, tra metà gennaio e metà febbraio 2019. Un periodo, questo, particolarmente “caldo”: al centro della discussione politica vi erano infatti i casi delle navi Sea Watch 3 e Diciotti, che avevano soccorso in mare migranti, e di cui si discuteva se autorizzare o meno lo sbarco. Gli scambi su Twitter sono stati selezionati in base a parole chiave come “migranti”, “ONG”, “scafisti”, “barconi”, “guardia costiera libica”, “sbarco” e simili, che in totale hanno portato all’analisi di oltre un milione di post inviati da 127.275 account distinti tra il 23 gennaio e il 22 febbraio 2019.

Twitter garantisce l’autenticità dell’identità di alcuni account di interesse pubblico (politici, partiti politici, giornalisti, giornali, istituzioni, VIP) tramite una procedura di verifica. Come primo passaggio, abbiamo ricavato, dai soli dati del traffico social, l’orientamento politico degli utenti che twittavano sull’argomento, utilizzando proprio questa informazione fornita dalla piattaforma: usando l’attività online su Twitter degli utenti verificati, e deducendone l’orientamento della vasta audience di utenti “standard”, abbiamo identificato tre principali community coinvolte nel dibattito sui migranti e sugli sbarchi. Tramite questa procedura emerge quindi l’esistenza di tre gruppi:

  • quello formato dagli account collegati ai partiti di destra, alla Lega, al Movimento 5 Stelle, insieme al governo al momento della presa dati, e alla testata Il Fatto Quotidiano con i suoi giornalisti (comunità “blu”, come in figura);
  • una community di utenti di area vicina al Partito Democratico e ad altri partiti di sinistra (comunità “rossa”);
  • un’altra comunità ancora costituita principalmente da media, testate giornalistiche e ONG (in viola).

Abbiamo osservato che utenti non verificati interagiscono quasi esclusivamente con una singola comunità di utenti verificati come quelle appena citate. Si tratta di un fenomeno abbastanza tipico all’interno dei social network: gli utenti risultano estremamente polarizzati e “riuniti” nelle cosiddette echo chambers, gruppi chiusi in cui l’autorevolezza del messaggio citato dipende quasi esclusivamente da chi lo condivide e non dal contenuto dello stesso.

Successivamente, abbiamo analizzato le relazioni tra i vari utenti di questa rete sociale, e fatto emergere casi in cui c’è una condivisione sostanziale, e assolutamente non casuale, di messaggi.

Dall’analisi, è emersa una rete divisa in due – un primo gruppo costituito da utenti di centro-destra (blu), un secondo di orientamento vicino al PD (rosso) e alle varie ONG e ai media (viola). Innanzitutto, i “nodi” più efficaci, ovvero quelli in grado di raggiungere più utenti, sono tutti blu, ovvero di centro-destra. Il nodo principale è quello di Matteo Salvini, all’epoca dello studio, ministro dell’interno e vicepresidente del Consiglio; durante il periodo al governo, il segretario della Lega è stato particolarmente attivo sui social, proprio sui temi in questione. Altri nodi importanti in questa rete di scambi social sono poi risultati gli account di giornalisti di testate di estrema destra, quello della presidente di Fratelli d’Italia Giorgia Meloni, e ancora di altri politici appartenenti alla Lega o a Fratelli d’Italia. I primi 175 nodi per efficacia appartengono tutti alla rete “blu” di centro-destra. Per trovarne uno al di fuori di questo orientamento bisogna scendere al 176° posto: si tratta dell’account di una testata giornalistica, il TgLa7.

Le “squadre di bot” che spingono la propaganda

Sono stati stata infine presi in considerazione la presenza e il ruolo dei bot all’interno di queste comunità, ed è emerso che i nodi più efficaci della rete hanno tra i loro follower un numero di bot più alto della media. Non solo: normalmente questi account automatici retwittano i contenuti di un solo account. In questo caso, invece, abbiamo per la prima volta individuato vere e proprie “squadre di bot” che significativamente propagano i contenuti di più account simili tra di loro, per aumentare la visibilità del gruppo nel suo complesso. Altro dato riguarda le fonti cui rimandano le squadre di bot: nel 97% dei casi, l’indirizzo URL proviene da un unico dominio, www.voxnews.info, un sito ritenuto da noti siti di “fact-checking” come butac e bufale.net, una delle principali fonti di disinformazione politica di estrema destra.

Conclusioni

La struttura di rete degli scambi di messaggi sulle piattaforme online viene raramente studiata ma, come in questo caso, fa emergere informazioni importanti. Una delle ‘specialità’ del nostro gruppo è l’utilizzo di metodi di fisica statistica applicati all’analisi delle reti complesse ed è interessante che proprio queste tecniche abbiano permesso di evidenziare la presenza di ‘bot squad’, un fenomeno che non era stato mai osservato prima. Non siamo in grado di dire chi abbia programmato i bot o con quale strategia politica, ma dai dati risulta evidente che non si tratta di un’attività casuale. Per mantenere un dibattito politico produttivo e non tendenzioso, è bene che queste attività siano attentamente monitorate.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4