social media

Reti di troll, così influenzano di nascosto le nostre scelte politiche e commerciali

L’informazione inquinata continua a porre enormi sfide, in un’epoca in cui i fatti sembrano essere più malleabili che mai e in cui l’impressione creata dalle menzogne può persistere molto più della rettifica. Vediamo quali sono gli effetti sulle democrazie, come si muovono le reti di troll e le possibili contromisure

24 Dic 2019
Barbara Calderini

Legal Specialist - Data Protection Officer


I dettagli sulla cosiddetta “fabbrica dei Troll di San Pietroburgo” affiorata nel corso delle indagini sul Russiagate offrono uno specifico spaccato assai interessante sul modus operandi utilizzato dagli individui e dalle organizzazioni, nel contesto più ampio legato alla disinformazione e che potremo definire meglio come: l’inquinamento delle informazioni o disturbo delle informazioni a livello globale.

Parliamo di un sistema complesso di messaggi “inquinati”; di una miriade di tipi e tecniche di creazione dell’informazione per l’amplificazione del contenuto ad essa collegato; di innumerevoli piattaforme che più o meno compiacenti ospitano e riproducono quegli stessi contenuti.

Facciamo allora una panoramica su come sono articolate le troll farm e quali sono gli interessi che le muovono.

Gli effetti dell’inquinamento delle informazioni sulle democrazie

Premettiamo che gli impatti diretti e indiretti dell’inquinamento delle informazioni sono difficili da quantificare. Non ci sono ancora prove certe sugli impatti reali della disinformazione online. Ciononostante, i risultati del voto ‘Brexit’ nel Regno Unito, la vittoria di Donald Trump negli Stati Uniti e altri ben noti eventi occorsi anche in Italia, hanno fatto molto discutere di come il disturbo delle informazioni stia influenzando le democrazie come le logiche di mercato. Obiettivo primario di queste pratiche: seminare diffidenza e confusione, affinare divisioni culturali utilizzando tensioni nazionalistiche, economiche, etniche, razziali e religiose.

Mentre sappiamo che l’informazione inquinata non è nuova, l’emergere di Internet e delle piattaforme social, unitamente allo sviluppo tecnologico digitale, hanno apportato cambiamenti fondamentali al modo in cui le informazioni sono prodotte, comunicate e distribuite.

La tecnologia di editing è divenuta ampiamente accessibile, economica e sofisticata ed ha reso più facile che mai per chiunque creare e distribuire contenuti.

Il consumo di informazioni è diventato pubblico per il tramite dei social media.

La velocità con cui le informazioni vengono diffuse è aumentata in maniera estremamente rilevante grazie anche alle tecnologie mobili: le informazioni vengono trasmesse ovunque ed in tempo reale; non altrettanto vengono rettificate o contestate: diffondere una rettifica o una contestazione è meno veloce e meno efficace che diffondere disinformazione.

Giudicare la credibilità dei messaggi diffusi dai social network appare per l’opinione pubblica come per i singoli utenti estremamente difficile. I social media hanno avuto due effetti: raccogliendo storie da fonti multiple hanno spostato l’attenzione dalla fonte alla storia e hanno permesso che consigli e raccomandazioni social guidassero i lettori.

Comprendere la complessità del disturbo informativo: le troll farm

Recentemente la giornalista investigativa Katarzyna Pruszkiewicz ha trascorso sei mesi lavorando sotto copertura, creando falsi account sui social media e passandosi per un Troll “assoldato” da Cat@Net – una fattoria di Troll a Wroclaw, in Polonia. Ne è derivato un quadro estremamente dettagliato di come account falsi vengono utilizzati da aziende private come anche da gruppi ed organizzazioni para-politiche per i fini più disparati.

Investigate Europe ha pubblicato il suo resoconto .

Insieme ai suoi colleghi trolls, la giornalista sotto copertura ha gestito quasi 200 account falsi su Facebook, Twitter e Instagram, ha scritto migliaia di messaggi e commenti, ha promosso i prodotti dei suoi clienti, ha trollato i loro concorrenti e ha gestito campagne di supporto pro e contro concorrenti politici.

Il report della giornalista va letto nella sua interezza e soprattutto compreso, ma nel frattempo può servire evidenziarne alcuni riscontri significativi:

  • La “Troll farm” di turno era alla ricerca di un “telelavoratore”, qualcuno che potesse lavorare da casa, avere una certa esperienza giornalistica e che potesse “costruire un’immagine positiva dei nostri clienti sui social media e su Internet“.
  • Come riporta Investigate Europe, i clienti di Cat@Net includono “grandi e piccole aziende […] così come altre entità, tra cui istituzioni della pubblica amministrazione e privati”.
  • L’ordine di servizio prevedeva di creare account e profili Twitter credibili, convincenti e falsi. “Put some flesh on that imaginary person’s bones”: Katarzyna Pruszkiewicz lo ha fatto, vantandosi online di ciò che aveva cucinato, postando una foto del suo nuovo smalto per unghie e aggiungendo una foto dell’università a cui presumibilmente partecipava il soggetto del suo profilo falso. Ha pubblicato foto di fiori, del suo gatto e del suo cioccolato preferito.
  • L’ordine di servizio prevedeva anche di rendere gli account creati controversi e popolari attraverso la pubblicazione di post sociali e politici. Il team Cat@Net ovviamente l’ha preventivamente istruita sulle migliori pratiche e lei ha imparato velocemente. In soli 3 mesi, Pruszkiewicz è diventata un Troll “di fiducia”. I suoi nuovi compiti includevano da lì in poi anche la gestione di un gruppo di Trolls e la collaborazione con i copywriter che preparavano opinioni e commenti per i Trolls.

“Come manager, devo raccogliere tutti i commenti in un file Excel e inviare rapporti ai miei superiori su base giornaliera, settimanale e mensile. Segnalando le attività degli account dei Troll, devo mostrare loro come i compiti commissionati sono stati implementati.”

  • La maggior parte dei “dipendenti” di Cat@Net viene riferita come “disabile”, il che ha consentito all’azienda di ottenere sussidi pubblici dal Fondo nazionale per la riabilitazione disabili della Polonia. Secondo la Reporter Foundation, la società ha ricevuto circa 1,5 milioni di zloty ($ 388,044 USD) dal fondo, da novembre 2015.
  • Cat@Net impiegava solo 14 persone per gestire 170 account Troll sui social media. Non un gruppo “rimediato” di persone ma un “esercito potente” con migliaia di follower e che si adopera alacremente affinché i post vengano visualizzati il più’ possibile – a volte fino a decine di migliaia di volte.
  • La “fattoria”- specializzata in ambito politico – ha sia account di Troll di sinistra che di destra. Ciò rende più credibili le loro campagne diffamatorie e di supporto: un Troll lavora normalmente su entrambi i lati, alimentando discussioni, generando conflitti e dunque traffico di dati.

Secondo il resoconto della giornalista uno dei primi grandi clienti di Cat@Net fu la televisione pubblica polacca TVP. I troll avrebbero iniziato a lavorare per TVP a settembre 2017.

A ottobre, Investigate Europe, Reporter Foundation e Pruszkiewicz hanno deciso di affrontare Cat@Net e i politici presumibilmente coinvolti nelle sue campagne; hanno quindi inviato un’e-mail al CEO di Cat@Net per chiedergli dei profili di Troll e del suo legame con Bartłomiej Misiewicz – uno stretto collaboratore del ministro della difesa polacco. Il CEO non ha risposto ed ovvio, poche ore dall’invio dell’e-mail, i gruppi di chat dei dipendenti interni vengono eliminati.

Cat@Net ha rilasciato in seguito una dichiarazione in risposta alle notizie divulgate dalla stampa, negando di essere una fattoria di Troll, descrivendo la propria attività come l’outsourcing di attività di marketing e sostenendo che aderisce alle stesse regole di altre agenzie di questo tipo.

Ovviamente i le Troll Farm non sono appannaggio esclusivo di Russia e Polonia: potrebbe risultare interessante confrontare le attività di Cat@Net con quelle che si svolgono da tempo nella fiorente città di Veles, in Macedonia, dove centinaia di produttori di false notizie statunitensi hanno stabilito una redditizia industria con base operativa nella piccola città.

Prima di Katarzyna Pruszkiewicz anche la reporter Lyudmila Savchuk si era infiltrata per due mesi e mezzo nella fabbrica dei Troll russi a San Pietroburgo. Stesso scenario: giovani russi lavorano 24h su 24 divisi in reparti specifici, dalla “divisione notizie” ai “seminatori di social media” fino a un gruppo dedicato alla produzione di meme visivi noti come “demotivatori”. Ognuno ha una quota di post da raggiungere ogni giorno, distribuiti tra messaggi pro e contro il beneficiario di turno.

«All’interno dell’edificio si producono tutti i tipi di contenuti, dai commenti alle immagini», riferisce Shavcuk. «Ci sono persino dei disegnatori che realizzano orrende caricature dei politici». Marat Mindiyarov, un altro troll uscito allo scoperto, ha raccontato il compito più assurdo assegnatogli: scrivere 135 commenti sul fatto che Barack Obama, durante la visita in India nel 2015, masticava la cicca. Bisognava presentare il presidente Usa come «una scimmia nera che non sa niente della cultura». Dell’opera si trovano ancora tracce in un forum locale della città di Ufa.

Testimonianze

Alan Baskayev è il primo impiegato di una fabbrica di troll che ha rivelato la sua identità e ha spiegato come attraverso i social media i russi sono riusciti a interferire nelle presidenziali americane del 2016. “Ci divertivamo, ci chiedevano cose assurde e noi ci passavamo la notte”

WEBINAR
Un mondo che cambia: strategie e strumenti di lavoro flessibili per anticipare la concorrenza
CIO
Marketing

“Interpretavo vari personaggi, ero uno zotico del Kentucky, poi assumevo il ruolo di un uomo bianco del Minnesota che per tutta la vita non aveva fatto altro che lavorare, pagare le tasse e ora era ridotto in povertà, poi, quindici minuti dopo mi trasformavo e iniziavo a scrivere nello slang usato dai neri di New York”. Così i troll prendevano il controllo dei forum.

“Usavamo dei proxy server, ossia dei server che facevano da intermediari, per evitare di essere localizzati”, ma poi spiega: “Regolarmente venivamo bloccati”. In un forum, sui venti account che Baskayev utilizzava, soltanto due non sono stati bannati. “Ci divertivamo, era un baccanale. Eravamo dei ventenni, giovanotti allegri impegnati a fare delle cose orribili”, ride.

Cosa sono i Troll?

La rete è intimamente collegata alla società, non ne è più solo modalità di espressione ma parte del suo stesso tessuto. Un qualcosa di vivo ed in costante trasformazione. Sappiamo bene però che l’evoluzione è un percorso imperfetto che procede per errori e che non tutte le evoluzioni hanno un lieto fine. I Troll sono un effetto collaterale dell’evoluzione della rete.

I Troll devono il loro nome alla mitologia scandinava e norrena, dove sono rappresentati come piccoli demoni mistificatori, rozzi e irsuti, che abitano le foreste.

Oggi i Troll sono utenti dediti a provocare discussioni, partecipano a chat o blog in rete con il solo scopo di infastidire o attaccare, con argomenti molesti, violenti o anche fuori luogo, senza senso quando non del tutto errati e persino dannosi. L’intento è quello di creare disturbo alla conversazione e irritare chi vi prende parte, fomentando lo scontro e manipolando la percezione del contenuto. Spesso è possibile vederli in azione in particolare tra i commentatori delle pagine social dei giornali, dove insultano gli altri utenti o prendono posizioni volutamente al limite.

Per il Troll l’anonimato è una protezione, ma non costituisce una qualità fondamentale; l’anonimato o l’utilizzo di uno pseudonimo è solo una pre-condizione alla reiterazione della sua attività perturbatrice.

Secondo Hubert Guillaud, redattore capo di InternetActu.net: “Se gli studi dimostrano che i commentatori anonimi sono più propensi ad andare controcorrente e difendere le loro posizioni più estreme rispetto ai commentatori non anonimi, è anche vero che hanno una minore influenza su chi li legge, perché proprio il loro anonimato li rende meno credibili”

Troll si collega in realtà al verbo “to troll“, vale a dire “muovere un’esca in modo tale che il pesce abbocchi”. Questo verbo, a sua volta, deriverebbe dal francese “troller”, “trôler” ovvero “guidare, portare ovunque, in modo indiscreto e fuori luogo; correre qua e là.

La nota sociologa Anne Revillard ci fornisce una chiara definizione: “il trolling consiste nel continuare a trainare la propria rete aspettando che un pesce abbocchi all’amo”.

Uno dei primissimi usi del termine si riscontra nella frase “trolling for newbies” dove newbies sta per “novellino”. Un’espressione con cui negli anni Novanta gli utenti del gruppo Alt.folklore.urban, su Usernet (una rete di server nata negli anni Ottanta) si prendevano gioco dei nuovi arrivati: gli utenti di lunga data presentavano domande o argomenti spesso ripetuti e dibattuti ai quali solo un nuovo utente poteva perder tempo a rispondere. Oggi dalla sfera dell’ironia si è giunti a quella della provocazione.

Nel mondo delle Digital Agency, specializzate nella comprensione delle culture di consumo online, è abbastanza comune individuare le tipologie di utenti di una piattaforma ovvero i troll, i cyber-bulli, gli haters, i flooders o anche solo personaggi volgari, all’interno di una sorta di “classificazione delle specie”e come per le specie, tuttavia, molti devono ancora essere riconosciuti. Peraltro l’inclusione in una categoria non ne esclude la presenza nell’altra. Come per le specie del mondo animale alcuni agiscono in solitario altri in gruppi, le Reti. Alcuni sono innocui e persino divertenti altri sono molto pericolosi.

Di seguito le comuni classificazioni:

  • Flamer: è un utente presente in community al solo scopo di provocare e scatenare reazioni impulsive, e scomposte negli interlocutori, reazioni che possono rovinare lo sviluppo del thread e inaridire la discussione (ma talvolta l’accendono, da qui il termine flame); è un disturbatore e tutto sommato è la categoria meno pericolosa. Su Facebook e Twitter, a causa di “chissà quale senso di invulnerabilità”, sono spesso in chiaro.

A seguire un esempio di chat dove uno dei due interlocutori si diverte a “provocare”.

Sarà sufficiente concentrarsi sui titoli delle canzoni allegate nella chat, collegarli ai messaggi intercorsi per comprenderne “le intenzioni burlesche” e sin qui non particolarmente lesive.

  • Spammer: è chi reitera lo stesso contenuto (testo o immagine che sia) in maniera continuativa. Il comportamento di uno spammer può essere razionale (si fa spam a fini commerciali) o artatamente patologico (si copia e incolla il messaggio, nella speranza di imporsi all’attenzione della community). Lo spammer si presenta in maniera continuativa, dilatata nel tempo (ad esempio una volta all’ora, per tutto il giorno, tutta la settimana). Con Community numerose, senza un database che circoscriva gli utenti (e le attività) più critiche, individuare il fenomeno diventa quasi impossibile.
  • Ideologico: un elemento singolo che si muove senza un coordinamento centrale ma sotto la spinta di una idea, molto diffusi nelle tematiche sensibili. Agiscono in chiaro, cercano di fare proseliti. Difficili da arginare.
  • Fake: l’utente ha più identità virtuali spesso millantate. Il fake spesso si evolve nel flamer, evitando però che il suo account possa essere bannato, fino ai casi più critici di furto di identità virtuale.
  • Troll: con il termine troll si tende ad identificare spesso in modo distorto per ragioni di sintesi giornalistica (o semplicemente perché suona bene) ogni comportamento patologico in rete. Il suo sempre più vasto utilizzo, esattamente come accadeva anni fa per la parola hacker, da un lato continua a raccontare molto della poca consapevolezza di chi la utilizza, dall’altro si iscrive all’interno di un cambiamento di significato che semplicemente ne definisce nuovi confini. Un troll è normalmente Irriverente verso una conversazione, cui finge di partecipare, uscendo volutamente fuori tema o usando frasi ‘nonsense’. Spesso si contraddistingue per il particolare flood da cui origina una forma di spam “più creativo”. Il troll si può esprimere attraverso le meme. Coniata dal biologo Richard Dawkins, la parola “meme” indica un contenuto culturale, un’idea, un atteggiamento che si diffonde in modo capillare all’interno di una comunità. Oggi le meme sono immagini – accompagnate da brevi frasi ironiche o sarcastiche, spesso basate su luoghi comuni. Per produrle si utilizzano i servizi on line noti come”meme generator”. Il successo di un meme è spesso dovuto, almeno inizialmente, al meccanismo sociale che sta alla base di un “inside joke”.
  • Il Guru: un utente più competenti degli altri. Dimostrano una particolare esperienza su un uno specifico tema o semplicemente risultano particolarmente apprezzati da gran parte della community di riferimento. Come dire una produzione di contenuti “di qualità”.
  • L’Opinion leader destinato a divenire Influencer marketing nfluencer Marketing ovvero un soggetto che esercita una forte influenza sul potere d’acquisto di altri. L’evoluzione dei Testimonial; oggi persone che hanno acquisito notorietà sul web.
  • Le Reti di Troll: una rete di account, principalmente fittizi, strettamente gestiti da un centro di coordinamento. Molto pericolosi perché nell’insieme difficili da individuare.
  • Le Reti Troll di attacco: stessa struttura delle precedenti ma con un fine prettamente politico o concorrenziale. Si frappongono o si coalizzano a seconda dei casi con gli Spindoctors ovvero esperti di comunicazione che lavorano come consulenti per conto di personaggi politici per elaborare mediante precise strategie di immagine un’apparenza del politico adeguata da sottoporre attraverso i media all’opinione pubblica, al fine ottenere consenso elettorale o più in generale per ottenere consensi riguardo al proprio mandato politico. Una delle prime fasi che conoscono bene gli spindoctor dei rispettivi schieramenti politici è la necessità di “radicalizzare” i propri supporter e creare due o più distinte “bubble filter” nelle quali si andranno a collocare gli schieramenti proprio come in una guerra campale: le Reti di Troll in tal senso risultano abili arruolati delle moderne fanterie.
  • Le Reti di Troll dormienti: profili falsi di persone resi “reali” negli anni attraverso commenti nei social, post sulle vacanze e sui ristoranti frequentati in attesa di essere usati in modo operativo o venduti a reti di influenza. Quasi impossibili da identificare nella loro fase dormiente.

Come agiscono le Reti di Troll?

Le Reti di Troll sono chiaramente molto insidiose, potenzialmente idonee ad alterare le stesse regole del processo democratico o della libera concorrenza. Come l’hacker si infiltra nel codice, il Troll si infiltra in una conversazione.

Usano una varietà di strategie, strumenti e tecniche per la manipolazione dei social media. In generale, i team hanno una strategia di comunicazione globale che prevede la creazione di applicazioni, siti Web o piattaforme ufficiali per la diffusione di contenuti utilizzando account – reali, falsi o automatizzati – per interagire con gli utenti sui social media o creando contenuti sostanziali come immagini, video o post di blog. Differiscono anche nella valenza dei loro messaggi e interazioni con gli utenti online, utilizzando un linguaggio a favore di certi temi o piuttosto molestando, trollando o minacciando gli utenti che esprimono posizioni di dissenso.

Qui alcune strategie, gli strumenti e le tecniche utilizzate per i social media.

  • Commentare i post sui social media con valenza positiva, negativa o neutrale per per distrarre o distogliere l’attenzione dal problema in discussione.
  • Targeting individuale: una strategia che prevede la selezione di un individuo o di un gruppo di influenza sui social media. Opinion leader, blogger, giornalisti e attivisti, sono attentamente selezionati e mirati con precisi hashtag.
  • Account, blog, pagine Web o applicazioni sponsorizzati dalle organizzazioni comprese le organizzazioni governative: Questi account, anche multilingue, e il contenuto che ne deriva sono chiaramente indicati come gestiti dall’organizzazione.
  • Account falsi e propaganda computazionale: In molti casi, questi account falsi sono “bot”, o pezzi di codice progettati per interagire e imitare gli utenti umani.
  • Creazione di contenuti per diffondere messaggi di varia natura in genere politici. Questo contenuto è qualcosa di più di un semplice commento su un blog o feed di social media, e include la creazione di contenuti come video di YouTube, notizie false, immagini o meme che aiutano a promuovere l’interesse di turno.

Si tratta di vere e proprie “operazioni psicologiche” frutto di complesse strategie di microtargeting.

Le Troll Fram si differenziano ovviamente per budget, comportamenti e capacità.

Come comportarsi in caso di “Troll”?

“Don’t Feed The Troll” è una massima molto conosciuta nei social network, tuttavia non tutti gli esperti di marketing la pensano allo stesso modo. Per alcuni di essi dare corda a un Troll può portare ad un certo successo, aumentare la visibilità e creare complicità con la propria Community.

Quindi, dipende. Dipende dal contesto specifico e dalle risorse a disposizione:

  • Trascurare il Troll può essere la soluzione più giusta qualora si fosse certi che i discorsi di odio o polemica sono il frutto dei Troll medesimi e, comunque, va da sé che censurare un Troll provocherà solo il suo spostamento da un’altra parte.
  • Rispondere a un Troll può servire invece meglio, solo se frutto di una strategia sapientemente elaborata. Un contro-discorso ben fatto può rivelarsi utile. L’autoironia o l’ironia in certi casi possono risolvere brillantemente specie in quei casi in cui il trollare non si spinge oltre il gioco.
  • Anche una moderazione automatizzata va presa in considerazione. Nei casi di “hating” o di “spamming” facilmente identificabili, ad esempio.
  • Segnalare infine, utilizzando i percorsi anche giudiziari può rivelarsi un’ulteriore soluzione da prendere in considerazione. In Italia, è interessante prendere conoscenza della recente sentenza della terza sezione penale della Suprema Corte, sentenza n. 42565/2019, in tema di falso profilo sui social.

Lotta contro la disinformazione: cosa si può fare?

Intanto capirne la complessità e distinguerne le manifestazioni.

Due professori della Clemson University: Darren Linvill e Patrick Warren, in occasione delle indagini legate al Russiagate hanno utilizzato un avanzato software di monitoraggio dei social media, hanno estratto i tweet da migliaia di account che Twitter ha riconosciuto come associati all’IRA, (Internet Research Agency), la “Troll farm” russa di San Pietroburgo. I professori hanno condiviso i loro dati con FiveThirtyEight nella speranza che altri ricercatori, e un pubblico più vasto, lo esplorassero e condividessero ciò che trovano.

“Finora ha avuto solo due cervelli a guardarlo”, ha detto Linvill a proposito della loro serie di tweet. “Più cervelli potrebbero trovare Dio-sa-cosa.”

Il set di dati pubblicato include 2.973.371 tweet da 2.848 handle di Twitter. Include l’autore, il testo e la data di ogni tweet; il conteggio dei follower dell’autore e il numero di account seguiti dall’autore; e un’indicazione se il tweet era un retweet. L’intero corpus di tweet pubblicato qui risale al febbraio 2012 a maggio 2018, con la stragrande maggioranza dal 2015 al 2017.

La base per lo studio dei professori di Clemson deriva dalla liste che nel 2017 e poi il 17 ottobre 2018 Twitter ha pubblicato, contenente oltre dieci milioni di tweet pubblicati da account dal 2013 al 2018. Del totale, oltre nove milioni di tweet erano attribuibili a 3.800 account affiliati all’Internet Research Agency. Oltre un milione di tweet erano attribuibili a 770 account, provenienti dall’Iran.

Anche una semplice sequenza temporale di questi tweet serve a raccontare come hanno agito i Troll. Ad esempio, c’è stata una raffica di attività il 6 ottobre 2016. Come il Washington Post ha sottolineato per la prima volta utilizzando le scoperte dei ricercatori di Clemson, ciò potrebbe essere stato correlato a ciò che è accaduto il 7 ottobre 2016, quando WikiLeaks ha rilasciato un’imbarazzante e-mail dalla campagna di Clinton. C’è stato poi un altro grande picco nell’estate del 2017, quando Internet Research Agency sembrava aver spostato la sua attenzione su un tipo specifico di Troll – uno che i ricercatori chiamano il “Troll giusto”.

Molti lavori di analisi si sono basati sui set di dati pubblicati: tra questi un documento di lavoro di Linvill e Warren, intitolato “Troll Factories: The Internet Research Agency e State-Sponsored Agenda Building” si rivela molto interessante.

Intanto in Europa…

In Europa, nel gennaio 2018, la Commissione Europea ha istituito un gruppo di esperti di alto livello “HLEG” per fornire consulenza sulle iniziative politiche volte a contrastare le notizie false e la disinformazione diffuse online. Il principale risultato dell’HLEG è stato un Rapporto sviluppato con approccio multidimensionale (i background dei partecipanti sono diversi e vanno dal mondo accademico al giornalismo e alla società civile), le cui risposte elaborate per affrontare il tema del disturbo dell’informazione vertono su cinque pilastri:

  • migliorare la trasparenza delle notizie online; maggiore trasparenza delle fonti di finanziamento; pratiche indipendenti di verifica dei fatti e trasparenza algoritmica;
  • promuovere l’alfabetizzazione mediatica e dell’informazione per contrastare la disinformazione e aiutare gli utenti a navigare e comprendere l’ambiente dei media digitali, anche attraverso l’adeguamento delle politiche educative nazionali e programmi per cittadini di tutte le età;
  • sviluppare strumenti per autorizzare utenti e giornalisti ad affrontare la disinformazione, anche mediante strumenti online dedicati per l’empowerment degli utenti, strumenti di verifica automatica dei contenuti professionali per giornalisti e redazioni e formazione per i giornalisti;
  • salvaguardare la diversità e la sostenibilità dell’ecosistema dei media a livello sia europeo che nazionale, sostenendo il giornalismo di qualità e l’innovazione nel giornalismo;
  • promuovere la ricerca, il monitoraggio e la valutazione continui sull’impatto della disinformazione.

Come contrastare l’informazione inquinata

La rimozione di account fasulli è un problema di scala e giudizio. Numerosi indizi tecnici possono aiutare ad identificare e giustificare la rimozione degli account. Ma i creatori di account fasulli possono rapidamente preparare account freschi e fittizi.

Più in generale, l’informazione inquinata continua a porre enormi sfide, in particolare in un’epoca in cui i fatti sembrano essere più malleabili che mai e in cui l’impressione creata dalle menzogne può persistere molto più della rettifica come sappiamo.

Tali difficoltà e conflitti non evaporeranno in breve tempo. Di certo non prima delle prossime elezioni statunitensi del 2020.

Come si può contrastare una tendenza nella quale tanti milioni di persone sono intrappolate nelle loro echo chamber e non sembra vogliano uscirne? Come si può contrastare una tendenza che serve così bene gli interessi delle lobby più ricche e delle organizzazioni autoritarie più potenti?

Le idee in effetti non mancano. Ma credo che la ricerca delle risposte giuste si affianchi alla ricerca delle domande giuste.

L’approccio multidimensionale e multi-stakeholder è senz’altro consigliabile. Un approccio cioè che, sebbene non esclusivamente di autoregolamentazione, sia basato comunque su un chiaro impegno multi-stakeholder e su un Codice di buone pratiche cui le piattaforme online, le organizzazioni dei media, i giornalisti, i controllori dei fatti, i creatori di contenuti indipendenti e l’industria pubblicitaria siano chiamate ad impegnarsi. Ciò potrebbe rappresentare una prima buona tattica per pensare di arginare gli effetti delle distorsioni informative almeno a breve medio termine.

Per limitarne le conseguenze a lungo termine, le istituzioni (preferibilmente a livello internazionale) dovrebbero stabilire regole per agevolare e veicolare la resilienza della società alla disinformazione online, regolamentare le piattaforme e le reti pubblicitarie, sostenere la diversità e la sostenibilità dell’ecosistema dei mezzi di informazione e a sviluppare iniziative nel campo dei media e dell’alfabetizzazione sulle informazioni per promuovere un approccio critico e un comportamento responsabile in tutti tutti gli individui.

Andrà implementato e integrato in ogni organizzazione un addestramento avanzato sulla sicurezza informatica in senso ampio. La formazione dovrebbe essere disponibile a tutti i livelli per garantire che tutti comprendano le migliori pratiche di sicurezza digitale e per prevenire tentativi di Trolling, hacking e phishing.

Le piattaforme social, in primis, con buona pace della “loro cara” disintermediazione” a cui ad oggi sono beatamente sottoposte, pur mantenendo tutta la sagacia tecnica, dovranno prendersi concretamente e la responsabilità di scegliere ciò che è importante e ciò che non lo è, ciò che è documentato, studiato, dibattuto, sperimentato, deliberato, e ciò che è soltanto immediatamente curioso o a maggior ragione dannoso e lesivo di diritti e principi.

I motori di ricerca dovrebbero evolversi in motori di autenticità.

Le organizzazioni giornalistiche dei media in generale potrebbero collaborare efficacemente, concordare politiche di silenzio strategico ed evitare di essere manipolati da coloro che vogliono amplificare informazioni errate o non informative; potrebbero migliorare il debunking di voci e contenuti visivi e spiegare al pubblico come è stato individuato un contenuto dannoso, illustrarne la portata e la minaccia che può rappresentare il disturbo dell’informazione. Dovrebbero auspicabilmente concentrare ulteriori sforzi e risorse nella responsabilità di educare il pubblico sul significato dell’inquinamento delle informazioni e le implicazioni che la società deve affrontare a causa di ciò.

360digitalskill
Diventa un leader digitale: crea il percorso per te e il tuo team
Risorse Umane/Organizzazione
Smart working

@RIPRODUZIONE RISERVATA

Articolo 1 di 2