Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

il report

Social network, così si manipolano con un “pugno di euro”: rischi e contromisure

Secondo un report Nato, che mirava a valutare l’abilità delle piattaforme social a identificare e a rimuovere le attività di manipolazione, a soli 300 euro si possono comprare migliaia di commenti, like, visualizzazioni e follower dai cosiddetti Manipulation Service Providers. Ecco cosa serve per contrastare il fenomeno

06 Feb 2020
Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant


Un recente studio del Strategic Communication Centre of Excellence (StratCom) dell NATO rivela come con un “pugno di euro” sia possibile acquistare like, commenti, follower e video view creati da bot e che, gran parte degli account social falsi, nonostante siano stati segnalati alle piattaforme come tali, rimangano visibili online.

I principali social media, oggetto dello studio – Facebook, Twitter, Instagram e YouTube – non riuscirebbero, quindi, ad arginare efficacemente il fenomeno della manipolazione degli account nonostante i continui controlli ed i blocchi di massa. Nato StratCom rivela inoltre, come i servizi di manipolazione risulterebbero facilmente reperibili online.

Il Report StratCom

Lo StratCom ha condotto un esperimento per un periodo di 4 mesi – da maggio ad agosto 2019 – che si poneva come obiettivo di comprendere il grado di manipolazione dei social, nel tentativo di capire come gestire in modo più incisivo le interferenze registrate, ad esempio, nelle ultime elezioni politiche, in vari paesi, tramite attività di manipolazione, da parte di antagonisti, atte a contrastare i propri avversari.

La manipolazione si fonda su un fiorente mercato, in costante crescita, con costi operativi modestissimi, dominato dai cosiddetti Manipulation Service Providers (MSPs) – localizzati soprattutto in Russia – a cui si rivolgono facilmente utenti comuni, società e “attori” istituzionali per acquisire i cosiddetti servizi di social media engagement sotto forma di like, commenti e condivisioni video, ecc.

L’esperimento mirava a valutare l’abilità delle piattaforme social a identificare e a rimuovere le attività di manipolazione. Sono stati acquistati servizi di engagement su 105 differenti post su Facebook, Instagram, Twitter e Youtube, utilizzando 11 MSPs Russi, 5 Europei (1 Polacco, 2 Tedeschi, 1 Francese e 1 Italiano) a dimostrazione, appunto, di come sia facile reperire tali servizi online.

Al costo di soli 300 euro sono stati comprati 3.530 commenti, 25.750 like, 20.000 visualizzazioni e 5.100 follower. Inoltre, analizzando gli account che “fornivano” il servizio di manipolazione, i ricercatori sono riusciti a identificare 18.739 account utilizzati per manipolare le piattaforme social.

I ricercatori hanno anche valutato l’abilità delle piattaforme a identificare direttamente la manipolazione, riscontrando come gli engagement falsi, dopo 4-5 settimane, risultassero ancora online. Inoltre, è stata oggetto dell’esperimento la capacità reattiva delle piattaforme stesse a rispondere ad utenti che avessero segnalato fake account, evidenziando come, a 3 settimane della notifica, più del 95% degli account segnalati risultassero ancora attivi.

È risultato, nel contempo, che il 90% di fake account sono stati utilizzati a scopo commerciale, mentre il rimanente è stato utilizzato per azioni di manipolazione in ambito politico.

Sono stati identificati, di fatto, fake engagement comprati per 721 pagine politiche e 52 pagine corrispondenti a governi ufficiali, compresi 2 account ufficiali di 2 presidenti, una pagina ufficiale di un partito politico europeo, oltre a vari account riferiti a politici junior e locali europei del blocco non-occidentale.

Le performance delle piattaforme social

INFO
In questo periodo di grande incertezza, non far saltare gli eventi: trasformali in webinar

Lo studio ha valutato la performance di Facebook, Instagram, Twitter e YouTube, in termini di contrasto alla manipolazione, evidenziando come essi abbiano livelli diversi di efficacia nella gestione dei “fake”.

Facebook risulta essere la piattaforma che meglio ha gestito il contrasto alla creazione di inauthentic account ed ai servizi offerti dai MSPs, grazie ai propri sistemi di anti-automation. Tuttavia, i MSPs, in alcuni casi, sono riusciti ad aggirare le contromisure della Piattaforma, agendo indisturbati per settimane senza essere bloccati.

Facebook è riuscito a rimuovere il 10% dei fake like dopo un mese, mentre non è stato in grado di rimuovere i fake comment e, inoltre, è risultato molto debole nel contrastare le fake video view.

Instagram è risultata efficiente nel bloccare al 50% la creazione dei fake account, anche se risulta molto facile ovviare al blocco utilizzando i VPNs e il cash control. Il costo del servizio di manipolazione è il più basso in assoluto tra quelli delle varie piattaforme dato che, per i MSPs, Instagram è la piattaforma che risulta più facile da manipolare. La piattaforma, inoltre, sembra mostrare problemi di conteggio dei like e dei commenti dopo la loro rimozione, dimostrando ulteriormente la sua vulnerabilità, dal momento che, anche quanto i bots sono bloccati, l’effetto della manipolazione permane.

Instagram, inoltre, ha dimostrato una scarsa capacità a rimuovere i fake like (1%) e account (14%) successivamente alla notifica dei falsi alle piattaforme da parte dei ricercatori; tuttavia, si è dimostrato efficiente nel bloccare il 44% dei fake follower.

In generale Instagram deve migliorare le proprie misure di contrasto alla manipolazione, risultando facile e a basso costo attuarla.

Twitter risulta essere in assoluto la piattaforma più performante in termini di contrasto alla manipolazione: sono stati identificati e rimossi oltre la metà dei like e retwitt comprati e il 35% degli account comunicati alla piattaforma dai ricercatori sono stati bloccati. Ma l’operazione, per quanto fortunata, presenta anch’essa un neo: risulta totalmente inefficiente l’azione di contrasto alle fake video view, i.e. nessuna rimozione effettuata.

YouTube risulta essere la piattaforma peggiore nel rimuovere i fake account, ma al contempo eccelle nel contrastare i fake likes e le fake video view. Inoltre, è stato riscontrato che 9 fake comment su 10 sono rimasti attivi durante tutta la durata dell’esperimento, dimostrando ulteriormente come le attività false su YouTube possono rimanere attive per mesi senza essere rilevate.

I quattro “comandamenti”

Sulla base dell’esperimento effettuato dal NATO StratCom, le piattaforme social dovrebbero:

  • Implementare nuovi standard e nuove procedure comuni di reporting, basate su più strutturati criteri di identificazione delle manipolazioni, in modo da rendere maggiormente possibile una comparazione omogenea tra le piattaforme stesse.
  • Stabilire modalità di audit indipendenti, per rendere i report più attendibili in termini di identificazione dell’attività dei falsi e valutare il grado della maturità di contrasto delle piattaforme.
  • Aumentare il proprio grado di trasparenza al fine di comprendere meglio lo scopo e gli effetti della manipolazione, difficile da identificare da parte di ricercatori esterni.
  • Adoperarsi per pretendere la regolamentazione del mercato dei MSPs – che sfruttano la propria capacità di sviluppare strumenti e metodi di interferenza, non solo a livello commerciale, ma anche in termini di minacce alla sicurezza politico e governativa e, al contempo, contrastare la promozione dei servizi di manipolazione sulle varie piattaforme, capace di generare guadagni pari a 1,3 miliardi di dollari all’anno.

Conclusioni

È fondamentale che i social media si adoperino il più possibile per prevenire l’abuso delle proprie piattaforme, migliorando ulteriormente il contrasto all’inhautentic behaviour online e la disinformazione che ne deriva.

Non è superfluo ricordare come la Commissione Europea ha definito la disinformazione: “La disinformazione è un’informazione rivelatasi falsa o fuorviante concepita, presentata e diffusa a scopo di lucro o per ingannare intenzionalmente il pubblico, e che può arrecare un pregiudizio pubblico. Il pregiudizio pubblico include minacce ai processi politici democratici e di elaborazione delle politiche e a beni pubblici quali la tutela della salute dei cittadini, dell’ambiente e della sicurezza dell’Unione”.

La Comunità Europea, ovviamente, non si è fermata alle enunciazioni e ha chiesto lo sforzo comune di tutti gli Stati membri per aumentare sempre più il grado di collaborazione contro la disinformazione e la manipolazione delle piattaforme social.

Nonostante, comunque, le misure adottate da parte di Facebook, Instagram, Twitter e YouTube, il cammino è ancora lungo ed irto, affinché si giunga a proteggere gli utenti, le istituzioni nazionali ed europee. Di fatto, la disinformazione è un pericolo sempre in agguato ed in continuo aumento, che può compromettere – a livello individuale – la corretta percezione della realtà e – a livello sociopolitico – il corretto funzionamento delle nostre democrazie. Ne deriva, che tutti gli attori devono impegnarsi per garantire una risposta adeguata alle minacce che rappresenta.

Ma non basta: sarà altresì necessaria la salvaguardia della ragion critica, la promozione di una alfabetizzazione digitale e la massima vigilanza sulla trasparenza delle attività delle piattaforme online, affinché siano sempre verificabili e affidabili.

WHITEPAPER
Data Strategy: quali sono le 3 fasi principali del processo di relazione con il cliente?
Big Data
Marketing

@RIPRODUZIONE RISERVATA

Articolo 1 di 4