voto a rischio

Elezioni europee, le minacce che vengono da internet: tutti i rischi e le contromisure

Profilazione degli utenti, messaggi di propaganda mirati, post-verità. Le armi per manipolare e confondere l’opinione pubblica in vista delle elezioni europee sono molteplici. Servono le adeguate contromisure a tutela della libertà e consapevolezza del voto e quindi della democrazia

Pubblicato il 13 Feb 2019

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria

Pietro Stilo

Università degli Studi Mediterranea di Reggio Calabria

elezioni

Con l’avvicinarsi delle elezioni per il rinnovo del Parlamento europeo si ripropone con urgenza la necessità di mettere in atto le necessarie contromisure per evitare che campagne di disinformazione online preventive manipolino o creino confusione nell’opinione pubblica. Gli strumenti per veicolare informazioni non veritiere o non confutabili e in grado perciò di influenzare le elezioni e inficiare i requisiti di libertà e consapevolezza sono reali e già molto diffusi. Proviamo a capire come disinnescarli.

Propaganda politica social, elezioni a rischio: quali soluzioni

Elezioni europee a rischio hacker e fake news

Le prossime elezioni per il rinnovo del Parlamento europeo sono considerate, per molti versi, storiche e di fondamentale importanza per il futuro dell’Europa. Si assisterà a un confronto accesso tra i partiti cosiddetti tradizionali e le nuove formazioni politiche che in gran parte dei paesi occidentali si sono affermate negli ultimi anni.

Come già avvenuto per altre competizioni altrettanto importanti, prime fra tutte le presidenziali negli Stati Uniti d’America, da più parti ci si pone tra gli altri un problema di non secondaria importanza e, cioè, la possibilità di manovre che possano influire e/o disturbare il normale esito della campagna elettorale prossima da qualcuno addirittura paragonata al quella del 1948 che segnò un passo fondamentale nella storia dell’Italia repubblicana con una scelta netta di campo (occidentale) per il nostro paese.

Il tentativo di influenzare le elezioni può avvalersi di due strumenti.

  1. La profilazione degli utenti e il bombardamento degli stessi da parte di messaggi mirati e/o fake news
  2. L’attività di hackeraggio, intesa sia come violazione del meccanismo elettorale per avvantaggiare un candidato o un partito, sia intesa come sabotaggio delle risorse informatiche e dei database dei partiti o dei candidati avversari

Il problema che si pone in maniera sempre più rilevante è, per lo meno in Italia, il contrasto alla profilazione degli utenti che apre la strada alla diffusione di fake news sulle loro piattaforme social.

L’Unione Europea ha chiesto lumi a Facebook sul caso Cambridge Analitica per evitare che ciò si possa ripetere in Europa e anche l’Agcom (Autorità Garante per le comunicazioni in Italia) ha scritto ai tre pilastri dell’informazione sul web: Google, Twitter e Facebook, chiedendo un maggiore impegno in tal senso.

Il secondo punto legato all’hackeraggio, inteso come spionaggio e sabotaggio delle risorse dell’avversario, rimane un problema secondario e, tutto sommato, non nuovo per le competizioni elettorali, sia pur attuato oggi con mezzi diversi. Il famoso scandalo Watergate poteva configurarsi come appartenente a questa tipologia. Diverso il caso dell’hackeraggio legato alla violazione del voto elettronico che è molto più pericoloso, ma rispetto al quale si hanno ormai a disposizione di strumenti di cybersecurity sufficientemente avanzati, a meno di non sospettare una complicità nell’attività di violazione da parte del soggetto che gestisce il sistema stesso e che ne garantisce la sicurezza e la trasparenza.

Si avverte, pertanto, forte la necessità di un monitoraggio in Italia così come nel resto d’Europa, non tanto per quanto riguarda la possibilità di attacchi di hackeraggio che nel nostro paese potrebbero avere effetti molto limitati, anche in considerazione della modalità di svolgimento del voto che è tradizionale e “manuale”, cioè con l’elettore che si reca personalmente al seggio elettorale per esprimere la propria intenzione di voto in maniera del tutto segreta e personale, così come previsto e sancito dall’articolo 48 della nostra Carta costituzionale, cosa differente, ad esempio, da altre realtà europee dove vi è la possibilità del voto elettronico, il quale è sempre a rischio hackeraggio, nonostante vengano adottati importanti sistemi di sicurezza.

Così si manipola l’opinione pubblica

Il rischio vero in Italia, così come in gran parte d’Europa, è, però, principalmente la possibilità, che vi siano campagne di disinformazione preventive, veicolate attraverso giornali online, siti, think tank e soprattutto social media, sistemi di instant messaging per orientare e manipolare l’opinione pubblica in una direzione piuttosto che nell’altra.

Il tema della disinformazione è un tema sicuramente antico e radicato, ma ha assunto una attualità molto forte negli ultimi anni grazie alla diffusione di internet e dei social network, strumenti capaci di far circolare con una velocità mai conosciuta prima e ad una massa di utenti mai raggiunta da nessun organo di informazione, fatti e notizie, spesso veri e reali, ma a volte anche non veri o comunque non del tutto reali.

Infatti, elemento principale delle tecniche di disinformazione è proprio quello di mescolare ad arte parte di notizie reali con fatti e situazioni non vere, creando confusione e dubbi nell’opinione pubblica, soprattutto in quelle fasce di popolazione più facilmente condizionabili.

Elezioni, post-verità e fake news

Post-verità e fake news corrono, quindi, sui social durante la campagna elettorale come parte di una guerra combattuta con le armi della disinformazione di massa. Sembra uno scenario esageratamente pessimista, ma se si analizzano tutti i tasselli ci si accorge che non è proprio così. 

Partiamo da una considerazione banale: un tempo si cresceva con il concetto che ci veniva inculcato sin dalla più tenera età di non dialogare con gli sconosciuti. Oggi i dialoghi maggiori avvengono tra persone che mai si sono viste o conosciute, su un web che veicola di tutto e sul quale e nel quale si possono diffondere notizie non sempre veritiere o riscontrabili. Da qui nasce il termine post-verità cioè una verità non confutabile, dove tutto ed il contrario di tutto possono essere veri e credibili da parte di una opinione pubblica non sempre preparata a discernere il vero dal falso.

Un problema molto sentito quindi in ogni angolo del mondo ed in particolare nel mondo occidentale, che sembra ormai essere il bersaglio preferito delle campagne di disinformazione, presumibilmente veicolate dall’interno di paesi considerati avversari, se non ostili al cosiddetto vecchio mondo post-industriale.

Russia Cina e Corea sul banco degli imputati

Ma quali sono i paesi maggiormente accusati di tale campagna di veicolazione di notizie false o quanto meno artefatte per veicolare confusione e diffusione di informazioni non veritiere? Russia, Cina, Iran e Corea del Nord sono i principali accusati sul banco degli imputati da parte del National Cyber Strategy degli USA. Della stessa opinione anche il Report dal titolo: Confronting an Axis of Cyber, redatto dall’Osservatorio sulla cyber security di ISPI e Leonardo.

Un sondaggio condotto dalla BBC World Service nel 2017 evidenziava, inoltre, una grande preoccupazione da parte degli utenti della rete di essere raggiunti da notizie false o artefatte.

Un sondaggio condotto in 18 paesi nel mondo, rilevava che il 79% degli intervistati era preoccupato per le fake news, un dato interessante era però che solamente in 2 paesi su 18 la gente era favorevole ad un intervento dello Stato per regolamentare internet (Regno Unito e Cina). In Brasile la percentuale di utenti che avevano qualche preoccupazione in merito a tale situazione era la più alta di tutti i paesi monitorati con un 92%, seguito da Indonesia (90%), Nigeria (88%) e Kenya (85%), mentre in Germania si era riscontrato il dato più basso con un 51%, segno che anche in questo contesto vi erano delle forti asimmetrie tra paesi sviluppati e paesi in via di sviluppo.

Quindi, l’idea che gli interessi ed i principi democratici possano essere minati da queste campagne di diffusione di fake news e che il web sia il nuovo terreno di scontro tra idee del mondo diverse, se non contrapposte, in una guerra combattuta con le armi della disinformazione di massa è molto diffusa nel mondo occidentale. Da tutto ciò si evince che necessariamente bisogna rispondere con altrettanta fermezza e decisione a questi tentativi per garantire la democrazia.

Intelligenza artificiale contro le fake news

L’Intelligenza Artificiale ha aumentato le potenzialità di diffusione delle fake news e si rivela quindi anche uno strumento che può essere usato contro le democrazie e i loro interessi strategici, attraverso attività di profilazione e di trolling.

L’intelligenza artificiale sta portando verso una crisi del tradizionale modo di affrontare le competizioni elettorali nei paesi democratici. Questa può essere una crisi evolutiva o una crisi distruttiva. Per evitare che questa crisi sia distruttiva occorre dotarsi di strumenti di governance adeguati alle minacce che dobbiamo affrontare. Oggi si parla molto di democrazia diretta, ma come abbiamo visto questa democrazia diretta in assenza di regole diventa facilmente una democrazia “eterodiretta”, da tutti quei soggetti che, spesso con fini poco nobili, hanno una visibilità e un potere di controllo e di condizionamento sul web e sui social.

Il messaggio di un politico può essere rilanciato da siti esteri e troll e diventare in breve virale sul web. Lo stesso messaggio, poi, può essere rafforzato da fake news e rilanciato esponenzialmente. Il contenuto del messaggio può essere diversamente veicolato, a seguito della profilazione del ricevente, per rafforzare le sue convinzioni e il suo senso di appartenenza o per convincerlo a cambiare opinione. In questo scenario la scelta individuale, elettorale, ma non solo, appare molto meno libera e responsabile di quanto non si possa pensare.

Quali contromisure per evitare comportamenti scorretti

In tempi recenti, anche se ormai sembrano paleolitici, si parlava di “par condicio”, in relazione alla regolamentazione della propaganda elettorale diffusa attraverso i media. Il principio da utilizzare è simile, anche se di molto più difficile applicazione. Bisogna in primo luogo impedire a chi ha il controllo di big data che possono portare a profilazione di comportamenti di avere interessi diretti nella politica. Il conflitto di interesse che fino ad ora era limitato al possesso di giornali e televisioni deve essere esteso a tutti coloro che detengono big data o hanno la possibilità di utilizzare in maniera estensiva risorse di intelligenza artificiale.

Occorre istituire una Authority di garanzia con poteri adeguati a contrastare e sanzionare i comportamenti scorretti di coloro che utilizzano impropriamente big data per scopi elettorali e di coloro che diffondono fake news in campagna elettorale.

Solo così si eviterà che la democrazia diretta diventi “eterodiretta” e, forse, in ultima analisi, si salverà il concetto stesso di democrazia.

Se non sviluppiamo anticorpi opportuni il rischio di una dittatura informativa e tecnologica sarà sempre più reale con una democrazia di fatto che resterà sterile esercizio di un rito, il voto popolare, a cui però viene a mancare il requisito fondamentale che è la libertà e la consapevolezza, in quanto non sarebbe più espressione della libera determinazione individuale, bensì il frutto del condizionamento occulto dei detentori del potere informativo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati