Il fenomeno delle fake news non è certamente nuovo: è dai tempi del fazzoletto di Desdemona che ne misuriamo la gravità delle conseguenze. Quello che cambia, è che la società algoritmica facilita la creazione di notizie false e crea un ambiente favorevole alla loro diffusione potenziandone gli effetti.
Se il caso Cambridge Analytica ha rivelato che le informazioni veicolate dai social media possono essere manipolate allo scopo di condizionare il funzionamento delle democrazie, il contesto della emergenza sanitaria legata al Covid-19 e il dibattito pubblico assai divisivo sulle vaccinazioni hanno fornito l’ennesima conferma della fragilità del sistema dell’informazione nel contesto dei social media.
Deepfake, la verità sta negli occhi: così l’AI ci aiuta a smascherare i falsi video
Chi non ricorda il giorno in cui falsi annunci sono stati rincorsi da comunicati ufficiali delle istituzioni, in relazione al ritiro del vaccino AstraZeneca in Italia generando un grande senso di incertezza nel pubblico?
I sistemi di web analitics studiano le preferenze, i gusti e i comportamenti di acquisto e gli aspetti psicologici degli individui che, insieme ai big data sui temi che polarizzano l’utenza e all’intelligenza artificiale, permettono di progettare i messaggi in maniera efficace, grazie a modelli predittivi e alla psicometria. Cosi vengono create fake news per un audience target profilato (microtargeting). Poi intervengono sistemi di posting su social network per creare echo chambers, in cui si forma l’opinione pubblica. Infine, vi sono trolls, fake profile, BOT, mentre altri algoritmi e protocolli per la gestione delle transazioni pubblicitarie monetizzano questi contenuti.
Ma l’aspetto che più caratterizza la società algoritmica è il potere acquisito dalle infrastrutture (come i social network) su cui poggia il nuovo modello di distribuzione delle informazioni: le piattaforme social. Ecco perché solo con la loro partecipazione è possibile combattere la manipolazione delle informazioni e le fake news.
La consapevolezza di questo nuovo ruolo si riflette, dal punto di vista giuridico, nel superamento del paradigma della “net neutrality” e della esclusione di responsabilità per gli ISP (internet service providers) fino a oggi scontato. Ora in UE non solo le pronunce della Corte di Giustizia ma anche le nuove iniziative legislative (da ultimo, la direttiva sul copyright nel mercato unico digitale) vanno verso una responsabilizzazione di questi soggetti e verso la remunerazione da parte degli stessi dei contenuti prodotti dalla editoria, come argine alla diffusione di notizie false.
Insomma, sulle piattaforme digitali grava, giustamente, una forte pressione sociale e politica rispetto alle distorsioni informative e alla mancanza di trasparenza.
Non sono mancate, in alcuni paesi, misure legislative o iniziative di autodisciplina e contrattuali.
Il codice di condotta delle piattaforme
Ad esempio in UE le maggiori piattaforme digitali, tra cui Facebook, Google, Twitter, Mozilla e Microsoft hanno già sottoscritto, su invito della Commissione, un Codice di condotta impegnandosi a:
- bloccare le entrate pubblicitarie di determinati account e siti Web che diffondono disinformazione,
- aumentare la trasparenza della pubblicità politica,
- identificare account falsi e bot,
- migliorare la visibilità dei contenuti autorevoli e rendere più facile la segnalazione di notizie false,
- consentire alla comunità di ricerca di accedere ai dati delle piattaforme, nel rispetto della privacy.
In seno a questa iniziativa ne è nata, tra gli stessi firmatari, una dedicata alla pandemia in corso: il programma di monitoraggio e reporting COVID-19, creato per assicurare informazioni affidabili e combattere la disinformazione in collaborazione con l’OMS. Per intenderci, oggi qualunque post su Facebook che includa un riferimento ai vaccini o alla emergenza sanitaria viene associato automaticamente a un link di Facebook che conduce a un centro informazioni COVID-19. Si tratta di una misura autoregolamentare volta a bilanciare la possibile diffusione di notizie false.
Vi è poi un altro fenomeno inquietante, che costituisce una evoluzione delle fake news particolarmente pericolosa, ed è la recente diffusione dei “deepfakes”: contenuti audiovisivi falsi, generati grazie alla intelligenza artificiale, in cui si riproducono in ogni aspetto, compresa la voce, le sembianze di una persona realmente esistente allo scopo di diffondere informazioni false. Nelle ultime campagne elettorali questa tecnologia è stata largamente impiegata ma il filtraggio di questi contenuti si è rivelato difficile, ciò che la rende assai insidiosa.
Ma poiché il fenomeno delle fake news è correlato alla evoluzione delle tecnologie digitali, a questo punto ci si deve chiedere se sia possibile individuare soluzioni tecnologiche che costituiscano una risposta efficiente alla disinformazione nella società algoritmica.
Intelligenza artificiale e blockchain
E così, sul fronte delle tecnologie digitali numerosi programmi di ricerca basati sulla intelligenza artificiale e finanziati dalla Commissione Europea (si veda il recente report della Commissione pubblicato ad aprile 2021 – EU research and innovation projects in Artificial Intelligence – Disinformation) promuovono sistemi di controllo dei contenuti da mettere a disposizione degli utenti, i principali social network stanno investendo in tecnologie machine learning per filtrare le fake news senza un’attività di fact checking sollecitata una persona fisica.
Un altro possibile ausilio tecnologico può provenire dalla tecnologia blockchain.
Già qualche mese fa la testata Forbes Italia ha annunciato la creazione di un sistema di certificazione delle news – basato su blockchain – che impedirebbe di falsificare le notizie provenienti da questa testata.
Questa iniziativa si pone sulla scia di quanto già realizzato da altri media nel mondo e di recente anche ANSA ha lanciato “ANSAcheck” un sistema che consente di tracciare le notizie diffuse da tale agenzia dalla loro creazione sino ai successivi reimpieghi, in modo che ne sia garantita la veridicità.
Conclusioni
In sintesi, possiamo dire che quindi la che la combinazione tra tecnologia digitale (machine learning, artificial intelligence e blockchain) e risorse umane gioca un ruolo centrale su fact checking e rimozione di contenuti e che le piattaforme da una parte e le istituzioni pubbliche, anche europee, dall’altra, stanno investendo molto in questa direzione.
Infine, dal punto di vista delle politiche legislative, una possibile risposta si può rinvenire nella nuova direttiva Ue sul copyright, nella parte ove si tutela l’industria della informazione (allo scopo di preservarne la qualità), attraverso un diritto connesso al diritto d’autore al fine di remunerare le pubblicazioni di carattere giornalistico da parte degli ISP.
I primi effetti di questo nuovo obbligo si cominciano a vedere se si pone mente alla recente iniziativa di Google denominata “Google news showcase”: per effetto di accordi economici con le principali testate italiane Google metterà a disposizione del pubblico, gratuitamente, contenuti altrimenti accessibili a pagamento, facendo atterrare i lettori direttamente sulle pagine web di questi media. Il progetto è evidentemente concepito anche per innalzare la qualità delle informazioni a disposizione del pubblico sulla rete.