Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

disinformazione online

Intelligenza artificiale contro le fake news, lo stato della ricerca

La ricerca volta a utilizzare sistemi di intelligenza artificiale contro il fenomeno della disinformazione online va avanti con buoni risultati, ma il problema non può essere risolto solo con la tecnologia, ecco perché

11 Set 2019

Enrico Martini

ministero dello Sviluppo Economico


L’intelligenza artificiale potrà dare un enorme aiuto nella rilevazione di notizie false diffuse via web, imparando ad analizzare i dati e a trovare modelli per produrre rapidamente risultati che gli umani non potrebbero mai conseguire.

Ma il fenomeno delle fake news , essendo un problema sostanzialmente “umano”, non può essere risolto solo dalla tecnologia: servono innanzitutto cultura, istruzione e buon senso.

La ricerca, comunque, va avanti e i risultati sono promettenti.

Fake news e fiducia nell’informazione

Il fenomeno che al momento emerge con più chiarezza e desta preoccupazione è che le fake news stanno acuendo la sfiducia dei cittadini nei media, specialmente nelle fonti condivise su piattaforme di social media. Gli americani ritengono che il 65% delle notizie distribuite sui social media sia “inventato” o “non possa essere verificato come reale”, secondo un recente rapporto delle fondazioni di Gallup e Knight.

Per questo motivo, negli anni recenti è sorta un’industria fiorente di siti web di fact checking con team di analisti dedicati a confutare le notizie false. Ma in genere gli analisti impiegano molto tempo a rilasciare le informazioni verificate, spesso dopo che i cicli di notizie false sono passati e hanno avuto il loro impatto distorsivo nella opinione dei cittadini.

Dalle elezioni americane del 2016 ad oggi, la ricerca informatica è andata oltre l’automazione del controllo dei fatti, tanto che alcuni ricercatori stanno lavorando all’automazione del rilevamento di false dichiarazioni sul web. I metodi attualmente sviluppati prevedono l’inserimento di articoli giornalistici in quello che viene chiamato un analizzatore di testo CAR (Computer Assisted Reporting). Ma anche questa nuova tecnologia non permette che tutte le fake news vengano scoperte.

Lo stato della ricerca

Tra i gruppi che guidano la ricerca su questi temi, c’è il Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT in collaborazione con il Qatar Computing Research Institute (QCRI). Questi ricercatori stanno utilizzando vari metodi per analizzare i siti dei media, gli account twitter associati, la reputazione della fonte, il traffico web e altri fattori, al fine di ipotizzare classifiche di alta, media e bassa veridicità.

Dai dati elaborati dal loro algoritmo emerge che la struttura di testo degli URL di una fonte è significativa per la veridicità: gli URL che hanno molti caratteri speciali e sottodirectory complicate, per esempio, sono associati a fonti meno affidabili. Se un sito web ha già pubblicato notizie false, ci sono buone probabilità che lo faccia di nuovo. Il sistema ha bisogno solamente di circa 150 articoli per rilevare in modo affidabile se una fonte di notizie può essere attendibile. Un approccio di questo tipo sembra essere perfetto per aiutare a individuare nuovi punti di spaccio di fake news prima che le storie si diffondano troppo. Il sistema è però ancora in fase di sviluppo e, anche con miglioramenti di accuratezza, può funzionare al meglio solo se usato in combinazione con i fact-checker tradizionali.

Un altro gruppo di ricerca, il Progetto FANDANGO, uno sforzo finanziato dall’Unione Europea, è studiato per giornalisti e professionisti dei media per aiutarli durante il processo di verifica di notizie, immagini e video che potrebbero essere falsi, fuorvianti o manipolati.

La tecnologia alla base di Fandango combina diverse tipologie di analisi:

  • algoritmi in grado di riconoscere e identificare le relazioni che sussistono all’interno del testo e del titolo della notizia, nelle frasi e nelle relazioni che si instaurano tra le parole e la loro frequenza;
  • analisi semantica per incrociare le diverse fonti informative e autori, cosi da verificare l’attendibilità dei fatti contenuti in una notizia. Vengono, inoltre, accertati avvenimenti e informazioni (dati compresi) citati all’interno del testo;
  • analisi multimediale per identificare le connessioni che sussistono tra contenuti audio, foto e video e gli argomenti trattati nell’articolo preso in esame.

Il progetto, avviato a gennaio 2018, terminerà a dicembre 2020 con la creazione di un servizio rivolto non solo al mondo del giornalismo e della comunicazione digitale, ma all’intera società digitale.

I ricercatori dell’Università di Harvard e del MIT-IBM Watson AI Lab hanno creato uno strumento per aiutare a combattere la diffusione della disinformazione. Lo strumento, chiamato GLTR (Giant Language Model Test Room), utilizza l’intelligenza artificiale per rilevare i modelli di testo molto statistici. GLTR evidenzia le parole nel testo in base alla probabilità che appaiano di nuovo: il verde è il più prevedibile, il rosso e il giallo sono meno prevedibili e il meno prevedibile è il viola. Uno strumento del genere potrebbe tornare utile per i siti di social media come Twitter e Facebook che devono fare i conti con contenuti dilaganti creati dai robot.

Man mano che i metodi di generazione del testo diventano più sofisticati, gli attori malintenzionati possono potenzialmente abusarli per diffondere false informazioni o propaganda. Qualcuno con una potenza di calcolo sufficiente potrebbe generare automaticamente migliaia di siti Web con testo dall’aspetto reale su qualsiasi argomento. Anche se non siamo ancora arrivati a questo punto di generazione focalizzata, modelli linguistici di grandi dimensioni possono già generare testo indistinguibile dal testo scritto dall’uomo.

Un team di ricercatori ha condotto uno studio per vedere se gli studenti di elaborazione linguistica potrebbero distinguere il testo “reale” dal testo generato dall’IA: l’accuratezza degli studenti era al 54%, a malapena al di sopra delle ipotesi casuali; l’uso di GLTR ha portato i tassi di rilevazione degli studenti al 72%. Si spera che GLTR possa ispirare ulteriori ricerche verso obiettivi simili e abbia dimostrato con successo che i modelli di generazione automatizzata dei testi non sono troppo pericolosi, se è vero che possiamo sviluppare meccanismi di difesa molto efficaci.

Tutti questi progetti di ricerca mirano ad aiutare i giornalisti e i consumatori di notizie ad accertare rapidamente il livello di fattibilità che può essere assegnato a fonti o articoli.

L’avanguardia della ricerca sull’IA è incentrata sullo sviluppo di algoritmi di apprendimento profondo. In precedenza, i modelli di intelligenza artificiale si basavano fortemente sull’apprendimento automatico: con l’utilizzo di regressioni statistiche, clustering e altri processi matematici per prevedere i risultati in base alle tendenze dei dati storici. Il processo decisionale basato sull’uomo è essenziale in tali modelli di apprendimento automatico. Al contrario, l’apprendimento profondo, tecnicamente ancora un sottoinsieme dell’apprendimento automatico, si basa sul concetto di reti neurali per consentire all’intelligenza artificiale di fare previsioni e decisioni in modo indipendente. Modellate sul cervello umano, le reti neurali stanno espandendo significativamente le capacità dell’IA.

Ma l’IA può eliminare indipendentemente la distorsione nei suoi metodi? Questo è attualmente un argomento di dibattito, con la maggior parte del settore che concorda che la risposta dipende da come viene sviluppata l’IA. Poiché i modelli, indipendentemente dal fatto che incorporino la macchina o l’apprendimento profondo, si basano sull’addestramento umano, alcuni sostengono che i pregiudizi e le percezioni di coloro che sviluppano l’IA si rifletteranno inevitabilmente nella tecnologia.

Risultati incoraggianti, ma la tecnologia da sola non basta

Avere set di dati imparziali per l’addestramento di un modello di intelligenza artificiale è sicuramente uno dei compiti più difficili. Anche se il potenziale vantaggio dell’IA lo rende un investimento promettente, per ora, richiede ancora il tocco umano. Ma anche se l’intelligenza artificiale fosse in grado di verificare i fatti in modo imparziale, probabilmente non scomparirebbe l’uso del termine “fake news”.

Questo perché la semplice presentazione dei fatti non influenza necessariamente le persone. I lettori sono riluttanti a considerare argomenti che si scontrano con i loro valori e identità, è un fenomeno psicologico che provoca credenza nelle informazioni a supporto delle opinioni esistenti e spinge molti a ignorare altre informazioni che non supportano idee preconcette. L’intelligenza artificiale e l’automazione immaginano una soluzione tecnica per quello che in realtà è un problema umano.

Tuttavia, sebbene sia necessario fare molto di più per rendere l’IA uno strumento affidabile per rilevare notizie false e fuorvianti, i suoi potenziali vantaggi ne fanno un investimento promettente perché può aiutare i giornalisti nel lavoro quotidiano e, aiutando i media a non innamorarsi di bufale e distribuire disinformazione, può aiutare a ricostruire la fiducia dei cittadini nel sistema dell’informazione.

In ogni caso, il grande interesse sia tecnologico che sociale destato dal fenomeno delle fake news, per gli effetti dirompenti che sta generando nella realtà attuale, terrà banco ancora per diversi anni prima di venire arginato, se si riuscirà al contempo a sensibilizzare la popolazione. È molto importante, infatti, investire nella cultura, nell’istruzione delle persone e tenere sempre a mente le regole del buon senso quando si ha a che fare con l’informazione.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4