SOCIAL MEDIA

Intelligenza artificiale alla sfida hating: bene ma non benissimo

Cantieri aperti in tutto il mondo sulle tecnologie anti-odio online. In prima linea i team di ricerca che utilizzano sistemi di AI in grado di individuare su miliardi di post e messaggi le parole bersaglio. Prossimo step il riconoscimento del “tono” contenutistico: ma la strada è ancora lunga

16 Giu 2020
Sara Tonelli

head of the Digital Humanities research group at FBK


Aumenta la diffusione delle piattaforme social, aumenta il fenomeno dello hate speech. Uno degli “effetti collaterali” della comunicazione online oggi al centro di misure di contenimento sia regolatorie che aziendali. Vediamo a che punto siamo nella ricerca di tecnologie in grado di migliorare la cultura digitale.

Contromisure attuate da governi e social

L’uso di social network come Twitter, Facebook e Instagram ha aumentato enormemente il numero di interazioni online, collegando miliardi di utenti, favorendo lo scambio di opinioni e dando visibilità a idee che sarebbero altrimenti ignorate dai media tradizionali. Tuttavia, ciò ha portato anche a un aumento degli attacchi contro gruppi specifici di utenti in base alla loro religione, etnia o status sociale e le persone spesso faticano ad affrontare le conseguenze di tali attacchi. Per alcuni soggetti particolarmente deboli come gli adolescenti, essere oggetto di attacchi online ripetuti nel tempo, un fenomeno anche noto come cyberbullismo, può portare a conseguenze psicologiche negative, disordini affettivi, problemi nell’apprendimento e in alcuni casi può condurre le vittime anche a gesti estremi.

Vista la portata del problema, anche stakeholder come governi e piattaforme di social media hanno deciso di correre ai ripari. Per esempio, Facebook, Twitter, YouTube e Microsoft hanno firmato nel 2016 un codice di condotta, proposto dall’Unione Europea, impegnandosi a prendere in esame la maggior parte delle segnalazioni degli utenti relative a post d’odio in meno di 24 ore, e applicando provvedimenti immediati in caso di abusi. I social network si stanno quindi dotando di team che, in modo manuale, verificano le segnalazioni degli utenti e prendono decisioni riguardo ad account da sospendere o post da oscurare.

Ma è davvero sufficiente? In un mondo in cui sempre più persone hanno accesso a Internet, e quindi possono crearsi un profilo social, un lavoro completamente manuale di controllo e contenimento dell’odio online è impensabile. Nell’ultimo anno e mezzo, per esempio, un monitoraggio di Twitter relativo al tema dell’islamofobia svolto all’interno del progetto europeo HATEMETER ha identificato più di 250.000 tweet postati in italiano e contenenti hashtag islamofobici come #stopIslam o #NoMoschee, provenienti da 48.000 profili diversi. Considerato che in Italia solo una piccola minoranza di persone utilizza Twitter, mentre la maggior parte degli utenti attivi online ha un profilo Facebook o Instagram, il fenomeno ha chiaramente raggiunto una portata preoccupante.

La quantità di dati circolanti e profili esistenti necessita di tecnologie automatiche per essere monitorati, classificati ed eventualmente oscurati, lasciando ampio spazio allo sviluppo di software che supportino le persone in questa attività.

Intelligenza artificiale contro l’hating online

E’ qui che lIntelligenza artificiale può intervenire grazie agli sviluppi recenti nell’ambito del deep learning, che permette di sfruttare la grande mole di dati circolanti per allenare sistemi che riconoscano in modo automatico i messaggi d’odio. Il paradigma è semplice: un sistema automatico non è dotato di intelligenza propria, ma può imparare a simulare il comportamento di una persona che si trova a dover giudicare il contenuto di messaggi d’odio. Il computer può quindi apprendere questo comportamento dopo aver ricevuto in input qualche migliaio di messaggi classificati come più o meno offensivi. Anche se la annotazione iniziale di questi messaggi deve essere fatta necessariamente a mano, e quindi può risultare dispendiosa, il modello che il computer apprenderà può essere poi applicato a centinaia di milioni di messaggi postati online per quella lingua. Quindi un limitato sforzo iniziale può avere un impatto potenziale su una buona parte del web.

La portata di questa automazione, insieme a interessi economici degli stakeholder attivi nell’ambito dei social network, ha spinto la comunità di ricerca che si occupa di intelligenza artificiale applicata all’analisi del testo verso lo sviluppo e la valutazione di sistemi per il riconoscimento di messaggi d’odio online. Confrontare approcci diversi e capire qual è il più promettente è spesso difficile. Per questo sono nate negli ultimi anni campagne di valutazione pensate proprio per individuare l’odio online, competizioni scientifiche tra ricercatori in cui diversi team di ricerca sono chiamati a misurare le performance dei propri sistemi sugli stessi dati.

WEBINAR
Blockchain, Iot, AI per una Supply Chain intelligente e più efficiente
Blockchain
Intelligenza Artificiale

Solo così è possibile confrontare l’accuratezza dei software e comprendere, tra le varie possibilità, qual è l’approccio più promettente. Per esempio, l’ultima campagna organizzata per l’italiano, l’”Hate Speech Detection task” (HaSpeeDe) ha visto la partecipazione di 9 team di ricerca provenienti sia dall’Italia che dall’estero, un numero che, per una comunità relativamente piccola come quella italiana, è indice di grande interesse. Campagne simili sono state organizzate anche a livello internazionale, sia su inglese e spagnolo che su altre lingue meno presenti online come lo svedese o il polacco.

Ironia: l’algoritmo non la capisce (per ora)

I sistemi sviluppati hanno ormai raggiunto un’accuratezza intorno all’80%, tant’è vero che da un paradigma iniziale in cui si identificavano genericamente i messaggi d’odio ci si è spostati di recente verso sistemi più sofisticati, che identificano anche qual è il target d’odio e di conseguenza il tipo di offesa (misoginia, omofobia, islamofobia, antisemitismo, ecc.). Un sistema basato su intelligenza artificiale che identifica messaggi d’odio replicando nell’80% dei casi il giudizio che darebbe una persona reale è sicuramente un risultato promettente. Ma il restante 20% contiene contenuti che presentano problemi ancora particolarmente sfidanti per le tecnologie attuali.

Per esempio, riconoscere umorismo, ironia e sarcasmo è ancora una sfida aperta per l’intelligenza artificiale, ma è un compito necessario per capire se una parolaccia è usata in modo bonario o offensivo, o se un apprezzamento apparentemente positivo in realtà nasconde una critica perché sarcastico.

Un altro elemento studiato fino ad ora solo marginalmente è l’interazione tra diversi tipi di media che possono comporre un post. Il successo delle stories su Instagram, o di social network diffusi tra i giovanissimi come TikTok e Musical.ly, ha evidenziato la necessità di sviluppare tecnologie che analizzino e comprendano il contenuto di immagini e video in modo simile a quello fatto per i messaggi d’odio testuali. Ancora più importante è capire in che modo informazioni multimediali possano essere combinate per interpretare il contenuto di un post online: spesso il commento a un’immagine postata su Instagram può essere interpretato solo capendo chi è il soggetto dell’immagine e qual è l’aspetto che è oggetto del commento.

Per esempio, il calcio è uno dei principali temi che viene preso a pretesto per diffondere messaggi online. Capire che un ragazzino che pubblica una sua immagine su Instagram viene preso di mira non per il soggetto in sé ma perché indossa la maglia di una squadra rappresenta una sfida per l’intelligenza artificiale, ma anche una delle premesse perché si possa comprendere appieno il fenomeno dell’odio online per poi intervenire in modo efficace.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4