La lotta alle "deep" fake news passa da intelligence e sentiment analysis: ecco come | Agenda Digitale

reti neurali

La lotta alle “deep” fake news passa da intelligence e sentiment analysis: ecco come

La sentiment analysis aiuta a combattere anche il deep fake e le fake news e rientra fra gli strumenti nell’arsenale dell’intelligence per arginare vulnerabilità nell’ambito della sicurezza. Vediamo come

22 Apr 2021
Marco Santarelli

Chairman of the Research Committee IC2 Lab - Intelligence and Complexity Adjunct Professor Security by Design Expert in Network Analysis and Intelligence Chair Critical Infrastructures Conference

Nel mondo sempre più virtuale in cui viviamo, la diffusione dei social network e la loro presenza costante nella nostra quotidianità ha generato un forte incremento degli studi – in ambito accademico e commerciale – volti a esaminare la gran mole di dati che noi stessi vi diffondiamo, comprese le nostre opinioni. Istituzioni, personaggi politici e marchi hanno necessità di conoscere la reputazione e il grado di soddisfazione che viene fuori da queste opinioni, per poter pianificare abilmente la risposta sotto forma di operazione di marketing o campagna elettorale, nel caso di un politico.

Entra in gioco, pertanto, la sentiment analysis, che – insieme alle tecnologie di emotion recognition –  aiuta a combattere anche il deep fake e le fake news e rientra tra gli strumenti che consentiranno di mitigare le vulnerabilità nell’ambito della cybersecurity.

Vediamo in che modo.

Dalle emozioni al sentiment analysis: come e perché un contenuto diventa virale

Cos’è la sentiment analysis

La sentiment analysis è un’analisi computazionale di sentimenti e opinioni espressi all’interno di un testo, che estrae da quest’ultimo informazioni soggettive, aiutando un’azienda a comprendere il sentimento sociale del proprio marchio, prodotto o servizio durante il monitoraggio delle conversazioni online. Accanto all’analisi dei flussi di social media, quindi alla cosiddetta sentiment analysis di base, oggi abbiamo a disposizione anche il deep learning, che con gli ultimi progressi, permette, attraverso algoritmi, di analizzare il testo in maniera più approfondita. Prima di avviare l’analisi di un testo, è importante fare lo studio dello stato dell’arte, quindi classificare gli aspetti chiave del prodotto e del servizio di un marchio e le reazioni, riguardo a questi aspetti, degli utenti.

INFOGRAFICA
Il tuo CEO non capisce la necessità di modernizzare le applicazioni? Convincilo in 3 step!
Digital Transformation
Cloud Application

Come viene classificato un testo

Partiamo dal primo step che si attiva all’arrivo di un testo, ossia la classificazione, che riguarda la positività, la negatività o la neutralità di esso. Si passa poi all’analisi delle finalità del testo, quindi l’intenzione dell’utente e il tipo di testo, che sia opinione, notizia, marketing, reclamo, suggerimento, apprezzamento o domanda.

Ecco che arriviamo alla ricerca semantica contestuale (CSS, Contextual Semantic Search), che riguarda quale aspetto del marchio o nome di una persona è argomento del testo. Facciamo qualche esempio: se una grande azienda vuole dividere i messaggi relativi a consegne tardive, problemi di fatturazione, domande relative alla promozione, recensioni di prodotti, o un politico, vuole classificarli in base al fatto che si riferiscano ai suoi comportamenti, al comportamento del personale, alle sue dichiarazioni, al feedback delle persone, al nome e alla posizione del suo partito.

Tutto questo è possibile grazie a un algoritmo di ricerca intelligente chiamato, appunto, Ricerca Semantica Contestuale, che permette che tutti i messaggi vengano filtrati in base a un concetto dato, prendiamo ad esempio il “prezzo”.

Si parte dal presupposto che esiste già un approccio convenzionale per filtrare tutti i messaggi relativi al prezzo. Da qui normalmente si inizia a fare una ricerca di parole chiave su “prezzo” e altre parole strettamente correlate. Questo metodo, tuttavia, non è molto efficace in quanto è quasi impossibile pensare a tutte le parole chiave pertinenti e alle loro varianti che rappresentano un particolare concetto. Il CSS, invece, prende solo il nome del concetto “prezzo” come input e filtra tutti i suoi simili contestualmente, anche dove le ovvie varianti della parola chiave concetto non sono menzionate. Facendo così si genera un certo numero dei tool che permettono di abbinare il comportamento pregresso e quello presente in totale real time. Cioè si riesce a capire come determinate notizie si modificano attraverso l’opinione della gente che scrive, ad esempio sui social, e come la notizia principale si distanzi da quella correlata.

I dati, ormai, sono oro per le aziende, ma non basta la semplice raccolta delle informazioni, bisogna andare a fondo e sfruttare la potenza dell’intelligenza artificiale, del Deep Learning e dei classificatori intelligenti come la Ricerca Semantica Contestuale e la Sentiment Analysis.

Deep fake, fake news e cyber sicurezza

La sentiment analysis aiuta a combattere anche il deep fake e le fake news.

I deep fake sono l’evoluzione naturale delle fake news. Ovvero l’ampliamento della disinformazione online. Pensiamo al discorso di Donald Trump per l’attacco al Campidoglio che ad oggi non sappiamo se fosse o meno un Deep fake. Storicamente, il termine “deepfake” vuol dire software, basato sull’intelligenza artificiale, deep learning e apprendimento automatico dei comportamenti in rete. Il rapporto Clusit 2021 ci dice apertamente che saranno la minaccia del futuro.

L’Italia con il Decreto legislativo 65/2018 – NIS ha istituito il perimetro cibernetico e soprattutto il CSIRT, Computer Security Incident Response Team, che è una squadra che si dovrà occupare di cyber difesa, ma anche, aspetto citato poche volte, del flusso delle informazioni che riceverà dagli Operatori di Servizi Essenziali, i cosiddetti Ose (ex infrastrutture critiche) e dai Fornitori di Servizi Digitali (FSD). Il Csirt dovrà per primo valutare nel flusso di informazioni, incidenti di tipo informatico, incidenti di sicurezza generale delle informazioni e di natura fisica legati alla gestione degli asset. Insieme a questo team la Difesa ha rafforzato il COR, ovvero Il Comando per le Operazioni in Rete che garantisce, con visione unitaria e coerente, la condotta delle operazioni nel dominio cibernetico, la gestione tecnico-operativa in sicurezza di tutti i Sistemi di Information & Communications Tecnology/C4 della Difesa, al fine di armonizzare e distribuire tempestivamente le informazioni prodotte dai sistemi di comando e controllo, computing, Intelligence Surveillance & Reconnaissance.

Queste entità, però, non bastano perché, come affermato anche dal ricercatore dell’Università Campus Bio-Medico di Roma, Complex Systems & Security (COSERITY) Lab – Unità di Ricerca di Automatica, Luca Faramondi, del gruppo di Roberto Setola, con cui sto portando avanti un progetto ampio in tal senso, se si fa riferimento a possibili campagne di phishing legate al fenomeno del deep fake, la notifica e l’intervento così come pensato non basta. Infatti, a volte il deep fake, non avendo alle spalle competenze specifiche, può essere realizzato da tutti e la catena di controllo è meno attendibile. Questo sfugge, quindi, ai controlli. Ad esempio, molti gruppi terroristici stanno facendo affidamento a ragazzi di giovane età insospettabili per non esporsi in prima linea, destabilizzando i paesi nemici. C’è poi da considerare che in Italia la cultura dei messaggi ufficiali rilasciati da aziende/enti pubblici/organi statali/politici è ancora fortemente legata a contenuti testuali ai quali sappiamo di poter credere solo quando siamo certi della fonte.

Questo espone il nostro governo, ad esempio, a fenomeni di deep fake perché basta distogliere l’attenzione delle persone dai contenuti testuali e generare una loro attitudine comportamentale differente verso il visuale. Esempi tra tutti sono YouTube o Instagram. Entrambi vengono molto più utilizzati da noi che negli Usa (dove di contro utilizza più Twitter), in pochi secondi ci trasmettono un messaggio visivo, diventato ormai più importante della parte testuale, quindi paradossalmente la cultura della velocità ha generato la cultura della vulnerabilità, soprattutto in Italia. Nel nostro Paese, peraltro, si stanno anche diffondendo in maniera strisciante e pericolosa i cosiddetti deep fake real time, ovvero intercettazioni in tempo reale delle zone del volto, che “aggiustano” i pixel dietro all’immagine. Qui entra in gioco la sentiment analysis che analizza, classifica e rappresenta le sei emozioni principali delle persone, con la emotion recognition, per evitare che una semplice critica o commento diventi distorsione completa della realtà.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3