Tweet e quotidiani, prove tecniche di big data

ELEZIONi

Per la prima volta in Italia, i giornali hanno provato a fare predizioni elettorali analizzando il sentiment su Twitter. L'analisi, del docente della Sapienza

di Valerio Eletti, direttore scientifico Complexity Education Project, la Sapienza Roma

Eccoci fuori dalle elezioni del 24 e 25 febbraio. Ancora a caldo possiamo osservare come i quotidiani, per la prima volta nel nostro Paese, abbiano giocato sull’analisi dei tweet durante la campagna elettorale. Obiettivo: proporre al pubblico diagrammi e indagini di un qualche interesse più o meno predittivo, seppure con risultati ancora poveri rispetto a quelli che si potrebbero ottenere con l’analisi di grandi masse di dati incrociati (Big Data) realizzata con motori semantici per estrarne significato (cfr. i miei articoli in agendadigitale.eu).

Vediamo in sintesi i tre casi più significativi:

La Repubblica, con il suo Twitterometro, si è limitata a misurare la quantità dei tweet relativi a ciascuna coalizione che comparivano in rete, fornendone l’andamento grafico nel tempo, senza alcuna analisi qualitativa né tantomeno semantica;

il Corriere della sera, con il suo blog Sentimeter (basato su tecnologie semantiche fornite da VfB, Voices from the Blogs, uno spin-off dell’Università degli Studi di Milano), ha saputo intercettare la pancia degli elettori in modo più accurato dei sondaggisti tradizionali («attraverso Twitter, si è riusciti a cogliere molto bene le dimensioni complessive dell’ondata “anti”»);

La Stampa è la testata che più ha pubblicizzato il suo impegno nell’analisi dei Social Network (in questo caso sia Facebook che Twitter) inserendo in home page la rubrica Big Data: i commenti sono firmati da Gianni Riotta, un giornalista da sempre attento alle nuove tecnologie, che raccoglie personalmente su Twitter più di centomila follower; i dati sono elaborati e presentati grazie alla piattaforma tecnologica Tycho, nata dalla collaborazione tra IMT, Institute for Advanced Studies di Lucca e il corposo Linkalab, Complex Systems Computational Laboratory. Molto interessante dal punto di vista dell’agenda digitale e degli sviluppi futuri è il fatto che la testata presti una seria attenzione alle basi teorico-pratiche dell’analisi semantica di grandi dati: ecco la loro dichiarazione di intenti iniziale: «Vi mostreremo le analisi più interessanti dai maggiori Social Network, utilizzando la nuova Teoria delle Reti Complesse. I flussi di 'tweet' e 'blog post' alimenteranno le analisi che saranno commentate sugli stessi Social Network, in un feedback continuo di analisi e commenti».

Si affinano così le armi per le prossime consultazioni, mentre le varie società di consulenza su Big Data e motori semantici (il cosiddetto Web 3.0) si avviano a spendere le loro esperienze in tutti i campi di applicazione, dalla politica alla finanza, dal marketing all’ecologia.

Noi li seguiremo con attenzione dal nostro osservatorio.

 

Ringrazio Massimo Conte per le sue segnalazioni di siti interessanti per questo argomento.  

27 Febbraio 2013

TAG: elezioni, eletti