Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

industry 4.0

Big data, in Italia qualcosa li frena nelle aziende

di Stefano Roselli, CINECA (Consorzio Interuniversitario)

16 Dic 2015

16 dicembre 2015

Nonostante il notevole interesse dimostrato verso i Big Data da parte delle organizzazioni, che ne percepiscono le potenzialità, sembra che l’Italia sia ancora in una fase di “early adopter”. Ci sono infatti molti elementi che potranno rallentare od ostacolare la velocità con cui si diffonderà il fenomeno dei Big Data: proviamo qui a riassumerli

Con la pubblicazione del rapporto “Big Data:The next frontier for innovation” della McKinsey nel 2011, si è avviato un nuovo fenomeno conosciuto come Big Data, che sta coinvolgendo i più diversi settori: dal tecnologico, all’economico a quello sociale.

In questi ultimi anni, l’interesse sui Big Data è in continua e costante crescita: ne sono testimonianza l’elevato numero di pubblicazioni, articoli e convegni sull’argomento. La società di consulenza Gartner, nel suo HypeCycle 2015, afferma che questo fenomeno è passato dalla fase Hype – tipica dei trends emergenti – a quella di diffusione. Organizzazioni – grandi e piccole – iniziano a comprendere concretamente come i Big Data possano essere utili per il loro business, con l’ottica di farli diventare “business as usual”.

La disponibilità di nuove informazioni e nuovi metodi di analisi, consentirà alle aziende di migliorare e/o innovare i loro prodotti o servizi, comprendere meglio i propri clienti e individuare nuove linee di business: in estrema sintesi, di essere più competitive.

Nonostante tutto questo è interessante fare una riflessione sul reale stato dell’arte dei Big Data – soprattutto in Italia.

Nonostante il notevole interesse dimostrato verso i Big Data da parte delle organizzazioni, che ne percepiscono le potenzialità, sembra che l’Italia sia ancora in una fase di “early adopter”.

Ci sono infatti molti elementi che potranno rallentare od ostacolare la velocità con cui si diffonderà il fenomeno dei Big Data: proviamo qui a riassumerli.

Il problema della privacy è argomento molto dibattuto in questi ultimi anni e potrebbe limitare l’utilizzo dei dati – in particolar modo quelli che si riferiscono alla persona, quali ad esempio quelli provenienti dai social network, dai siti Web, dalla telefonia, dalla diagnostica sulla salute, e così via.

La maggior parte degli utenti ritiene comunque che i vantaggi derivanti dall’utilizzo di questi nuovi sistemi o servizi Internet siano superiori rispetto a quelli collegati al semplice uso dei loro dati a scopo commerciale. Probabilmente questo sarà lo scenario a tendere, unitamente a un comportamento più “etico” da parte delle aziende; tuttavia bisogna tenere sotto osservazione l’evolversi della normativa nazionale e internazionale e delle sentenze sul tema della privacy dei dati, perché potrebbe limitare fortemente la diffusione dei Big Data.

Altro fattore non trascurabile nell’utilizzo dei Big Data è la competenza di analisi dati evoluta di tipo statistico e matematico, necessaria a individuare correlazioni tra le variabili, pattern di comportamento, modelli predittivi e contestualizzarla nei “business needs”. Queste competenze caratterizzano il ruolo dei “data scientist”, nuova figura professionale emergente.

Va ricordato che l’analisi dati che si usa nell’ambito Big Data è fortemente orientata ai modelli predittivi e analisi dei patterns, e va oltre l’abituale analisi dati della Business Intelligence classica, basata prevalentemente sulla statistica descrittiva e sull’analisi multidimensionale ai fini del reporting.

Non meno importanti sono le competenze tecniche sulle dirompenti “enabling technologies”, in particolare quelle emergenti dai progetti open source di Apache.org, come ad esempio – tra i più noti – Hadoop e Spark, ma non solo: si sta assistendo alla nascita di decine di progetti che genereranno  nuove tecnologie, alcune delle quali si affermeranno nei prossimi anni. Uno degli aspetti più interessanti in termini tecnologici è il Large Scale Machine Learning, ovvero l’applicazione di tecniche di Machine Learning su grandi volumi di dati, che implica la conoscenza dei paradigmi di calcolo distribuito combinato con la conoscenza statistica dei modelli di Machine Learning.

Questo tipo di competenze (analisi dati e tecnologiche) spesso non è presente nelle aziende o nelle organizzazioni: comincia così a crescere una domanda di nuove professionalità alla quale le università stanno cercando di rispondere proponendo nuovi corsi di laurea e master specifici in “data science”, come ad esempio il corso di laurea magistrale in “Data Science” attivato da quest’anno in Sapienza, nella facoltà di Ingegneria Informatica, Informatica e Statistica, o il master in “Data Science” della Bologna Business School dell’Università di Bologna avviato in ottobre.

Altro aspetto rilevante sono le fonti dati esogene all’azienda che spesso non sono di così facile accesso, sia per motivi di privacy che per motivi tecnici (eterogeneità dei formati, dati spesso destrutturati, accesso alle fonti), e spesso non sono gratuite. I dati cominciano a diventare sempre più un “asset” aziendale importante e pertanto chi li possiede cerca di trarne un profitto, anche tramite società di “data broker” fondate ad hoc.

La molteplicità delle fonti dati e la varietà dei dati (strutturati e non) da correlare in fase di analisi aumenta sensibilmente la complessità del processo di estrazione, trasformazione e caricamento dei dati.

Basti pensare al problema delle decodifiche, della standardizzazione e della temporalità dei dati, che viene amplificato quando si devono incrociare i “silos” di dati interni all’azienda con fonti dati esterni. L’integrazione dei dati diventa così una vera sfida, che spesso comporta un impegno non trascurabile in termini di risorse e tempo

Inoltre, chi deve correlare i dati provenienti da diverse fonti, sente la necessità di individuare e mettere in relazione le molteplici entità informative delle diverse aree tematiche, tramite un metadato che ne descriva i contenuti da un punto di vista concettuale e semantico. Questo può avvenire solo con l’utilizzo di sistemi basati su ontologie, che mappano classi di dati in concetti da utilizzare in fase di analisi dati. Purtroppo il tema delle ontologie applicate ai Big Data è ancora poco sviluppato, nonostante il forte contributo che arriva dal mondo accademico.

Un ulteriore elemento da tenere in considerazione è rappresentato dalla difficoltà delle Linee di Business nel definire i requisiti di business – a volte a causa di una non chiara comprensione delle possibilità di analisi dei dati – e nell’operare in sinergia con l’area IT dell’azienda, che spesso si trova impreparata ad affrontare questi progetti o ha altre priorità.

Infine, anche per effetto della congiuntura economica, le aziende non sono disposte a fare grandi investimenti in progetti Big Data, perché non ancora certe del valore aggiunto che possono portare al loro business. I costi dell’infrastruttura tecnologia specifica per i progetti Big Data – riducibili utilizzando i servizi di cloud nelle sue forme IaaS (disponibilità di risorse hardware), PaaS (disponibilità di piattaforme middleware) e SaaS (disponibilità di Analytics per specifici domini applicativi) – e i costi per le competenze tecnologiche e di analisi dati prevalentemente fornite da società di consulenza, sommati ad una incertezza del risultato, sembrano portare le aziende ad una certa cautela nella propensione all’investimento.

I motivi qui esposti inducono a considerare il fenomeno dei Big Data in Italia ancora rivolto a progetti di Proof Of Concept (POC) tipici di un mercato non ancora maturo e costituito prevalentemente da “early adopter”.

In questo contesto, il Cineca (Consorzio Interuniversitario) lo scorso anno ha provveduto alla costituzione di un Laboratorio di Big Data & Analytics con la missione di promuovere e diffondere le tecnologie dei Big Data e le tecniche di Data Analysis per aiutare i decisori e i professionisti ICT delle organizzazioni pubbliche e private, a comprendere le potenzialità e i punti di attenzione di questo dirompente fenomeno.

 

Articoli correlati