Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

Generare informazione utile dai Big Data della PA: ecco la vera sfida del Team Digitale

di Vincenzo Patruno, Istat

27 Feb 2017

27 febbraio 2017

Il vero valore dell’innovazione “data driven” deriva dallo studio dei dati come un tutt’uno e non come singoli pezzi. Occorre perciò far confluire su un’unica piattaforma tecnologica dati strutturati, semistrutturati e non strutturati provenienti da fonti diverse della PA

Quando parliamo di Big Data la prima cosa a cui viene spontaneo pensare sono enormi quantità di dati che vengono prodotti ogni giorno nei modi più diversi. Possiamo pensare ad esempio ai dati prodotti da ognuno di noi quando ogni giorno ci alziamo dal letto e cominciamo a fare le cose che facciamo normalmente su web. Come inviare una email, scrivere un messaggio, pubblicare una foto su Instagram, un post su Facebook, un tweet su Twitter, un video su Youtube, fare una ricerca su Google o un acquisto su Amazon, una prenotazione su Booking o su AirBnb. E non solo su web. Noi, infatti, generiamo dati anche tutte le volte che utilizziamo la nostra carta di credito, facciamo la spesa, guidiamo in autostrada, parliamo al telefono o anche solo quando teniamo il telefono acceso in tasca. E questi sono solo alcuni dei tipi di dati che sono prodotti da noi in modo molto spesso inconsapevole. A questi dobbiamo aggiungere tutti quei dati che vengono generati in modo automatico da sensori: dati satellitari, videocamere e tutto ciò che ricade in quello che chiamiamo l’”Internet of Things (IoT)”.

Più precisamente quando parliamo di Big data ci riferiamo a dati che in qualche modo hanno alcune caratteristiche ben definite. Non solo grandi volumi di dati, ma anche ad esempio la velocità con cui questi vengono continuamente generati e la loro varietà (si tratta infatti di dati strutturati, semi-strutturati e soprattutto di dati non strutturati come testi, messaggi, email, documenti, pagine web, … ). Volume, Varietà, Velocità sono le 3 “V” che sono diventate da tempo una sorta di “biglietto da visita” dei Big Data e che ultimamente si sono arricchite di un altro paio di “V” per cui alla fine le 3 “V” dei Big Data sono diventate ora 5!

Qui la teoria. In pratica, nonostante ovunque guardiamo siamo letteralmente circondati da dati, i Big Data sono rari esattamente come può essere raro il calamaro gigante.

I Big Data sono rari in quanto riusciamo ad accedervi con difficoltà e a utilizzarli soltanto in minima parte. Il motivo è che nonostante siano disponibili le tecnologie necessarie e abbiamo cominciato a sviluppare metodologie sufficientemente mature per il trattamento e l’analisi dei Big Data, stiamo parlando di dati che non sono liberamente accessibili e i cui “proprietari” sono i vari Facebook, Twitter, Google, AirBnb, le varie Telecom, le banche e così via. E ognuno di loro i dati se li tiene ben stretti, a meno di offrirli (anche) come servizio (a pagamento). Ed è questo il motivo per cui il “web scraping”, ossia la raccolta continua e automatica di dati da pagine web attraverso script o specifici programmi software è la pratica più diffusa da chi necessita (me compreso) di approvvigionarsi di dati “raw”.

L’analisi dei dati ci consente di studiare, monitorare e capire i fenomeni che possono essere descritti da quei dati. Attraverso l’analisi dei Big Data riusciamo a fare tutto ciò in modo prevalentemente automatico (attraverso tecniche che ricadono in quello che ora chiamiamo “machine learning”) e in tempo reale o “quasi” reale (near real-time), consentendo addirittura di fare delle previsioni sull’andamento di quei fenomeni nel brevissimo termine (nowcasting).

Amazon ad esempio in questo momento sa già qual è il prossimo libro che leggerete e infatti quel libro si trova già nel centro di distribuzione più vicino a voi, pronto per essere consegnato. E questo è soltanto uno dei tantissimi modi che abbiamo per sfruttare la Big Data Analysis.

Ma veniamo a noi. Infatti anche la Pubblica Amministrazione acquisisce dati in modo pressoché continuo. Sono i dati che vengono generati ogni qualvolta interagiamo per un qualche motivo con un qualunque ufficio della PA o quando utilizziamo uno dei numerosi servizi che vengono erogati online dalla stessa PA. I dati sono quindi un “effetto” del fatto che i cittadini “usano” la Pubblica Amministrazione. Sono dati che si trovano e che vengono gestiti nelle migliaia di sistemi informativi della PA. Che non solo acquisisce nuovi dati ogni qualvolta interagisce con i cittadini ma ne produce a sua volta di nuovi sotto forma di documenti, avvisi, notifiche, dati tabellari e così via. Sono i Big Data della Pubblica Amministrazione.

I dati di fonte amministrativa sono da sempre uno strumento molto potente per misurare fenomeni socio-economici e produrre statistica ufficiale. Poterlo fare in modalità “Big Data” è una sfida tuttora aperta su cui si è cominciato a riflettere per la prima volta qualche anno fa. (segnalo qui uno dei primissimi lavori sull’argomento. “What does “Big Data” mean for official statistics?” dell’”High level group for the modernization of statistical production and services” dell’UNECE a cui ho collaborato).

Quando si studiano dati come un tutt’uno e non invece a singoli pezzi, si scoprono cose interessantissime e inaspettate. E’ questo il vero valore del dato, lo dico sempre ogni qualvolta parlo di innovazione “data driven” ed è questo uno dei pezzi del lavoro che sta mettendo in campo il team digitale di Diego Piacentini.

Identificare nel “data lake” il punto in cui far confluire su un’unica piattaforma tecnologica dati strutturati, semistrutturati e non strutturati provenienti da fonti diverse della PA vuol dire poter consentire ai data scientist del team di lavorare su una base dati completamente inedita, che non è mai esistita in precedenza e che consentirà di guardare i dati da un punto di vista completamente nuovo. Significa di fatto mettere i data scientist del team nelle condizioni di provare per la prima volta a integrare e generare nuova informazione a partire dai dati della PA. Nuova informazione utile da poter ridistribuire attraverso API e visualizzazioni (immagino sotto forma di widget “embeddabili”). In modo da poter essere riutilizzata, composta e assemblata all’interno dei tanti sistemi e servizi di tutta la PA. E non solo della PA se rilasciati come Open Data.

Il limite diventa veramente solo l’immaginazione e la creatività, oltre che ovviamente il rigore scientifico e metodologico. Serve ancora risolvere vari problemi legati essenzialmente alla normativa vigente in termini di privacy ma anche problemi legati alla cultura attualmente prevalente che di fatto tende ad ostacolare la condivisione della conoscenza (o a praticarla soltanto quando si rivela innocua).

Il dato viene infatti condiviso con difficoltà con altri soggetti della PA, solo se è strettamente necessario, solo per la porzione necessaria e solo dopo aver sottoscritto una (faticosa) convenzione tra le parti. Non è vero che la PA è una. In Italia non c’è la Pubblica Amministrazione ma “LE” Pubbliche Amministrazioni, come evidenziavo nel mio precedente articolo.

E’ tutto molto interessante. Non è mai stata tentata una cosa del genere ma sono certo che questo progetto alla fine porterà buoni risultati, sia dal punto di vista degli output generati e sia su come verrà montato e costruito il processo di acquisizione del dato (data ingestion) e l’intera “data pipeline”. Nel peggiore dei casi diventerà un ottimo use case, sarà un gradino più in alto su cui riposizionarsi per ripartire, ma anche una, mi auguro bella, storia in più da raccontare.

Articoli correlati