Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

scenari 2018

Open data pubblici, la strategia perché siano (davvero) utili all’Italia

Uno degli eventi rilevanti di quest’anno per gli Open Data è stato il rilascio del Piano Triennale AgID. Adesso però bisogna passare da una modalità “artigianale” a una “industriale” per la generazione e manutenzione dei dati. Servono progetti chiari e condivisi e un Programma nazionale

20 Dic 2017

Vincenzo Patruno

Project Manager e Open Data Evangelist - ISTAT


Uno degli eventi rilevanti di quest’anno a riguardo degli open data pubblici è stato senza dubbio il rilascio del Piano Triennale per l’Informatica nella PA da parte di AgID.

Il Piano Triennale è un documento “dinamico”. Viene aggiornato man mano che lo scenario di riferimento cambia o quando ci sono evoluzioni significative da segnalare. Ad esempio sono confluite nel piano anche le attività provenienti da OGP (Open Government partnership) mentre per la fine del 2017 è previsto il completamento di alcuni obiettivi legati alle basi dati “chiave” da rilasciare come Open Data (da non confondere con le basi dati di interesse nazionale).

Mi voglio però soffermare su un aspetto in particolare. Nel Piano Triennale viene infatti sottolineata la necessità di rendere pubblici quei dati che hanno potenzialità tali da poter generare un impatto sociale ed economico (e quindi non qualsiasi tipo di dato in modo indiscriminato). Per tutti i dati pubblicati va poi definito un chiaro piano di rilascio, vanno seguiti standard per la loro produzione e questo sia per la parte dati che per la parte metadati.

Si tratta, in altre parole, di andare verso quella che possiamo chiamare “industrializzazione” della produzione di Open Data.

Tante criticità che ci sono sugli Open Data nascono infatti dal fatto che la produzione e il rilascio dati è ancora prevalentemente fatto in modo “artigianale”. Quello che serve, e la strategia del Piano Triennale su Open Data tenta di introdurre proprio questo aspetto, è di passare da una modalità “artigianale” (e spesso amatoriale) di fare Open Data da parte delle pubbliche amministrazioni ad una modalità invece “industriale”. L’industrializzazione della produzione e del rilascio di dati pubblici non solo hanno effetti benefici sulla qualità dei dati prodotti, ma consentono di far diventare “produzione e rilascio” attività “strutturali” all’interno di una Pubblica Amministrazione.

Sarà a causa del “pensiero lombardo” in generale e milanese in particolare, notoriamente orientato al funzionamento e alla efficienza, fatto sta che la Regione Lombardia ha messo in campo una strategia Open Data che cerca di puntare sia sulla qualità dei dati, che su quella dei processi per la loro pubblicazione. L’automazione di tanti processi di creazione e di pubblicazione ha consentito di disegnare, generare e mantenere costantemente aggiornati più di 3200 dataset.

L’offerta di funzionalità avanzate per il riuso dei dati attraverso il portale Open Data regionale, assieme ad iniziative per la diffusione della cultura dei dati (e, va detto, alla capacità di leadership della Regione) stanno pian piano contribuendo a far maturare lo scenario di riferimento locale. E poiché tanti dati vengono prodotti da piccoli enti locali, ecco che si cerca di stimolare l’industrializzazione dei processi anche attraverso incentivi economici come questi, dando nello stesso tempo indicazioni precise sui dataset da rendere pubblici. Chapeau!

Abbiamo detto che gli Open Data devono avere un impatto di tipo sociale e/o economico altrimenti non sarà mai chiaro a cosa servono e perché facciamo tutto questo. Abbiamo visto che uno degli obiettivi strategici del Piano Triennale è quello di rendere disponibili come dati aperti quelli che possono generare un “forte impatto” sulla società civile e sulle imprese.

Ma qual è stato, se c’è stato, l’impatto degli Open Data sulla società e sul mercato?

Open Data 200 è il primo studio sistematico che cerca di capire come il mercato utilizza i Dati Pubblici per creare prodotti e servizi.  Sviluppato da GovLab-New York University in collaborazione con la Fondazione Bruno Kessler di Trento, Open Data 200 è in assoluto il primo passo in Italia per capire come sta rispondendo il mercato all’offerta di dati pubblici. Scopriamo ad esempio che il 47% delle aziende che hanno partecipato all’indagine (purtroppo non molte rispetto a quelle contattate) opera nel mercato B2B, che vuol dire che al momento l’attività dove il mercato riesce ad essere più competitivo è prevalentemente quello dell’integrazione dati. Solo il 17% opera nel mercato B2C, segnale questo della difficoltà che c’è con i dati al momento disponibili a creare nuovi prodotti o prodotti che siano competitivi con quelli già presenti sul mercato. Il restante 36% lavora con la pubblica amministrazione (B2G) in genere per il rilascio di Open Data (e quindi non riusano dati pubblici ma li generano).

I dati più utilizzati? Quelli di fonte OpenStreetMap e quelli di fonte Istat, a conferma della necessità di avere non solo dati di alta qualità ma anche la certezza della manutenzione del dato nel tempo e soprattutto una “copertura” territoriale completa, ossia lo stesso dato disponibile per tutto il territorio nazionale.

Fin qui alcune (brevi) considerazioni sulla situazione nazionale. Ma cosa sta accadendo in Europa?

È recente la notizia della conclusione dell’EU Datathon 2017 con la proclamazione dei team vincitori. Tra i finalisti anche Evodevo, azienda italiana che opera da vari anni nel settore dei dati aperti, segno che in Italia oltre a una sempre crescente competenza sui dati, riusciamo (anche e per fortuna) ad avere buone idee di riuso.

Il 2017 è anche il terzo anno in cui viene pubblicato il rapporto “Open Data Maturity in Europe”. Realizzato da Capgemini Consulting. È uno studio che si basa sulla misura di due indicatori: la “Open Data Readiness” e il “Portal Maturity”, ovvero lo sviluppo delle attività nazionali su Open Data e il grado di maturità del portale nazionale dati.gov.it.

L’Italia si posiziona tra i “trendsetter”, si colloca cioè tra i Paesi europei che sono più avanti rispetto agli altri rispetto ai due indicatori e che quindi diventano punti di riferimento per chi sta più indietro.

Anche nel 2015 l’Italia aveva raggiunto un risultato simile, mentre era scivolata indietro nel rapporto del 2016, dove ha influito l’abbandono del “vecchio” portale dati.gov.it e la lunga fase di stallo prima dell’attivazione del “nuovo” portale, lavoro piuttosto complesso e devo dire non facile svolto da Agid  che alla fine sta cominciando a dare i primi risultati.

L’augurio per il nuovo anno? Innanzitutto l’industrializzazione dei processi di generazione e manutenzione dati. Qui bisogna fare perno sulle Regioni, e per farlo servono un paio di cose: un progetto chiaro e un programma condiviso. Rilancio qui la necessità di un Programma Open Data nazionale serio, che non è e non può ovviamente essere il “paniere dinamico” dei dataset. Servirebbe fare un lavoro congiunto e condiviso con la conferenza Stato Regioni e ANCI. Non sarebbe poi affatto male se in tutto ciò ci fosse anche una chiara leadership.

Articoli correlati