Il percorso italiano verso gli open data

La roadmap

L'Unione Europea darà due anni di tempo, agli stati membri, per adempiere alle direttive sulla trasparenza e il libero accesso ai dati della pubblica amministrazione. Ci sono già esempi virtuosi di Firenze, Lombardia e Piemonte. Ma ora bisognerà fare sistema. Ecco come

di Paola Bacchiddu

UPDATE, vedi intervista ad Agostino Ragosa su open data

La campagna sugli open data, la trasparenza dei dati pubblici, il loro libero accesso e la condivisione, è già iniziata da parecchio tempo, fuori dai confini nazionali. Se ne è discusso al recente summit del G8, in Irlanda del Nord, ed è entrato, di diritto, anche nell'agenda politica italiana, nonostante la tiepida accoglienza e i consistenti ritardi del nostro Paese. Complice l'approvazione, da parte del Parlamento europeo, della bozza di revisione della Direttiva sull'accesso alle informazioni nel settore pubblico. L'accordo, siglato dai 27 paesi membri della Ue, prevede che gli open data siano d'ora in poi accessibili a pubblico, privati, aziende e sviluppatori, in maniera gratuita, o con un piccolo costo da sostenere. L'Europa diramerà un pacchetto d'indirizzo e linee guida per adempiere alla direttiva che non comporta però, obbligo di legge (sarà ciascun paese ad adeguare le normative per raggiungere l'obiettivo prefissato). È però un buon punto di partenza per una questione che è dibattuta già da molti anni, sia a livello di organismi istituzionali, che da movimenti “dal basso”. Dal 17 giugno 2013 i paesi avranno due anni di tempo per provvedere a implementare strategie (e quindi anche iniziative di natura legislativa) che consentano di conseguire lo scopo. Alle PA sarà consentito di applicare anche delle tariffe minime per coprire i costi dell'operazione.

L'intervento europeo segna una portata rivoluzionaria: non è nota di poco conto rendere accessibile l'immenso patrimonio di dati amministrativi, geografici, giudiziari, culturali: spesso ridotte dietro cui si nasconde l'esercizio del potere. E non lo è, in particolare, in un momento storico in cui la crisi condivisa ha azzoppato l'obsoleto impianto finanziario ed economico della Vecchia Europa. Non è solo questione culturale: open data significa anche nuovi posti di lavoro, come ha ribadito anche il vicepresidente della Commissione Europea, Neelie Kroes

In realtà, in passato, qualche tentativo si è già fatto anche in Italia. L'Open Knowledge Foundation, che si occupa di promuovere la conoscenza aperta, senza fini di lucro – ha già rilasciato i primi esiti sulla propalazione di informazioni pubbliche in un report, Open Data Census, da cui emerge una prima fotografia collettiva, seppure allo stadio embrionale. Dieci i settori presi in esame nell'analisi, relativi a trasporti, leggi, inquinamento, spese governative, risultati elettorali. In testa si collocano Usa, Gran Bretagna e Francia, mentre occorre scivolare fino al settimo posto per incrociare l'Italia, che ha pubblicato il report nazionale sul sito Dati.gov.it (con oltre 6mila dataset rilasciati in open). E se questione dolente e condivisa per i colleghi Ue sono il registro delle imprese e i codici zip d'avviamento postale, l'Italia mostra il fianco scoperto soprattutto su risultati elettorali, mappografia, orari dei trasporti, spese governative.

Anche dal punto legislativo la strada da percorrere è piuttosto lunga, se si considera che la legge nazionale 240 del 2000, all'art 25, comma due (le pubbliche amministrazioni di cui all'art 1, comma 2, del decreto legislativo 29 del 1993 hanno accesso gratuito ai dati contenuti in pubblici registri, elenchi, atti e documenti da chiunque conoscibili), necessiterebbe di ben più di una mano di vernice fresca da parte del legislatore. Da questo punto di vista gli Usa si sono mossi assai prima, nel luglio del 1966, quando l'allora presidente Johnson emanò il Freedom of Information Act o FOIA, l'atto per la libertà di informazione, che impone alle amministrazioni pubbliche una regolamentazione che consenta a qualunque cittadino di accedere alla documentazione prodotta dal Governo federale (tema quanto mai “bollente”, in questi mesi, dopo il caso Prism). L'Italia ha lanciato una campagna per seguirne l'esempio.

Maurizio Napolitano è tecnologo della Fondazione Bruno Kessler di Trento e portavoce di Open Knowledge Foundation.

“Prima di tutto – spiega – è una questione culturale, più che tecnologica. Cito sempre, al riguardo, un brocardo di Albert Camus che rende bene l'idea: 'Un impiegatuccio in un ufficio postale è pari a un conquistatore se la consapevolezza è comune ad entrambi'. Da questo punto di vista la politica può offrire un valido aiuto, anche se il movimento open data è stato perlopiù puntellato, anche negli anni passati, da gruppi di cittadinanza privata che si sono spesi per trasparenza e accesso. Penso ad hackers civici o a Nexa, che ha lavorato affianco alla Regione Piemonte. Un primo passo è stato compiuto nel 2003 col Psi (Public Sector Information) che è la definizione giuridica della vasta gamma di informazioni che gli enti pubblici raccolgono, producono, riproducono e diffondono in molti settori, durante la loro attività istituzionale. Era il 2003. Tre anni dopo è entrato in vigore il codice di amministazione digitale: un corpo organico di disposizioni che presiede all'uso dell'informatica come strumento privilegiato nei rapporti tra pubblica amministrazione e i cittadini dello stato”. 

Il governo Monti, con Agenda digitale, ha aiutato in questo senso? “Nell'ultimo governo Berlusconi, in realtà, era stato il vecchio Ministro Brunetta a impiantare il portale Dati.Gov.it, poco prima che fosse commissariato. Ma il successivo governo, col Decreto Crescita 2.0, ha attuato delle modifiche al Codice di Amministrazione Digitale che hanno segnato un passo decisivo, anche culturale, in materia: tutto ciò che è presente sui dati delle Pa, dove non specificato, è da considerarsi opendata”. Ritorna la questione culturale, "è fondamentale l'educazione digitale. Si parla tanto di smartcommunity: cerchiamo di crearle a partire dai dati. Penso, ad esempio, all'elaborazione di software per estrarli, condividerli e fruirli. Il software ha oggi la stessa importanza che ha avuto l'acciaio nel vecchio sistema economico industriale". "È una rivoluzione che stiamo attraversando. Sono opportunità che prima non c'erano. Ma non tutti, ancora, ne hanno la consapevolezza. Esiste, proprio come per la moda e il design, anche un made in Italy di sviluppatori software che ha un valore aggiunto, sul mercato, proprio perché poggia sulle prerogative nazionali di inventiva e creatività. Anche tutto il lavoro che si sta cercando di avviare sulle start-up, con Agenda digitale, è prezioso per gli open data. Da qui potrebbero nascere nuove applicazioni per accelerare l'implementazione e la gestione dei dati. Sono posti di lavoro, in un periodo di crisi”.

Sull'open data, Napolitano inquadra alcuni ostacoli da superare. “L'ostacolo tecnologico implica che il personale che nelle pa deve estrarre e gestire i dati, sia stato formato digitalmente. Spesso manca un aggiornamento in merito e l'età media dei funzionari è piuttosto alta". "Poi c'è la questione relativa ai costi, che molti utilizzano in maniera pretestuosa. Un costo, indubbiamente, c'è, ma dovrebbe essere percepito dalle pa come un vantaggio perché la spesa giustifica il beneficio. In realtà il lavoro potrebbe essere smaltito dal personale interno. I dati nascono già in digitale, poi finiscono su carta. Estrarre dati è facile, ma deve essere fatto in maniera sistematica, per non dissipare tempo e denaro. È il come che conta. Alcune strutture, che non possono contare su un personale numeroso, possono cavarsela sfruttando le piattaforme open source: non è difficile”. Ma ci sono anche buoni esempi, in Italia, “come il comune di Firenze, indubbiamente. Forse perché il sindaco Matteo Renzi è più giovane e sensibile alle tematiche prese in esame. È stato lui ad affidare la gestione a una persona competente come Giovanni Menduni, ingegnere e coordinatore dell'area innovazione della città. È lui che ha compreso con intelligenza che non ha valore solo la quantità dei dati emessi, ma altresì la qualità: quelli più richiesti dalla cittadinanza, ad esempio. Può sembrare banale, ma quando ha pubblicato, la scorsa estate, l'elenco dei luoghi più freschi di Firenze, ha registrato un boom di gradimento e condivisione. È qualcosa di simile a quello che è successo a Vienna - considerata una best pratice in Europa, oltre a essere uno dei primi comuni ad aver rilasciato i suoi dati - quando pubblicò la mappa dei bagni pubblici della città. Si è pensato più alla reale utilità di ciò che servisse davvero, attraverso un dialogo con la cittadinanza. Questo, in Italia, è stato fatto da pochi. Siamo, però, solo al principio".

Un buon lavoro- secondo Napolitano- è stato compiuto anche dal Piemonte (che si è mosso per primo in Italia) e ora dal comune di Milano che ha promosso un'interessante iniziativa: le app4mi. Il concorso è rivolto a startup, studenti e aziende per sviluppare application ritagliate sulla città. Hanno ammanito un campus, in preparazione del contest, in cui spiegheranno come trattare i dati: dettaglio importantissimo. "Non si può fare, però, un discorso geografico discriminatorio. Dalla mappa pubblicata su dati.gov.it, infatti, a una lettura superficiale, potrebbe sembrare che l'area del sud Italia sia meno virtuosa. Non è solo una questione di minore trasparenza, come saremmo indotti a pensare. Occorre considerare anche il maggiore gap tecnologico e le minori competenze, in media, di cui dispongono le regioni meridionali, rispetto al Nord Italia". Quanto ai benefici economici dagli open data, “calcolare il ritorno è difficile. Gli incassi che provengono dalla gestione dei dati per le pa, seppur non monetizzabili immediatamente, hanno un beneficio sul lungo periodo perché consentono di ottimizzare i tempi del lavoro, ad esempio. Il privato, invece, risparmierebbe tempo dalla ricerca dei dati e potrebbe così riutilizzarli e farne business. C'è anche la possibilità che le pa vendano dati. E qui si apre un delicato dibattito. Io sono per una via di mezzo: se non si riescono a ricoprire i costi di produzione, ad esempio, è giusto rilasciarli a fronte di una modesta spesa. Ricordiamo che è obbligo di legge per le pa, dopo il codice di amministrazione digitale, gestire, aggiornare, distribuire e condividere i dati. Quello che occorre è una strategia precisa in merito, che potrebbe indicare l'Agenzia per l'Italia Digitale. Lo stesso Open Data Census, del resto, fornisce quelli che sono considerati i dati di maggiore interesse per generare valore".

Anche per Carlo Batini - professore ordinario di sistemi di elaborazione delle informazioni al Dipartimento Informatica dell'Università Milano Bicocca – quello sugli open data è un appuntamento che l'Italia non può mancare.

“Certamente siamo partiti con un grave ritardo, sul tema, sia a livello centrale che comunale. La Ue, già una decina di anni fa, sollecitò gli stati membri nel processo di elaborazione e condivisione. Abbiamo però esempi nazionali di privati che lavorano già da tempo su questo. Penso alla De Agostini che pubblica, a pagamento, testi unici integrati di leggi su alcune specifiche materie. È un servizio che funziona: si può aprire un mercato florido intorno a questo. Mercato che gli Usa hanno già avviato da tempo: è di cinque volte superiore a quello europeo.

È vero che in Italia vi è innanzitutto un problema culturale da sciogliere. Ma occorre tenere sempre ben presente che il valore sociale dei dati non è inferiore a quello economico. Quando un'amministrazione pubblica alloca determinate risorse è doveroso che lo stanziamento sia reso trasparente, e così le procedure relative alle gare d'appalto. Perché le conseguenze sono produttive, sotto ogni punto di vista, anche economico. Le faccio un esempio: una ricerca dell'Università di Stoccolma, pubblicata nel 2011 sull'Economist, rilevava come la mortalità infantile della popolazione dell'Uganda fosse scesa del 30 per cento, dopo la pubblicazione relativa ai dati sanitari. Ecco che il valore sociale determina anche quello finanziario.

Un altro problema italiano da non sottovalutare è che i dati sono pubblicati in maniera separata l'uno dall'altro. Non vi sono collegamenti, né dati incrociati tra loro (i cosiddetti open linked data) che acquisirebbero, però, un notevole valore aggiunto. Ma per fare questo ci vuole un personale specializzato che neppure le Università riescono a produrre in numero sufficiente alla richiesta. E l'età media di chi dovrebbe occuparsene, a livello istituzionale, di certo non aiuta.

Altro punto è la qualità. È importante che la cittadinanza possa dialogare con le pubbliche amministrazioni per esigere dati realmente utili, come si diceva. La Ue ha indicato un set di indicatori e parametri che possono fornire un aiuto concreto in questa direzione”.  “Ho lavorato anche a livello istituzionale e, per esperienza, preferisco essere prudente. Del lavoro sugli open data dovrebbe occuparsene l'Agenzia per l'Italia Digitale, che ha già parecchi problemi da risolvere. Ma questo non deve essere un alibi per non intervenire: d'ora in poi bisogna lavorare pancia a terra”. 

26 Giugno 2013

TAG: open data, pa digitale, bacchiddu