Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Piano triennale agid

L’integrazione tra i sistemi della PA è una questione semantica, ecco la strada (2019-2021)

Nel nuovo piano triennale Agid, la dimensione semantica dell’informatica pubblica è chiaramente attestata, anzi quasi pervasiva, a testimonianza una consapevolezza ormai divenuta robusta. Ma, senza un coordinamento centrale, linee guida generali, risorse concrete si rischia una concettualizzazione a macchia di leopardo

03 Apr 2019

Guido Vetere

Università degli Studi Guglielmo Marconi


Far “parlare” i sistemi della PA in modo che, ad esempio, il cittadino non sia costretto a fornire ad un’amministrazione dati già in possesso di un’altra amministrazione, è un sogno che risale agli anni ’90 e ancora mai realizzato. Il problema dell’interoperabilità e dell’integrazione, contrariamente a quanto si possa pensare, non è però tanto di natura tecnica o legato al formato dei dati: è, infatti, più che altro una questione semantica.

Il grande tema dell’integrazione occupa i capitoli centrali del nuovo Piano Triennale per l’Informatica nella Pubblica Amministrazione 2019 – 2021 ed è contemplato nei temi dell’interoperabilità (Cap. 4), delle basi di dati pubbliche (Cap. 5), delle piattaforme (Cap. 6) e degli ecosistemi (Cap. 7).

Esaminiamo di seguito come nel documento attuale (cosi come, peraltro, nel suo predecessore di tre anni fa), mentre da un lato si registrano notevoli avanzamenti, dall’altro si può cogliere una certa continuità rispetto alla storia, non sempre di successo, degli ultimi vent’anni.

Interoperabilità e integrazione, un problema semantico

Dai tempi di AIPA (1993-2003), passando per CNIPA (2003-2012) ed ora AgID, anche sotto l’impulso dell’Unione Europea (European Interoperability Framework), si è progressivamente fatta avanti la consapevolezza che interoperabilità e integrazione non siano tanto un problema di protocolli tecnici e di formati di dati, ma siano un problema semantico.

Non esiste la miracolosa sequenza di bit, o il prodigioso modo di trasmetterli, in grado di garantire ad esempio che “atto amministrativo” venga sempre e ovunque interpretato come il riferimento a una deliberazione, o al documento che la certifica, o a entrambe le cose insieme. Per questo, già vent’anni fa si iniziò a pensare che un’adeguata specificazione delle convenzioni di significato dovesse far parte integrante delle infrastrutture di quella che si chiamava al tempo cooperazione applicativa.

Il sogno infranto del semantic web

Si iniziò a parlare di ontologie, cioè, nella terminologia del Semantic Web (W3C), di schemi concettuali formalizzati e condivisi, intesi come strumenti per fornire tali specificazioni.

Già nella seconda versione del Sistema Pubblico di Connettività e Cooperazione Applicativa (SPCoop 1.1, 2005) era tecnicamente possibile specificare il significato dei messaggi scambiati tra le amministrazioni usando uno standard del W3C chiamato Ontology Web Language (OWL). Tuttavia, quella potenzialità non fu mai sfruttata.

Lasciata all’iniziativa delle singole amministrazioni, la caratterizzazione semantica degli accordi di servizio semplicemente non avvenne. C’è da dire che, al pari, non avvenne tutto il Semantic Web, così come lo aveva immaginato dall’Inventore del Web Tim Berners-Lee, almeno nell’ampiezza che egli auspicava.

L’idea che, in virtù della disponibilità di standard rappresentazionali, le ontologie sarebbero germinate spontaneamente convergendo “dal basso” verso una Characteristica Universalis capace di dar contenuto alla rete globale si è rivelata illusoria. Evidentemente, gli accordi di significato si possono stipulare, sì, ma non senza la fatica della governance, non senza un’organizzazione e un piano.

Il progetto OntoPiA, qualcosa sta cambiando?

Solo in tempi recenti, cioè col Piano 2017-2019 ed il Team Digitale, l’idea di produrre in modo sistematico ontologie e vocabolari per la PA ha iniziato a prendere piede. Tuttavia, sembra di poter dire che nel triennio precedente questa attività sia stata poco più che la nota a piè di pagina di un approccio ai dati pubblici in stile “big data”, come se la PA fosse una piattaforma di e-commerce e il problema fosse quello di stilare un catalogo di prodotti.

Ultimamente, ma con risorse del tutto insufficienti e prospettive ancora incerte, il progetto OntoPiA del Data & Analytics Framework (DAF) ha iniziato a metter mano alla concettualizzazione come “cittadino di prim’ordine” dell’informatica pubblica. L’approccio però sembra ancora di tipo bottom-up, cioè orientato all’integrazione ex-post di quanto alcune istituzioni e amministrazioni centrali hanno iniziato separatamente a produrre sul fronte dei modelli concettuali.

La dimensione semantica dell’informatica pubblica nel nuovo piano triennale

Nel nuovo piano triennale, la dimensione semantica dell’informatica pubblica è chiaramente attestata, anzi si direbbe quasi pervasiva, a testimonianza una consapevolezza ormai divenuta robusta.

Tuttavia, le attività pianificate di modellazione concettuale sembrano per lo più confinate nei singoli ecosistemi, nelle singole piattaforme, nell’interfaccia alle singole basi di dati, senza la previsione di un coordinamento centrale, di linee guida generali, di concrete risorse destinate alla concettualizzazione dentro un quadro sistemico a livello nazionale. Il rischio è che si produca una situazione a macchia di leopardo, che la qualità delle singole esperienze sia difforme, che si perda l’occasione di una messa a fattor comune di modelli consolidati, di design pattern concettuali che inducano buone pratiche ed importanti economie di scala.

Nel momento in cui, col progresso tecnologico, l’interoperabilità tecnica diventa una commodity – si consideri ad esempio la relativa facilità di disegnare e implementare un’interfaccia applicativa (API) e la disponibilità di infrastrutture di cloud – la concettualizzazione rimane il “collo di bottiglia” per qualsiasi progetto di integrazione di sistemi distribuiti e eterogenei come quelli della PA. Le linee guida attuali dicono chiaramente, e meritoriamente, che il nodo va affrontato e che specifiche azioni vanno intraprese in tal senso, ma ne confina l’attuazione nel perimetro delle singole iniziative, con ciò continuando una certa neutralità verso i contenuti che ha caratterizzato l’informatica pubblica fino ad oggi.

La qualità del modello concettuale

Produrre un modello concettuale (ontologia) di buona qualità non è banale, tanto meno nell’ambito di sistemi socio-tecnici complessi come quelli delle Amministrazioni dello Stato. Ma la qualità del modello concettuale può fare la differenza e aumentare notevolmente l’efficacia e l’efficienza delle soluzioni.

Si dice a ragione che l’intervento diretto, non solo regolatorio ma implementativo, della PA centrale deve essere potenziato, che un Team Digitale di 30 persone non può risolvere tutti i problemi. Ma se la situazione finanziaria non consente di mobilitare risorse più ingenti, allora si farebbe bene ad investire il poco che c’è sul livello più alto della catena del valore: quello concettuale.

Si fa anche appello alla necessità di centralizzare, dopo decenni in cui l’autonomia (non solo locale) è stata il principale driver delle scelte architetturali. Ma non sarà il fatto di collocare applicazioni eterogenee sullo stesso cloud a risolvere i problemi, né il fatto di pubblicare un catalogo di API ciascuna col proprio idioma, bensì l’adozione da parte di queste di schemi che, derivando dagli stessi modelli concettuali, siano facilmente integrabili. Tali schemi (il Semantic Web lo insegna) non nascono spontaneamente, e ricostruirli a posteriori non è certo una buona idea. Questa dunque è la centralizzazione che serve davvero: si chiama semantica.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4