oltre il Covid-19

Dati pubblici contro le pandemie: gli errori italiani da correggere

È giunto il momento di capire come mai il nostro sistema nervoso informatico non permetta ancora lo scambio e l’integrazione rapidi e efficienti dei dati pubblici. Vediamo cosa è andato storto e come possiamo aspettarci che la situazione migliori

06 Apr 2020
Guido Vetere

Università degli Studi Guglielmo Marconi


L’epidemia Covid-19 sta assumendo ovunque dimensioni euristiche, cioè tali da mostrare aspetti della realtà che la gestione ordinaria delle nostre società dissimulava. Tra questi aspetti, c’è quello della preparazione organizzativa all’emergenza, che oggi è sinonimo di preparazione informatica: stiamo scoprendo, e vedremo perché è così importante, quanto sia necessario un sistema nervoso informatico che renda rapido ed efficiente lo scambio e l’integrazione dei dati pubblici.

Emergenza e interoperabilità dei sistemi informativi

Il sistema della protezione civile, delle amministrazioni locali e centrali, delle organizzazioni non governative, della cittadinanza attiva e passiva, dipendono in modo sostanziale dai sistemi informativi e dalla loro interoperabilità. L’emergenza mette alla prova questo tessuto, che è il sistema nervoso di ciascun Paese.

S’è visto come nazioni tecnologicamente avanzate come Singapore e Corea del Sud abbiano efficacemente contrastato la diffusione del virus con dati e algoritmi. Da noi, per quanto l’epidemia abbia colpito con particolare durezza, davanti alla prospettiva di un rilevamento di dati sensibili della popolazione, ci si è dati, Foucault alla mano, ad una grande discussione filosofica sullo ‘stato d’eccezione’ e i suoi pericoli. Tuttavia, la mitigazione del rischio, il contenimento del contagio, la logistica dei soccorsi e tanti altri compiti importanti, non richiedono alcun rilassamento delle tutele sulla privacy: cose strategiche come l’allocazione ottimale delle risorse si possono fare senza intaccare la sfera privata delle persone, semplicemente fornendo dati di buona qualità e integrandoli tempestivamente.

Ma quando si va a vedere come farlo in concreto, quel ‘semplicemente’ si dissolve in un attimo. L’integrazione dei dati e l’interoperabilità dei sistemi informativi sono in realtà grossi problemi, non solo da noi, beninteso. Qui però scontiamo problemi in cui si intrecciano fattori tecnici e fattori politici, primo fra tutti la complessa articolazione dei poteri locali e centrali. Di interoperabilità e integrazione si parla ormai da più di venti anni: agende digitali, codici di amministrazione digitale e linee guida abbondano di indicazioni, appelli, pianificazioni; si sono fatte sperimentazioni e perfino appalti. Tuttavia, se oggi volessimo fare una query per sapere quali ospedali dispongono di una certa apparecchiatura dovremmo probabilmente attaccarci ai fonogrammi. Cosa è andato storto e come possiamo aspettarci che la situazione migliori?

L’illusione di una tecnologia che risolva (da sola) il problema

Anzitutto, il problema richiede molta analisi. Troppo spesso in passato abbiamo assistito a fulminee promesse di semplificazione che ancora oggi segnano il passo o sono state pietosamente dimenticate. Il principale difetto di impostazione è stato, e in qualche misura è ancora, il soluzionismo tecnico, che consiste nel pensare che una tecnologia o uno standard possano risolvere il problema senza affrontarlo nella sua dimensione di realtà sociale.

WHITEPAPER
Strategie DevOps: perché puntare su un'infrastruttura capace di gestire al meglio le applicazioni?
Cloud
DevOps

Fu così fin da quando, ai tempi di AIPA (1993-2003), ci si focalizzava sui protocolli di remote procedure call lasciando il contenuto degli scambi informativi come esercizio per le singole amministrazioni. Ancora col sistema di connettività e cooperazione applicativa del CNIPA (SPCoop, 2008) si pensava che i web services avrebbero consentito una convergenza informatica dal basso che poi in effetti non ci fu. In seguito, sono giunti i linked open data e gli standard del web semantico, ma anch’essi pensati più come silver bullet che come supporto ad una vera governance dei modelli concettuali di pubblica utilità. Infine, il Team Digitale di Piacentini, giustamente lodato per la qualità del suo impegno, ha tuttavia imboccato il vicolo cieco di un tipo di integrazione centralizzata, il cosiddetto data lake, che dovrebbe star su con la forza bruta di qualche cloud e le notti insonni dei data scientist, ma che rischia di diventare un pantano di dati incompatibili tra loro.

L’idea di una soluzione tecnica al problema dell’integrazione è oggi riproposta con le Application Programming Interfaces (API). Le API sono in effetti un gran pezzo di bravura del moderno software engineering. Esse consentono di concentrarsi sulla specifica delle interfacce applicative e ne semplificano notevolmente l’esposizione e la documentazione. Neanche queste tuttavia, lasciate a sé stesse, riusciranno a generare quel salto di qualità di cui, in momenti di emergenza, si avverte così forte il bisogno. Rispetto agli standard logici del semantic web, peraltro, le API fanno un gran passo indietro: la semantica delle strutture di dati di interscambio è tutta lasciata all’interno delle implementazioni del front-end e del back-end. La grande rapidità dello sviluppo che le API consentono è funzionale allo scenario per cui sono nate: la fornitura di servizi software. In questo scenario, chi acquista il servizio compra la sua semantica, e la storia finisce lì. La API non sono pensate per le stipulazioni semantiche o per rendere concettualmente trasparenti e mappabili le strutture di rappresentazione dei dati. Nello scenario della PA italiana, le API accompagnano naturalmente l’ipotesi della centralizzazione, ma se per caso questa risultasse politicamente impervia, darebbero luogo, al pari di qualsiasi tecnologia lasciata a sé stessa, alla solita babele.

Immaginate ciascun sistema sanitario regionale offrire il proprio API endpoint per l’interrogazione delle rispettive capacità, e qualcuno che sotto emergenza debba risolvere l’enigmistica di come mettere insieme le strutture di dati che ciascun endpoint fornisce. Molto meglio sarebbe se tutti implementassero la stessa API, ma ci vorrebbe come minimo qualcuno che si prendesse la briga di stabilire ex-ante come rappresentare le capacità in questione, e con esse l’universo mondo della Sanità. Un problema, questo, che è ben lungi dall’essere meramente tecnologico, dovendo prendere di petto l’ontologia del dominio applicativo.

Tra le tante cose che questa epidemia ci fa scoprire c’è il valore inestimabile di un sistema nervoso informatico che renda rapido ed efficiente lo scambio e l’integrazione dei dati pubblici. Questo sistema si predica e si invoca da più di venti anni. È ora giunto il tempo di capire come mai se ne sia realizzato ancora così poco e cosa dobbiamo fare per cambiare lo stato delle cose prima della prossima emergenza.

@RIPRODUZIONE RISERVATA

Articolo 1 di 2