servizi pubblici digitali

PA e Intelligenza Artificiale, un matrimonio che conviene ai cittadini: le prospettive

La PA è il terreno ideale per sperimentare l’integrazione tra l’anima razionale e l’anima statistica dell’IA nella ricerca di soluzioni di valore per i cittadini. Ma soprattutto, sarà il banco di prova per poter beneficiare dei rapidi progressi delle tecnologie intelligenti in modo sicuro, etico e democratico

01 Ott 2020
Maurizio Lenzerini

Dipartimento di Ingegneria Informatica, Automatica e Gestionale Antonio Ruberti Università di Roma La Sapienza

Guido Vetere

Università degli Studi Guglielmo Marconi


La Pubblica Amministrazione costituisce il terreno ideale per l’applicazione dell’Intelligenza Artificiale, e al tempo stesso, quest’ultima può rivelarsi preziosissima per la PA. Il binomio dunque tra PA e IA è vincente.

Questa convinzione nasce dal fatto che l’Intelligenza Artificiale può vantare ricerche accademiche e industriali con più di mezzo secolo alle spalle. Oggi questi studi ci consegnano una “cassetta degli attrezzi” molto ricca e variegata, che include strumenti non solo statistici basati sull’analisi dei dati (data-driven) ma anche razionali basati sulla rappresentazione della conoscenza ed il ragionamento automatico (model-driven).

La Pubblica Amministrazione (PA), a sua volta, si presenta come un ecosistema di straordinaria ricchezza e complessità, con attori di diversa natura e aspettative, sottosistemi interconnessi e cooperanti, problematiche sociali che si intrecciano ad aspetti organizzativi, normativi e legislativi, e con stringenti esigenze di efficacia ed efficienza nella gestione dei beni fondamentali di cui dispone – quali dati, conoscenza, processi, servizi e documenti. Il tutto, peraltro, soggetto ad una dinamicità che induce cambiamenti frequenti e imprevedibili.

L’opinione che PA e AI siano fatte l’una per l’altra è condivisa anche dalle Task Force istituite da AgID e dal Ministero dello sviluppo economico, che nel recente passato lo hanno esplicitamente dichiarato e anche diverse iniziative dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA) e del Laboratorio Nazionale di Artificial Intelligence and Intelligent Systems del CINI, ad esempio, lo hanno ribadito con forza.

PA e AI: un matrimonio che porterà bene ai cittadini

In attesa dell’annunciato matrimonio tra AI e PA, il fidanzamento vive alcuni momenti esaltanti e pieni di aspettative, ma anche periodi di stanchezza e disillusione. Se è vero che recentemente ci sono state numerose esperienze di utilizzo di tecniche di IA nelle pubbliche amministrazioni, esse sembrano però sporadiche sperimentazioni su domini “verticali”, piuttosto che azioni coordinate nel contesto di un disegno organico. Noi crediamo che i promessi sposi possano osare di più. L’effetto benefico che l’IA può avere sulla PA è davvero considerevole. Quante volte abbiamo sentito la promessa (o la minaccia?) che l’IA rivoluzionerà le nostre vite? IA e “rivoluzione” vengono associate oggigiorno ad un numero esorbitante di discipline, ad esempio la medicina, l’agricoltura, la giurisprudenza, il giornalismo, la formazione, la meccanica, l’aerospazio, la finanza, le telecomunicazioni, addirittura l’arte e la lista potrebbe continuare. Possiamo annoverare la PA in questo elenco? Noi crediamo di sì: da un’attenta e sistematica applicazione delle tecnologie intelligenti può scaturire quell’innovazione nel rapporto tra cittadini e amministrazioni che gli italiani attendono da anni. Discutiamo di seguito alcuni elementi di questo progresso, facendo riferimento ai summenzionati beni fondamentali del patrimonio della PA.

Dati, processi e servizi

Nell’era digitale, con i progressi in numerosi campi dell’Information Technology, i dati vengono generati e raccolti a ritmi sostenuti ed in notevoli quantità ed una pletora di processi vengono impiegati per effettuare servizi di varia complessità. Una Pubblica Amministrazione basata sui dati apre enormi possibilità ad enti pubblici, imprese e cittadini, ai quali viene offerta la possibilità di utilizzare un prezioso patrimonio informativo al fine di creare valore. Tra queste si fa spesso riferimento all’accrescimento del potere predittivo dei sistemi informativi e, di conseguenza, alla capacità di migliorare i processi decisionali di aziende ed organi pubblici. Tutto ciò viene oggi ricondotto prevalentemente agli algoritmi di apprendimento automatico (Machine Learning), e, più specificamente, alle reti neurali e al Deep Learning, che hanno mostrato evidenti e talvolta significativi successi in molti campi, dal riconoscimento di immagini ai sistemi di videosorveglianza, dalla medicina alle tecnologie del linguaggio naturale. Tuttavia, il Machine Learning è solo una specifica area dell’Intelligenza Artificiale e la predizione è solo uno dei processi che la Pubblica Amministrazione è chiamata a svolgere nell’ambito del trattamento dei dati. Allargando l’orizzonte, pur rimanendo sullo schematico, tali processi includono:

  • la preparazione dei dati, ossia la loro raccolta, gestione, condivisione e pubblicazione,
  • il cosiddetto “data analytics”, ossia l’insieme delle manipolazioni sui dati che mirano a diverse forme di analisi: descrittiva (cosa è successo nel passato relativamente ad un certo fenomeno), causale (cosa ha causato quello che è successo), predittiva (cosa è probabile che accada nel prossimo futuro) e prescrittiva (quali azioni intraprendere al fine di affrontare quello che accadrà e le relative implicazioni).

È indubbio che l’immaginario collettivo dipinto dai media e l’interesse apparente di molte pubbliche amministrazioni siano oggi focalizzati sul machine learning e sulle sue potenzialità nei confronti dei processi del data analytics. I risultati delle tecniche di learning sui dati o, più in generale, data-driven, che però si possono conseguire dipendono in modo critico dalla preparazione dei dati e dalla possibilità di integrare fonti diverse, di governare il patrimonio informativo risultante e, in ultima analisi, dalla qualità dei dati sottostanti. Se si adotta il Machine Learning, dati di scarsa qualità o avulsi dal contesto in cui vengono utilizzati possono avere gravi conseguenze negative sull’adeguatezza e sulla comprensibilità delle decisioni prese. In sintesi, raggiungere buoni risultati mediante il data analytics ed i conseguenti processi decisionali senza modellare su larga scala, in modo efficace, dati spesso non strutturati, multimodali e complessi, è estremamente problematico e colmo di insidie.

WEBINAR
Intelligenza Artificiale, Data Analysis e Image Recognition: i vantaggi concreti per l’azienda
Big Data
Intelligenza Artificiale

Ecco che allora entra in gioco l’anima model-driven dell’IA, che suggerisce uno specifico paradigma nell’ambito della preparazione dei dati, con l’obiettivo di fornire un approccio ben fondato a questo formidabile compito. Il paradigma è chiamato Ontology-Based Data Management (gestione dei dati basata su ontologia) e prevede la strutturazione del sistema informativo di una organizzazione (una PA, ad esempio) in quattro livelli: risorse, ontologia, mapping e viste.

  • Il livello delle risorse è costituito dalle fonti di dati esistenti e dalle applicazioni che già operano nell’organizzazione.
  • Il livello dell’ontologia è costituito da una rappresentazione esplicita e dichiarativa (indipendente, cioè, da vincoli che riguardano la realizzazione del sistema) del dominio di interesse, chiamata appunto ontologia. Il dominio è perciò specificato per mezzo di una descrizione formale, formulata ad un opportuno livello di astrazione, di tutti gli aspetti rilevanti per l’organizzazione, sia statici, sia dinamici. Sebbene spesso ci si limiti all’uso delle ontologie per modellare i dati, negli approcci più sofisticati, tale descrizione formale è strutturata in tre componenti:
    1. classi e relazioni, ossia il modello informativo dell’organizzazione, che serve per sistematizzare e tipizzare i dati ed i metadati che il sistema deve trattare;
    2. operazioni atomiche, che rappresentano azioni di base significative e rilevanti sulle classi e sulle relazioni, e che si aggiungono al modello informativo per caratterizzare la semantica degli elementi del dominio;
    3. processi e servizi, dove un servizio è la rappresentazione di una funzionalità che l’organizzazione offre ai suoi utenti ed un processo è una raccolta strutturata di attività che producono uno specifico servizio o uno specifico prodotto all’interno dell’organizzazione.
  • Il livello dei mapping è costituito da un insieme di asserzioni dichiarative che specificano come le risorse disponibili vengono messe in relazione con gli elementi dell’ontologia.
  • L’ultimo livello specifica quali sono le viste sull’ontologia che devono essere sia fornite alle applicazioni interne per una percezione personalizzata della conoscenza di dominio, sia esposte come dati pubblici ed API aperte a terze parti, con particolare attenzione alle problematiche di “privacy”.

Una volta definiti i suddetti livelli, l’idea è di affidarsi a strumenti per il ragionamento automatico e realizzare servizi di “data management” che consentano agli utenti di interagire non più con il livello delle risorse, spesso contaminato da aspetti realizzativi e tecnici, ma con il livello dell’ontologia. Servizi basati sulla ontologia per l’interrogazione dei dati, la verifica della loro qualità, la gestione della loro “provenance”, la loro annotazione con opportuni metadati sono esempi pregnanti di come il ragionamento automatico possa aiutare a dotarsi di metodi di nuova generazione per i tradizionali compiti di gestione dei dati. Il cambio di paradigma, tuttavia, promuove anche nuove potenzialità, ad esempio l’utilizzo dell’ontologia per fornire spiegazioni al risultato di processi di data analytics, come quelli di classificazione e predizione.

Dai dati aperti alle basi di conoscenza

L’Italia digitale ha puntato molto, negli ultimi anni, sui dati aperti (open data). La pubblicazione di

dataset (ad es. i dati di bilancio dei Comuni) e la loro successiva integrazione anche da parte di terzi funziona ragionevolmente bene in diversi casi. Tuttavia, questa strategia non può “scalare” su basi di dati più grandi, complesse e dinamiche, ad esempio i pubblici registri o le anagrafi, per le quali conviene verosimilmente conservare le basi di dati su cui operano le procedure applicative tradizionali (legacy) per accedervi dinamicamente “on-demand”.

L’accesso alle basi di dati mediato dalle ontologie attraverso opportuni servizi di interrogazione può essere dunque anche visto come la strada per ottenere facilmente la disponibilità dei dati pubblici nella loro generalità, facilitando procedure analitiche che attualmente richiedono molto lavoro di integrazione ex-post. Si realizzerebbero in questo modo basi di conoscenza simili al Knowledge Graph di Google, con cui tutti ormai abbiamo familiarità, cioè, semplificando, grafi di entità e relazioni su cui è possibile effettuare ricerche efficienti mediante opportune interfacce applicative (API).

A differenza del Knowledge Graph di Google, le basi di conoscenza della PA potrebbero essere decentralizzate e gestite da software aperto, tutelando le prerogative di ciascuna amministrazione ma al contempo rendendo disponibile l’informazione di pubblico dominio in modo trasparente e facilmente accessibile.

Documenti e conoscenza linguistica

Altrettanto importante è il trattamento dei dati “non strutturati” contenuti nei testi. In particolare, la capacità di estrarre informazione da documenti delle Amministrazioni centrali e locali è cruciale per lo sviluppo di sistemi intelligenti di ricerca, di classificazione, di analisi e di supporto alle decisioni. In molte aree, le tecnologie del linguaggio naturale (NLP) stanno facendo notevoli progressi grazie a metodi di apprendimento automatico “non supervisionato”, che non richiedono cioè alcun intervento di modellazione da parte dei progettisti. Le tecnologie basate su questi approcci, tuttavia, non riescono a catturare aspetti concettuali anche semplici, come la categoria di appartenenza delle entità nominate nei testi, cioè ad esempio stabilire se “Mario Rossi” sia il nome di una Organizzazione o di una Persona. Da una parte, infatti, tali categorie riflettono una concettualizzazione improntata agli scopi applicativi, e questi ultimi non possono (e non devono) essere estrapolati dai dati; dall’altra, la capacità di discriminare, anche in base al contesto frasale, i diversi casi, richiede in genere la supervisione dei dati di addestramento (training set).

L’analisi di relazioni concettuali (non solo sintattiche) tra le parole contenute nei testi, come ad esempio quelle che realizzano i ruoli tematici dei verbi (agente, paziente, strumento, ecc.) consentirebbero, inoltre, con opportune procedure di verifica, di alimentare le basi di conoscenza pubbliche di cui si accennava in precedenza.

Anche in questo caso, per sfruttare le capacità della moderna IA in modo trasparente e condiviso, la supervisione umana è necessaria, e questa a sua volta richiede, come si è visto per i dati strutturati, un accurato disegno dei modelli concettuali che si vogliono implementare.

Modellazione concettuale

Nelle considerazioni precedenti è stato più volte fatto riferimento all’importanza della modellazione nel matrimonio tra IA e PA. Dopo un lungo periodo in cui si è ritenuto che ciascuna Amministrazione potesse autonomamente fornire il modello concettuale dei propri dati e che la corretta interpretazione di tali modelli nei vari contesti applicativi si potesse dare per scontata, ci si è resi conto, anche sulla spinta di iniziative europee (ad esempio ISA), che il lavoro di armonizzazione semantica dei dati pubblici andava effettuato “a monte”.

Nel triennio 2017-2019, il Team Digitale, a complemento del Data Analytics Framework (DAF), avviò la realizzazione di alcune ontologie per la Pubblica Amministrazione. Queste sono oggi distribuite apertamente su GitHub, a disposizione di chi voglia contribuirvi o adottarle, ad esempio come punto di partenza per costruire i succitati sistemi di Ontology-based Data Management. Tuttavia, la spontaneità che caratterizza i progetti open source non sembra in questo caso fornire sufficienti garanzie: sia lo sviluppo di modelli concettuali in un dominio fortemente normato come quello delle amministrazioni, sia la loro concreta e generalizzata adozione, si rivelano processi socio-tecnici complessi. Questi richiedono non solo una marcata capacità di governance dell’infosfera pubblica, ma anche opportuni strumenti legislativi ed esecutivi e, soprattutto, ingenti investimenti sulla formazione al fine di promuovere una profonda e diffusa cultura digitale.

Conclusioni

La progettazione di efficaci sistemi di supporto alle Amministrazioni che impieghino al meglio i diversi strumenti della moderna IA dovrà essere improntata all’analisi delle metodologie più idonee ai casi d’uso, ponendo da parte sia alcune dispute squisitamente accademiche, sia certi preconcetti tecnologici spesso carichi di interessi. L’anima razionale e l’anima statistica dell’IA possono e devono integrarsi nella ricerca di soluzioni di valore per i cittadini. La PA, d’altro canto, si presenta come il terreno ideale per la sperimentazione di questa integrazione, che rappresenta uno dei temi di ricerca fondamentali per lo sviluppo dell’informatica del futuro. Un esempio significativo è proprio la modellazione concettuale necessaria alla costruzione di ontologie e basi di conoscenza, per la quale recenti ricerche propongono metodologie che armonizzano processi di definizione “top-down” e processi “bottom-up” di natura induttiva. Ma soprattutto, l’amministrazione della sfera pubblica sarà il banco di prova per la capacità di comprensione, di indirizzo e di controllo che l’intera società deve sviluppare per poter beneficiare dei rapidi progressi delle tecnologie intelligenti in modo sicuro, etico e democratico.

WHITEPAPER
Molto di più di una Tessera Sanitaria: scopri di più nel white paper!
PA
Sanità

@RIPRODUZIONE RISERVATA

Articolo 1 di 4