Intelligenza artificiale, gli usi pubblici in Italia: polizia, giustizia, sanità, fisco | Agenda Digitale

Lo scenario

Intelligenza artificiale, gli usi pubblici in Italia: polizia, giustizia, sanità, fisco

Si moltiplicano gli usi dell’AI da parte della PA in Italia, anche in settori critici per l’impatto delle persone. Ci sono anche utilizzi positivi, ma altri sono dubbi e in generale emerge una scarsa trasparenza e un’assenza di dibattito pubblico su queste applicazioni. Ma così non si alimenta la fiducia nell’AI

07 Dic 2020
Marina Rita Carbone

Consulente privacy

Foto di Gerd Altmann da Pixabay

L’intelligenza artificiale fa strada anche in Italia persino in ambienti pubblici critici e e settori strategici, come la gestione dell’ordine pubblico e la giustizia. Ce lo dicono, da ultime, le risultanze emerse all’interno del report 2020 “Automating Society” redatto da Algorithm Watch.

Ed è interessante notare questa contraddizione ora persistente, in Italia: divisa tra un’adozione a volte di cieca fiducia e una diffidenza diffusa verso i sistemi di intelligenza artificiale.

La diffidenza è dovuta prevalentemente ai disagi apportati dall’algoritmo de “La buona scuola”, il cui errato impiego ha ingenerato non poche conseguenze dannose. Ciononostante, è ancora forte la volontà del settore pubblico di innovarsi.

Intelligenza artificiale in Italia, com’è usata nel settore pubblico

Salute, Fisco, Giustizia, polizia. Le applicazioni di AI in ambito pubblico sono a macchia di leopardo, in Italia, ma toccano già tutti i settori pubblici.

WHITEPAPER
Cosa fare per trovare, classificare e analizzare i dati in tempo reale?
Big Data
Cybersecurity

Molte di queste riguardano la sorveglianza e la sicurezza.

SARI e la lotta al razzismo negli stadi 

Tra i tentativi più pionieristici c’è quello di mettere l’AI con riconoscimento facciale negli stadi. Nel febbraio 2020, il Ministro per le Politiche giovanili, Vincenzo Spadafora, annunciava l’intenzione del Governo di utilizzare la tecnologia del riconoscimento facciale per combattere il fenomeno dilagante degli episodi di violenza e razzismo nelle manifestazioni sportive calcistiche e negli stadi. Le finalità che si intende raggiungere sono molteplici:

  • Identificare i soggetti cui è impedito l’accesso a competizioni sportive, in quanto oggetto di specifici provvedimenti restrittivi (DASPO);
  • Identificare i soggetti che si rendono colpevoli di atti di razzismo;

L’idea di creare dei sistemi che consentissero, in tempo reale, di monitorare cosa succedesse nello stadio era stata vagliata, in realtà, già nella fine del 2019. Si ipotizzava, in particolare, l’adozione di un sistema combinato di videosorveglianza visiva e sonora tramite sistemi di riconoscimento facciale e specifici “radar passivi”, oggi in uso alle unità antiterrorismo, che consentono di captare suoni e rumori tramite microfoni direzionali. Così facendo, sarebbe stato possibile ascoltare le conversazioni dei tifosi sugli spalti e intervenire in tempo reale prima che episodi violenti si realizzano.

A tali misure tecniche sarebbe stata affiancata anche una misura legislativa: la previsione di un regime di “responsabilità oggettiva” dei club calcistici, secondo la quale il club sarebbe stato esente da responsabilità, per gli atti commessi dai tifosi, solo nel caso in cui avesse adottato i suddetti sistemi di sorveglianza. Ipotesi, questa, che, sebbene animata dalle migliori intenzioni, configura non pochi problemi, in particolar modo sotto il profilo della privacy.

Ciononostante, stando a quanto riportato da Algorithm Watch, sembrerebbe che, ad oggi, siano in corso numerosi progetti pilota diretti a fare applicazione delle citate tecnologie:

  • A Napoli, nello stadio San Paolo, sono state attivate dal settembre 2019, ben 190 videocamere dotate di sistemi di riconoscimento facciale, che hanno consentito di identificare (e multare) 32 tifosi colpevoli di atti di razzismo;
  • A Udine, dove si sperimenta il S.A.R.I. o “Sistema Automatico di Riconoscimento Immagini”. Tale sistema, in uso alle forze di polizia italiana, confronta l’immagine facciale di un sospetto con quelle incluse nei database in uso alle forze dell’ordine, consentendo il riconoscimento facciale da video di un potenziale trasgressore in tempo reale. L’applicazione di tale sistema anche nel ristretto ambiente dello stadio, secondo De Siervo, amministratore delegato della Lega Serie A, consentirebbe di attuare, in tempi ristretti, tutti gli obiettivi di prevenzione e repressione dei crimini suesposti, con risultati pari a quelli ottenuti dalla polizia.
  • Videocamere dotate di riconoscimento facciale sono state installate anche a Bergamo, nel nuovo stadio dell’Atalante.

Il Sari non è usato solo negli stadi. Ma la sua applicazione è abbastanza nebulosa. Non è chiaro dov’è usato, come e di preciso per quali scopi.

Al 2018 aveva 16 milioni di record e 10 milioni di foto, 9 milioni di profili  – da fonti ufficiali del ministero dell’Interno aggiornate a fine 2018 – di cui all’80 per cento di stranieri (secondo un’inchiesta di Wired. Si sa che è stato usato per aiutare le indagini a Milano, in vari casi, per furti di cui si aveva l’immagine del colpevole ripresa dalle videocamere. Il Sari permetterebbe anche un uso in tempo reale – avvisando subito le forze dell’ordine se le video camere rilevano un sospetto, una persona ricercata – ma questa funzione non sarebbe mai stata usata secondo la risposta del ministero dell’Interno a un Foia di Motherboard nel 2019.

Tali sistemi di controllo, per le loro precise e condivisibili finalità, sono stati accolti anche dal Garante Privacy (nel 2016, lo stesso ne ha espressamente autorizzato l’uso allo Stadio Olimpico di Roma”), sebbene con delle riserve.

È d’uopo evidenziare, in tal senso, che alla luce del GDPR, i trattamenti devono essere adeguati ai principi europei, rendendosi necessario svolgere una dettagliata valutazione dell’impatto di tali tecnologie e trattamenti sulla privacy dei cittadini. Particolarmente problematica sembra la funzione real time del Sari, da questo punto di vista.

Ricordiamo che il Garante Privacy ha bloccato un utilizzo simile, riconoscimento facciale real time del Comune di Como.

I sistemi di salute predittiva

Nel settore sanitario, l’IA è utilizzata al fine di predire l’insorgenza di specifiche patologie croniche e complicazioni post-operatorie, oltre che per personalizzare le cure dei pazienti anche sulla base di analisi di machine learning. In tale direzione, nel corso del 2019, è stato avviato a Vimercate, in Lombardia, un esperimento all’interno del ramo locale dell’Azienda Socio Sanitaria Territoriale (ASST), che utilizza soluzioni cloud a codice aperto (open source), sviluppate da Almaviva, per lo sviluppo di algoritmi finalizzati al perseguimento dei predetti scopi. Ciò consentirebbe di ridurre i costi e ottimizzare la logistica, per soluzioni di “medicina di precisione”.

Occorre, anche in tale caso, precisare, che l’intelligenza artificiale non dovrà essere un sostituto dei medici, andando invece a rappresentare una forma di supporto alle decisioni degli stessi.

La giustizia predittiva nei tribunali italiani

Anche nel sistema giudiziario italiano sono stati condotti alcuni esperimenti negli ultimi anni, al fine di sviluppare sistemi di “Predictive Jurisprudence” (“giurisprudenza predittiva”). Nel 2019, riporta Algorithm Watch, un primo esperimento è stato sviluppato dal LIDER Lab della Scuola Superiore Sant’Anna, a Pisa, in collaborazione con EMbeDS, KDD Lab e il Tribunale di Genova. Il sistema sviluppato dai ricercatori consente di avere accesso a tutte le sentenze emesse dal Tribunale stesso e di analizzarle tramite complesse meccaniche di machine learning. L’analisi condotta dall’IA consente, poi, al giudice che ne fa uso di identificare orientamenti, tendenze comuni e prassi della giurisprudenza in relazione ad ogni specifico caso oggetto di esame. Ciò permetterebbe, quindi, al giudice, di verificare con maggior precisione la coerenza della propria posizione con quella espressa da altri colleghi in casi analoghi. Il progetto, guidato dal professor Giovanni Comandè, si snoda su cinque livelli autonomi e interconnessi:

  • Livello 1: analisi dei giudizi e dei relativi documenti processuali, secondo i criteri e le metodologie sviluppate nell’Observatory on Personal Injuries, applicabili ad aree di contenzioso diverse da quelle riguardanti danni non-monetari:
  • Livello 2 e 3: analisi dei medesimi dati tramite tecniche di machine learning per sviluppare sia strumenti per l’annotazione e l’estrazione automatica di informazioni da testi di legge (livello 2) sia algoritmi per l’analisi e la predizione (cosiddetto “livello 3 intelligenza artificiale”). Sulla base di quanto riportato dai ricercatori, il database sarà costruito in modo tale da consentire lo sviluppo di algoritmi che identifichino tendenze secondo criteri noti all’interprete, e che allo stesso tempo mettano in evidenza nuovi trend sulla base di possibili bias e tendenze scoperte dall’algoritmo stesso;
  • Livello 4: comprensione della ratio dietro ad ogni decisione e sviluppo di strumenti adatti a spiegare i criteri definiti dall’intelligenza artificiale;
  • Livello 5: strutturazione di un’analisi dell’argomento legale a un livello di astrazione e sistematicità utili per la semplificazione di tutti i compiti”.

Nel 2018, anche la Corte di Appello e il Tribunale di Brescia hanno avviato un esperimento di “giustizia predittiva”, tramite un progetto che ha quale obiettivo quello di prevedere la lunghezza di una causa e i principi da adottare nel valutarla. Tale sistema, nelle migliori delle ipotesi, consentirà anche di stimare se un reclamo possa o meno essere approvato. Sistemi di tal genere sono oggi oggetto di sperimentazione non solo nelle aule di tribunale, ma anche nel settore privato, all’interno degli studi legali. L’analisi, tramite strumento di intelligenza artificiale, delle pronunce dei tribunali, consente, infatti, all’avvocato di conoscere in anticipo le probabilità di successo di una determinata causa.

Intelligenza artificiale e Fisco

In materia di tributi, sono due i sistemi utilizzati all’Agenzia delle Entrate che si basano su innovativi algoritmi:

  • ISA (Indici Sintetici di Affidabilità), entrati in vigore nel 2019, consistono in una valutazione a punteggi dell’affidabilità fiscale del soggetto preso in esame, il punteggio è assegnato da un software. Sembrerebbe che tale sistema non sia per nulla scevro da errori e malfunzionamenti, ma che, anzi, sia meno adattabile dei criticatissimi studi di settore: ai contribuenti, infatti, non sarebbe consentito specificare i precisi fattori che contribuiscono alla complessiva determinazione del reddito; di conseguenza, il sistema sarebbe allertato anche da eventi che non costituiscono, nella realtà, anomalie;
  • Evasometro anonimizzato: uno strumento di analisi fiscale, attivo dal 2016, che può condurre verifiche incrociate sui database in uso all’Agenzia delle Entrate, oltre che su “fonti aperte” come articoli di giornale, siti e social media, al fine di identificare incongruenze nei consumi o nelle operazioni finanziarie svolte dal contribuente. Alla segnalazione dell’anomalia seguiranno controlli approfonditi da parte delle autorità.

La strategia europea sull’intelligenza artificiale: stato dell’arte e scenari futuri

Gli ostacoli al progresso dell’AI in Italia

Sebbene, tuttavia, i sistemi di IA e ADM siano in grado di arrecare innumerevoli vantaggi alle vite dei cittadini, in Italia stentano a decollare, restando, per ora, prevalentemente in una fase di test e sperimentazione. Ciò anche per la poca trasparenza che spesso accompagna lo sviluppo e l’utilizzo di sistemi innovativi, visti, pertanto, con scetticismo e disillusione da parte del cittadino (il quale finisce spesso per ritenersi “vittima” degli algoritmi, proprio come accaduto a seguito dell’implementazione del citato algoritmo de “La Buona Scuola”).

È evidente, infatti, come uno dei principali ostacoli al progresso tecnologico sia l’assenza di un dibattito democratico o di campagne di sensibilizzazione significative, che possano rendere partecipe il cittadino, consentendogli di comprendere il meccanismo di funzionamento dell’intelligenza artificiale utilizzata. In sintesi, un’assenza di trasparenza che si traduce una visione “distopica” dell’algoritmo, visto quale colpevole ultimo dei problemi della società italiana. A ciò si aggiunga anche l’erronea assegnazione all’algoritmo di scelte che non possono essere prese interamente dallo stesso, in quanto richiedenti una valutazione finale d merito da parte dell’uomo.

La Buona scuola e l’algoritmo difettoso

Ne è stato un chiaro esempio proprio l’algoritmo “La buona scuola”, oggetto nel 2019 di numerose sentenze che ne hanno accertato gli errori e i malfunzionamenti. L’algoritmo aveva, sostanzialmente, la funzione di valutare le richieste di mobilità di 210.000 insegnanti: tuttavia, gli errori nella progettazione dello stesso hanno portato a scelte e discriminazioni illecite che si sono inevitabilmente rovesciate sulle vite professionali e private dei soggetti coinvolti. Stando a quanto riportato da Algorithm Watch, “per quanto entrambe le istituzioni riconoscano le falle tecniche che hanno funestato la prestazione dell’algoritmo di categorizzazione, esse allo stesso tempo chiariscono che la vera falla sia anche più fondamentale, dato che affligge la logica stessa che ha portato all’adozione di quell’algoritmo — secondo il TAR, finendo addirittura in contraddizione con la Costituzione italiana e la Convenzione europea dei diritti dell’uomo. Infatti, anche se il Consiglio di Stato rammenta che l’automazione dei processi decisionali all’interno di un’amministrazione pubblica apporta indiscutibili vantaggi, quest’ultimo prescrive anche che quei vantaggi possono realizzarsi solo se tali processi non includono alcun “apprezzamento discrezionale” da parte del sistema. In particolare, le sue formule tecniche di programmazione e funzionamento, e le decisioni da esso prodotte, devono essere sempre, in ultima analisi, il risultato di giudizio umano. Gli algoritmi possono anche decidere da soli, ma solo nel caso in cui le decisioni siano in realtà procedure altamente standardizzate e ripetitive”.

Importante anche che “l’intera procedura sia stata delegata a un algoritmo impersonale, quando invece l’automazione può unicamente avere un ruolo “strumentale”, o “meramente ausiliario” all’interno del procedimento amministrativo. Il TAR precisa, inoltre, chiaramente che agli algoritmi non può essere “giammai” imposto un ruolo “dominante o surrogatorio dell’attività dell’uomo”. È chiaro, dunque, come il vero problema del mancato utilizzo dell’intelligenza artificiale sia il suo cattivo utilizzo da parte dei soggetti chiamati a farlo, e l’assenza di un controllo sui risultati prodotti dai sistemi (mai interamente sostituibili all’uomo). Tutto ciò premesso, quali sono, ad oggi, i principali sviluppi in tema di IA e ADM in Italia?

Conclusioni

Da quanto contenuto nel report, emerge chiaro come, in Italia, non vi sia ancora una sufficiente comprensione dell’intelligenza artificiale e delle modalità tramite cui la stessa viene applicata, specialmente nel settore pubblico.

Occorre, quindi, che vi sia maggiore trasparenza (in particolare, trasparenza procedurale, che consenta di spiegare le decisioni algoritmiche prese dal sistema), maggiore consapevolezza e alfabetizzazione digitale, affinché si possa parlare concretamente di sviluppo tecnologico.

Non solo: occorre analizzare con attenzione le implicazioni derivanti dall’utilizzo dell’IA, quando la stessa viene utilizzata per prendere decisioni che possono avere un impatto determinante sulla vita del singolo individuo. In poche parole, innovazione al servizio dell’uomo e non al suo posto.

Digital event, 15 giugno
CyberSecurity360Summit: cyber risk, normative e strategie per vincere le sfide della sicurezza
Legal
Sicurezza
@RIPRODUZIONE RISERVATA

Articolo 1 di 4