Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

la questione

Intelligenza artificiale nella PA, se l’obbligo di trasparenza si scontra col copyright

Le regole sulla trasparenza amministrativa pubblica possono rendere necessario rivelare l’algoritmo alla base di una decisione assunta dal sistema di AI. Un’operazione che rischia però di danneggiare gli interessi dell’industria del software. Ecco lo scenario e le soluzioni da adottare

16 Set 2019

Bruno Fiammella

avvocato


L’utilizzo di sistemi di intelligenza artificiale prefigura in molti ambiti nuovi interrogativi nei risvolti giuridico-economici, in particolare sul fronte della Pubblica amministrazione. Le discussioni riguardano in special modo i sistemi di AI cosiddetta “forte”, il cui metodo di apprendimento è da alcuni definito di deep learningNel deep learning infatti, l’algoritmo decisionale su cui si basa il software di intelligenza artificiale è costruito per imitare il funzionamento delle reti neurali umane e pertanto, non è solo frutto di una elaborazione quantitativa dei dati a sua disposizione (altrimenti parleremmo di A.I. “debole”) ma è anche frutto di un’analisi logico-relazionale degli stessi, attraverso l’utilizzo di algoritmi matematici che cercano di riprodurre il funzionamento della mente dell’uomo sia nella fase di apprendimento che in quella decisionale.

Dalla logica boleana all’intelligenza dei robot

La comunità scientifica già da alcuni anni si occupa delle problematiche inerenti il procedimento logico-decisionale che “guida” l’intelligenza artificiale verso l’adozione di una determinata “risposta” di fronte ad un problema giuridico, economico o sociale.

Il vecchio sistema di logica boleana “0 e 1” (binaria) ha ceduto il passo a sistemi più evoluti in cui è possibile introdurre dei valori di verità intermedi tra lo zero e l’uno, valori rinvenibili anche nello spazio di intervallo esistente tra 0 ed 1 e valutabili con dei punteggi approssimativi (ad esempio di 0,4 o 0,6 etc.).[1] In questo modo si raggiunge l’obbiettivo di poter avere dalla artificial intelligence delle risposte che non siano necessariamente bianche o nere, vere o false, ma anche parzialmente vere o parzialmente false; più vicine al valore bianco piuttosto che a quello nero. Delle sfumature di grigio che avvicinino le modalità di ragionamento del robot a quello umano.

È evidente quindi che per giustificare la “correttezza della scelta giuridica” di una decisione assunta da una I.A., occorra conoscere i presupposti “valoriali”, oltre che logici e giuridici, sui quali si sia fondata. Occorre cioè, a posteriori, poter esaminare il processo elaborativo svolto dal software ed i presupposti su cui si sono basate le sue scelte per poter verificare se siano effettivamente a norma di legge e abbiano efficacemente tutelato l’interesse pubblico.

AI e gare d’appalto: l’incognita algoritmo

Si ponga il caso di una intelligenza artificiale utilizzata per la selezione di un curriculum per una carica pubblica dirigenziale o di un software di A.I. utilizzato per selezionare la società aggiudicatrice di una complessa gara di appalto o bando di finanziamento di fondi comunitari.

Trasferendo cioè le problematiche sopra accennate al processo decisionale della pubblica amministrazione, ove la stessa adottasse un atto amministrativo avvalendosi di un sistema di I.A., atto avente una rilevanza nei confronti di soggetti terzi, occorrerà conoscere come sia stato scritto l’algoritmo che ha guidato la macchina alla scelta, occorrerà conoscere sulla base di quali variabili e possibili opzioni lo stesso abbia assunto le sue decisioni, privilegiando la società Alfa piuttosto che la società Beta. Questo impone la trasparenza degli atti e la necessità di poter revisionare una procedura di assegnazione ove si dovesse ritenere che la stessa sia illegittima o abbia violato le regole o abbia indirettamente discriminato tra i concorrenti.

Questa esigenza apre la strada ad innumerevoli conseguenze, alcune improponibili per le case produttrici di software: rivelare in tutto o in parte i segreti gelosamente custoditi dagli ideatori, programmatori e produttori per soddisfare l’esigenza di trasparenza imposta – per legge – all’iter formativo-decisionale dell’atto amministrativo adottato dalla pubblica amministrazione.

Algoritmo, il “segreto industriale” inviolabile

È possibile affermare che ciò determinerà una perdita economica per le case produttrici di software? Senza dubbio è un alert di cui tener conto. Possiamo asserire che la legge possa imporre alle pubbliche amministrazioni di adottare soltanto dei software “open source et similis per i processi decisionali svolti da una I.A. in modo da rendere trasparenti le regole adottate nel procedimento amministrativo e consentire una sua eventuale contestazione o impugnazione in sede di giudizio?

Si pensi ad una I.A. finalizzata a valutare le diverse offerte in una gara d’appalto di pubblica rilevanza. Le regole sulla trasparenza amministrativa costringerebbero a rivelare come il sistema abbia materialmente prodotto un determinato atto amministrativo, quale sia il processo decisionale svolto dalla macchina nella adozione o nel rigetto di una istanza e quali documenti abbia o meno preso in considerazione tra quelli prodotti dal richiedente. Tutto ciò porterebbe dei rischi per la salvaguardia della proprietà intellettuale del software se, nel momento in cui occorrerà illustrare il procedimento logico-decisionale, occorrerà risalire o svelare parte della programmazione e scrittura dell’algoritmo.

Algoritmo, la battaglia fra produttori e programmatori

Non tutto sarà perduto per le software house se consideriamo che oggetto della trasparenza non sarà la totalità dei segreti contenuti, ad esempio, nel codice sorgente, ma solo in quella porzione di software correlata agli input legati al funzionamento degli algoritmi decisionali ed ai principi su cui si basano le scelte compiute dall’algoritmo; ma non possiamo negare che sia proprio su questo “micro tavolo” (il funzionamento degli algoritmi nel deep learning) che si stanno per dare battaglia i programmatori ed i produttori.

E’ evidente che le soluzioni per superare l’impasse esistono. Ma vanno studiate e adottate in modo da salvaguardare le esigenze di entrambi i fronti.

Se tutto ciò appare affascinante ed inquietante al tempo stesso, in questa visione – di un futuro oramai alle porte – non è possibile dimenticarsi il presupposto di base per la sopravvivenza della specie: la focale “antropocentrica” che garantisca allo sviluppo del sistema socio-imprenditoriale, di inserire l’uomo, magari libero e pensante, al centro di ogni percorso.

  1. Nicoletta Boldrini, Cos’è l’Intelligenza Artificiale, perché tutti ne parlano e quali sono gli ambiti applicativi, 13 marzo 2018, https://www.ai4business.it/intelligenza-artificiale/intelligenza-artificiale-cose/.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4