Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

ECONOMIA DATA-DRIVEN

Intelligenza artificiale, l’algoritmo “trasparente”: un rebus ancora da sciogliere

Le evoluzioni dei sistemi di AI comportano rischi di tipo etico su cui stanno interrogandosi gli operatori del settore. Ma la strada per il controllo “equo” delle modalità operative è ancora lunga: stretta fra complessità tecnologica e vincoli industriali. Ecco lo scenario

15 Mag 2019

Mario Bonafè

Avvocato, Studio Bonafè Grifoni e Associati

Cecilia Trevisi

Avvocato, Studio Bonafè Grifoni e Associati


La trasparenza dell’algoritmo rappresenta un punto di partenza fondamentale per le applicazioni di Intelligenza artificiale; il “diritto alla decifrazione dei trattamenti decisionali automatizzati” può essere infatti annoverato tra i principi fondamentali della quarta rivoluzione industriale. Ma si tratta di un fronte ancora aperto, stretto fra complessità tecnologica e esigenze di tipo industriale.

Diritto alla trasparenza degli algoritmi

Il “diritto alla decifrazione” non può essere circoscritto ai “soli” algoritmi, bensì esteso ai più complessi modelli analitici di cui il deep learning costituisce espressione primaria.

Le evoluzioni delle reti neurali e la loro progressiva maggiore applicazione negli ambiti più diversi – finanziario, sistemi di guida autonoma, riconoscimento ed elaborazione di immagini, diagnostica medica – determina una trasmissione di informazioni (già elaborate) tra diverse unità (digital twin).

A maggiore ragione se si considera che tali reti sono per loro stessa natura modelli di calcolo costituiti da sistemi interconnessi. Questa evoluzione, che rappresenta naturalmente un’opportunità, per così dire, evolutiva di sistema, viene però avvertita anche con preoccupazione da parte degli operatori del settore.

L’obiettivo primario è quello di evitare che l’essere umano risulti estraneo a tale dinamica e non sia in grado di decodificare le soluzioni, gli output generati automaticamente da sistemi avanzati di intelligenza artificiale.

Si pone quindi il tema (non solo legale, naturalmente, ma anche etico) dei principi di governo delle fonti su cui si basa un sistema di apprendimento automatizzato affinché non si creino sistemi iniqui che, all’insaputa dell’essere umano, optino, ad esempio, per soluzioni discriminatorie o non eque o non etiche.

Il codice etico della Commissione europea

Per dare una risposta a queste preoccupazioni, la Commissione Europea nel giugno scorso ha costituito un gruppo di lavoro sull’intelligenza artificiale (High-Level Expert Group on Artificial Intelligence) formato da 52 esperti che stanno lavorando alla definizione di un codice etico per la progettazione dei sistemi di intelligenza artificiale in aderenza alle previsioni della Carta Europea dei Diritti.

Nella prima bozza del codice etico di rilievo, ai fini di interesse, appare il principio secondo il quale “[..] Since AI systems are designed by humans, it is possible that humans inject their bias into them, even in an unintended way. Many current AI systems are based on machine learning data-driven techniques. Therefore a predominant way to inject bias can be in the collection and selection of training data. If the training data is not inclusive and balanced enough, the system could learn to make unfair decisions. At the same time, AI can help humans to identify their biases, and assist them in making less biased decisions […]” (Estratto Codice Etico, bozza del 18-12-2018).

Nonostante tale Codice non sia vincolante per i paesi dell’Unione, valorizza i principi di trasparenza e accountability, solidità e affidabilità tecnica affinché sia preservata l’autonomia degli esseri umani e il controllo sulle modalità operative dei sistemi di AI, riconoscendo pari portata a quelli di sicurezza, giustizia e autonomia dei sistemi. Il percorso risulta analogo a quello già tracciato dal GDPR sul trattamento dei dati personali.

Trasparenza e comprensibilità (in altre parole, la sintassi di un sistema di programmazione) che riguarda un audit sia sull’algoritmo sia sulle modalità procedurali e sul reperimento dei dati (the causality of the algorithmic decision-making process), applicabili soprattutto in sistemi esperti che operano sulla base di regole if-then (se-allora) posto che per le reti neurali che non usano la regola if-then, almeno sino ad oggi risulta oggettivamente complesso (se non impossibile) procedere ad una corretta ricostruzione ex post (quantomeno per fasi omogenee) del procedimento in esecuzione del quale sono generate determinate soluzioni.

Il fine della trasparenza algoritmica nell’intelligenza artificiale

La trasparenza algoritmica non significa però la divulgazione dei codici sorgenti in quanto tali; riguarda (i.e. dovrebbe riguardare) la riduzione/eliminazione dell’asimmetria informativa ed è finalizzata ad acquisire la capacità di descrivere, ispezionare e riprodurre correttamente i meccanismi attraverso cui i sistemi di intelligenza artificiale assumono decisioni ed imparano ad adattarsi ai loro ambienti.

La trasparenza algoritmica consente di individuare la provenienza e la dinamica dei flussi di dati che vengono utilizzati e creati dal sistema e permette di ragionare sul motivo per il quale, ad esempio, una decisione elaborata dal sistema AI possa essere considerata errata; consente inoltre – quale esito e logica conseguenza di tali verifiche – di introdurre presidi correttivi funzionali alla prevenzione della reiterazione futura dell’errore.

Un’esigenza ed un rigore che dovrebbero essere richiesti e rispettati, ad esempio ed a maggiore ragione, in relazione a tutti i modelli/sistemi AI che utilizzano dati di esseri umani o possano influenzare i comportamenti umani o, comunque, avere un impatto moralmente/eticamente significativo.

Essere espliciti sulle scelte e sulle decisioni che riguardano le fonti, i dati, i processi di sviluppo e le parti interessate, può però contrapporsi ad un’altra esigenza, anch’essa meritevole di tutela e protezione nel nostro ordinamento positivo: la protezione dei segreti industriali su cui si basa (anche) la protezione degli algoritmi, e considerate altresì – nel contesto tecnico legale di loro protezione – le difficoltà di procedere ad un adeguato regime di tutela per i sistemi cd. aperti.

In tale ipotesi, la difficoltà risiede prevalentemente nel fatto che tali sistemi sono generalmente rientranti nei sistemi fondati sull’esperienza umana e, quindi, caratterizzati da elevati livelli di astrattezza e sostanzialmente basati su leggi che potremmo definire di natura e, in quanto tali, non facilmente oggetto di tutela o brevettazione.

Le due esigenze contrapposte: tutela del brevetto e trasparenza

Se da un lato, quindi, il segreto industriale consente, oltre alla tutela degli investimenti economici connessi al regime di protezione, di scongiurare il rischio di manipolazione degli algoritmi (ciò che di fatto, ad esempio, genera le fake news), dall’altro tale protezione mal si concilia con i principi di trasparenza e comprensibilità algoritmica.

Una sintesi equilibrata tra queste due esigenze – apparentemente non convergenti, ma entrambe meritevoli di tutela – non appare facilmente realizzabile; è auspicabile che tali temi vengano affrontati in termini compiuti ed organici se non nel testo finale del Codice Etico almeno nell’auspicata proposta di direttiva sulle norme di diritto civile in materia di robotica.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4