Decisori artificiali, l'importanza di sviluppare sistemi affidabili | Agenda Digitale

le linee guida Ue

Decisori artificiali, l’importanza di sviluppare sistemi affidabili

Per realizzare sistemi di AI affidabili è importante seguire le linee guida delineate dall’High Level Expert Group Ue nel documento “Ethical Guidelines for a Trustworthy AI”, ma ancora siamo ben lontani. La potenzialità dei sistemi decisionali e il loro impatto è però tale da imporre una intensa attività di ricerca

01 Lug 2020
Michela Milano

Professoressa Ordinaria presso il Dipartimento di Informatica dell'Università di Bologna, Vice Presidente dell'EurAI, Membro di AIxIA e Direttrice Centro Interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence — (Alma AI)


I sistemi di supporto decisionale con algoritmi sono stati sviluppati in numerosi settori industriali:

  • nella gestione dei processi produttivi, manutentivi e nella logistica,
  • nei servizi e nella gestione delle infrastrutture,
  • nelle cosiddette smart cities per la gestione della mobilità, dell’energia, dello sviluppo urbano, dell’ambiente, della sanità,
  • nel processo di decisione politica,
  • nella gestione delle catastrofi naturali,
  • nelle contromisure al terrorismo,
  • e, non ultima, nella gestione delle pandemie.

È evidente che in tutti questi domini, per costruire sistemi di supporto decisionale che siano efficaci, è necessario che gli esperti di dominio possano “fidarsi” delle decisioni suggerite. E perché questo avvenga servono linee guida etiche, che sono state sviluppate a livello europeo ma non ancora implementate. Facciamo il punto.

I modelli decisionali, cosa sono e come funzionano

I progressi degli ultimi anni nel campo dell’intelligenza artificiale riguardano principalmente il settore dell’apprendimento automatico (machine learning) in cui un sistema apprende un modello a partire dai dati.

Tipicamente il modello appreso è in grado di descrivere il sistema da cui questi dati provengono (descriptive analytics), di diagnosticare le cause di ciò che è successo (diagnostic analytics) e di prevederne le dinamiche future (predictive analytics).

Ad esempio, dai dati che provengono da sensori installati in un impianto industriale è possibile analizzare se è avvenuto un guasto o il sistema lavora in regime sotto ottimo (tramite un modello descrittivo), definirne le cause (tramite un modello diagnostico) o prevedere se e quando questo guasto avverrà (tramite un modello predittivo). Come si evince dalla figura (Gartner, 2013) per arrivare a una decisione avendo a disposizione questi modelli, occorre una consistente dose di intervento umano. Ad esempio, avendo a disposizione un modello predittivo, possiamo usare la cosiddetta what-if analysis per valutare scenari decisionali, ma quando le scelte sono in numero elevato, questo metodo non risulta particolarmente efficace.

Per prendere decisioni serve un passo ulteriore: costruire un modello prescrittivo (prescriptive analytics), che contiene tipicamente variabili decisionali, le decisioni alternative, i vincoli che limitano l’ammissibilità di queste decisioni e possibilmente una o più funzioni obiettivo che determinano la bontà di uno scenario decisionale. Nel caso dei guasti di un impianto produttivo, un sistema decisionale sarebbe ad esempio in grado di definire degli interventi manutentivi sulla base delle previsioni di guasto, la loro collocazione temporale al fine di minimizzare il costo o ridurre il down-time. Si noti che mentre i sistemi di supporto decisionale aiutano i decisori nella scelta delle decisioni o nella definizione di scenari alternativi, i sistemi cosiddetti di “decision automation” implementano le decisioni direttamente sul sistema senza alcun intervento umano, ma in questo breve articolo ci concentriamo sui primi.

analytics_maturity1.png

L’integrazione dei modelli

Da sempre i modelli decisionali vengono costruiti tramite una costante interazione con gli esperti di dominio, che forniscono le specifiche sul problema e trasferiscono la propria conoscenza ed esperienza codificate sotto forma di regole e vincoli. Questo metodo, tuttora usato, ha principalmente due limitazioni: da una parte l’accuratezza di un tale modello, che come tutti i modelli è un’approssimazione della realtà, non è misurabile; inoltre, spesso esistono componenti del modello che non sono facilmente descrivibili da un esperto di dominio.

In questo momento, mai come ora, abbiamo a disposizione dati che possono essere utilizzati per estrarre modelli descrittivi e predittivi per integrare e completare i modelli decisionali. Sta proprio nell’integrazione di questi modelli che risiede la vera innovazione in questo settore. Gartner, in un rapporto del 2020, stima che per il 2022 tecniche di data analytics saranno utilizzate ovunque, ma solo il 10% utilizzerà il potenziale completo della data analytics. Ciò significa che, mentre i modelli descrittivi e predittivi saranno impiegati sempre più frequentemente, la loro integrazione in modelli decisionali trova ancora ampio margine di sviluppo e adozione.

Le linee guida etiche dell’Ue

Come abbiamo detto, per realizzare sistemi di cui gli esperti di dominio possano fidarsi, è importante seguire una serie di linee guida, delineate dall’High Level Expert Group nominato dalla Commissione Europea nel documento “Ethical Guidelines for a Trustworthy AI”. In questo documento, vengono definiti orientamenti per promuovere la definizione e lo sviluppo di sistemi di intelligenza artificiale che siano affidabili.

I principi su cui dovrebbero basarsi tali sistemi sono la legalità, ossia l’ottemperanza alle leggi e regolamenti applicabili, la robustezza tecnica e sociale e l’eticità, ossia l’adesione a principi e valori etici. Inoltre, il documento tratta come tali principi possono essere resi operativi in un sistema artificiale definendo sette requisiti: 1) intervento e sorveglianza umani, 2) robustezza tecnica e sicurezza, 3) riservatezza e governance dei dati, 4) trasparenza e l’esplicabilità, 5) diversità, non discriminazione ed equità, 6) benessere sociale e ambientale e 7) accountability.

Nel caso di sistemi decisionali possiamo dire che l’intervento e la sorveglianza umana siano garantite dal fatto che le decisioni devono essere avvallate da esperti di dominio che devono essere coinvolti fin dall’inizio nella definizione del progetto di questi sistemi, nella definizione dei requisiti per costruire sistemi robusti, sicuri e costruiti nel rispetto della privacy dei dati, e che comprendano le scelte effettuate dal sistema (trasparenza). La capacità dei sistemi decisionali di spiegare il proprio comportamento e i processi che sottendono le decisioni è oggetto di intensa attività di ricerca, soprattutto quando questi sistemi integrano modelli predittivi la cui capacità di spiegazione è ancora limitata.

Inoltre, è necessario essere in grado di garantire che i dati di partenza dai quali si estraggono modelli predittivi e decisionali non siano polarizzati. Tutti ricorderanno il sistema usato da Amazon un paio di anni fa che permetteva di selezionare i migliori curricula sulla base delle assunzioni degli ultimi 10 anni, discriminando così le donne in netta minoranza nel personale assunto nel periodo considerato.

Siamo ancora piuttosto lontani dalla capacità di costruire un sistema completamente aderente ai principi definiti dalle linee guida etiche definite dall’High Level Expert Group, ma la potenzialità dei sistemi decisionali e il loro impatto nel contesto applicativo è tale da imporci una intensa attività di ricerca. Come diceva lo zio di Peter Parker (alias Spiderman), “da un grande potere derivano grandi responsabilità” pertanto noi ricercatori dobbiamo lavorare per costruire sistemi artificiali che siano affidabili, sicuri e che portino impatti positivi sulla produttività, sulla razionalizzazione delle risorse di ogni genere e sul benessere e la salute dell’uomo.

Intelligenza artificiale, i punti sul tavolo per la strategia europea

@RIPRODUZIONE RISERVATA

Articolo 1 di 4