Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

CULTURA DIGITALE

Robot e umani, le regole per un buon “lavoro di squadra”

L’utilizzo di agenti di AI in grado di svolgere anche attività di alto livello è al centro di dibattiti e ricerche da parte delle comunità informatica. Focus su trasparenza delle soluzioni e trustworthiness. Una panoramica dei risultati ottenuti e le strade da percorrere

30 Ago 2019

Ernesto Damiani

direttore Center on Cyber-Physical Systems, Khalifa University, Abu Dhabi


Collaborazione fra uomo e Intelligenza artificiale, un tema controverso. E’ possibile sviluppare agenti e modelli IA in modo che possano collaborare come compagni di squadra con gli esseri umani. Ma l’integrazione di questi “team-mate” richiede metodologie efficaci per gestire l’assegnamento funzionale e un livello di fiducia elevato per consentire all’IA di operare autonomamente. Vediamo lo scenario che si muove intorno all'”integrazione del futuro”.

Chi segue il dibattito in corso può domandarsi se si tratti di un problema nuovo. L’uso della tecnologia in forma amplificativa, ovvero come amplificatore funzionale delle naturali capacità umane, è vecchio quanto l’uomo, e largamente accettato. Anzi, l’uso di strumenti tecnologici amplificativi è stato a lungo considerato dagli antropologi un tratto distintivo dell’umanità.

La tecnologia sostitutiva, costituita da sistemi totalmente o parzialmente autonomi, robot che prendono il posto dell’operatore umano nello svolgere una certa attività, è molto più recente, e tradizionalmente è stata guardata con maggiore diffidenza. All’inizio dell’Ottocento il telaio Jacquard, che permetteva a un singolo filatore di seta di fare il lavoro prima svolto da due persone, fece correre al suo inventore il rischio di essere linciato dalla folla dei disoccupati.

A partire dalla metà del secolo scorso, l’introduzione dei calcolatori elettronici ha favorito lo sviluppo di sistemi automatici che sono sia sostitutivi sia amplificativi delle capacità umane. Il sistema di guida di una metropolitana automatica, come quello adottato per la linea lilla a Milano, è un esempio tipio di questo tipo di sistemi: sostituisce l’uomo in un compito molto complesso, e lo fa assicurando livelli di prestazioni superiori.

Il binomio AI-uomo e le ricadute occupazionali

Le ricadute economiche ed occupazionali dei sistemi automatici sostitutivi dell’uomo possono essere state malviste da alcuni (anche se non si è più arrivati alle reazioni estreme di tempi di Jacquard), ma non si è mai veramente dubitato del loro ruolo complessivamente positivo nello sviluppo economico e sociale. Questa accettazione può essere dovuta al fatto che resta chiaro chi comanda: lo scopo che un sistema automatizzato deve raggiungere è infatti codificato dall’uomo attraverso un programma, che determina il comportamento del sistema insieme ai valori d’ingresso. Quindi, se l’introduzione di tecnologie sostitutive elimina l’apporto umano da un certo tipo di lavoro (come la guida di un treno), nello stesso tempo lo richiede per altri compiti “superiori” (come la scrittura, la configurazione e la messa in opera del programma che lo guiderà). Per le aziende, questo spostamento delle competenze ha comportato la necessità di reclutare e formare esperti di tecnologia, in numero inferiore ma con un costo unitario più elevato.

Il cambio di paradigma determinato dalla AI

L’adozione massiva dell’Intelligenza Artificiale all’interno delle organizzazioni pone però un problema manageriale diverso, che deriva direttamente dall’estensione del paradigma di apprendimento computazionale che ha causato il successo dell’IA moderna.

Questa estensione, introdotta dai lavori di Geoffrey Hinton, Yoshua Bengio e Yann LeCun, i tre recenti vincitori del Turing Award (l’equivalente del Premio Nobel per l’informatica), permette di automatizzare l’identificazione e specificazione del compito che il sistema automatico deve eseguire insieme all’esecuzione del compito stesso.

Vediamo di descrivere l’idea senza entrare nei tecnicismi. Tutti sappiamo che i sistemi IA non sono codificati come i normali programmi, ma sono allenati (“trained”) attraverso la somministrazione di esempi. Un sistema AI, data un’immagine, può dire se rappresenta un cane o un gatto, sulla base di immagini simili che ha visto in precedenza; oppure, data la storia economica, retributiva e familiare di una persona, può decidere se concedergli o meno un mutuo. In entrambi i casi, gli obiettivi da raggiungere (distinguere tra cani e gatti, oppure stimare la probabilità di insolvenza) sono stati decisi prima da un umano. Se così fosse anche oggi, per le organizzazioni le conseguenze dell’introduzione dell’IA non sarebbero molto diverse da quelle della programmazione: spostare “verso l’alto” (anche se verso figure professionali differenti, come il data scientist) le competenze finora richieste al lavoratore umano.

La discontinuità introdotta dall’IA moderna consiste nella scoperta che la scelta dell’obiettivo (e di conseguenza, la selezione o generazione degli esempi necessari per allenare un IA in grado di raggiungerlo) è anch’esso un problema affrontabile con l’apprendimento computazionale.

Gli interrogativi posti dal deep learning

I nuovi metodi di allenamento “profondi” (deep learning) permettono di aggiungere un sottosistema, allenandolo con esempi che dimostrano gli effetti a livello dell’intera organizzazione di diverse scelte di obiettivi manageriali “locali”. Nel caso delle decisioni di concessione di credito, si tratterà ad esempio di allenare un sistema IA che scelga di volta in volta se minimizzare i default dei debitori, oppure favorirli per incamerare i beni che i debitori hanno portato a garanzia. Grazie al suo allenamento, il sistema IA “profondo” potrà operare istante per istante la selezione tra diversi sistemi IA “locali” (a loro volta allenati da esempi) per le singole decisioni di concessione del credito.

Cosa rimane all’uomo? In linea di principio, se si dispone di un numero sufficiente di esempi, diventa possibile sostituire anche le figure professionali di livello elevato, fino a far funzionare (quasi) automaticamente l’intera organizzazione. All’uomo, oltre all’assumersi le responsabilità legali attraverso la controfirma delle decisioni del sistema automatico, rimangono due funzioni operative: l’assegnazione funzionale (“function allocation”), che consiste nel decidere in quali settori dell’organizzazione e in quali occasioni attivare l’IA, e la funzione di “manual override”, ossia garantire l’intervento umano in caso di un errore o violazione evidente da parte del sistema automatico. Non ci occuperemo oltre della funzione di override, perché l’elevata latenza dell’intervento umano, insieme al degrado della qualità delle decisioni dell’uomo dovuto alla mancanza di esercizio, stanno portando rapidamente al suo abbandono.

La function allocation è invece un tema classico della ricerca in technology management. La letteratura definisce tre tipi di allocazione statica: quella comparativa, in cui viene scelto il miglior esecutore; quella residuale, in cui ogni funzione che può essere automatizzata è allocata a un sistem automatico e solo le funzioni che non è possibile automatizzare sono assegnate all’uomo; e quella economica, che utilizza un’analisi costi-benefici.

Costruire le basi per la collaborazione uomo-AI

L’assegnazione statica è facile da capire, ma difficile da applicare alla divisione del lavoro tra uomo e IA. Innanzitutto, essa presuppone che l’idoneità di un essere umano o di un agente IA a svolgere un certo compito non cambi nel corso del tempo. Invece, contano anche le condizioni variabili come il carico di lavoro: un compito che un umano riesce a eseguire in condizioni di carico di lavoro leggero può non essere eseguibile dall’uomo in caso di sovraccarico cognitivo. Inoltre, l’assegnazione statica non tiene conto degli aspetti emotivi e può portare all’assegnazione sistematica all’uomo di compiti non interessanti, causando noia e demotivazione.

L’allocazione adattativa, al contrario di quella statica, consiste nel modificare dinamicamente l’allocazione delle funzioni tra uomo ed IA, sulla base della misurazione continua del carico di lavoro umano oppure del verificarsi di eventi critici. A prima vista, si tratta di definire delle equipe miste tra operatori umani ed agenti IA, e poi chiamare in causa i membri dell’equipe sulla base del loro carico di lavoro e della loro “fitness for work”, un tema su cui anche chi scrive ha lavorato a lungo.

Chi sarà incaricato di eseguire le allocazioni e di controllarne gli errori? I ricercatori in robotica lavorano da anni a questo problema. Un primo requisito per allocare un compito agli agenti IA è la comprensione, ovvero la capacità di comprenderne il funzionamento in relazione al compito da eseguire. Un secondo è la quantificazione del rischio dell’allocazione, classicamente definito come il prodotto tra probabilità che l’allocazione del compito all’agente porti a un evento negativo e la severità delle conseguenze. Ad esempio, l’assegnazione del compito di valutazione della solvibilità di un debitore a un agente IA può non cambiare significativamente la probabilità di errore, ma aumentarne la severità in caso di contenzioso con il mancato cliente.

Calcolare il “valore di fiducia” per la AI

Un tema molto dibattuto è se vi sia aumento di severità del rischio di danni agli esseri umani che derivi da un compito affidato a un AI rispetto a quando il compito è affidato a un umano. In generale, la decisione di assegnare i compiti agli operatori umani oppure agli agenti IA si lega a un valore quantitativo di fiducia (trustworthiness). Per l’operatore umano, la trust quantitativa viene calcolata sulla base del suo carico di lavoro e altri indicatori di fitness. Il problema di calcolare un valore di fiducia per i modelli IA è uno dei temi centrali della ricerca.

La collaborazione tra umani e IA è ancora un problema aperto, a causa del divario tra la tecnologia IA “a scatola nera” di cui disponiamo oggi e la necessità dell’allocatore di capire e valutare il funzionamento degli agenti IA per eseguire correttamente l’assegnamento funzionale in modo adattativo.

La comunità informatica è al lavoro per sviluppare soluzioni per l’intelligenza artificiale trasparenti e spiegabili per consentire la prevedibilità reciproca tra persone e IA. Qualcuno, anche in Italia, ha affermato che eliminare completamente gli operatori umani dalle aziende (la “fine del lavoro”) renderebbe più semplice la gestione delle organizzazioni, divenute intermente automatiche.

Personalmente credo invece che occorra sviluppare agenti e modelli IA in modo che possano collaborare, come compagni di squadra, con gli esseri umani. L’integrazione di questi “team-mate” richiede però metodologie efficaci per gestire l’assegnamento funzionale e un livello di fiducia elevato per consentire all’IA di operare autonomamente. Accettereste che la vostra domanda di mutuo sia rifiutata da parte di un agente IA, se poteste capire come è arrivato a quella conclusione? La piena integrazione avverrà forse quando la risposta a questa domanda sarà positiva per la maggioranza di noi.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4