Le ricerche

Collaborazione uomo-AI, a che punto siamo? Limiti e prospettive

La collaborazione tra esseri umani e intelligenza artificiale può essere inquadrata come una collaborazione di natura simmetrica e paritaria oppure asimmetrica e ancillare. È quest’ultima che prevale al momento mentre è più difficile trattare la prima per via della mancanza di agency da parte dell’AI. Cosa dicono gli studi

19 Mag 2022
Achille Pierre Paliotta

Ricercatore INAPP

deep fake_ intelligenza artificiale

I recenti sviluppi, davvero significativi, dell’intelligenza artificiale (AI) e le continue applicazioni operative in molteplici campi hanno avuto, come inevitabile riflesso, una riattualizzazione della datata riflessione sui rapporti tra esseri umani e AI.

Tale riflessione, oramai, si estende a tutti i campi della vita sociale anche se mantiene tuttora una forte enfasi sugli effetti sociali, giuridici e occupazionali dell’AI. Ne sono ricompresi, tra altri, anche gli aspetti culturali, comunicativi e ça va sans dire quelli militari. In buona sostanza, nessun campo peculiare della vita quotidiana ne è escluso, con impatti variabili sugli stessi ma vieppiù crescenti in termini diacronici.

La socialità ai tempi del digitale: le relazioni uomo-macchina sotto la lente della filosofia

La collaborazione tra esseri umani e AI: gli studi sull’argomento

In questo contesto generale, vale la pena approfondire la riflessione riguardo un aspetto specifico della relazione tra esseri umani e AI, ovvero quello della loro collaborazione, al di là delle prefigurazioni futuristiche effettuate dalla fantascienza nei decenni passati. Oggigiorno, si è difatti in grado di avere un quadro realistico di maggiore portata entro cui calare tale riflessione. Alcuni recenti studi hanno, infine, apportato nuove conoscenze al riguardo.

WHITEPAPER
[White Paper] TEST più semplici e completi per i tuoi software: l'AI fa la differenza
Automotive
Intelligenza Artificiale

Vale innanzitutto partire da una considerazione di carattere generale, ovvero inquadrare i rapporti tra esseri umani e AI in quello più generale di collaborazione. Ebbene quest’ultima può essere considerata sia dal lato degli esseri umani che dell’AI e riguarda, in primo luogo, le modalità con cui avviene tale collaborazione e chi è deputato a prendere le decisioni principali. Essa può essere ipoteticamente inquadrata, pertanto, come una collaborazione di natura simmetrica e paritaria (AI forte) oppure asimmetrica e ancillare (AI debole).

«There was a time when humanity faced the universe alone and without a friend.

Now he has creatures to help him; stronger creatures than himself, more faithful,

more useful, and absolutely devoted to him. Mankind is no longer alone.

Have you ever thought of it that way?».  (Isaac Asimov (1920-1992), I, Robot)

Al fine di poter vagliare empiricamente tali ipotesi, nel corso degli anni, sono state effettuate una serie di ricerche sperimentali mediante le quali si è cercato di inferire come tale collaborazione possa essere promossa e quali sono i principali punti critici, anche in termini di bias cognitivi, da parte degli esseri umani, quando vengono svolti compiti congiunti. A solo titolo esemplificativo, la fiducia nelle capacità dell’AI potrebbe non migliorare neppure quando i risultati da questa ottenuti dovessero imporsi in tutta la loro evidenza oppure quando questi outcomes sono corredati da spiegazioni dettagliate sul funzionamento degli algoritmi sottostanti.

Una collaborazione non paritaria (AI debole)

Per tutte queste ragioni, e altre che qui non è possibile approfondire per ragioni di spazio, la natura di tale collaborazione può essere considerata, a tutt’oggi, prevalentemente non paritaria (AI debole). A conforto di tale tesi può essere portato anche un ulteriore indizio relativo alla delega dei compiti. In uno studio recente, difatti, alcuni ricercatori dell’Università di Colonia e dell’Università del Minnesota hanno messo a confronto i risultati dei gruppi composti da persone e AI, relativi alla delega di determinati compiti, in alcuni casi lavorando insieme e altre volte lavorando da soli. I risultati suggeriscono che gli esseri umani non sono bravi a delegare alcuni compiti all’AI, almeno nel campo specifico del riconoscimento delle immagini: i gruppi in cui gli umani avevano il potere di distribuire il lavoro all’AI hanno commesso più errori di classificazione rispetto ai teams in cui era l’AI a delegare compiti agli esseri umani, più di quelli in cui l’AI effettuava questi compiti da sola. Di fatto, gli esseri umani utilizzati nello studio, non sono riusciti a delegare all’IA quei compiti in cui avevano delle difficoltà di riconoscimento perdendo così la possibilità di raggiungere una migliore performance lavorando in maniera congiunta. Anche in questo caso, alcuni bias cognitivi potrebbero aver svolto un ruolo determinante. È da evidenziare, infine, che gli esseri umani che hanno effettuato da soli tali compiti hanno ottenuto i peggiori risultati.

La conclusione finale che si può trarre da tale esperimento è, pertanto, che in molti casi, specialmente quando si tratta di un’attività ripetitiva e per la quale si dispone di grandi datasets di addestramento si potrebbe raggiungere un migliore risultato qualora fosse l’AI a delegare agli esseri umani quei compiti su cui essa può nutrire dei fondati dubbi, vale a dire al non raggiungimento di una determinata soglia statistica. È stato anche verificato che a seguito di una collaborazione continuativa e a fronte delle migliori performance ottenute dall’AI i soggetti umani dello studio hanno migliorato la loro fiducia nell’AI.

Avversione all’algoritmo

Uno studio più datato aveva indotto i ricercatori a parlare di avversione all’algoritmo (algorithm aversion). In cinque ricerche i partecipanti all’esperimento vedevano, di volta in volta, l’algoritmo fare delle previsioni errate, oppure un essere umano, oppure entrambi, oppure nessuno dei due. La fase successiva consisteva nell’assegnare degli incentivi alle predizioni dell’algoritmo o dell’essere umano. Ebbene, si è visto che i partecipanti consideravano più severamente gli errori dell’AI rispetto a quelli umani, dopo aver visto ambedue fare lo stesso errore. Si è anche osservato che la fiducia nell’AI diminuiva velocemente quando questa commetteva un errore occasionale che un essere umano non avrebbe compiuto, anche quando l’AI era complessivamente migliore nell’esecuzione di quel determinato compito.

In presenza di tali bias cognitivi non si può che prendere atto che l’attuale collaborazione tra esseri umani e AI debba percorrere ancora molta strada prima di poter arrivare a una partnership di tipo paritario, anche in attesa che l’AI sviluppi una maggiore capacità agenziale (agency). L’intelligenza che inerisce a tale artefatto costruito dall’uomo, del resto, non vi è presente che in parte accidentale, vale a dire che è sempre quella apportata dall’essere umano. Non si può negare, difatti, che seppur in presenza di potenzialità sempre più significative da parte dell’AI, soprattutto in alcuni campi ben determinati, come messo in luce anche dalle ricerche summenzionate, l’AI attuale non sia ancora in grado di esplicitare una propria autopoiesi e, da questo punto di vista, la bilancia decisionale pende ancora nettamente dalla parte degli esseri umani. Questi ultimi sono i creatori di tali artefatti, presumibilmente intelligenti, e fanno uso del pensiero astratto in maniera impareggiabile soprattutto quando si tratta di far fronte a nuove sfide e processi complicati. Nello stesso tempo, seppur l’AI è in grado di fornire risposte soddisfacenti a problemi ben strutturati, pur sempre codificati dall’essere umano, essa non è dotata di capacità agenziali atti a risolvere problemi complessi oppure vaghi e mal posti.

Gli approcci human-in-the-loop e l’interactive AI

Per concettualizzare questa situazione, in letteratura sono emersi, di recente, alcuni approcci quali lo human-in-the-loop (HIL-AI) e l’interactive AI (IAI) medianti i quali la collaborazione tra esseri umani e AI viene ripensata sotto queste lenti di osservazione. Questi due metodi differiscono leggermente in termini di definizione degli scenari di collaborazione in quanto nel primo caso si tratta di incorporare complessivamente le skills e le conoscenze dell’essere umano in processi comuni con l’AI mentre nel secondo caso si tratta perlopiù di una funzione specifica dell’essere umano che svolge soprattutto un ruolo di addestramento e di raffinamento del modello di AI. Un classico esempio di HIL-AI si ha quando vi sono dei problemi complessi, specialmente in aree decisionali ad alto rischio, come le applicazioni mediche le quali non si prestano a una ben strutturata modellizzazione e il ruolo dell’essere umano è essenziale mentre gli esempi relativi al secondo caso, di IAI, sono abbastanza frequenti in tutte le situazioni relative all’apprendimento automatizzato supervisionato (machine learning).

Oltre a una collaborazione che si è definita, in prima approssimazione, come asimmetrica e in cui l’AI vi svolge un ruolo sostanzialmente ancillare si può invece immaginare una collaborazione che possa essere definita come paritaria, in cui l’AI sia dotata di autopoiesi.

Verso un’AI in grado di decidere in autonomia?

Si può ipotizzare, difatti, che nel corso del tempo l’AI riesca ad acquisire le capacità per pensare e decidere in maniera autonoma e, quindi, mostri di essere cosciente, autopoietica, in buona sostanza dotata di caratteristiche similari agli esseri umani. Alcuni approcci attuali come le reti neurali profonde (deep neural networks) ma soprattutto l’apprendimento per rinforzo (reinforcement learning) sembrano andare in questa direzione. Tuttavia, solo qualora l’AI riuscisse a raggiungere tale condizione di autopoiesi la natura di questa collaborazione potrebbe mutare e dar vita ad inedite configurazioni di carattere decisionale. Certo si porrebbe sempre il problema di come i bias cognitivi, che si vedono all’opera già oggi, possano o meno essere superati in tali circostanze future e come tali situazioni possano essere normate dal diritto positivo. Da questo punto di vista gli interrogativi in tal senso sono molteplici, del tutto leciti e di poca intellegibilità nell’ora presente. È indubbio, comunque, che in questo caso sia gli esseri umani che l’AI dovrebbero essere considerati su un piano di assoluta parità con l’AI in grado di partecipare attivamente alla realizzazione di un’impresa comune, sia essa un’iniziativa intellettuale oppure una produzione congiunta in cui possa essere difficile suddividere l’apporto strategico dell’una o dell’altra parte, oppure in casi in cui la stessa AI possa avere il predominio sull’essere umano.

Conclusioni

In conclusione, mentre è facile prefigurare il primo tipo di collaborazione, in buona misura quella asimmetrica attuale, è più difficile trattare della seconda, quella della futuribile collaborazione paritaria per la mancanza di agency da parte dell’AI e la presenza negli esseri umani di notevoli bias cognitivi di cui l’avversione all’algoritmo e la mancanza di fiducia, tra altri, ne costituiscono buone esemplificazioni attuali. Si può immaginare, nondimeno, che tale eventualità si possa raggiungere solo quando l’AI sarà capace di avviare in maniera autonoma eventi causali perché dotata di un’intenzionalità e finalità proprie. Ovviamente tale eventualità è stata esplorata, fin qui in maniera esaustiva, soprattutto da un pensiero utopico e futuristico, in primis la fantascienza. Anzi si può dire che proprio da tale riflessione ne è derivata anche la correlata paura relativa a un predominio futuro dell’AI sull’essere umano. Tuttavia, quanto di tutto ciò possa essere considerato realistico non è dato, a tutt’oggi, intravedere.

Quello che si può qui sottolineare è che la collaborazione tra essere umano e AI continua a presentarsi sotto nuove modalità e in campi diversi ogni giorno di più, seppur in presenza di notevoli bias cognitivi. E che la ricerca accademica e industriale sempre più approfondirà tali tematiche per ovvie ragioni di natura scientifica e di interesse economico-sociale. Tuttavia, non si può escludere che tale percorso congiunto, che pare attualmente molto ben avviato, potrebbe anche subire degli impedimenti di carattere congiunturale in quanto la piena collaborazione tra un essere umano e un artefatto informazionale non può essere necessariamente data per scontata e può sempre dar luogo a delle configurazioni non previste e, entro certo limiti, neppure prevedibili.

WHITEPAPER
PREDICTIVE ANALYSIS: perché la manutenzione degli impianti è cambiata. Per sempre.
Big Data
Intelligenza Artificiale
@RIPRODUZIONE RISERVATA

Articolo 1 di 3