Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

AI4EU

Intelligenza artificiale o stupidità umana? I pregiudizi delle macchine e come prevenirli

I sistemi di intelligenza artificiale, per quanto “intelligenti”, sono vittime delle stesse trappole psicologiche che affliggono coloro che li sviluppano. Lo studio della cosiddetta “stupidità naturale” porterà quindi a un’IA più efficace ed equa. Anche di questo si occupa l’Osservatorio etico per l’Intelligenza Artificiale

25 Giu 2019

Nicola Marino

Imprenditore ed esperto di tecnologie digitali in medicina


La nuova ondata di entusiasmo che circonda l’intelligenza artificiale è in parte dovuta alla convinzione che le macchine possano migliorare le abilità umane nei campi più svariati, dal marketing alla sanità, passando per l’educazione e l’ordine pubblico. Tuttavia, essendo la capacità delle macchine “alimentata” dall’uomo, è altamente probabile che queste siano vittime delle stesse trappole psicologiche che affliggono coloro che li sviluppano.

Vi sono, infatti,  prove crescenti del fatto che i sistemi automatizzati non sempre migliorano in modo inequivocabile il processo decisionale umano. In alcuni casi, i modelli di apprendimento automatico sono semplicemente imprecisi.

Ma in molti casi, anche preoccupanti, i risultati di un modello statisticamente distorto creano esiti socialmente distorti, perpetuando e amplificando gli stessi problemi che l’apprendimento automatico sembra promettere di prevenire.

E’ necessario, quindi, stabilire collegamenti dalla ricerca sulla psicologia umana ed i pregiudizi umani al campo emergente dei “bias algoritmici”.

L’Osservatorio etico per l’Intelligenza Artificiale che vede l’Italia come capofila in Europa e da gennaio 2019 fa parte del progetto “AI4EU” finanziato da H2020, si occupa proprio di analizzare, studiare e risolvere le problematiche che possono sorgere quando le insidie della psicologia umana vengono trasferite alle macchine.

Facciamo due esempi per chiarire meglio cosa intendiamo.

Decisioni basate su informazioni scarse

Esaminiamo, innanzitutto, l’insidia delle decisioni prese valutando pochi dati.

A differenza degli algoritmi di apprendimento automatico, che possono essere addestrati su milioni di esempi, gli esseri umani devono trarre conclusioni dalla loro limitata esperienza personale.

Questo induce, nella vita quotidiana, l’uomo ad essere eccessivamente ottimista riguardo quanto improbabili possano essere eventi negativi (o positivi) rari come il contrarre una determinata malattia, questo perché il campione di informazioni personali difficilmente contiene casi dell’evento, tale da attuare comportamenti che abbiano piena consapevolezza.

Questi bias (correlazioni illusorie) potrebbero essere contenuti in algoritmi che gestiscono la selezione di un gruppo bisognoso (il 5% degli individui con maggiori necessità ad esempio) facenti parte una popolazione. La scarsità di informazioni inerenti alcuni individui, però, potrebbe collocare questi in condizioni estreme (positive e negative) eludendo le reali necessità, quindi non erogando le cure necessarie.

Imparare solo dalle conseguenze delle proprie scelte 

In seconda analisi, vi è il lato negativo di imparare solo dalle conseguenze delle scelte prese (effetto “stufa calda”).

Le persone hanno la capacità (parziale) di evitare altre persone che non gradiscono in modo tale che le prime impressioni negative tendono a durare più a lungo di quelle positive. Questo banale esempio è alla base dei comportamenti di evitamento e, nonostante abbia il fine di difenderci da eventi avversi, sfavorisce nel contempo l’acquisizione di maggiori informazioni del contesto, garantendo una serie di effetti pregiudizievoli.

Tale pregiudizio può appartenere agli algoritmi, un esempio avviene nell’uso dell’AI nella sorveglianza predittiva. Gli approcci algoritmici che selezionano nuclei di forze dell’ordine per predire zone degli spazi urbani ad alto rischio hanno mostrato un evidente successo nella riduzione della criminalità.

Questi algoritmi funzionano in maniera predittiva considerando che il crimine si verificherà in maniera reiterata in zone “calde”, ovvero dove è già stato osservato in passato. Tuttavia, i critici hanno sottolineato che, poiché il crimine è più probabile che venga osservato quando ci sono molte forze di polizia ad osservarlo, i modelli predittivi possono divergere dal modello reale per una banale condizione di probabilità. Proprio come una persona impara ad evitare un collega dopo una prima brutta impressione, l’algoritmo impara a non inviare agenti in aree che ritiene essere a basso rischio e a concentrarsi su aree “ad alto rischio”. Nel corso del tempo, si può sviluppare un ciclo di feedback, in cui un numero sempre maggiore di poliziotti possa presidiare un piccolo numero di punti caldi, causando così una percentuale sempre maggiore di reati osservati in tali zone.

Trappole psicologiche per macchine intelligenti

La scienza e la tecnologia spesso avanzano attraverso metafore ispiratrici. Parte del recente interesse per l’apprendimento automatico e l’intelligenza artificiale deriva proprio dal confronto tra macchine ed esseri umani, e dall’idea che i sistemi basati su macchine implementino aspetti della cognizione umana e migliorino le abilità umane. Tuttavia, è necessario riconoscere che questi sistemi, per quanto “intelligenti” siano, cadono vittime delle stesse trappole psicologiche che affliggono coloro che li sviluppano.

Quindi, lo studio di ciò che Amos Tversky chiama “stupidità naturale” porterà a un’IA più efficace ed equa.

L’Osservatorio etico per l’Intelligenza Artificiale

La necessità di analizzare, studiare e risolvere fenomeni e problemi come quelli descritti è il fine dell’Osservatorio etico per l’Intelligenza Artificiale che vede l’Italia come capofila in Europa.

Lo European Centre for Living Technology (ECLT), infatti, è il centro di ricerca interdisciplinare, con sede in Venezia la cui missione è studiare e sviluppare nuove tecnologie orientandosi grazie alle scienze della vita e dei sistemi complessi, come l’auto-organizzazione, l’evoluzione, l’apprendimento, adattabilità e percezione. Il centro, istituito nel 2004, è organizzato come un consorzio inter-universitario e coinvolge attualmente 17 istituzioni in tutta Europa e non.

A partire da gennaio 2019 il centro fa parte di un ambizioso progetto finanziato da H2020 chiamato “AI4EU” che mira a costruire una piattaforma europea on-demand che fornirà agli attori in tutti i settori della società l’accesso di strumenti per l’implementazione di innovazioni basate sull’intelligenza artificiale.

Uno degli obiettivi strategici di AI4EU è promuovere i valori europei per questioni etiche, legali e socio-economiche nell’IA e proteggere la società europea dagli abusi di tali tecnologie. Il fine è quello di istituire un osservatorio etico per garantire il rispetto dei valori dell’IA incentrati sull’uomo e sulle normative europee, per fornire alla comunità un aggiornamento costante sulle conseguenze degli usi e abusi dell’intelligenza artificiale.

Gli obbiettivi, secondo il direttore del centro, il Professor Marcello Pelillo, saranno fornire un quadro giuridico per l’intelligenza artificiale sicura ed trasparente, combattere i pregiudizi non intenzionali che portano alla discriminazione sociale e garantire che le preoccupazioni sociali ed economiche sulla perdita della forza lavoro o sul potenziale dominio delle macchine siano adeguatamente affrontati e risolti.

Fonte: Nature: https://t.co/2n9zaiHdea

@RIPRODUZIONE RISERVATA

Articolo 1 di 4