Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Il quadro

Dove l’intelligenza artificiale sbaglia (ancora), Vetere: “Ecco le prossime frontiere della ricerca”

Dalla comprensione profonda del linguaggio all’integrazione tra reti neurali e ragionamento simbolico, passando, sul versante politico, alla necessità che l’Europa si attivi per far sì che il petrolio dei suoi dati non finisca tutto, gratis, nelle piattaforme USA. Tutte le prossime sfide dell’intelligenza artificiale

09 Gen 2019

Guido Vetere

Università degli Studi Guglielmo Marconi


C’è una lunga strada da compiere, ancora, perché l’intelligenza artificiale superi alcuni limiti che – nonostante i suoi sviluppi recenti – la fanno sfigurare, in certi campi, rispetto all’intelligenza umana.

Il traguardo più lontano (e più importante) da raggiungere è probabilmente la comprensione profonda del linguaggio da parte dell’AI. E per questo scopo è necessario riuscire a integrare – da una parte – le capacità intellettive e di apprendimento (delle reti neurali) e – dall’altra – la capacità di ragionare su estese conoscenze del mondo (più tipico dell’intelligenza umana).

Su questi obiettivi si sta concentrando la ricerca in intelligenza artificiale nei prossimi anni, come evidenziato tra l’altro dal recente AI Index 2018 Annual Report

In altre parole: tra intelletto e ragione c’è un gap; sul primo l’AI fa già bene, sulla seconda facciamo meglio noi.

Il problema è quello di unire le due sponde.

Lo sviluppo futuro dell’IA sembra dunque legato alla possibilità di creare un ponte tra reti neurali e ragionamento simbolico.

Metodi, principi e tecniche di questa ibridazione sono tuttavia ancora da studiare e sperimentare, e non è possibile al momento fare previsioni sulla loro disponibilità a breve termine e su vasta scala.

Dunque, senza la pretesa di predire il futuro e nella consapevolezza che la letteratura futurologica ha detto tutto l’essenziale già nell’antichità, cercheremo qui di fornire alcuni elementi che possono aiutarci a capire cosa sia ragionevole aspettarci dall’IA nei prossimi anni, quali siano gli avanzamenti consolidati, i problemi aperti e quelli che non abbiamo ancora neanche ben compreso.

Lo faremo iniziando da qualche nozione di fondo, utile a inquadrare meglio le applicazioni concrete, quelle su cui maggiormente si appunta l’interesse delle industrie, dei governi e della società in generale.

Macchine, intelletto e ragione

Una delle grandi aspettative sul futuro è quella dell’Intelligenza Artificiale (IA), cioè la possibilità di approssimare per via tecnologica alcune funzioni cognitive dell’essere umano. Queste tecniche hanno avuto di recente uno sviluppo impetuoso, dovuto per lo più alla disponibilità di grandi volumi di dati e grandi capacità di calcolo.

Quando parla di IA, la divinazione tecnologica incontra l’eterno enigma della coscienza umana e finisce immancabilmente per evocare la figura dei Golem, gli umanoidi di argilla della tradizione ebraica, creati con oscuri rituali cabalistici per essere forti e obbedienti, ma che spesso si rivelano infidi e pericolosi. L’umanità intera è in ansia per ciò che il Golem dell’IA ci riserva nei prossimi anni, sospesa tra fiducia e timore.

Parlando di come le macchine cercano di accostare la cognitività umana, bisogna considerare come la filosofia abbia tradizionalmente proposto una distinzione tra la capacità di costruire concetti dai fenomeni del mondo e quella di giudicare le relazioni tra tali concetti per applicarli alle situazioni reali o immaginarie. Nella terminologia kantiana, la prima capacità si chiama intelletto, la seconda ragione. Senza entrare nel merito della sua adeguatezza, la distinzione appare molto utile per comprendere l’IA nella sua evoluzione e nelle sue prospettive. Nella lunga storia dell’IA, infatti, i due filoni convivono fin da subito, il primo rappresentato dal Percettrone di Rosenblatt (1958), il secondo dal Logic Theorist di Newell, Simon e Shaw (1957).

Tecnologie dell’intelletto

I sistemi di apprendimento automatico (machine learning) approssimano in modo sempre più efficace le capacità intellettive di riconoscimento e classificazione di dati sensoriali come immagini e suoni, o prodotti della comunicazione umana come parole e interazioni sociali.

Secondo l’AI Index 2018 Annual Report, è così che l’AI ha già equiparato o superato l’intelligenza umana nel riuscire a riconoscere immagini e a tradurre tra lingue diverse.

Grazie a sofisticati sistemi di reti neuronali (deep neural network) le regolarità che questi dati presentano (pattern) hanno ormai pochi segreti. Basta (si fa per dire) avere dati e processori a sufficienza per addestrare gli automi a riconoscerli e classificarli. Anzi, dal punto di vista di questa forma di intelletto, le macchine sono già abbondantemente in grado di sopravanzarci.

La capacità dell’IA di battere i campioni umani al gioco Go, ad esempio, è tutta basata sul riconoscimento di pattern di gioco, identificati in un apprendistato fatto per lo più in autonomia con milioni di prove e errori. L’automa non deve prodursi in profondi ragionamenti e dar corso all’immaginazione, gli basta riconoscere la mossa conveniente nella configurazione data, sulla base dell’esperienza pregressa. Il suo vantaggio è quello di avere un’esperienza così ampia da essere inimmaginabile per un essere umano, conservata peraltro in una memoria di silicio.

Le tecnologie dell’intelletto sono giunte alla maturità industriale e le loro applicazioni hanno già largo impiego in campi come la guida automatica, il riconoscimento del parlato, il supporto alla diagnosi medica.

In tutti i settori pubblici e privati si riscontra un crescente interesse per i sistemi di apprendimento automatico (McKinsey & Company, 2018). La loro futura espansione è principalmente una questione quantitativa: si tratta di raccogliere e organizzare grandi collezioni di dati, e di applicare tanta potenza di calcolo quanta ne serve per estrarne il “succo” delle correlazioni che li caratterizzano, cioè quelli che vengono chiamati modelli. Le grandi basi di dati esemplificativi e le capacità di calcolo sono necessarie per l’apprendimento (training), ma una volta estratti i modelli, questi possono essere applicati su piccoli dispositivi, come gli smartphone, mediante software che è per lo più pubblico e gratuito (open source).

La competizione industriale si gioca pertanto sul piano della costruzione di tali modelli, e di conseguenza sulla proprietà dei giacimenti di dati (chiamati non a caso il nuovo petrolio) e sulla disponibilità di grandi infrastrutture di calcolo (cloud).

Nella capacità di gestire l’apprendistato delle macchine lo sviluppo dell’IA interseca il problema della concentrazione dei dati nelle piattaforme di soggetti che sfuggono alla giurisdizione degli Stati, in particolare di quelli europei. Quando si parla dei pericoli dell’IA e della possibilità di gestirli, questo è il punto fondamentale: il problema non sono gli algoritmi, cioè i procedimenti di calcolo, per lo più ben noti e studiati da decenni, ma è il disequilibrio dovuto ai grandi monopoli informativi. Il controllo dei moderni Golem dunque non è una questione tecnica, ma un grande tema geopolitico.

Possiamo ormai dire che la capacità intellettiva di riconoscere pattern accomuna animali, esseri umani e automi. Ma questo basta per dire che le macchine diverranno così intelligenti da soppiantarci, come propongono certi transumanisti? Facciamo il caso di un sistema di riconoscimento facciale, come quelli che ci identificano già oggi nelle foto postate sui social. Molti dei sistemi attuali non esiterebbero a identificare un volto umano in nella fotografia seguente (foto 1). Si tratta invece di un cratere su Marte.

https://upload.wikimedia.org/wikipedia/commons/7/77/Martian_face_viking_cropped.jpg

NASA, crateri su Marte, particolare

Per evitare un simile falso positivo l’automa dovrebbe sapere che su Marte nessuno può aver rappresentato un volto umano. Una cosa così ovvia risulta tuttavia difficilissima per una macchina che si basa solo su una tecnologia dell’intelletto. Quella che occorre qui, infatti, è la capacità riflessiva di giudicare se e in che modo ciò che è rappresentato nella foto possa essere attribuito al concetto di volto umano. Si tratta di un giudizio nel quale entrano in gioco la conoscenza del mondo e il ragionamento logico. Siamo cioè nel campo della ragione, intesa come combinazione di conoscenza e inferenza.

Tecnologie della ragione

La più audace visione di un sistema dotato di una descrizione completa del mondo (characteristica universalis) e di un procedimento di calcolo che ne derivi tutte le implicazioni (calculus ratiocinator) è senz’altro quella di Leibniz (1646-1716). L’IA s’è addentrata nel folto di questa visione razionalista fin da subito, ad esempio col progetto Cyc (Lenat, 1984), una grande (e controversa) summa di conoscenza ontologica ed enciclopedica espressa in forma computabile.

Nonostante le critiche pragmatiche (le conoscenze umane sono troppo estese) e ideologiche (nessuno deve rappresentarle in modo dogmatico), nonostante la sua precaria ontologia (le categorie dell’essere di massima generalità adottate da Lenat sono state criticate fin da subito), nonostante la minaccia dei profeti dei big data di liquidare l’intera attività teoretica umana a colpi di statistica (Anderson, 2008), nonostante insomma gli sia stato tirato addosso un po’ di tutto, Cyc è andato avanti ed è giunto fino ai nostri tempi con l’ultimo rilascio nel 2017.

La straordinaria resilienza di Cyc dice molte cose. Il fatto è che alle difficoltà della visione razionalista fanno simmetricamente riscontro le difficoltà della visione empirista per la quale le conoscenze umane si possono trarre dall’intelligenza dei dati. L’entusiasmo dovuto al successo dei sistemi di machine learning applicati ai big data con grandi array di processori, che sta alla base dell’attuale primavera dell’IA, è oggi raffreddato dal sospetto che, raggiunto il traguardo dell’intelletto, la strada per la ragione sia ancora molto lunga.

Inoltre, ci si rende conto che non si tratta di una strada lineare: aumentare le capacità di calcolo o la quantità di dati non permette di fare passi significativi verso la facoltà umana del giudizio, in cui entrano fattori ancora poco compresi, come l’autonoma creatività della nostra mente (uno dei temi fondamentali dell’idealismo), o il fatto che essa faccia parte integrante di un organismo biologico, o ancora che sia immersa nel linguaggio.

Per questo, le basi di conoscenza umanamente compilate come Cyc (o, mutatis mutandis, Wikipedia) rappresentano ancora oggi l’unica possibilità dell’automa di verificare che nessuno sia ancora stato su Marte e pertanto la figura nella (foto 1) non possa essere un volto umano.

Le basi di conoscenza della IA classica, oggi anche nella forma dei knowledge graph, continuano dunque la loro lunga marcia verso il futuro. L’idea di Berners-Lee che una base di conoscenza globale possa spontaneamente proliferare nel web componendo “dal basso” una grande quantità di linked open data procede a rilento ormai da una ventina d’anni, ma questo nulla toglie all’esigenza impellente di veder realizzato in qualche modo, e certo parzialmente, il programma leibniziano.

Il progresso che ci attende nei prossimi anni passa dunque per un affinamento metodologico della rappresentazione della conoscenza, che sappia trovare la giusta sintesi tra il rigore formale di cui hanno bisogno gli automi e la praticabilità sociale necessaria agli utenti.

IA “integrata” e ragionamento abduttivo

Di sicuro, sulla strada di una IA “integrata”, oltre a nuove connessioni tra deduzione (applicazione di regole ai dati) e induzione (costruzione di regole dai dati), si dovranno fare passi importanti verso procedimenti di carattere semiotico come quelli dell’abduzione.

La differenza tra deduzione, induzione e abduzione si illustra col classico esempio del sacco di fagioli di Peirce.

Borsa, Chicchi Di Caffè, Fagioli, Caffè, Cibo, Sacco

Un sacco di fagioli, da pixabay.com – CC

Si immagini un tavolo su cui si trova un sacco di fagioli.

Se sul sacco è posta un’etichetta con scritto: “fagioli neri”, si può dedurre che prendendo una manciata di fagioli dal sacco questi siano neri. Si supponga invece che il sacco non rechi alcuna etichetta, e che prendendo una manciata si osservi che tutti fagioli sono neri. Si può allora indurre (eventualmente dopo un certo numero di manciate) che tutti i fagioli nel sacco siano neri.

Si immagini infine di avere un sacco con l’etichetta “fagioli neri” e una manciata di fagioli neri sul tavolo. Pensare che i fagioli provengano da quel sacco sarebbe un’abduzione. In altre parole, l’abduzione è una ragionevole ipotesi su una situazione osservata, un ragionamento sulla migliore spiegazione dei fatti.

Gran parte del senso comune che applichiamo nella vita quotidiana, in primis quello che ci consente di comprendere il linguaggio, ricade sotto questa specie. Tuttavia, l’IA ha maggiormente sviluppato metodi deduttivi e induttivi, a causa forse (ma questa è appunto un’abduzione) della loro migliore trattabilità matematica. Il problema dell’abduzione, infatti, è che essa avviene naturalmente nella mente umana senza precise garanzie di tipo logico o empirico. Si tratta, in un certo senso, di un’arte, o comunque di un momento in cui l’essere umano applica la sua libera intenzionalità.

I ragionamenti sulle migliori spiegazioni possono avvalersi di molte euristiche[1] ma non hanno una forma universale, dipendono cioè da modelli specifici ed estesi, su grandi depositi di conoscenze, come quelle che consentono le diagnosi mediche. L’IA integrata consisterà in una sinergia tra metodi di apprendimento necessari per costruire modelli di grande estensione e metodi di ragionamento ipotetico basato su logiche non classiche (ad esempio probabilistiche) per applicare tali modelli ai casi.

Uno dei grandi obiettivi di questo sviluppo sarà quello di mantenere una delle più grandi promesse che l’IA ha di recente fatto (forse con un po’ di leggerezza) a riguardo delle interazioni basate sul linguaggio naturale, in particolare nel campo degli assistenti virtuali.

Interazione linguistica: gli assistenti virtuali

Alexa, l’assistente virtuale di Amazon, è stata una delle più gradite strenne del Natale appena trascorso. Con questo apparecchio, che connesso ai potenti server di Bezos ci ascolta e ci esaudisce, o con l’analogo Google Home, l’IA entra nelle nostre case in modo tangibile, mostrando sia le sue potenzialità sia i suoi limiti.

Benché pubblicizzati come sistemi in grado di “comprendere il linguaggio”, essi mostrano in modo emblematico che l’IA è ancora ben lontana da qualsiasi cosa si possa vagamente accostare alla comprensione umana del linguaggio naturale. Per questo genere di assistenti virtuali, ogni tipo di richiesta è un caso a sé e va programmata ad hoc. Questi piccoli moduli di competenza semantica, ad esempio quelli per pilotare gli elettrodomestici o per richiedere le previsioni atmosferiche, sono attivati da specifiche locuzioni loro associate, e guidano il sistema a riconoscere le frasi che i programmatori hanno previsto per specificare la richiesta.

Benché Amazon chiami skill (competenze) questi moduli, i sistemi attuali non sono in grado di usarli per realizzare la proprietà più basilare del nostro linguaggio: la composizionalità, cioè la possibilità di derivare il significato di una frase da quelli delle sue parti, per un numero di parti (entro certi limiti) arbitrario. Combinare skill diversi, cosa che noi facciamo con grande naturalezza (sappiamo benissimo ad esempio cose significa “fornire l’elenco dei film usciti nell’anno dello sbarco sulla Luna”, anche se richiede skill sia cinematografici sia storici) è ad oggi impossibile: le “competenze” della macchina si limitano alla superficie sintattico-lessicale della frase, frase per frase, senza alcuna interrelazione, senza alcuna profondità semantica. Anche se gli skill prodotti per Alexa giungessero ad essere milioni (foto 3), essi non costituirebbero una buona approssimazione dello scibile umano, perché mancherebbe quella struttura profonda di relazioni concettuali che caratterizza il nostro sapere.

https://46ba123xc93a357lc11tqhds-wpengine.netdna-ssl.com/wp-content/uploads/2018/03/alexa-skill-milestones-march-2018-01.png

(Foto 3 – Skill Alexa dal 2016 al 2018 – Voicebot.ai)

Comprensione del linguaggio

La comprensione profonda del linguaggio è forse la sfida più grande che l’IA si troverà ad affrontare nei prossimi anni. L’IA intellettiva ha conseguito recentemente spettacolari successi in alcuni tipi di analisi linguistica, come quella sintattica.

Nessuno potrebbe proporre oggi un analizzatore sintattico (parser) che non sia basato su reti neurali addestrate su vasti corpora testuali. Sul versante della semantica, l’IA data-driven (ri)propone l’analisi distribuzionale, basata sulla classica idea[2] che le parole che occorrono nello stesso contesto abbiano qualcosa a che fare l’una con l’altra sul piano del significato (se si dice “vado al cinema” e “vado a teatro”, allora “cinema” e “teatro” hanno qualche relazione semantica). Con questo approccio si può in effetti giungere a valutare con buona accuratezza la similarità di due frasi, rimanendo tuttavia totalmente all’oscuro del loro significato e delle loro implicazioni.

La consapevolezza che il muro del significato sia ancora da abbattere si sta diffondendo, grazie anche alle aspettative riposte nei nuovi assistenti virtuali.

L’IA è dunque arrivata ad uno stadio in cui uno dei grandi puzzle della filosofia e della linguistica, cioè la “teoria del significato”, si trova ad essere un tema non più solo speculativo, ma di grande rilevanza industriale e sociale. Forse una buona notizia per filosofi e linguisti, ma un segnale di attenzione e di prudenza per tutti gli altri. Ancora nei prossimi anni si dovranno mettere alla porta quegli agenti di commercio che affermano: “il nostro sistema di IA comprende il linguaggio come un essere umano”.

Si potrà invece aprire con fiducia a chi mostra umiltà nei confronti della semantica linguistica, perché, pur nei loro limiti, da una parte le tecniche neurali stanno compiendo progressi significativi, dall’altra le basi di conoscenza continuano la loro lenta ma inarrestabile crescita.

La comprensione profonda del linguaggio è forse il terreno sul quale l’integrazione delle due anime dell’IA è attesa con maggiore ansietà. Che i modelli neurali del linguaggio stentino ad elevarsi al livello della semantica, specie sotto il profilo della composizionalità, e che sia necessario far in qualche modo ricorso alla conoscenza di senso comune, è ormai commonplace nel dibattito scientifico sull’IA. Per vedere qualcosa che somiglia a una comprensione profonda del linguaggio all’opera nei nostri elettrodomestici bisognerà però aspettare ancora qualche tempo.

Conclusione

Nessun Golem automatico verrà a turbare il nostro villaggio nell’anno che ci aspetta. La grande crescita di quelle che abbiamo chiamato “tecnologie dell’intelletto” proseguirà in ampiezza, trovando applicazione in molti campi ancora non arati, ma non varcherà la soglia della ragione umana. Il terreno della ragione, e in particolare quello delle funzioni legate al linguaggio, verrà ancora coltivato con l’apporto sostanziale del paziente lavoro umano. Per questo, ciascun sistema economico, le aziende, le amministrazioni, gli Stati e le loro aggregazioni, dovrà dotarsi delle competenze, delle risorse e delle infrastrutture necessarie al proprio autonomo sviluppo.

L’Europa, che ha fatto tanto per difendere le informazioni private dei cittadini, dovrà probabilmente iniziare a ragionare su come far sì che il petrolio dei suoi dati non finisca tutto, e gratis, nei motori IA delle piattaforme basate negli USA. In definitiva, c’è molta politica nel futuro dell’Intelligenza Artificiale.

_________________________________________________________

  1. Umberto Eco, Thomas A. Sebeok, Il segno dei tre: Holmes, Dupin, Peirce, Bompiani
  2. Zellig Harris, Methods in Structural Linguistics 1951

@RIPRODUZIONE RISERVATA

Articolo 1 di 4