Nonostante le recenti uscite secondo cui il sistema di intelligenza artificiale LaMDA 2 (Language Model for Dialog Applications) avrebbe raggiunto una forma di (auto?) coscienza[1], è decisamente presto per parlare di sistema senziente. La ricerca verso l’AGI (Artificial General Intelligence) in ogni caso continua: proviamo a immaginare dove ci porterà.
Se l’IA diventa senziente: i dubbi etici e il ruolo degli umani
Aiuto l’IA è senziente (anzi no)!
Come molti modelli NLP (Natural Language Processing), tra cui BERT e GPT-3[2], LaMDA 2 è costruito su Transformer, un’architettura di rete neurale sviluppata da Google Research, che può essere addestrata con un numero elevato di testi per sviluppare un modello basato sulle relazioni più probabili fra le parole. In questo modo i modelli NLP possono costruire frasi “prevedendo”, su base statistica, in che modo le parole debbano essere concatenate. Gli utilizzi potenziali sono molteplici, tra questi la generazione di riassunti di testi, ad esempio legali, la generazione di risposte automatiche alle domande dei clienti rispetto a specifici prodotti, la generazione di testi per giochi di ruolo e l’analisi dei messaggi lasciati dalle persone sui social network.
La differenza fra LaMDA 2 e gli altri modelli simili è nella finalità: gli sviluppatori di Google hanno disegnato il sistema per gestire conversazioni. Una chatbot, insomma, specializzata per conversare con un utente umano.
Blake Lemoine, sviluppatore di Google, però, nell’usare il sistema, ha forse dimenticato le origini dello stesso e, conversandoci, è arrivato alla conclusione che il sistema fosse cosciente. Bisogna però ricordare che LaMDA 2 non è “autonomo” – cioè non ti telefona a casa nel cuore della notte per continuare la partita o la conversazione, come fa il computer Joshua nel ben noto film (almeno per la mia generazione) “War games” – ma si limita ad attendere una frase per generarne a sua volta un’altra che “abbia senso” da un punto di vista statistico, sulla base del corpus di testi appresi
La ricerca verso l’AGI (Artificial General Intelligence)
Yann LeCun, uno dei maggiori ricercatori mondiali nel campo dell’intelligenza artificiale, oggi vicepresidente di Meta e direttore della ricerca, ritiene che lo sviluppo dell’AGI costituisca una tappa nella sua visione del futuro, in cui il posto del nostro onnipresente telefono verrà preso da occhiali per la realtà aumentata e da un assistente personale capace di seguirci e collaborare con noi nell’organizzare la nostra vita[3]. Un assistente digitale siffatto dovrà però avere capacità di molto superiori agli assistenti vocali oggi più diffusi, quali Alexa, Ok Google, Siri e Cortana.
Gato, l’intelligenza artificiale raggiunge quella umana? Ecco perché non è ancora così
Secondo LeCun, nonostante i sorprendenti risultati prodotti dai sistemi NLP tipo GPT-3 e LaMDA 2, questo tipo di modelli, mancando del tutto di esperienze del “mondo reale”, non rappresentano l’unico percorso possibile verso la realizzazione dell’IA di uso generale, e nemmeno il più promettente. LeCun infatti non è convinto, a differenza di altri ricercatori del settore, che l’AGI “emerga” quasi automaticamente dalla costruzione di modelli linguistici sempre più complessi. Tali sistemi infatti lavorano bene con unità discrete, quali le parole, ma si mostrano molto meno efficienti nel rappresentare gli oggetti e le loro relazioni.
Il Reinforcememt Learning
Anche l’altro approccio all’AGI che molti considerano promettente, l’apprendimento con rinforzo (Reinforcement learning, RL), la tecnica di intelligenza artificiale che realizza reti neurali in grado di imparare per tentativi ed errori, è considerato da LeCun limitato per lo sviluppo di una vera AGI. Il Reinforcememt Learning, ad esempio, è l’approccio utilizzato da DeepMind per addestrare le IA a giocare a Go o a Dota 2, migliorandone le prestazioni fino al punto di poter battere i migliori i campioni umani[4]. Ma il RL è estremamente inefficiente dal punto di vista dell’addestramento, inteso come numero di “esempi” necessari per arrivare ad un risultato soddisfacente, soprattutto se confrontata con l’apprendimento umano e animale, in quanto ha bisogno di eseguire un numero molto elevato di prove per apprendere un’abilità, anche relativamente semplice. Per far apprendere a giocare – e vincere – al videogioco Dota-2, OpenAI forniva al proprio sistema neurale 7 campioni dello stato del gioco ogni secondo, e ciascun campione era rappresentato da oltre 20,000 parametri. Grazie alla parallelizzazione dell’apprendimento e alla velocità dei sistemi di calcolo impiegati, il sistema di IA è stato addestrato con l’equivalente di 180 anni di partite al giorno, per un totale finale di 10.000 anni di partite.
Il modello del mondo di Le Cun
Negli anni recenti, LeCun ha lavorato sulla capacità delle reti neurali di “capire” una scena e prevederne l’evoluzione. Per farlo ha usato sistemi neurali tradizionali, a cui veniva mostrato un filmato, lasciando che loro poi ne “immaginassero” l’evoluzione. I risultati non sono stati soddisfacenti, perché secondo LeCun è troppo elevata la complessità del compito di capire “cosa succederà dopo” partendo dalla elaborazione dei singoli pixel di un filmato.
Quello che manca è un sottosistema che possa “guidare” la rete neurale decidendo quali sono i particolari di una scena su cui focalizzare l’attenzione della rete stessa. Questo sottosistema rappresenta una sorta di modello del mondo che permette al sistema nel suo complesso di scartare situazioni impossibili. Per spiegarne meglio il ruolo, si pensi a cosa succede quando assistiamo a qualcuno che, muovendosi durante una cena, urta un bicchiere pieno d’acqua: la nostra conoscenza pregressa del comportamento dei fluidi ci permette di arrivare velocemente alla previsione: l’acqua si spargerà sulla tavola e potrebbe cadere sulle persone presenti alla tavolata. Questo ci permette di, eventualmente, alzarci di scatto per evitare di finire bagnati. Allo stato attuale della tecnologia dell’IA, un simile comportamento richiederebbe che il sistema neurale venisse Addestrato con migliaia di ore di filmati di bicchieri rovesciati, per arrivare prevedere l’esito di uno scenario analogo.
Nella visione di LeCun, il sottosistema “guida” è chiamato “world Model” (modello del mondo). Questo costituisce il pezzo più complesso da realizzare, ed è infatti, al momento, puramente speculativo. Il suo ruolo sarebbe duplice: da una parte stimare le informazioni mancanti sullo stato del mondo non fornite dalla percezione, dall’altra prevedere plausibili stati futuri nel caso in cui venga intrapresa una certa azione. Il modello del mondo può prevedere le evoluzioni naturali dell’ambiente circostante o prevederne gli stati futuri risultanti da una sequenza di azioni proposte dal modulo di IA. Il modello del mondo costituisce quindi una sorta di simulatore della parte di realtà rilevante per il compito da svolgere. Poiché il mondo è pieno di incertezza, il modello dovrebbe essere in grado di rappresentare una molteplicità di previsioni.
Rappresentare la realtà a più livelli di astrazione
Un modello del mondo dovrebbe essere in grado di rappresentare la realtà a più livelli di astrazione. Ad esempio, in un sistema di IA che volesse prevedere le azioni di un cuoco, avremmo diversi livelli. Al livello più “fisico”, ad esempio quello dove avviene la micro previsione del movimento della mano, potremmo avere un modello in grado di fornire informazioni sulle fisica del movimento (inerzia, elasticità dei materiali, tempi di reazione dei muscoli) per permettere di formulare ipotesi sullo stato della mano del cuoco dopo che questi abbia iniziato uno specifico movimento, come sollevare una pentola. Ad un livello superiore il modello dovrebbe fornirci una prima interpretazione “teleologico”: perché sta sollevando la pentola? Per riempirla d’acqua o per metterla sul fornello? Questa conoscenza sarebbe utile per aiutare il modello predittivo sottostante a “tarare” le proprie previsioni sull’esito del movimento. Ad un livello ancora superiore, il modello del mondo potrebbe rappresentare qual è l’obiettivo del cuoco: cuocere della pasta, preparare un soffritto o magari ripulire la pentola… E si potrebbe continuare (per chi è la pasta? Per se, un gruppo di amici, per i clienti di un ristorante…)
Per funzionare questo modulo richiede la capacità di estrarre, da ogni livello, una rappresentazione astratta dell’input. Questa rappresentazione astratta può a sua volta essere “condensata” in una rappresentazione astratta di livello più alto e così via. Ogni strato conterrebbe quindi una “conoscenza” ad un differente livello di astrazione dell’azione che si vuole predire.
Conclusioni
Ma come potrebbe essere addestrato un modulo siffatto? La speranza è che ciò si possa fare principalmente per mezzo dell’osservazione passiva, con eventualmente sporadici interventi diretti. Il risultato dovrebbe essere simile all’apprendimento nei bambini: un bambino impara come funziona il mondo in gran parte mediante l’osservazione effettuate nei primi mesi di vita. Impara che il mondo è tridimensionale, che alcuni oggetti sono di fronte ad altri, che quando un oggetto è nascosto dietro ad un altro non per questo smette di esistere. Alla fine, intorno ai nove mesi di età, i bambini “apprendono” la fisica intuitiva – ad esempio, che gli oggetti non supportati cadono verso il basso.
La speranza di LeCun e della sua squadra di ricerca è che un modello del mondo gerarchico possa imparare come funziona il mondo guardando video e interagendo con l’ambiente; allenandosi a prevedere cosa accadrà nel video, produrrà rappresentazioni gerarchiche del mondo. Intraprendendo azioni nel mondo e osservando il risultato, il modello imparerà a prevedere le conseguenze delle sue azioni, che gli permetteranno di ragionare, pianificare e prevedere.
Tutto sommato, l’articolo di LeCun e lo studio dell’AGI in generale, non fanno che confermare quanto straordinariamente complessa sia la nostra capacità di capire ed interagire con la realtà.
Note
- Tiku, N., “The Google engineer who thinks the company’s AI has come to life”, New York Post, 11 giugno 2022 ↑
- Si veda ad esempio, su Agenda Digitale, dello stesso autore: “L’intelligenza artificiale per la scrittura automatica, a che punto siamo e dove va la ricerca”, 10 maggio 2021 ↑
- Heikkiläarchive, M., Heaven, W. D., “Yann LeCun has a bold new vision for the future of AI”, MIT Technology Review, 24 giugno 2022 ↑
- Piper, K. “AI triumphs against the world’s top pro team in strategy game Dota 2″, Vox, 13 aprile 2019 ↑