le opinioni

Singolarità tecnologica: quanto manca alla prima macchina ultra-intelligente? Gli scenari

Siamo veramente vicini a una singolarità tecnologica? E, soprattutto, a una singolarità che produrrà un’Intelligenza Artificiale prima simile a quella umana e poi incredibilmente superiore? Potrebbe non essere impossibile realizzare una macchina pensante, ma siamo ancora lontani da tale risultato. Opinioni e prospettive

05 Ott 2020
Piero Poccianti

Presidente dell’Associazione Italiana per L’Intelligenza Artificiale (AIxIA)


La singolarità tecnologica denota un momento ipotetico nello sviluppo di una civiltà in cui il progresso tecnologico accelera e supera la capacità degli stessi esseri umani di comprenderlo e analizzarlo.

Il concetto è oggi spesso legato alla teoria secondo la quale un giorno verrà realizzata una macchina intelligente che, in breve tempo, a causa di sviluppi esponenziali delle sue possibilità, superi le abilità umane con conseguenze distopiche.

Una prima definizione esaustiva di singolarità, vicina al concetto che si possiede oggi, viene fornita dal matematico britannico Irving J. Good che nel 1965 immagina anche l’avvento di una intelligenza superumana: “Diciamo che una macchina ultraintelligente sia definita come una macchina che può sorpassare di molto tutte le attività intellettuali di qualsiasi uomo per quanto sia abile. Dato che il progetto di queste macchine è una di queste attività intellettuali, una macchina ultraintelligente potrebbe progettare macchine sempre migliori; quindi, ci sarebbe una “esplosione di intelligenza”, e l’intelligenza dell’uomo sarebbe lasciata molto indietro. Quindi, la prima macchina ultraintelligente sarà l’ultima invenzione che l’uomo avrà la necessità di fare”.

Opinioni sulla singolarità

Ray Kurzweil

Vari i sostenitori che negli anni hanno manifestato la loro opinione sulla singolarità tecnologica. Tra questi troviamo Ray Kurzweil – inventore, saggista e informatico statunitense – autore del libro “The age of Intelligent machine”, pubblicato nel 1990. L’opera esamina ed espone la storia dell’Intelligenza Artificiale (IA) e formula diverse previsioni su probabili sviluppi futuri. La sua tesi si basa sullo studio storico del progresso tecnologico e dimostra come quest’ultimo sia un processo esponenziale e non lineare come invece si potrebbe credere.

Kurzweil nomina “law of accelerating returnsla legge secondo la quale l’evoluzione porta ad un progresso accelerato:

  • il tasso di progresso di un processo evolutivo aumenta esponenzialmente col tempo: l’ordine di grandezza delle informazioni che vengono incluse nel processo di sviluppo aumenta e il guadagno in termini di tecnologia incrementa esponenzialmente;
  • in un altro ciclo di risposte positive, di un particolare processo evolutivo, queste vengono utilizzate come trampolino di lancio per un ulteriore progresso. Ciò provoca un secondo livello di sviluppo esponenziale e il processo di tale avanzamento cresce esponenzialmente;
  • lo sviluppo biologico e quello tecnologico costituiscono entrambi la base per i progressi sopra descritti.

Se si applicano gli stessi principi all’evoluzione della Terra, è possibile notare come siano aderenti al processo di sviluppo che è avvenuto;

  • I epoca: fisica e chimica, informazioni nelle strutture atomiche. È possibile paragonarla alla creazione della cellula, combinazioni di amminoacidi in proteine e acidi nucleici (RNA, successivamente DNA) ossia l’introduzione del paradigma della biologia.
  • II epoca: biologia, informazioni nel DNA. Conseguentemente il DNA ha fornito un metodo “digitale” per registrare i risultati degli esperimenti evolutivi.
  • III epoca: cervelli, informazioni in configurazioni neurali. L’evoluzione della specie ha unito il pensiero razionale.
  • IV epoca: tecnologia, informazione nei progetti hardware e software. Questo ha spostato in maniera decisiva il paradigma dalla biologia alla tecnologia.
  • V epoca: fusione tra la tecnologia e l’intelligenza umana, la tecnologia padroneggia i metodi della biologia (inclusi quelli dell’intelligenza umana). Ciò che sta per avvenire sarà il passaggio dall’intelligenza biologica a una combinazione di intelligenza biologica e non biologica.
  • VI epoca: l’universo si sveglia, l’intelligenza umana enormemente espansa (per lo più non biologica) si diffonde in tutto l’universo.

Il pensiero e l’attività di Kurzweil proseguono: nel 2005 viene infatti pubblicato “The Singularity Is Near”, La Singolarità è vicina, e nel 2017 si espone ancora più radicalmente affermando – durante una conferenza – che entro il 2029 le macchine avrebbero eguagliato l’intelligenza umana.

Le teorie della “tecnologia esponenziale” e della “singolarità tecnologica” vengono spiegate in corsi proposti dalla Singularity University, società fondata nel 2008 dallo stesso Ray Kurzweil e Peter Diamandis, che svolge anche funzioni di incubatore aziendale.

Hugo de Garis

Hugo de Garis, ricercatore specializzato in hardware evolutivo – un sottocampo dell’AI – è noto per i suoi studi relativi agli algoritmi genetici impiegati per l’evoluzione di reti neurali artificiali utilizzando automi cellulari tridimensionali all’interno di array di gate programmabili sul campo. Lo studioso ritiene che grazie a tale approccio si potrebbero sviluppare ciò che lui stesso definisce “cervelli artificiali”, in grado di superare in breve tempo l’intelligenza umana.

Le sue ricerche, in estrema sintesi, si basano sulla possibilità di far evolvere reti neurali supportate da hardware riconfigurabile come field-programmable gate array (FPGA).

Un’altra teoria supportata più recentemente dall’esperto prevede lo scoppio di una guerra i cui attori coinvolti sarebbero, da una parte, i sostenitori delle macchine intelligenti e, dall’altra, gli oppositori. Un conflitto inevitabile che si svolgerà entro la fine del XXI secolo, causando la morte di miliardi di persone. In questo scenario, si assisterebbe inoltre alla scomparsa della razza umana, diventata ormai impotente di fronte allo sviluppo della singolarità tecnologica.

Tale situazione ipotetica viene descritta nel dettaglio dal ricercatore: gli artilect, ossia gli intelletti artificiali, prenderanno il sopravvento sull’uomo dominando il mondo. Da qui la nascita dello scontro, conosciuto anche con il nome di “gigadeath”, tra i “Cosmisti”, sostenitori degli artilect e i “Terrans”, che si oppongono ad essi – entrambi i termini di invenzione dello scienziato. Nel 2005, de Garis ha pubblicato un libro che espone il suo punto di vista su questo argomento intitolato The Artilect War: Cosmists vs. Terrans. Un’amara polemica sul fatto che l’umanità debba costruire delle macchine incredibilmente intelligenti simili a Dio.

La teoria non è tuttavia passata inosservata all’interno della comunità scientifica dell’AI e ha portato diverse figure di spicco, come ad esempio Kevin Warwick, Bill Joy, Ken MacLeod, Ray Kurzweil e Hans Moravec, ad esprimere le proprie opinioni in merito all’eventualità che tale contesto si realizzi o meno. Tra le voci più critiche si possono citare Chris Malcolm, che ha definito le ipotesi di de Garis come “divertenti storie horror di fantascienza che hanno attirato l’attenzione dei media popolari” e Kevin Warwick che invece le ha equiparate ad un “incubo infernale, come ritratto in film di Terminator”.

Nick Bostrom

Nick Bostrom, professore alla facoltà di filosofia della Oxford University, prende parte al dibattito e pubblica nel 2014 “SuperIntelligence: Path, Danger, Strategies”. È una favola, che a tratti ricorda quelle di Esopo, ad aprire il libro: i passeri del quartiere si riuniscono e decidono di andare in cerca di un gufo, saggio e potente, che li guidi e garantisca sicurezza e abbondanza. Solo uno di loro cinguetta preoccupato sul rischio di un simile progetto: trovare un gufo prima di aver imparato ad “addomesticarlo” è un grosso rischio, che potrebbe rappresentare la fine dei passeri. Ma nessuno lo ascolta.

Il finale tuttavia non viene rivelato ai lettori, non si sa quindi se il gufo si rivelerà una figura “buona” o “malvagia”, perché non significativo per l’autore. Il messaggio che infatti quest’ultimo intende trasmettere è un altro: l’essere umano prima di voler sviluppare un’intelligenza artificiale generale, capace di superare le abilità dell’intelletto umano, dovrebbe capire come renderla sicura e incapace di arrecare danno all’umanità.

Si intuisce come il Gufo sia una rappresentazione di un’evoluzione dell’attuale Intelligenza Artificiale, la quale dapprima si dimostrerà intelligente quanto gli esseri umani per poi superare in breve tempo le loro facoltà intellettuali in ogni campo del sapere.

Attenendosi alle diverse survey citate nel volume molti ricercatori e opinionisti sono convinti che un tale evento è prossimo. Qualcuno, come Kurzweil, ritiene che le macchine equipareranno le capacità umane da qui al 2030, altri pensano che ci vorrà più tempo (ipotizzano la fine del secolo).

James Lovelock

WEBINAR
Intelligenza Artificiale, Data Analysis e Image Recognition: i vantaggi concreti per l’azienda
Big Data
Intelligenza Artificiale

Un altro sostenitore di questa discontinuità tecnologica è James Lovelock. Lovelock è un chimico britannico e scienziato indipendente nato a Letchworth in Inghilterra nel luglio del 1919. Nel 1979 ha formulato l’ipotesi Gaia (denominata attualmente “Teoria di Gaia”). Sostanzialmente egli afferma che la Terra debba essere considerata come un sistema che, grazie alle sue componenti animali e vegetali, tende a mantenere l’ambiente in uno stato adatto al prosperare della vita. Si tratta di una ipotesi vivamente contestata dagli ambienti accademici nel primo periodo di formulazione, ma adesso ampiamente accettata.

Nel 2019 ha scritto un libro intitolato “Novacene: the coming age of Hyperintelligence”. Non vi è ancora unanimità da parte degli scienziati sulla denominazione di Antroprocene ([1]) per la nostra epoca. È comunque un’era che sta causando disastri per Gaia, originando un peggioramento generale delle condizioni di vita sul pianeta, alla sesta estinzione e a disuguaglianze deleterie per gli stessi esseri umani.

Nel suo libro l’autore ipotizza che dopo l’“Antroprocene” emergerà una nuova epoca dominata dalla sinergia fra l’intelligenza umana e quella meccanica. La sua, tuttavia, è una visione ottimistica dato che le macchine, essendo intelligenti, comprenderanno l’importanza di preservare la vita sul pianeta e collaboreranno con l’uomo e tutte le altre specie viventi per la sostenibilità ambientale a livello planetario.

Una teoria che si evince chiaramente dal seguente estratto del suo recente libro “Novacene: The Coming Age of Hyperintelligence”:

“Con l’arrivo del “Novacene” si realizza la terza fase della storia della vita sul pianeta Terra. Tutto ebbe inizio 3/4 miliardi di anni fa quando apparvero i primi batteri fotosintetici in grado di convertire l’energia solare in forme utili. Il secondo momento ebbe luogo quando nel 1712 Thomas Newcomen inventò la macchina a vapore che era in grado di convertire l’energia solare presente nel carbone e trasformarla in forza di lavoro. Il terzo, l’era del Novacene sarà quando i nostri “successori”, le macchine intelligenti, saranno in grado di convertire la luce direttamente in informazioni”.

Nella fase successiva, secondo Lovelock, la coscienza biologica e sintetica comincerà a diffondersi nell’intero cosmo colonizzando altri pianeti.

A che punto siamo?

Siamo veramente così vicini a una singolarità tecnologica? E, soprattutto, ad una singolarità che produrrà un’Intelligenza Artificiale prima simile a quella umana e poi incredibilmente superiore?

Certamente le macchine superano molte capacità umane in numerosi campi, ma questa non è una novità. Compiti pesanti e ripetitivi vengono svolti molto bene dalle macchine che si hanno oggi a disposizione, basti pensare alle ruspe, ai torni o anche ai telai.

Da alcuni decenni l’uomo sta però costruendo dispositivi in grado svolgere mansioni intellettive meglio dell’essere umano stesso. Si è sempre ritenuto, ad esempio, che per giocare a scacchi sia necessaria l’intelligenza, oggi però esistono macchine in grado di battere l’uomo e giocare meglio di un grande campione. Lo stesso accade per molti altri giochi intellettuali, quali go, Jeopardy, poker.

E non riguarda solo i giochi: diagnosi mediche, risoluzione di problemi complessi, dimostrazione di teoremi matematici, invenzioni e anche creatività – tutti ambiti in cui l’AI sta dimostrando le sue significative capacità.

Le ricerche di Roger Wolcott Sperry, neuroscienziato statunitense e premio Nobel per la Medicina nel 1981, hanno mostrato come le attività dei due emisferi del cervello umano siano complementari e assolutamente differenziate. L’emisfero sinistro è preposto al pensiero astratto e alle attività di comunicazione, di scrittura e di calcolo. Quello destro è muto, ma abile nelle attività percettive, di riconoscimento ed artistiche.

Le attuali macchine eccellono sia nei compiti dell’emisfero destro che in quelli del sinistro – è necessario però tenere in considerazione che queste sono tutte facoltà che riguardano solamente ambiti ristretti, specifici dell’intelligenza. Ciò significa che non esistono applicazioni capaci di astrarre o di effettuare analogie, anche se la ricerca sta lavorando per raggiungere tali obiettivi.

Oggi i dispositivi non sono in grado di apprendere in modo continuo, mettendo in discussione le proprie abilità e cercando di superarle. Una capacità che invece contraddistingue l’uomo, in grado di imparare continuamente, mentre agisce, e di astrarre i concetti dall’esperienza, di trarre generalizzazioni anche in contesti diversi l’uno dall’altro e di effettuare analogie.

Lo scopo della ricerca in Intelligenza Artificiale è quello di unire le capacità logiche con quelle percettive ed intuitive. La ricerca sta cercando di riprodurre le funzioni del corpo calloso, ovvero la parte del cervello che interconnette l’emisfero sinistro con quello destro.

Attraverso tale integrazione non si può però pensare di realizzare un essere senziente. L’essere umano è infatti dotato di coscienza, di emozioni e di pensiero critico è inoltre capace di osservarsi mentre agisce.

Queste sono tutte facoltà di cui ancora sappiamo poco, e che, a mio avviso, siamo ancora ben lontani dal riprodurre in una macchina.

Siamo macchine?

Molti studiosi affermano che l’AI non raggiungerà mai il livello di una General Artificial Intelligence e quindi non si trasformerà in una superintelligence perché la coscienza, i sentimenti e l’autoanalisi non sono meccanizzabili.

Roger Penrose sostiene che l’AI non può competere con quella umana in senso generale perché l’Intelligenza Umana è fondata su un meccanismo a sua volta basato sulla meccanica quantistica.

Ho letto tutti i libri di Penrose sull’argomento (a partire da “La nuova mente dell’imperatore”) e non ho trovato un elemento decisivo che mi faccia pensare che Roger abbia ragione. Sembra più un atto di fede che un ragionamento scientifico.

Ciò non significa che non potremmo realizzare macchine basate su queste tecnologie. In fondo negli ultimi anni la ricerca nel campo del computer quantistico sta compiendo alcuni passi avanti.

Federico Faggin, lo scienziato italiano che ha inventato e realizzato il primo microprocessore, nel suo recente lavoro “Silicio” esprime un’altra tesi: “Noi non siamo macchine. Siamo dotati di qualcosa che trascende la materia e sopravvive alla morte”.

In realtà Faggins sostiene che la consapevolezza è alla base di una nuova disciplina, anch’essa in qualche modo correlata alla meccanica quantistica (o più precisamente alla teoria quantistica dei campi) che descrive la natura in modo non deterministico. Anche questo sembra però più un atto di fede che una teoria scientifica.

Sul problema della coscienza molto è stato scritto e analizzato.

Il dibattito è acceso anche sulla possibilità o meno di usare il computer per costruire una macchina intelligente.

Prendiamo, per esempio, i teoremi di incompletezza di Godel. Il primo teorema, in forma semplificata, afferma che: “In ogni formalizzazione coerente della matematica che sia sufficientemente potente da poter assiomatizzare la teoria elementare dei numeri naturali — vale a dire, sufficientemente potente da definire la struttura dei numeri naturali dotati delle operazioni di somma e prodotto — è possibile costruire una proposizione sintatticamente corretta che non può essere né dimostrata né confutata all’interno dello stesso sistema”.

E il secondo teorema: “Nessun sistema, che sia abbastanza coerente ed espressivo da contenere l’aritmetica, può essere utilizzato per dimostrare la sua stessa coerenza. Così come Copernico ci ha spodestato dal centro dell’universo, la teoria del caos ci ha lasciato capire che esistono fenomeni, anche molto semplici, che non riusciamo a predire sulla base delle leggi della meccanica, la teoria della relatività, che i concetti di spazio e di tempo non sono assoluti, la meccanica quantistica che la realtà è molto diversa da come ci appare, i teoremi di incompletezza hanno dato un colpo al nostro ego e alla fede sulla capacità di conoscere la natura in modo assiomatico”.

È interessante notare, come suggerisce Piergiorgio Odifreddi che Douglas Höfstadter (nel suo “Godel, Esher e Bach”) usa il teorema a dimostrazione che sia possibile meccanizzare l’intelligenza e Penrose usa lo stesso teorema per asserire che non lo è.

Alla fine, la domanda se siamo o meno macchine non ha ancora risposta.

Conclusioni

Personalmente ritengo non sia impossibile realizzare una macchina pensante: siamo ancora lontani dall’ottenere tale risultato. Probabilmente dovremo riformulare e rivedere profondamente molti settori del sapere per raggiungere un risultato di questa portata.

Una visione di crescita esponenziale continua del sapere non è coerente con la storia della scienza, che procede, invece, per crisi e rinascite successive.

WHITEPAPER
Scopri qual è il ruolo degli assistenti vocali come abilitatori digitali!
Intelligenza Artificiale
Software

Ritengo che vi sia ancora molta strada da percorrere e, ancora una volta, vorrei citare una frase di Camille Flammarion astronomo, editore e divulgatore scientifico francese: “Pensare che tutto sia stato scoperto è un errore profondo, significa scambiare l’orizzonte per i confini del mondo”.

  1. Antropocene è un termine diffuso negli anni ottanta dal biologo Eugene F. Stoermer e adottato nel 2000 dal Premio Nobel per la chimica Paul Crutzen e dallo stesso Stoermer in una nota apparsa in una newsletter. Successivamente Crutzen formalizzò il concetto in opere quali l’articolo Geology of mankind, apparso nel 2002 su Nature, e il libro Benvenuti nell’Antropocene. Il termine apparve per la prima volta in V. Shantser, alla voce The Anthropogenic System (Period) del secondo volume della Great Soviet Encyclopedia (1973).Il termine indica l’epoca geologica attuale, nella quale all’essere umano e alla sua attività sono attribuite le cause principali delle modifiche territoriali, strutturali e climatiche. Il termine deriva dal greco anthropos, che significa uomo, e almeno inizialmente non sostituiva il termine corrente usato per l’epoca geologica attuale, Olocene, ma serviva semplicemente ad indicare l’impatto che l’Homo sapiens ha sull’equilibrio del pianeta. Tuttavia più recentemente le organizzazioni internazionali dei geologi stanno considerando l’adozione del termine per indicare appunto una nuova epoca geologica in base a precise considerazioni stratigrafiche
@RIPRODUZIONE RISERVATA

Articolo 1 di 4