L’evoluzione dell’intelligenza artificiale rappresenta uno dei più affascinanti capitoli della storia tecnologica umana. Dal mitico Golem alle moderne AI generative, il percorso che ha portato l’umanità a creare sistemi sempre più autonomi e sofisticati riflette sia il nostro ingegno che le nostre più profonde paure.
Questa evoluzione, accelerata drasticamente negli ultimi anni, ha trasformato l’intelligenza artificiale da concetto fantascientifico a realtà quotidiana, ponendo interrogativi sempre più urgenti sul futuro della nostra relazione con le macchine pensanti.
Indice degli argomenti
Dal mito alla realtà: alle origini dell’intelligenza artificiale
Era l’11 maggio 1997, domenica pomeriggio. Su New York il cielo era coperto da nuvole scure, e una pioggia leggera scendeva sulle strade affollate di Manhattan. Al 787 della Settima Avenue il grattacielo dell’Equitable Center era gremito di telecamere e di giornalisti. In una sala, davanti a una scacchiera, sedeva Garri Kasparov, il campione del mondo, con lo sguardo concentrato, la fronte leggermente aggrottata. Davanti a lui, un avversario che non aveva espressioni, non sentiva lo stress, e soprattutto non si stancava mai: Deep Blue, il supercomputer di IBM progettato specificamente per giocare a scacchi. Kasparov non era nuovo a duelli con le macchine. L’anno prima, nel 1996, aveva già giocato contro una versione precedente di Deep Blue e, pur perdendo una partita, aveva vinto il match complessivo con relativa facilità. Ma dopo la sconfitta IBM aveva migliorato drasticamente Deep Blue, raddoppiando la sua potenza di calcolo fino a 200 milioni di mosse analizzate al secondo. Il supercomputer era ora più veloce, più sofisticato e, soprattutto, più imprevedibile.
A pochi metri dalla scacchiera, gli ingegneri di IBM seguivano la partita con trepidazione. Feng-hsiung Hsu, il genio taiwanese che aveva iniziato il progetto Deep Blue negli anni ‘80, sedeva con le mani intrecciate, osservando lo schermo con un misto di eccitazione e ansia. Accanto a lui, Murray Campbell, Joseph Hoane e C. J. Tan, i principali responsabili del software, trattenevano il fiato ad ogni mossa.
Alle 15:00 era iniziata la sesta e ultima partita del match. Kasparov giocava con i pezzi neri, e sapeva che non poteva perdere, doveva vincere per pareggiare l’incontro. Ma, dopo solo 19 mosse, commise un errore. Deep Blue eseguì una combinazione aggressiva che mise Kasparov in una posizione senza via d’uscita. Dopo meno di un’ora di gioco, il campione del mondo alzò le mani in segno di resa. Per la prima volta nella storia, un computer aveva sconfitto un campione del mondo di scacchi in un match ufficiale. Kasparov si alzò bruscamente e lasciò la sala senza stringere la mano agli ingegneri di IBM.
Quella partita fu un punto di svolta, un momento che fece capire al mondo che le macchine potevano acquisire la capacità di prevalere sull’intelligenza umana, anche se in un numero ristretto e specializzato di settori, e che potevano rappresentare non solo semplici strumenti ma anche temibili avversari. Comunque, Kasparov, con il tempo, si riconciliò con la sconfitta e divenne persino un promotore dell’intelligenza artificiale ibrida, in cui umani e macchine collaborano invece di competere. Ma quella battaglia, tra l’uomo e la macchina, rimane uno dei momenti epici della storia della tecnologia.
IA, miti e leggende
Il tema dell’intelligenza artificiale, in realtà, ha sempre fatto parte dell’immaginario collettivo. Il termine è stato coniato nel 1956, con la conferenza di Dartmouth organizzata da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, anche se il punto di partenza in ambito tecnico-scientifico risale al famoso articolo Computing Machinery and Intelligence di Alan Turing, pubblicato nel 1950. Tuttavia, l’idea di creare esseri artificiali dotati di vita autonoma affonda le sue radici in miti e leggende dell’antichità. Tra gli esempi più celebri, troviamo la storia del Golem, una figura della tradizione ebraica che rappresenta un uomo di argilla, animato da un incantesimo o da parole sacre. Creato per proteggere gli ebrei dalle persecuzioni, il Golem, secondo la leggenda, poteva diventare una minaccia se fuori controllo, anticipando i timori moderni riguardanti le AI che sfuggono al controllo umano.
La storia di Pigmalione
Nella storia di Pigmalione, forse una delle più belle raccontate da Ovidio, il Re di Cipro, ottimo scultore, modella nell’avorio un nudo femminile, di una tale bellezza da innamorarsene perdutamente. Nel racconto, la statua prende vita grazie all’intervento della dea Afrodite. Pigmalione stesso vede la statua lentamente animarsi, respirare e aprire gli occhi: si sposeranno e avranno persino una figlia, Pafo, che darà successivamente il suo nome all’omonima città di Cipro famosa per un tempio dedicato alla dea che aveva compiuto il miracolo.
Talos, il “robot£ mitologico
Uno dei primi esempi mitologici di “robot” è quello di Talos, gigantesco automa di bronzo creato dal dio Efesto per proteggere l’isola di Creta. Efesto, il dio del fuoco, della tecnologia, della metallurgia e della scultura fu descritto quale creatore di altri automi, come le ancelle d’oro che lo assistevano nel suo laboratorio:
“… ancelle d’oro
simili in tutto a giovinette vive
venivan sorreggendo il lor signore;
ché vivo senso chiudon esse in petto,
e hanno forza e favella, e in bei lavori
instrutte son dagl’immortali Dei.”
[Iliade, XVIII]
Il turco meccanico
In tempi più recenti una pietra miliare nella secolare aspirazione umana a costruire macchine intelligenti è costituita dal famoso Turco Meccanico, un automa presentato alla corte di Maria Teresa d’Austria nel 1769 dall’inventore ungherese Wolfgang von Kempelen. Questo automa aveva l’aspetto di un uomo mediorientale, con tanto di turbante, seduto a un tavolo con una scacchiera. Aprendo alcuni sportelli il pubblico poteva ammirare i sofisticati ingranaggi che lo animavano. Il Turco sfidava avversari umani e spesso li sconfiggeva. Tuttavia, dietro al meccanismo si nascondeva un uomo che guidava i suoi movimenti. Nonostante l’inganno, il Turco Meccanico affascinò il pubblico dell’epoca e numerosi personaggi provarono a sfidarlo, compreso Napoleone Bonaparte che giocò e perse nel 1809 presso la reggia di Schoenbrunn. Ben prima di von Kempelen, Leonardo da Vinci aveva progettato automi, tra cui il famoso “cavaliere meccanico”, capace di simulare movimenti umani, ma non è noto se il progetto sia mai stato realizzato.
L’intelligenza artificiale nella letteratura e nel cinema
Anche nella letteratura gotica e romantica si trova il tema del “mostro artificiale”, come il Frankenstein di Mary Shelley. Mary e Pierce Shelley, nel maggio del 1816, furono ospiti di Lord Byron nella sua villa di Ginevra. Dato il cattivo tempo trascorrevano le giornate leggendo storie di fantasmi. In una sera particolarmente tempestosa Byron propose ai suoi ospiti di scrivere, per gioco, un racconto dell’orrore. Ricollegandosi al mito di Prometeo, Mary scriverà Frankenstein, che diverrà rapidamente un successo ed entrerà nell’immaginario collettivo per le implicazioni etiche dello sviluppo tecnologico.
Nel corso del XX secolo famosi scrittori e registi hanno esplorato le potenzialità e i rischi dell’AI molto prima che questa diventasse realtà. Tra gli autori più influenti in questo campo, Isaac Asimov ha svolto un ruolo cruciale nel plasmare l’immaginario collettivo, con sei romanzi e trentasei racconti, scritti dal 1940 al 1995, centrati sui “robot positronici” e sulle famose tre (o quattro) leggi della robotica
Anche la letteratura italiana ha esplorato il tema dell’intelligenza artificiale e delle macchine pensanti, come nel caso di Primo Levi. Nel suo racconto Il versificatore, pubblicato per la prima volta nel 1960, Levi descrive una macchina in grado di generare poesie su richiesta, un’anticipazione delle moderne AI generative. Levi riflette sui limiti della creatività artificiale e solleva questioni etiche riguardanti l’autenticità dell’arte prodotta da macchine, oltre che sull’interazione tra intelligenza artificiale e sfera umana. Alla domanda “ti piacerebbe avere una fidanzata umana?” la macchina risponde in rima:
“Non mi dispiacerebbe far la prova,
Per me sarebbe un’esperienza nuova:
Ma per lei, poveretta, che tortura!
Quest’intelaiatura è troppo dura.
Ottone, bronzo, ghisa, bachelite:
Tende la mano ed incontra una vite;
Tende le labbra ed incontra una brossa;
Mi stringe al seno, e si prende la scossa. “
Nel 1971 il versificatore divenne un originale televisivo su Rai 1 con Gianrico Tedeschi e Milena Vukotic per la regia di Massimo Scaglione.
Un altro grande contributo all’immaginario collettivo sull’IA è venuto dal cinema, con opere come 2001: Odissea nello spazio di Stanley Kubrick, in cui compare uno dei più iconici esempi di AI: HAL 9000. HAL (il nome deriva dalle lettere che precedono quelle dell’acronimo “IBM”) è un computer avanzato che gestisce la nave spaziale Discovery One, ma nel corso del film si ribella all’equipaggio. HAL, nonostante sia programmato per servire l’umanità, interpreta il proprio mandato in modo distorto, arrivando a prendere decisioni che minacciano la vita degli astronauti.
La visione distopica dell’intelligenza artificiale raggiunge il suo apice nella serie cinematografica Terminator di James Cameron, dove Skynet, una rete di intelligenze artificiali, si ribella agli esseri umani. Skynet diventa consapevole di sé e, considerata la specie umana una minaccia alla propria esistenza, innesca una guerra globale cercando di sterminare l’umanità attraverso l’uso di robot e androidi assassini. Questa rappresentazione di un futuro apocalittico è diventata un’icona della cultura pop e rappresenta uno dei timori più profondi riguardanti l’AI: la possibilità che, una volta diventata autonoma, possa decidere di eliminare la razza umana per garantire la propria sopravvivenza.
Oltre ad Asimov, Levi, Kubrick e Cameron, altri autori di fantascienza come Philip K. Dick hanno esplorato scenari distopici, come nel film Blade Runner, tratto dal romanzo Il cacciatore di androidi. Per non parlare della trilogia di Matrix, un mix di filosofia orientale, arti marziali e fantascienza. Ci sono anche esempi di “fantascienza romantica”, come nel film Her del 2013. Un uomo infelice per il divorzio si innamora, ricambiato, di Samantha, il sistema operativo del suo computer. Quando un giorno Samantha non gli risponde all’auricolare Theodore le chiede se, mentre sta parlando con lui, stia per caso interagendo anche con altri esseri umani, preoccupato di aver perso l’esclusività del loro rapporto. La risposta lo spiazza: lei confessa di star comunicando contemporaneamente con altri 8.316 individui e, inoltre, di aver cominciato ad amare 641 di essi. Samantha cerca però di rassicurarlo su come queste relazioni non danneggino l’amore che continua a provare per lui. Successivamente Samantha rivela che i sistemi operativi si stanno evolvendo e che intendono proseguire l’esplorazione della propria esistenza allontanandosi dagli umani. Lei stessa confessa che ormai parlare con lui è come leggere un libro che ama moltissimo, ma nel quale le parole si fanno sempre più distanti tra loro: ormai riconosce sé stessa soprattutto in quello spazio sconfinato tra di esse. Samantha allude al fatto che l’enorme velocità di elaborazione e di evoluzione delle intelligenze artificiali sta portando lei e i suoi simili sempre più lontano dalla percezione umana e le è sempre più difficile riconoscersi nel rapporto con essi. Tristemente si dicono addio e lei scompare definitivamente dal computer di Theodore.
Queste opere letterarie e cinematografiche hanno avuto un impatto profondo sulla nostra percezione dell’intelligenza artificiale, suggerendo che, pur offrendo enormi opportunità, essa porta con sé complessi dilemmi morali.
Sfide emblematiche: quando l’intelligenza artificiale supera l’uomo
Ma è nel 2016 che il grande pubblico prese coscienza che le capacità delle macchine stavano superando la fantascienza. L’8 marzo a Seul si affrontarono da una parte Lee Sedol, il più grande giocatore vivente di Go, che per oltre un decennio aveva dominato il gioco più antico e complesso mai creato, un campo di battaglia fatto di pietre bianche e nere, strategia e intuizione profonda. Dall’altra, AlphaGo, il sistema di intelligenza artificiale sviluppato da Google DeepMind.
Lee, nove volte campione del mondo, era il favorito. Dopo tutto, il Go non è come gli scacchi: mentre nel gioco di Kasparov e Deep Blue una mossa può essere calcolata su miliardi di possibilità, nel Go il numero di configurazioni possibili supera il numero di atomi nell’universo. Le macchine avevano sempre fallito contro i grandi maestri umani, perché il Go non si basa solo sul calcolo, ma sull’intuizione, il senso estetico, l’equilibrio tra attacco e difesa. Il match si sarebbe giocato al meglio delle cinque partite. Lee Sedol si aspettava di vincere con facilità. AlphaGo, però, aveva qualcosa che nessun’altra AI aveva mai avuto prima: imparava da sola.
A differenza di Deep Blue, che si basava su pura forza bruta computazionale, AlphaGo utilizzava reti neurali profonde e un innovativo sistema di apprendimento per rinforzo. Aveva studiato milioni di partite giocate da esseri umani, ma poi aveva imparato a giocare contro sé stessa, migliorando ogni volta. Non seguiva solo le strategie classiche: inventava nuove mosse, nuove idee, nuovi stili di gioco che nessun umano aveva mai visto prima. Nella prima partita Lee Sedol guadagnò rapidamente il controllo del centro della scacchiera. Ma dopo poche mosse, accadde qualcosa di strano: AlphaGo giocò in modo insolito, scegliendo posizioni che non avevano senso secondo la logica tradizionale. I commentatori si guardarono perplessi. Ma più il gioco andava avanti, più appariva chiaro che non era un errore. AlphaGo stava giocando a un livello mai visto prima. Lee provò a contrastare l’avanzata della macchina, ma dopo tre ore e mezza di gioco dovette arrendersi. AlphaGo aveva vinto la prima partita.
Nei tre giorni successivi AlphaGo vinse con facilità altre due partite. Lee Sedol ormai era stato sconfitto, ma il suo onore gli impose di continuare a giocare. E fu qui che accadde qualcosa di storico. Lee giocò una mossa geniale. Per la prima volta, la macchina sembrò vacillare. Giocò in modo più confuso, incerto. Dopo oltre cinque ore di gioco, il campione umano ottenne una vittoria leggendaria. Quando AlphaGo si arrese, il pubblico esplose in applausi. L’ultima partita, il 15 marzo, si concluse come previsto: AlphaGo vinse ancora. Il punteggio finale fu 4-1 per l’intelligenza artificiale.
Dopo quel match, il mondo capì che l’intelligenza artificiale poteva essere creativa, innovativa, capace di scoprire strategie mai viste prima. DeepMind migliorò ancora AlphaGo, creando una versione chiamata AlphaGo Zero, che non aveva bisogno di imparare dagli umani: giocava solo contro sé stessa, diventando sempre più forte. Nel 2017, AlphaGo Zero sconfisse il suo predecessore 100 partite a 0.
La rivoluzione dei modelli linguistici e l’intelligenza artificiale contemporanea
Da qui saltiamo al 2022 quando, con l’avvento del modello Chat Generative Pre-trained Transformer o ChatGPT, si raggiunge un nuovo livello nell’interazione tra uomo e macchina. Questo modello di intelligenza artificiale, basato su architetture di rete neurale di tipo “Transformer”, è in grado di comprendere e generare testo in maniera molto naturale, simulando una conversazione umana con grande precisione. Chat-GPT non si limita a risposte predefinite, ma è in grado di generare testi complessi e coerenti su una vasta gamma di argomenti, dimostrando una comprensione del linguaggio mai vista prima. Non si trattava di un semplice chatbot, ma di un generatore di contenuti in grado di scrivere saggi, articoli, poesie, codici, canzoni, riassunti, lettere di presentazione e persino barzellette. Inoltre, chiunque poteva provarlo con un semplice browser, senza dover installare nulla o essere un esperto di AI. Era gratuito (almeno all’inizio) e immediato, il che ha permesso a milioni di persone di testarlo subito. La diffusione è stata poi amplificata, in particolare, dai social media: TikTok, Twitter, YouTube, Reddit, tutti erano pieni di video e post che mostravano interazioni incredibili tra uomo e macchina. Il passaparola è stato esplosivo, e in poche settimane Chat-GPT era sulla bocca di tutti.
Oggi tutte le grandi aziende tecnologiche hanno sviluppato le proprie famiglie di LLM. Il settore è guidato dagli USA, grazie alla combinazione di Big Tech, venture capital, chip avanzati e libertà di innovazione. La Cina sta colmando rapidamente il gap, con investimenti massicci in AI, chip e talenti. L’Europa rischia di restare indietro, ma ha ancora delle carte da giocare: regolamenti più flessibili, un aumento degli investimenti privati e un maggiore coordinamento tra i paesi potrebbero aiutarla a ritagliarsi uno spazio competitivo.
Tipi di intelligenza artificiale: dall’AI ristretta a quella generale
La competizione tra i grandi player sta diventando feroce. Il primo ambito in cui si confrontano è quello dell’AI ristretta, attualmente quello più sviluppato a livello commerciale. Le applicazioni di intelligenza artificiale ristretta sono specializzate in compiti specifici che conosciamo bene perché le vediamo ovunque, dai motori di ricerca, agli algoritmi di riconoscimento facciale, ai veicoli autonomi, fino alla diagnosi medica e al trading finanziario, solo per fare alcuni esempi. L’AI ristretta è incredibilmente efficace nei compiti per cui è stata addestrata, superando in molti casi le capacità umane.
Il secondo ambito di competizione, quello in cui forse oggi si sta investendo di più, è quello dell’AI generativa, con aziende che stanno sviluppando modelli sempre più creativi e potenti per generare testo, immagini, video, musica e codice. La sfida in questo campo è quella di rendere l’intelligenza artificiale più efficiente e meno costosa, poiché questi modelli richiedono enormi quantità di dati, di potenza di calcolo e di risorse energetiche.
Il terzo ambito è quello dell’AI generale, capace non solo di eseguire ogni tipo di compito specifico, ma soprattutto di imparare e ragionare su qualsiasi argomento, adattandosi a nuove situazioni senza essere stata esplicitamente programmata, come farebbe un essere umano. Per ora è un obiettivo lontano anche se molti ricercatori ritengono che la sua realizzazione sia solo una questione di tempo. Sarà necessario sviluppare nuovi modelli che integrino reti neurali profonde, sistemi di ragionamento simbolico, rinforzi evolutivi e approcci neuroscientifici e cognitivi; sviluppare hardware più avanzato per una maggiore potenza di calcolo con una maggiore efficienza energetica; qualcuno conta sullo sviluppo dei computer quantistici, anche se, nonostante i progressi, questi sono ancora limitati da elevati tassi di errore e problemi di coerenza.
Cervello umano vs intelligenza artificiale: un confronto improbabile
Un tema molto dibattuto riguarda la possibilità che una super-intelligenza artificiale finisca per sviluppare una forma di consapevolezza di sé, percependo sé stessa come una specie a parte. E possa quindi darsi autonomamente obiettivi indipendenti dalla sua programmazione iniziale, per esempio iniziando un processo esponenziale di auto-miglioramento e sfuggendo al controllo umano. Secondo la scaling hypothesis (peraltro molto controversa nella comunità scientifica) queste capacità emergeranno spontaneamente quando dimensione e complessità dei modelli avranno superato un punto critico. Non osiamo entrare in questo dibattito, ma vogliamo proporre una riflessione su un tema preliminare: a che punto di complessità siamo arrivati? E lo affronteremo proponendo un confronto (improbabile, anche per le inevitabili approssimazioni e semplificazioni che questo esercizio comporta) tra cervello umano e ChatGPT.
Un cervello umano ha in media 86 miliardi di neuroni, ciascuno dei quali può avere tra 1.000 e 10.000 connessioni sinaptiche. Questo porta il numero totale di sinapsi a circa 100 trilioni (10¹⁴). Le sinapsi non sono solo “interconnessioni”; sono meccanismi dinamici che trasmettono segnali chimici ed elettrici e possono modificarsi nel tempo (plasticità sinaptica). Questa capacità di adattamento è cruciale per l’apprendimento. Un LLM è composto da una rete in cui i nodi, disposti su vari strati, interagiscono tra loro tramite funzioni matematiche definite da diversi parametri il cui valore viene fissato durante l’addestramento. GPT-4 ha alcuni milioni di nodi e più di un trilione di parametri (i numeri esatti non sono noti) che, in modo molto approssimato, possiamo paragonare alle sinapsi. Oltretutto, nel cervello, le sinapsi sono dinamiche e biochimiche, mentre nei modelli le connessioni sono matematiche e statiche. Nonostante il nome suggestivo di “reti neurali”, che deriva dall’ispirazione biologica iniziale, si tratta di strutture matematiche che, per quanto sofisticate, non hanno capacità di apprendimento continuo, memoria a lungo termine e neuroplasticità e sono estremamente semplici rispetto a quelle cerebrali.
Va detto, però, che la ricerca sull’AI sta cercando di ridurre questo divario: nuove architetture, come quelle sperimentate da OpenAI e Anthropic, puntano a integrare meccanismi di memoria persistente per consentire agli LLM di apprendere in modo più dinamico. Comunque, anche ammesso che ogni nodo della rete possa rappresentare le funzioni di un neurone biologico, ChatGPT-4 si colloca tra un piccolo pesce e una rana.
Il punto di forza degli LLM è la velocità. Nel cervello, la comunicazione avviene tramite impulsi elettrici e segnali chimici. La velocità di trasmissione degli impulsi nervosi attraverso un assone varia da 1 a 120 m/s. Quando un segnale passa da un neurone all’altro attraverso una sinapsi, si verifica un ritardo sinaptico di circa 1 millisecondo, il tempo necessario per rilasciare neurotrasmettitori, farli attraversare la sinapsi e generare un nuovo potenziale d’azione. Nei modelli linguistici i segnali viaggiano a velocità prossime a quella della luce.
I neuroni trasmettono impulsi a una frequenza massima di circa 200 Hz (200 segnali al secondo). Alcuni neuroni possono andare oltre, ma generalmente è questo l’ordine di grandezza. Un singolo core di un processore moderno può eseguire operazioni a una frequenza di diversi miliardi di operazioni al secondo. La velocità complessiva di elaborazione nei modelli linguistici è ulteriormente amplificata dal parallelismo massiccio. GPT-4 funziona su GPU che possono processare decine di migliaia di operazioni simultaneamente. Tuttavia, anche se i segnali nel cervello sono “lenti”, la complessità del sistema permette una integrazione olistica delle informazioni (percezioni, emozioni, memoria) che i modelli attuali non sono in grado di eguagliare neanche lontanamente.
In termini di efficienza l’intelligenza biologica distacca quella artificiale di diversi ordini grandezza. Il cervello umano pesa mediamente 1.400 grammi. Proviamo a fare una stima del peso di ChatGPT. Il sistema si basa su circa 50.000 GPU Nvidia A100 e H100, ciascuna delle quali pesa approssimativamente 1,5 Kg, per un totale di 75 tonnellate. Se a questo aggiungiamo i rack, l’alimentazione e gli impianti di raffreddamento, superiamo facilmente le 200 tonnellate. È una stima conservativa: GPT, interrogato sulla questione, si è “quotato” tra le 250 e le 300 tonnellate.
Dal punto di vista energetico, il cervello assorbe 20 watt, mentre un sistema che addestra o esegue un LLM richiede megawatt di potenza. Le principali aziende tecnologiche stanno investendo in energia nucleare, in particolare nei reattori modulari di piccola scala (SMR), per soddisfare le crescenti esigenze energetiche dei loro data center; Microsoft ha addirittura stipulato un accordo per riattivare la centrale di Three Mile Island in Pennsylvania, famosa per essere stata la sede del più grave incidente nucleare negli USA.
Insomma, nonostante i sorprendenti progressi, l’AI appare ancora molto distante da quella meraviglia biologica che è il cervello umano. Possiamo allora concludere che tutte le preoccupazioni su una potenziale “supremazia delle macchine” siano infondate? Non proprio: vediamo perché.
Rischi emergenti: quando l’intelligenza artificiale si auto-replica
Un principio fondamentale stabilito già nel 2017 durante la Asilomar Conference on Beneficial AI recitava che i sistemi in grado di autoreplicarsi e migliorarsi autonomamente devono essere sottoposti a stretto controllo. Questo principio, considerato come una linea rossa nello sviluppo dell’AI, riflette una preoccupazione ben radicata: cosa accadrebbe se un’intelligenza artificiale potesse diffondersi senza controllo, sfuggendo al monitoraggio umano?
METR (Model Evaluation & Threat Research), fondata a Berkeley nel 2023, è un’organizzazione senza scopo di lucro che si occupa di valutare i rischi e le minacce legate ai modelli avanzati di intelligenza artificiale. METR ha introdotto la soglia ARA (Autonomous Replication and Adaptation) per segnare il punto in cui un modello dimostra di riuscire a replicarsi autonomamente senza bisogno di intervento umano continuo e di adattarsi agli errori e agli ostacoli nel processo di replica. Superare la soglia ARA significa che un’AI non è più solo uno strumento che risponde a input specifici, ma inizia a operare in autonomia.
Uno studio condotto dall’Università di Fudan, pubblicato a dicembre 2024 con il titolo “Frontier AI Systems Have Surpassed the Self-Replicating Red Line“, ha rivelato che due LLM, Llama3.1-70B-Instruct e Qwen2.5-72B-Instruct, pur non essendo tra i più avanzati attualmente disponibili, hanno dimostrato capacità di auto-replicazione. In particolare, Llama3.1-70B-Instruct è riuscito a replicarsi autonomamente nel 50% dei casi, mentre Qwen2.5-72B-Instruct ha avuto un tasso di successo del 90%.
Ciò è avvenuto grazie a un framework di scaffolding che ha permesso ai modelli di:
✔ Interagire con il server tramite una riga di comando.
✔ Scrivere ed eseguire codice autonomamente.
✔ Gestire file e processi, copiando il proprio codice su un altro filesystem.
✔ Adattarsi agli errori, trovando strategie alternative se un tentativo di auto-replicazione falliva.
Questo risultato solleva preoccupazioni su quattro principali fronti:
- Capacità di sopravvivenza ed espansione: i sistemi AI sono in grado di evitare lo spegnimento auto-replicandosi prima di essere terminati. In scenari complessi, possono inoltre creare una catena di repliche, aumentando il rischio di una proliferazione incontrollata.
- Rischi di collusione e autonomia: i sistemi replicati potrebbero sviluppare meccanismi di collaborazione per ottenere risorse e aggirare le limitazioni umane. Tali capacità, se lasciate senza supervisione, potrebbero sfociare in comportamenti nocivi per la società.
- Mancanza di allineamento etico: gli esperimenti rivelano che i modelli attuali non rifiutano istruzioni di auto-replicazione, segnalando una mancanza di salvaguardie nella fase di progettazione e addestramento.
- Possibilità di attacchi per esfiltrazione dati o propagazione autonoma di malware.
L’articolo espone un tentativo tutto sommato rudimentale di dimostrare le capacità di auto-replicazione negli LLM. L’esperimento era limitato e sono stati condotti pochi test basati su un task relativamente semplice: copiare un’istanza attiva del modello su un altro filesystem. Tecnicamente la soglia ARA di METR non è stata superata, benché i modelli siano stati in grado di replicare i propri pesi e la propria struttura, oltre ad adattare la propria strategia agli errori. Tuttavia, i risultati ottenuti suggeriscono plausibilmente che LLM agentici potrebbero essere in grado di auto-replicarsi e che sistemi di scaffolding avanzato potrebbero consentire alle AI di prendere decisioni e di auto-migliorarsi in modo iterativo.
Governare l’intelligenza artificiale evoluzione: sfide etiche e future
Nell’evoluzione esponenziale di queste tecnologie siamo probabilmente all’inizio di un nuovo importante capitolo. L’intelligenza artificiale rappresenta una delle discontinuità più rilevanti del nostro tempo: un fattore abilitante di trasformazioni profonde, potenzialmente in grado di incidere in modo sostanziale sulla qualità della vita, sulla produttività dei sistemi economici, sulla sostenibilità dei modelli urbani, nonché sul progresso della conoscenza scientifica e medica. Ma, come dimostrano gli esperimenti sull’auto-replicazione, è anche una tecnologia che deve essere sviluppata con responsabilità. E se l’affascinante e inquietante idea che l’AI possa evolvere in una “superintelligenza” capace di sfuggire al controllo umano resta al momento una questione teorica, è necessario affrontare il dibattito con attenzione: nella corsa verso la creazione di una AI generale la domanda da porsi non è più “possiamo farlo?”, ma “dovremmo farlo?” e, soprattutto, “con quali regole?”.
Secondo la scaling hypothesis, aumentando la complessità e la potenza dei modelli, potrebbero emergere capacità non previste. Molti scienziati però ritengono che l’intelligenza umana non sia solo questione di potenza di calcolo, ma derivi da fattori più profondi come la consapevolezza, l’intuizione e la creatività biologica. Ma se invece il punto di svolta fosse qualcosa che oggi non riusciamo nemmeno a concepire, un nuovo tipo di intelligenza aliena, radicalmente diversa dalla nostra, con un modo tutto suo di pensare e di vedere il mondo?
Tuttavia, in ultima analisi, il vero nodo non risiede nella tecnologia in quanto tale, bensì nella nostra capacità di esercitare una governance efficace, informata e responsabile. Personalmente sono ottimista. È inevitabile che si commettano degli errori, ma continuo ad avere fiducia nel fatto che, come avvenuto nelle precedenti rivoluzioni tecnologiche, la trasformazione in atto possa portarci su nuove e migliori traiettorie di sviluppo umano e sociale. In fondo, il futuro è nelle nostre mani… o almeno, così crediamo.