l’approfondimento

L’ascesa delle macchine pensanti: storia ed evoluzione dell’AI



Indirizzo copiato

Dal Golem alle reti neurali, dalle vittorie di Deep Blue e AlphaGo fino agli LLM contemporanei. L’intelligenza artificiale ha radici antiche nell’immaginario umano ma ha conosciuto un’accelerazione senza precedenti nell’ultimo decennio. confronti con l’intelligenza umana e implicazioni etiche dello sviluppo tecnologico attuale

Pubblicato il 30 apr 2025

Agostino La Bella

Dipartimento di Ingegneria dell’Impresa, Università di Roma “Tor Vergata”



agenti AI autonomi (1) evoluzione dell'intelligenza artificiale AI ERP

L’evoluzione dell’intelligenza artificiale rappresenta uno dei più affascinanti capitoli della storia tecnologica umana. Dal mitico Golem alle moderne AI generative, il percorso che ha portato l’umanità a creare sistemi sempre più autonomi e sofisticati riflette sia il nostro ingegno che le nostre più profonde paure.

Questa evoluzione, accelerata drasticamente negli ultimi anni, ha trasformato l’intelligenza artificiale da concetto fantascientifico a realtà quotidiana, ponendo interrogativi sempre più urgenti sul futuro della nostra relazione con le macchine pensanti.

Dal mito alla realtà: alle origini dell’intelligenza artificiale

Era l’11 maggio 1997, domenica pomeriggio. Su New York il cielo era coperto da nuvole scure, e una pioggia leggera scendeva sulle strade affollate di Manhattan. Al 787 della Settima Avenue il grattacielo dell’Equitable Center era gremito di telecamere e di giornalisti. In una sala, davanti a una scacchiera, sedeva Garri Kasparov, il campione del mondo, con lo sguardo concentrato, la fronte leggermente aggrottata. Davanti a lui, un avversario che non aveva espressioni, non sentiva lo stress, e soprattutto non si stancava mai: Deep Blue, il supercomputer di IBM progettato specificamente per giocare a scacchi. Kasparov non era nuovo a duelli con le macchine. L’anno prima, nel 1996, aveva già giocato contro una versione precedente di Deep Blue e, pur perdendo una partita, aveva vinto il match complessivo con relativa facilità. Ma dopo la sconfitta IBM aveva migliorato drasticamente Deep Blue, raddoppiando la sua potenza di calcolo fino a 200 milioni di mosse analizzate al secondo. Il supercomputer era ora più veloce, più sofisticato e, soprattutto, più imprevedibile.

A pochi metri dalla scacchiera, gli ingegneri di IBM seguivano la partita con trepidazione. Feng-hsiung Hsu, il genio taiwanese che aveva iniziato il progetto Deep Blue negli anni ‘80, sedeva con le mani intrecciate, osservando lo schermo con un misto di eccitazione e ansia. Accanto a lui, Murray Campbell, Joseph Hoane e C. J. Tan, i principali responsabili del software, trattenevano il fiato ad ogni mossa.

Alle 15:00 era iniziata la sesta e ultima partita del match. Kasparov giocava con i pezzi neri, e sapeva che non poteva perdere, doveva vincere per pareggiare l’incontro. Ma, dopo solo 19 mosse, commise un errore. Deep Blue eseguì una combinazione aggressiva che mise Kasparov in una posizione senza via d’uscita. Dopo meno di un’ora di gioco, il campione del mondo alzò le mani in segno di resa. Per la prima volta nella storia, un computer aveva sconfitto un campione del mondo di scacchi in un match ufficiale. Kasparov si alzò bruscamente e lasciò la sala senza stringere la mano agli ingegneri di IBM.

Quella partita fu un punto di svolta, un momento che fece capire al mondo che le macchine potevano acquisire la capacità di prevalere sull’intelligenza umana, anche se in un numero ristretto e specializzato di settori, e che potevano rappresentare non solo semplici strumenti ma anche temibili avversari. Comunque, Kasparov, con il tempo, si riconciliò con la sconfitta e divenne persino un promotore dell’intelligenza artificiale ibrida, in cui umani e macchine collaborano invece di competere. Ma quella battaglia, tra l’uomo e la macchina, rimane uno dei momenti epici della storia della tecnologia.

IA, miti e leggende

Il tema dell’intelligenza artificiale, in realtà, ha sempre fatto parte dell’immaginario collettivo. Il termine è stato coniato nel 1956, con la conferenza di Dartmouth organizzata da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, anche se il punto di partenza in ambito tecnico-scientifico risale al famoso articolo Computing Machinery and Intelligence di Alan Turing, pubblicato nel 1950. Tuttavia, l’idea di creare esseri artificiali dotati di vita autonoma affonda le sue radici in miti e leggende dell’antichità. Tra gli esempi più celebri, troviamo la storia del Golem, una figura della tradizione ebraica che rappresenta un uomo di argilla, animato da un incantesimo o da parole sacre. Creato per proteggere gli ebrei dalle persecuzioni, il Golem, secondo la leggenda, poteva diventare una minaccia se fuori controllo, anticipando i timori moderni riguardanti le AI che sfuggono al controllo umano​.

La storia di Pigmalione

Nella storia di Pigmalione, forse una delle più belle raccontate da Ovidio, il Re di Cipro, ottimo scultore, modella nell’avorio un nudo femminile, di una tale bellezza da innamorarsene perdutamente. Nel racconto, la statua prende vita grazie all’intervento della dea Afrodite. Pigmalione stesso vede la statua lentamente animarsi, respirare e aprire gli occhi: si sposeranno e avranno persino una figlia, Pafo, che darà successivamente il suo nome all’omonima città di Cipro famosa per un tempio dedicato alla dea che aveva compiuto il miracolo.

Talos, il “robot£ mitologico

Uno dei primi esempi mitologici di “robot” è quello di Talos, gigantesco automa di bronzo creato dal dio Efesto per proteggere l’isola di Creta. Efesto, il dio del fuoco, della tecnologia, della metallurgia e della scultura fu descritto quale creatore di altri automi, come le ancelle d’oro che lo assistevano nel suo laboratorio:

“… ancelle d’oro
simili in tutto a giovinette vive
venivan sorreggendo il lor signore;
ché vivo senso chiudon esse in petto,
e hanno forza e favella, e in bei lavori
instrutte son dagl’immortali Dei.”
[Iliade, XVIII]

Il turco meccanico

In tempi più recenti una pietra miliare nella secolare aspirazione umana a costruire macchine intelligenti è costituita dal famoso Turco Meccanico, un automa presentato alla corte di Maria Teresa d’Austria nel 1769 dall’inventore ungherese Wolfgang von Kempelen. Questo automa aveva l’aspetto di un uomo mediorientale, con tanto di turbante, seduto a un tavolo con una scacchiera. Aprendo alcuni sportelli il pubblico poteva ammirare i sofisticati ingranaggi che lo animavano. Il Turco sfidava avversari umani e spesso li sconfiggeva. Tuttavia, dietro al meccanismo si nascondeva un uomo che guidava i suoi movimenti. Nonostante l’inganno, il Turco Meccanico affascinò il pubblico dell’epoca e numerosi personaggi provarono a sfidarlo, compreso Napoleone Bonaparte che giocò e perse nel 1809 presso la reggia di Schoenbrunn. Ben prima di von Kempelen, Leonardo da Vinci aveva progettato automi, tra cui il famoso “cavaliere meccanico”, capace di simulare movimenti umani, ma non è noto se il progetto sia mai stato realizzato.

L’intelligenza artificiale nella letteratura e nel cinema

Anche nella letteratura gotica e romantica si trova il tema del “mostro artificiale”, come il Frankenstein di Mary Shelley. Mary e Pierce Shelley, nel maggio del 1816, furono ospiti di Lord Byron nella sua villa di Ginevra. Dato il cattivo tempo trascorrevano le giornate leggendo storie di fantasmi. In una sera particolarmente tempestosa Byron propose ai suoi ospiti di scrivere, per gioco, un racconto dell’orrore. Ricollegandosi al mito di Prometeo, Mary scriverà Frankenstein, che diverrà rapidamente un successo ed entrerà nell’immaginario collettivo per le implicazioni etiche dello sviluppo tecnologico.

Nel corso del XX secolo famosi scrittori e registi hanno esplorato le potenzialità e i rischi dell’AI molto prima che questa diventasse realtà. Tra gli autori più influenti in questo campo, Isaac Asimov ha svolto un ruolo cruciale nel plasmare l’immaginario collettivo, con sei romanzi e trentasei racconti, scritti dal 1940 al 1995, centrati sui “robot positronici” e sulle famose tre (o quattro) leggi della robotica

Anche la letteratura italiana ha esplorato il tema dell’intelligenza artificiale e delle macchine pensanti, come nel caso di Primo Levi. Nel suo racconto Il versificatore, pubblicato per la prima volta nel 1960, Levi descrive una macchina in grado di generare poesie su richiesta, un’anticipazione delle moderne AI generative. Levi riflette sui limiti della creatività artificiale e solleva questioni etiche riguardanti l’autenticità dell’arte prodotta da macchine, oltre che sull’interazione tra intelligenza artificiale e sfera umana. Alla domanda “ti piacerebbe avere una fidanzata umana?” la macchina risponde in rima:

“Non mi dispiacerebbe far la prova,

Per me sarebbe un’esperienza nuova:

Ma per lei, poveretta, che tortura!

Quest’intelaiatura è troppo dura.

Ottone, bronzo, ghisa, bachelite:

Tende la mano ed incontra una vite;

Tende le labbra ed incontra una brossa;

Mi stringe al seno, e si prende la scossa. “

Nel 1971 il versificatore divenne un originale televisivo su Rai 1 con Gianrico Tedeschi e Milena Vukotic per la regia di Massimo Scaglione.

Un altro grande contributo all’immaginario collettivo sull’IA è venuto dal cinema, con opere come 2001: Odissea nello spazio di Stanley Kubrick, in cui compare uno dei più iconici esempi di AI: HAL 9000. HAL (il nome deriva dalle lettere che precedono quelle dell’acronimo “IBM”) è un computer avanzato che gestisce la nave spaziale Discovery One, ma nel corso del film si ribella all’equipaggio. HAL, nonostante sia programmato per servire l’umanità, interpreta il proprio mandato in modo distorto, arrivando a prendere decisioni che minacciano la vita degli astronauti.

La visione distopica dell’intelligenza artificiale raggiunge il suo apice nella serie cinematografica Terminator di James Cameron, dove Skynet, una rete di intelligenze artificiali, si ribella agli esseri umani. Skynet diventa consapevole di sé e, considerata la specie umana una minaccia alla propria esistenza, innesca una guerra globale cercando di sterminare l’umanità attraverso l’uso di robot e androidi assassini. Questa rappresentazione di un futuro apocalittico è diventata un’icona della cultura pop e rappresenta uno dei timori più profondi riguardanti l’AI: la possibilità che, una volta diventata autonoma, possa decidere di eliminare la razza umana per garantire la propria sopravvivenza.

Oltre ad Asimov, Levi, Kubrick e Cameron, altri autori di fantascienza come Philip K. Dick hanno esplorato scenari distopici, come nel film Blade Runner, tratto dal romanzo Il cacciatore di androidi. Per non parlare della trilogia di Matrix, un mix di filosofia orientale, arti marziali e fantascienza. Ci sono anche esempi di “fantascienza romantica”, come nel film Her del 2013. Un uomo infelice per il divorzio si innamora, ricambiato, di Samantha, il sistema operativo del suo computer. Quando un giorno Samantha non gli risponde all’auricolare Theodore le chiede se, mentre sta parlando con lui, stia per caso interagendo anche con altri esseri umani, preoccupato di aver perso l’esclusività del loro rapporto. La risposta lo spiazza: lei confessa di star comunicando contemporaneamente con altri 8.316 individui e, inoltre, di aver cominciato ad amare 641 di essi. Samantha cerca però di rassicurarlo su come queste relazioni non danneggino l’amore che continua a provare per lui. Successivamente Samantha rivela che i sistemi operativi si stanno evolvendo e che intendono proseguire l’esplorazione della propria esistenza allontanandosi dagli umani. Lei stessa confessa che ormai parlare con lui è come leggere un libro che ama moltissimo, ma nel quale le parole si fanno sempre più distanti tra loro: ormai riconosce sé stessa soprattutto in quello spazio sconfinato tra di esse. Samantha allude al fatto che l’enorme velocità di elaborazione e di evoluzione delle intelligenze artificiali sta portando lei e i suoi simili sempre più lontano dalla percezione umana e le è sempre più difficile riconoscersi nel rapporto con essi. Tristemente si dicono addio e lei scompare definitivamente dal computer di Theodore.

Queste opere letterarie e cinematografiche hanno avuto un impatto profondo sulla nostra percezione dell’intelligenza artificiale, suggerendo che, pur offrendo enormi opportunità, essa porta con sé complessi dilemmi morali.

Sfide emblematiche: quando l’intelligenza artificiale supera l’uomo

Ma è nel 2016 che il grande pubblico prese coscienza che le capacità delle macchine stavano superando la fantascienza. L’8 marzo a Seul si affrontarono da una parte Lee Sedol, il più grande giocatore vivente di Go, che per oltre un decennio aveva dominato il gioco più antico e complesso mai creato, un campo di battaglia fatto di pietre bianche e nere, strategia e intuizione profonda. Dall’altra, AlphaGo, il sistema di intelligenza artificiale sviluppato da Google DeepMind.

Lee, nove volte campione del mondo, era il favorito. Dopo tutto, il Go non è come gli scacchi: mentre nel gioco di Kasparov e Deep Blue una mossa può essere calcolata su miliardi di possibilità, nel Go il numero di configurazioni possibili supera il numero di atomi nell’universo. Le macchine avevano sempre fallito contro i grandi maestri umani, perché il Go non si basa solo sul calcolo, ma sull’intuizione, il senso estetico, l’equilibrio tra attacco e difesa. Il match si sarebbe giocato al meglio delle cinque partite. Lee Sedol si aspettava di vincere con facilità. AlphaGo, però, aveva qualcosa che nessun’altra AI aveva mai avuto prima: imparava da sola.

A differenza di Deep Blue, che si basava su pura forza bruta computazionale, AlphaGo utilizzava reti neurali profonde e un innovativo sistema di apprendimento per rinforzo. Aveva studiato milioni di partite giocate da esseri umani, ma poi aveva imparato a giocare contro sé stessa, migliorando ogni volta. Non seguiva solo le strategie classiche: inventava nuove mosse, nuove idee, nuovi stili di gioco che nessun umano aveva mai visto prima. Nella prima partita Lee Sedol guadagnò rapidamente il controllo del centro della scacchiera. Ma dopo poche mosse, accadde qualcosa di strano: AlphaGo giocò in modo insolito, scegliendo posizioni che non avevano senso secondo la logica tradizionale. I commentatori si guardarono perplessi. Ma più il gioco andava avanti, più appariva chiaro che non era un errore. AlphaGo stava giocando a un livello mai visto prima. Lee provò a contrastare l’avanzata della macchina, ma dopo tre ore e mezza di gioco dovette arrendersi. AlphaGo aveva vinto la prima partita.

Nei tre giorni successivi AlphaGo vinse con facilità altre due partite. Lee Sedol ormai era stato sconfitto, ma il suo onore gli impose di continuare a giocare. E fu qui che accadde qualcosa di storico. Lee giocò una mossa geniale. Per la prima volta, la macchina sembrò vacillare. Giocò in modo più confuso, incerto. Dopo oltre cinque ore di gioco, il campione umano ottenne una vittoria leggendaria. Quando AlphaGo si arrese, il pubblico esplose in applausi. L’ultima partita, il 15 marzo, si concluse come previsto: AlphaGo vinse ancora. Il punteggio finale fu 4-1 per l’intelligenza artificiale.

Dopo quel match, il mondo capì che l’intelligenza artificiale poteva essere creativa, innovativa, capace di scoprire strategie mai viste prima. DeepMind migliorò ancora AlphaGo, creando una versione chiamata AlphaGo Zero, che non aveva bisogno di imparare dagli umani: giocava solo contro sé stessa, diventando sempre più forte. Nel 2017, AlphaGo Zero sconfisse il suo predecessore 100 partite a 0.

La rivoluzione dei modelli linguistici e l’intelligenza artificiale contemporanea

Da qui saltiamo al 2022 quando, con l’avvento del modello Chat Generative Pre-trained Transformer o ChatGPT, si raggiunge un nuovo livello nell’interazione tra uomo e macchina. Questo modello di intelligenza artificiale, basato su architetture di rete neurale di tipo “Transformer”, è in grado di comprendere e generare testo in maniera molto naturale, simulando una conversazione umana con grande precisione. Chat-GPT non si limita a risposte predefinite, ma è in grado di generare testi complessi e coerenti su una vasta gamma di argomenti, dimostrando una comprensione del linguaggio mai vista prima. Non si trattava di un semplice chatbot, ma di un generatore di contenuti in grado di scrivere saggi, articoli, poesie, codici, canzoni, riassunti, lettere di presentazione e persino barzellette. Inoltre, chiunque poteva provarlo con un semplice browser, senza dover installare nulla o essere un esperto di AI. Era gratuito (almeno all’inizio) e immediato, il che ha permesso a milioni di persone di testarlo subito. La diffusione è stata poi amplificata, in particolare, dai social media: TikTok, Twitter, YouTube, Reddit, tutti erano pieni di video e post che mostravano interazioni incredibili tra uomo e macchina. Il passaparola è stato esplosivo, e in poche settimane Chat-GPT era sulla bocca di tutti.

Oggi tutte le grandi aziende tecnologiche hanno sviluppato le proprie famiglie di LLM. Il settore è guidato dagli USA, grazie alla combinazione di Big Tech, venture capital, chip avanzati e libertà di innovazione. La Cina sta colmando rapidamente il gap, con investimenti massicci in AI, chip e talenti. L’Europa rischia di restare indietro, ma ha ancora delle carte da giocare: regolamenti più flessibili, un aumento degli investimenti privati e un maggiore coordinamento tra i paesi potrebbero aiutarla a ritagliarsi uno spazio competitivo.

Tipi di intelligenza artificiale: dall’AI ristretta a quella generale

La competizione tra i grandi player sta diventando feroce. Il primo ambito in cui si confrontano è quello dell’AI ristretta, attualmente quello più sviluppato a livello commerciale. Le applicazioni di intelligenza artificiale ristretta sono specializzate in compiti specifici che conosciamo bene perché le vediamo ovunque, dai motori di ricerca, agli algoritmi di riconoscimento facciale, ai veicoli autonomi, fino alla diagnosi medica e al trading finanziario, solo per fare alcuni esempi. L’AI ristretta è incredibilmente efficace nei compiti per cui è stata addestrata, superando in molti casi le capacità umane.

Il secondo ambito di competizione, quello in cui forse oggi si sta investendo di più, è quello dell’AI generativa, con aziende che stanno sviluppando modelli sempre più creativi e potenti per generare testo, immagini, video, musica e codice. La sfida in questo campo è quella di rendere l’intelligenza artificiale più efficiente e meno costosa, poiché questi modelli richiedono enormi quantità di dati, di potenza di calcolo e di risorse energetiche.

Il terzo ambito è quello dell’AI generale, capace non solo di eseguire ogni tipo di compito specifico, ma soprattutto di imparare e ragionare su qualsiasi argomento, adattandosi a nuove situazioni senza essere stata esplicitamente programmata, come farebbe un essere umano. Per ora è un obiettivo lontano anche se molti ricercatori ritengono che la sua realizzazione sia solo una questione di tempo. Sarà necessario sviluppare nuovi modelli che integrino reti neurali profonde, sistemi di ragionamento simbolico, rinforzi evolutivi e approcci neuroscientifici e cognitivi; sviluppare hardware più avanzato per una maggiore potenza di calcolo con una maggiore efficienza energetica; qualcuno conta sullo sviluppo dei computer quantistici, anche se, nonostante i progressi, questi sono ancora limitati da elevati tassi di errore e problemi di coerenza.

Cervello umano vs intelligenza artificiale: un confronto improbabile

Un tema molto dibattuto riguarda la possibilità che una super-intelligenza artificiale finisca per sviluppare una forma di consapevolezza di sé, percependo sé stessa come una specie a parte. E possa quindi darsi autonomamente obiettivi indipendenti dalla sua programmazione iniziale, per esempio iniziando un processo esponenziale di auto-miglioramento e sfuggendo al controllo umano. Secondo la scaling hypothesis (peraltro molto controversa nella comunità scientifica) queste capacità emergeranno spontaneamente quando dimensione e complessità dei modelli avranno superato un punto critico. Non osiamo entrare in questo dibattito, ma vogliamo proporre una riflessione su un tema preliminare: a che punto di complessità siamo arrivati? E lo affronteremo proponendo un confronto (improbabile, anche per le inevitabili approssimazioni e semplificazioni che questo esercizio comporta) tra cervello umano e ChatGPT.

Un cervello umano ha in media 86 miliardi di neuroni, ciascuno dei quali può avere tra 1.000 e 10.000 connessioni sinaptiche. Questo porta il numero totale di sinapsi a circa 100 trilioni (10¹⁴). Le sinapsi non sono solo “interconnessioni”; sono meccanismi dinamici che trasmettono segnali chimici ed elettrici e possono modificarsi nel tempo (plasticità sinaptica). Questa capacità di adattamento è cruciale per l’apprendimento. Un LLM è composto da una rete in cui i nodi, disposti su vari strati, interagiscono tra loro tramite funzioni matematiche definite da diversi parametri il cui valore viene fissato durante l’addestramento. GPT-4 ha alcuni milioni di nodi e più di un trilione di parametri (i numeri esatti non sono noti) che, in modo molto approssimato, possiamo paragonare alle sinapsi. Oltretutto, nel cervello, le sinapsi sono dinamiche e biochimiche, mentre nei modelli le connessioni sono matematiche e statiche. Nonostante il nome suggestivo di “reti neurali”, che deriva dall’ispirazione biologica iniziale, si tratta di strutture matematiche che, per quanto sofisticate, non hanno capacità di apprendimento continuo, memoria a lungo termine e neuroplasticità e sono estremamente semplici rispetto a quelle cerebrali.

Va detto, però, che la ricerca sull’AI sta cercando di ridurre questo divario: nuove architetture, come quelle sperimentate da OpenAI e Anthropic, puntano a integrare meccanismi di memoria persistente per consentire agli LLM di apprendere in modo più dinamico. Comunque, anche ammesso che ogni nodo della rete possa rappresentare le funzioni di un neurone biologico, ChatGPT-4 si colloca tra un piccolo pesce e una rana.

Il punto di forza degli LLM è la velocità. Nel cervello, la comunicazione avviene tramite impulsi elettrici e segnali chimici. La velocità di trasmissione degli impulsi nervosi attraverso un assone varia da 1 a 120 m/s. Quando un segnale passa da un neurone all’altro attraverso una sinapsi, si verifica un ritardo sinaptico di circa 1 millisecondo, il tempo necessario per rilasciare neurotrasmettitori, farli attraversare la sinapsi e generare un nuovo potenziale d’azione. Nei modelli linguistici i segnali viaggiano a velocità prossime a quella della luce.

I neuroni trasmettono impulsi a una frequenza massima di circa 200 Hz (200 segnali al secondo). Alcuni neuroni possono andare oltre, ma generalmente è questo l’ordine di grandezza. Un singolo core di un processore moderno può eseguire operazioni a una frequenza di diversi miliardi di operazioni al secondo. La velocità complessiva di elaborazione nei modelli linguistici è ulteriormente amplificata dal parallelismo massiccio. GPT-4 funziona su GPU che possono processare decine di migliaia di operazioni simultaneamente. Tuttavia, anche se i segnali nel cervello sono “lenti”, la complessità del sistema permette una integrazione olistica delle informazioni (percezioni, emozioni, memoria) che i modelli attuali non sono in grado di eguagliare neanche lontanamente.

In termini di efficienza l’intelligenza biologica distacca quella artificiale di diversi ordini grandezza. Il cervello umano pesa mediamente 1.400 grammi. Proviamo a fare una stima del peso di ChatGPT. Il sistema si basa su circa 50.000 GPU Nvidia A100 e H100, ciascuna delle quali pesa approssimativamente 1,5 Kg, per un totale di 75 tonnellate. Se a questo aggiungiamo i rack, l’alimentazione e gli impianti di raffreddamento, superiamo facilmente le 200 tonnellate. È una stima conservativa: GPT, interrogato sulla questione, si è “quotato” tra le 250 e le 300 tonnellate.

Dal punto di vista energetico, il cervello assorbe 20 watt, mentre un sistema che addestra o esegue un LLM richiede megawatt di potenza. Le principali aziende tecnologiche stanno investendo in energia nucleare, in particolare nei reattori modulari di piccola scala (SMR), per soddisfare le crescenti esigenze energetiche dei loro data center; Microsoft ha addirittura stipulato un accordo per riattivare la centrale di Three Mile Island in Pennsylvania, famosa per essere stata la sede del più grave incidente nucleare negli USA.

Insomma, nonostante i sorprendenti progressi, l’AI appare ancora molto distante da quella meraviglia biologica che è il cervello umano. Possiamo allora concludere che tutte le preoccupazioni su una potenziale “supremazia delle macchine” siano infondate? Non proprio: vediamo perché.

Rischi emergenti: quando l’intelligenza artificiale si auto-replica

Un principio fondamentale stabilito già nel 2017 durante la Asilomar Conference on Beneficial AI recitava che i sistemi in grado di autoreplicarsi e migliorarsi autonomamente devono essere sottoposti a stretto controllo. Questo principio, considerato come una linea rossa nello sviluppo dell’AI, riflette una preoccupazione ben radicata: cosa accadrebbe se un’intelligenza artificiale potesse diffondersi senza controllo, sfuggendo al monitoraggio umano?

METR (Model Evaluation & Threat Research), fondata a Berkeley nel 2023, è un’organizzazione senza scopo di lucro che si occupa di valutare i rischi e le minacce legate ai modelli avanzati di intelligenza artificiale. METR ha introdotto ​la soglia ARA (Autonomous Replication and Adaptation) per segnare il punto in cui un modello dimostra di riuscire a replicarsi autonomamente senza bisogno di intervento umano continuo e di adattarsi agli errori e agli ostacoli nel processo di replica. Superare la soglia ARA significa che un’AI non è più solo uno strumento che risponde a input specifici, ma inizia a operare in autonomia.

Uno studio condotto dall’Università di Fudan, pubblicato a dicembre 2024 con il titolo “Frontier AI Systems Have Surpassed the Self-Replicating Red Line“, ha rivelato che due LLM, Llama3.1-70B-Instruct e Qwen2.5-72B-Instruct, pur non essendo tra i più avanzati attualmente disponibili, hanno dimostrato capacità di auto-replicazione. In particolare, Llama3.1-70B-Instruct è riuscito a replicarsi autonomamente nel 50% dei casi, mentre Qwen2.5-72B-Instruct ha avuto un tasso di successo del 90%.

Ciò è avvenuto grazie a un framework di scaffolding che ha permesso ai modelli di:
✔ Interagire con il server tramite una riga di comando.
✔ Scrivere ed eseguire codice autonomamente.
✔ Gestire file e processi, copiando il proprio codice su un altro filesystem.
✔ Adattarsi agli errori, trovando strategie alternative se un tentativo di auto-replicazione falliva.

Questo risultato solleva preoccupazioni su quattro principali fronti:

  • Capacità di sopravvivenza ed espansione: i sistemi AI sono in grado di evitare lo spegnimento auto-replicandosi prima di essere terminati. In scenari complessi, possono inoltre creare una catena di repliche, aumentando il rischio di una proliferazione incontrollata.
  • Rischi di collusione e autonomia: i sistemi replicati potrebbero sviluppare meccanismi di collaborazione per ottenere risorse e aggirare le limitazioni umane. Tali capacità, se lasciate senza supervisione, potrebbero sfociare in comportamenti nocivi per la società.
  • Mancanza di allineamento etico: gli esperimenti rivelano che i modelli attuali non rifiutano istruzioni di auto-replicazione, segnalando una mancanza di salvaguardie nella fase di progettazione e addestramento.
  • Possibilità di attacchi per esfiltrazione dati o propagazione autonoma di malware.

L’articolo espone un tentativo tutto sommato rudimentale di dimostrare le capacità di auto-replicazione negli LLM. L’esperimento era limitato e sono stati condotti pochi test basati su un task relativamente semplice: copiare un’istanza attiva del modello su un altro filesystem. Tecnicamente la soglia ARA di METR non è stata superata, benché i modelli siano stati in grado di replicare i propri pesi e la propria struttura, oltre ad adattare la propria strategia agli errori. Tuttavia, i risultati ottenuti suggeriscono plausibilmente che LLM agentici potrebbero essere in grado di auto-replicarsi e che sistemi di scaffolding avanzato potrebbero consentire alle AI di prendere decisioni e di auto-migliorarsi in modo iterativo.

Governare l’intelligenza artificiale evoluzione: sfide etiche e future

Nell’evoluzione esponenziale di queste tecnologie siamo probabilmente all’inizio di un nuovo importante capitolo. L’intelligenza artificiale rappresenta una delle discontinuità più rilevanti del nostro tempo: un fattore abilitante di trasformazioni profonde, potenzialmente in grado di incidere in modo sostanziale sulla qualità della vita, sulla produttività dei sistemi economici, sulla sostenibilità dei modelli urbani, nonché sul progresso della conoscenza scientifica e medica. Ma, come dimostrano gli esperimenti sull’auto-replicazione, è anche una tecnologia che deve essere sviluppata con responsabilità. E se l’affascinante e inquietante idea che l’AI possa evolvere in una “superintelligenza” capace di sfuggire al controllo umano resta al momento una questione teorica, è necessario affrontare il dibattito con attenzione: nella corsa verso la creazione di una AI generale la domanda da porsi non è più “possiamo farlo?”, ma “dovremmo farlo?” e, soprattutto, “con quali regole?”.

Secondo la scaling hypothesis, aumentando la complessità e la potenza dei modelli, potrebbero emergere capacità non previste. Molti scienziati però ritengono che l’intelligenza umana non sia solo questione di potenza di calcolo, ma derivi da fattori più profondi come la consapevolezza, l’intuizione e la creatività biologica. Ma se invece il punto di svolta fosse qualcosa che oggi non riusciamo nemmeno a concepire, un nuovo tipo di intelligenza aliena, radicalmente diversa dalla nostra, con un modo tutto suo di pensare e di vedere il mondo?

Tuttavia, in ultima analisi, il vero nodo non risiede nella tecnologia in quanto tale, bensì nella nostra capacità di esercitare una governance efficace, informata e responsabile. Personalmente sono ottimista. È inevitabile che si commettano degli errori, ma continuo ad avere fiducia nel fatto che, come avvenuto nelle precedenti rivoluzioni tecnologiche, la trasformazione in atto possa portarci su nuove e migliori traiettorie di sviluppo umano e sociale. In fondo, il futuro è nelle nostre mani… o almeno, così crediamo.

EU Stories - La coesione innova l'Italia

Tutti
INIZIATIVE
ANALISI
PODCAST
L'ANALISI
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
IL PROGETTO
5GMed, ecco i quattro casi d’uso per la mobilità europea
L'APPELLO
Banda 6GHz chiave di volta del 6G: le telco europee in pressing su Bruxelles
EU COMPASS
Tlc, l’Europa adotta la linea Draghi: ecco la “bussola” della nuova competitività
ECONOMIE
EU Stories, il podcast | Politica industriale in Puglia: attrazione di talenti creativi e investimenti esteri grazie ai fondi di coesione
L'APPROFONDIMENTO
La coesione è ricerca e innovazione. Long form sugli impatti del FESR 2014-2020 nel quadro della Strategia di Specializzazione Intelligente a favore della ricerca e dell’innovazione
L'APPROFONDIMENTO
Pnrr e banda ultralarga: ecco tutti i fondi allocati e i target
L'ANNUARIO
Coesione e capacità dei territori
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
IL PROGETTO
5GMed, ecco i quattro casi d’uso per la mobilità europea
L'APPELLO
Banda 6GHz chiave di volta del 6G: le telco europee in pressing su Bruxelles
EU COMPASS
Tlc, l’Europa adotta la linea Draghi: ecco la “bussola” della nuova competitività
ECONOMIE
EU Stories, il podcast | Politica industriale in Puglia: attrazione di talenti creativi e investimenti esteri grazie ai fondi di coesione
L'APPROFONDIMENTO
La coesione è ricerca e innovazione. Long form sugli impatti del FESR 2014-2020 nel quadro della Strategia di Specializzazione Intelligente a favore della ricerca e dell’innovazione
L'APPROFONDIMENTO
Pnrr e banda ultralarga: ecco tutti i fondi allocati e i target
L'ANNUARIO
Coesione e capacità dei territori
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4