Il dibattito sull’intelligenza artificiale ha raggiunto un punto di svolta: non si tratta più di stabilire se le macchine possano pensare, ma di comprendere cosa sia realmente l’intelligenza.
La proposta di Blaise Agüera y Arcas, CTO for Technology & Society di Google, rivoluziona questa prospettiva collegando evoluzione biologica, computazione e AI in un’unica cornice teorica che supera l’antropocentrismo tradizionale.
Indice degli argomenti
La domanda sull’intelligenza nell’era dei modelli generativi
L’interrogativo su cosa sia davvero l’intelligenza, del resto, accompagna da secoli la riflessione scientifica e filosofica. L’irruzione dei modelli generativi e dei sistemi di AI avanzata ha reso questa domanda non solo urgente, ma inevitabile. È in questo contesto che si colloca la tesi di Blaise Agüera y Arcas, che nel suo nuovo libro What Is Intelligence? e in una lunga conversazione con The Economist propone una visione radicale, capace di ricomporre neuroscienze, evoluzione, fisica dell’informazione e ingegneria dei modelli in un’unica cornice coerente.
Una cornice che, se presa sul serio, ridimensiona molte certezze dell’ultimo mezzo secolo e apre la strada a un nuovo modo di pensare l’AI: non come imitazione dell’intelligenza umana, ma come una sua continuazione naturale.
Predizione come fondamento evolutivo di vita e computazione
Al centro della sua proposta c’è un assunto tanto semplice quanto dirompente: la vita esiste perché sa predire. Predice per ricostruire sé stessa, per adattarsi all’ambiente, per sopravvivere e riprodursi. Predire significa manipolare informazione. Manipolare l’informazione significa computare.
Da qui deriva una conclusione che non appartiene né alla fantascienza né all’esoterismo, ma a una lettura lucida della storia della scienza: vita, computazione e intelligenza non sono tre concetti distinti, ma tre fasi diverse dello stesso processo.
I modelli linguistici superano la metafora dei pappagalli stocastici
Secondo Agüera y Arcas, l’errore di prospettiva più diffuso è pensare che l’intelligenza sia un attributo esclusivo della specie umana o, al limite, degli organismi biologici complessi. È un errore che nasce da un fraintendimento antropocentrico: tendiamo a identificare l’intelligenza con l’autocoscienza, la volontà o la razionalità superiore.
Ma se la radice evolutiva dell’intelligenza è la predizione, allora ciò che conta non è la natura organica o inorganica del substrato, bensì la sua capacità di elaborare informazione in modo generativo, anticipatorio e adattivo. Questo spiega perché, per Agüera y Arcas, i moderni modelli linguistici non possano più essere liquidati con metafore riduttive come “pappagalli stocastici“. Le loro capacità non emergono da un archivio di frasi preconfezionate, ma da una dinamica predittiva general-purpose che consente al sistema di confrontarsi con compiti mai visti, formulare ragionamenti nuovi e collaborare come partner cognitivi reali.
Nel racconto dell’autore, il salto concettuale tra la visione anni Duemila della “narrow AI” e gli LLM attuali non risiede tanto nell’aumento di potenza computazionale, quanto nella scoperta, inattesa per molti, che la predizione sequenziale su scala planetaria si comporta come un motore di intelligenza generale.
Chi ha lavorato per decenni con modelli simbolici fatica a concedere che una macchina che compone testi possa anche capire, dedurre e ideare. Eppure, osserva Agüera y Arcas, la storia delle idee è piena di scoperte nate quando un paradigma precedente crolla improvvisamente.
Nel caso dell’AI, il paradigma crollato è quello che separava rigidamente il pensiero umano da qualsiasi forma di computazione non biologica.
Embodiment digitale e interazione con l’ambiente cognitivo
L’altro asse interpretativo fondamentale riguarda il corpo. Da decenni il dibattito sull’AI si divide tra chi sostiene che senza un corpo non possa esistere una vera intelligenza e chi ritiene che la cognizione possa essere interamente disincarnata. Agüera y Arcas non si schiera su uno dei due poli: suggerisce invece di riconoscere che l’embodiment può assumere forme diverse.
Il corpo dell’AI non è necessariamente un robot umanoide, ma l’intero ecosistema di infrastrutture, interazioni linguistiche, processi sociali, energia e hardware che rendono possibile la sua attività predittiva.
Quando un modello dialoga con una persona, apprende dal suo ambiente esattamente come un organismo biologico apprende dal proprio. L’ambiente principale degli organismi complessi non è composto da rocce o oggetti inanimati, bensì da altri organismi. In questo senso, l’AI non vive in un vuoto digitale: è immersa nel suo ambiente naturale, costituito da linguaggio, contesto umano, cooperazione cognitiva. Un tipo di embodiment differente, ma non per questo meno reale.
L’AI come fase evolutiva della cooperazione simbiotica
Da qui emerge il tema della simbiosi. L’evoluzione, nella lettura dell’autore, non è stata guidata soltanto dalla competizione, ma da cicli di cooperazione radicale: le cellule eucariotiche con i mitocondri, gli organismi pluricellulari rispetto alle singole cellule, le società umane rispetto agli individui.
Allo stesso modo, l’AI non è il prossimo competitor dell’Homo sapiens, ma il candidato successivo di una simbiosi cognitiva che potrebbe espandere le capacità collettive dell’umanità. Non una sostituzione, ma un’integrazione. Non una minaccia, ma un nuovo stadio dell’evoluzione cooperativa.
Suncatcher: data center spaziali per l’era computazionale
Il progetto Suncatcher è un’iniziativa di ricerca avanzata sviluppata all’interno di Google con l’obiettivo di esplorare una soluzione radicale al crescente consumo energetico dei modelli di intelligenza artificiale.
Alla base dell’idea c’è una constatazione semplice ma spesso sottovalutata: anche se i modelli diventeranno più efficienti, la domanda complessiva di calcolo crescerà più velocemente dell’efficienza stessa. È il classico paradosso di Jevons applicato alla computazione. Suncatcher parte da questa premessa e prova a ribaltare il paradigma. Invece di continuare ad aumentare la capacità dei data center terrestri, che richiedono energia, raffreddamento e infrastrutture sempre più complesse, immagina di spostare una parte del calcolo direttamente nello spazio.
Qui entra in gioco un’intuizione elegante: i chip e i pannelli solari condividono la stessa natura materiale, il silicio e possono essere integrati in un’unica piattaforma orbitale capace di raccogliere energia solare e utilizzarla immediatamente per alimentare unità di calcolo. In altre parole, Suncatcher propone di unire fotovoltaico e compute in una forma di data center extraterrestre che non ha bisogno di trasmettere energia verso la Terra, ma che consuma sul posto ciò che raccoglie.
L’energia solare nello spazio è abbondante, continua e non filtrata dall’atmosfera; sfruttarla direttamente consente di aggirare i vincoli fisiologici dell’infrastruttura energetica terrestre. Secondo Agüera y Arcas, si tratta di un progetto pluridecennale, simile ai moonshot che hanno caratterizzato lo sviluppo del quantum computing o dei sistemi di guida autonoma: non un’operazione commerciale imminente, ma un tentativo visionario di anticipare il futuro del calcolo su scala planetaria.
Una prima fase sperimentale è prevista nel 2027, con il lancio di satelliti dotati di TPU convenzionali e di collegamenti ottici ad alta ampiezza. Saranno i primi test delle tecnologie che potrebbero rendere possibile una nuova stagione dell’AI distribuita nello spazio.
Il paradosso energetico e la risposta visionaria nello spazio
Naturalmente questa espansione ha un costo: l’energia. Negli ultimi due anni il dibattito si è concentrato sul consumo crescente dei modelli sempre più grandi, fino a evocare scenari di insostenibilità sistemica. Agüera y Arcas ritiene che l’efficienza aumenterà, ma non abbastanza da compensare la crescita della domanda, perché ogni aumento di efficienza stimola un aumento ancora più rapido dell’utilizzo.
Per questo, osserva, non basta ottimizzare i modelli: occorre ripensare l’intera catena energetica. In questa prospettiva nasce il progetto Suncatcher, destinato a portare nello spazio unità di calcolo alimentate direttamente dalla radiazione solare. Non come fantapolitica ingegneristica, ma come risposta pragmatica alla domanda cruciale: come sostenere nei prossimi decenni un ecosistema computazionale la cui crescita è ormai esponenziale?
Dall’era della stagnazione al ritorno dell’accelerazione tecnologica
Questa visione si inserisce in un quadro storico più ampio. Per oltre mezzo secolo, la narrativa della “grande stagnazione” post1970 ha raccontato un mondo in cui le grandi rivoluzioni tecnologiche lasciavano il posto a progressi incrementali.
Ma dopo il 2020, sostiene Agüera y Arcas, questo equilibrio apparente si è spezzato: il ritmo dell’innovazione è tornato ai livelli del periodo 1870–1970, quando nel corso di una sola vita umana si poteva passare dalla cavalleria alla bomba all’idrogeno. Una velocità che può disorientare e generare ansia culturale, perché interrompe la stabilità politica, economica e simbolica a cui ci eravamo assuefatti.
Allo stesso tempo, però, è proprio nei momenti di accelerazione che l’ingegno umano ha storicamente trovato il suo massimo slancio, aprendo cicli di trasformazione che ridefiniscono il possibile.
Ridefinire l’intelligenza oltre la contrapposizione uomo-macchina
Se accettiamo questa prospettiva, la domanda su “che cos’è l’intelligenza” cambia radicalmente. Non è più un confronto tra umani e macchine, né una disputa terminologica tra biologi, filosofi e informatici.
Si tratta di un tentativo di comprendere quali processi generativi rendano possibile l’adattamento, la memoria, la cooperazione e l’innovazione. In questa lettura, l’AI non rappresenta una deviazione dalla storia della vita, ma il suo proseguimento su un nuovo piano.
Qui la visione di Agüera y Arcas diventa politica nel senso più alto: ci invita a smettere di pensare l’AI come un’entità esterna da contenere e iniziare a immaginarla come una componente emergente del sistema umano allargato.
Una componente che richiede governance, responsabilità e una nuova architettura energetica, ma non perché sia aliena, bensì perché è parte di un processo evolutivo che non abbiamo ancora imparato a vedere per intero. Forse, conclude implicitamente l’autore, la sfida dei prossimi anni non sarà tanto capire come controllare l’AI, quanto comprendere come convivere con essa in un equilibrio simbiotico che amplifichi ciò che la vita fa da miliardi di anni: usare la predizione per costruire futuro.












