intelligenza artificiale

Thermodynamic computing: il chip che usa il rumore per calcolare



Indirizzo copiato

La startup Normal Computing ha realizzato il primo chip compatibile con il thermodynamic computing, un approccio che utilizza il rumore per eseguire calcoli e promette di rivoluzionare le applicazioni di AI e machine learning

Pubblicato il 31 ott 2025

Francesco Beltrame Quattrocchi

Ordinario di Bioingegneria Università degli Studi di Genova; Presidente di ENR – Ente Nazionale di Ricerca e promozione per la standardizzazione



Memoria AI AI e cultura del dato Responsabilità civile AI ecosistema canadese dell'IA accesso ai dati dsa governance ai globale cern dell'AI thermodynamic computing

Una ricerca pubblicata ad aprile 2025 su Nature Communications dalla startup Normal Computing con sede a New York, USA, descrive in dettaglio un prototipo di ciò che gli autori stessi denominano thermodynamic computer e nel mese di giugno la medesima startup ha annunciato di avere prodotto il primo chip CMOS compatibile quale passo necessario per la commercializzazione di tale computer. Si tratta di un’unità elaborativa stocastica a otto celle che impiega il rumore per effettuare calcoli.
La Normal Computing ha dimostrato che tale computer può sfruttare il rumore per invertire matrici, un compito ad alta intensità elaborativa importante per le applicazioni basate su machine learning. Inoltre, il computer termodinamico è pure riuscito a effettuare campionamento Gaussiano, tecnica che è alla base di alcune applicazioni di AI.

Thermodynamic Computing Explained in 5 Minutes | MOONSHOTS

Dal rumore nemico al rumore alleato della computazione

Tradizionalmente, il rumore è nemico della computazione. Tuttavia, alcune applicazioni sono proprio basate sull’impiego di rumore generato artificialmente.

L’impiego di rumore naturalmente generato può essere molto più efficiente degli approcci computazionali tradizionali. Per tali applicazioni, un thermodynamic computer (altrimenti denominabile come probabilistic computer) inizia il suo ciclo elaborativo con le sue componenti in un qualche stato semi-casuale e poi il problema che l’utente cerca di risolvere è programmato secondo una serie di interazioni tra tali componenti.

Col tempo, queste interazioni consentono alle componenti del computer di arrivare a uno stato di equilibrio e tale stato rappresenta la soluzione del problema in elaborazione.

Applicazioni naturali: dall’AI generativa alle simulazioni molecolari

Questo tipo di approccio si addice in modo naturale per certe applicazioni di calcolo scientifico le quali già includano per loro natura la casualità, come le simulazioni di dinamica molecolare. Esso va anche bene nel caso di modelli di generazione di immagini e video mediante AI come stable diffusion (un modello di AI generativa che produce immagini fotorealistiche uniche a partire da testo e istruzioni di immagini) e come tutto ciò che viene denominato AI probabilistica. Sorprendentemente, l’approccio pare anche assai adatto per elaborazioni di algebra lineare che non sono, invece, per natura probabilistiche. In tal modo, esso può essere impiegato in senso più largo per l’addestramento di sistemi AI.

Dal paradigma teorico all’hardware concreto

Si potrebbe osservare, trattando di paradigmi computazionali, che in fondo la computazione termodinamica sia la stessa cosa denominata probabilistic computing, ma il fatto decisivo e interessante introdotto da Normal Computing consiste in una nuova implementazione, basata su un nuovo hardware. La progettazione e la realizzazione di un prodotto concreto, con in mente una visione industriale di mercato, è del resto tipica delle startup USA e sta a rappresentare il valore aggiunto di tale modo di procedere rispetto a tanti discorsi teorici di altre aree del mondo.
Il prototipo di chip realizzato dalla Normal Computing è denominato Stochastic Processing Unit (SPU), ha 8 risuonatori costituiti da coppie di condensatori e induttori e 8 generatori di rumore casuale. Ciascun risuonatore è connesso a ognuno degli altri risuonatori attraverso un sistema di accoppiamento modulabile.
I risuonatori sono inizializzati con rumore casuale e il problema in studio è programmato negli accoppiatori.

Dopo che il sistema raggiunge uno stato di equilibrio, le 8 unità risuonatrici vengono lette per ottenere la soluzione. Sebbene probabilistic computing e thermodynamic computing siano essenzialmente lo stesso paradigma computazionale, c’è una differenza culturale di rilievo che trova rappresentazione nella visione dei ricercatori della Normal Computing.

Essi immaginano un mondo dove differenti tipi di approcci della fisica vengano utilizzati sul loro sistema hardware e dove ogni problema da risolvere vada opportunamente armonizzato con la migliore possibile implementazione hardware disponibile. I ricercatori di Normal Computing hanno pure coniato il termine physics-based ASICs (Application Specific Integrated Circuits).
Fa pure parte della loro visione un futuro computer capace di avere accesso a CPU e GPU convenzionali ma anche a un quantum computing chip, a un thermodynamic computing chip e a ogni altro tipo di sistema computazionale che si possa immaginare. E ciascun tipo di computazione sarebbe inviata a quell’ASIC che impieghi il tipo di approccio fisico più adatto alla natura del problema da risolvere.

Il limite dell’AI: discrezionalità umana vs automazione

Risulta chiaro come tale visione la quale, vale la pena ribadirlo, è rafforzata in modo decisivo dalla progettazione e realizzazione di un prototipo hardware molto concreto e non è limitata a proporre un discorso teorico, possa essere adoperata con saggezza da un operatore umano, certamente capace di impiegare, a seconda del bisogno, ogni paradigma computazionale per risolvere un problema complesso che presenti diverse sfaccettature nella propria natura fisica, ricorrendo ora al paradigma computazionale convenzionale, ora a quello quantistico, ora a quello termodinamico.
A questo punto si pone la sfida: potrebbe un sistema basato sulle più sofisticate tecnologie AI essere in grado di fare altrettanto, ovvero decidere di commutare da uno all’altro dei paradigmi computazionali, usando i corrispondenti sistemi hardware, per arrivare alla soluzione di un dato problema che abbia bisogno di tale metodologia?

Se da un lato la risposta può essere positiva perché in teoria è possibile addestrare un sistema AI con i diversi tipi di approccio della fisica ovvero far sì che esso conosca i diversi paradigmi computazionali possibili e, ovviamente, realisticamente implementabili su un dato hardware concreto, la risposta non può che essere negativa riguardo alla discrezionalità decisionale – proprietà esclusiva dell’operatore umano – del se e del quando possa essere opportuno effettuare le diverse commutazioni da un paradigma all’altro per raggiungere la soluzione in modo ottimo.

Ancora una volta l’algoritmo ottimo per giungere alla soluzione contiene rilevanti elementi discrezionali variabili e non codificabili per AI perché legati all’esperienza e alla sensibilità umana, fattori in qualche modo appartenenti alla sfera cosciente dell’essere umano, non raggiungibili dai sistemi AI per loro natura.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati