La scoperta di nuovi materiali rappresenta un settore che potrebbe beneficiare enormemente dell’IA, ma che al contempo mette in luce le limitazioni fondamentali di questa tecnologia quando deve confrontarsi con il mondo fisico reale.
Nel 2020 con AlphaFold2 di DeepMind è arrivato il primo momento di svolta, seguito dalla popolarità di ChatGPT di OpenAI nel 2022. Questi successi tecnologici hanno alimentato l’entusiasmo per l’applicazione del deep learning alla scienza dei materiali, portando promesse ambiziose. L’intelligenza artificiale generativa si propone come un veicolo per esplorare il vasto panorama chimico e simulare strutture atomiche.
Indice degli argomenti
IA nella scoperta di nuovi materiali: promesse e limite delle simulazioni
Ma c’è un problema fondamentale. Come afferma John Gregoire di Lila Sciences, “Le simulazioni possono essere estremamente potenti per inquadrare i problemi e capire cosa vale la pena testare in laboratorio. Ma non c’è alcun problema che possiamo mai risolvere nel mondo reale solo con la simulazione”. Questa affermazione risuona particolarmente importante per coloro che lavorano quotidianamente con sistemi software, in quanto anche il modello più sofisticato rimane una rappresentazione approssimativa della realtà fattuale.
L’hype di DeepMind e la dura realtà dei cristalli “virtuali”
Nel tardo 2023, DeepMind ha annunciato di aver scoperto “milioni di nuovi materiali”, inclusi 380.000 cristalli dichiarati “i più stabili”. Per la comunità dell’IA, questa sembrava la svolta tanto attesa.
Ma non è tutto oro (o cristalli) quel che luccica. I ricercatori dell’Università della California, Santa Barbara, dopo un attento esame, hanno tuttavia dichiarato di aver trovato “scarse prove di composti che soddisfano la triade di novità, credibilità e utilità”. In breve, il processo di elaborazione e di studio non ha trovato alcun composto veramente nuovo tra quelli esaminati.
Dal “virtuale” al “fisico” nell’IA nella scoperta di nuovi materiali
Questo episodio illustra perfettamente il divario tra virtuale e fisico. Per effettuare calcoli su così tante strutture, infatti, DeepMind le ha simulate allo zero assoluto, dove gli atomi sono ben ordinati.
Ma a temperature reali gli atomi si muovono in modi complessi, creando strutture disordinate. Diversi “materiali innovativi” previsti erano semplicemente versioni ordinate di materiali disordinati già noti.
La rivoluzione dei laboratori autonomi per l’IA nella scoperta di nuovi materiali
La vera innovazione risiede nell’integrazione tra il mondo dell’intelligenza artificiale generativa e la sperimentazione fisica. Startup come Lila Sciences e Periodic Labs stanno costruendo laboratori dove agenti di IA pianificano, eseguono e interpretano esperimenti per sintetizzare nuovi materiali.
Il machine learning funge da orchestratore, coordinando hardware, robotica, strumenti analitici e flussi di dati. Un esempio concreto viene dal MIT, dove il sistema CRESt ha esplorato oltre 900 strutture chimiche in tre mesi, scoprendo un catalizzatore che ha raggiunto un miglioramento di 9,3 volte nella densità di potenza per dollaro rispetto al palladio puro, un costoso metallo prezioso.
Costi e sostenibilità dell’IA nella scoperta di nuovi materiali
Nonostante l’entusiasmo per questa rivoluzione, permangono sfide significative. Un recente rapporto di Matlantis rivela che quasi tutti i team di ricerca hanno dovuto abbandonare progetti promettenti a causa di limiti di tempo e capacità computazionale.
I modelli generativi avanzati richiedono risorse enormi, traducendosi in costi elevati di cloud computing e in un significativo consumo energetico. La paradossalità è evidente: si cercano materiali per un futuro sostenibile usando tecnologie con un’impronta di carbonio considerevole.
Questioni etiche: responsabilità, bias, trasparenza e proprietà intellettuale
Le questioni etiche emergenti sono molte e concrete. Quando un sistema di IA commette errori o progetta materiali pericolosi, di chi è la colpa? Gli sviluppatori del software, i ricercatori, l’organizzazione? Il problema è amplificato dal fatto che i sistemi di machine learning identificano pattern che gli esseri umani non riconoscerebbero, rendendo difficile l’anticipazione e il controllo degli errori.
Responsabilità e controllo
Con laboratori completamente automatizzati, alcuni prevedono sistemi capaci di progettare e produrre sostanze senza una supervisione umana. Come sottolineato in letteratura recente, se i sistemi venissero sviluppati al punto di operare autonomamente, le conseguenze negative potrebbero raggiungere il regno di nuove sostanze tossiche o armi chimiche.
Bias e disparità di accesso
Database come Materials Project contengono inevitabilmente bias che riflettono priorità di ricerca passate, finanziamenti disponibili e aree geografiche di ricerca. Modelli addestrati su questi dati possono perpetuare o amplificare questi bias.
L’accesso diseguale a modelli computazionalmente intensivi rischia inoltre di ampliare le disparità globali, penalizzando istituzioni con risorse limitate nelle regioni in via di sviluppo.
Trasparenza e interpretabilità
La “black box” dei modelli di deep learning è un problema tecnico con profonde implicazioni etiche. Quando un sistema di IA suggerisce un nuovo materiale, spesso lo fa senza dare spiegazioni chiare.
L’interpretabilità non è solo comfort psicologico: diventa un fattore deterministico essenziale per il debugging, l’ottimizzazione e la sicurezza.
Proprietà intellettuale
Chi dovrebbe essere riconosciuto come inventore quando un sistema di IA scopre un nuovo materiale? Sebbene ci sia consenso sul fatto che i sistemi di IA non debbano essere nominati come inventori, è importante riconoscerne appropriatamente i relativi contributi.
Ogni team intervistato in recenti studi ha espresso preoccupazioni sulla protezione della proprietà intellettuale quando si utilizzano strumenti basati su cloud.
Il futuro: approccio responsabile e closed-loop discovery
È essenziale sviluppare linee guida etiche chiare, incluse trasparenza obbligatoria, gestione dei bias, coinvolgimento degli stakeholder e formazione continua sulla condotta responsabile della ricerca.
Il futuro più promettente risiede nel closed-loop discovery: in questo paradigma l’intelligenza artificiale non sostituisce gli scienziati, ma lavora insieme a loro in un ciclo continuo di ipotesi, previsione e validazione. Approcci come il knowledge distillation possono ridurre l’impatto ambientale comprimendo reti neurali complesse in modelli più efficienti.
Conclusioni
L’IA nella scoperta di materiali non ha ancora avuto il suo “momento ChatGPT”, ma forse il valore del deep learning in questo campo è più sottile e ha l’obiettivo di accelerare processi, ridurre costi e permettere esplorazioni più ampie. Questo libererebbe i ricercatori dalle attività ripetitive per concentrarsi sulla creatività scientifica.
Questo futuro può realizzarsi solo se si affrontano seriamente le questioni etiche. La comunità scientifica, insieme agli sviluppatori di IA, policy maker e scienze sociali, deve garantire che questa rivoluzione sia guidata da principi etici solidi e da un genuino impegno per il bene comune.
Sitografia
- MIT Technology Review – “AI materials discovery now needs to move into the real world” (15 Dicembre 2025)
https://www.technologyreview.com/2025/12/15/1129210/ai-materials-science-discovery-startups-investment/ - MIT News – “AI system learns from many types of scientific information and runs experiments to discover new materials” (25 Settembre 2025)
https://news.mit.edu/2025/ai-system-learns-many-types-scientific-information-and-runs-experiments-discovering-new-materials-0925 - Peplow, M. – “AI is dreaming up millions of new materials. Are they any good?” Nature (1 Ottobre 2025)
https://www.nature.com/articles/d41586-025-03147-9 - Mullin, R. – “The tricky ethics of AI in the lab” Chemical & Engineering News (18 Settembre 2023)
https://cen.acs.org/business/informatics/tricky-ethics-AI-lab/101/i31
Bibliografia
Cheetham, A. K., & Seshadri, R. (2024). “Solid-state chemistry and the computational revolution”. Chemistry of Materials, 36, 3490-3495. DOI: 10.1021/acs.chemmater.4c00973
Merchant, A., et al. (2023). “Scaling deep learning for materials discovery”. Nature, 624, 80-85. DOI: 10.1038/s41586-023-06735-9
Szymanski, N. J., et al. (2023). “An autonomous laboratory for the accelerated synthesis of novel materials”. Nature, 624(7990), 86-91. DOI: 10.1038/s41586-023-06734-w
Resnik, D.B., et al. (2025). “The ethics of using artificial intelligence in scientific research: new guidance needed for a new tool”. AI and Ethics. DOI: 10.1007/s43681-024-00493-8















