Nel giro di pochi anni, l’Intelligenza Artificiale è passata dall’essere una “promessa” tecnologica a una presenza quotidiana nei laboratori scientifici sparsi per il mondo. Ad oggi è diventato davvero difficile trovare un ambito delle scienze naturali (si pensi alla biologia, alla fisica o alle scienze della Terra) in cui tale tecnologia non sia entrata, almeno in parte, nei metodi di ricerca.
Eppure, proprio mentre cresce attorno a essa l’entusiasmo di ricercatori e non, emergono anche limiti sorprendenti che raccontano una storia più complessa di quella (spesso semplificata) che si legge un po’ ovunque sul Web.
Secondo il più recente rapporto sullo stato dell’arte pubblicato dal californiano Stanford Institute for Human-Centered Artificial Intelligence (HAI) [1], il numero di pubblicazioni scientifiche che menzionano l’Intelligenza Artificiale è aumentato di quasi trenta volte negli ultimi quindici anni.
Si tratta di una crescita impressionante, una vera e propria “fotografia” di un cambiamento strutturale che vede tale tecnologia non più uno strumento di nicchia, ma una componente diffusa della pratica scientifica. Basti pensare che, in alcuni settori, arriviamo anche al dieci percento di articoli scientifici che cita espressamente di aver utilizzato tecniche o modelli di Intelligenza Artificiale, segno che questa tecnologia è diventata gradualmente parte integrante del modo stesso in cui si fa ricerca al giorno d’oggi.
Indice degli argomenti
Dai modelli di fondazione ai primi casi d’uso avanzati
Questo boom non riguarda solo la quantità di studi pubblicati, ma anche il tipo di strumenti utilizzati. Negli ultimi anni, in campo scientifico sono comparsi i cosiddetti “modelli di fondazione” (foundation model), ossia sistemi di Intelligenza Artificiale addestrati su enormi quantità di dati, spesso specifici di un dominio, capaci di affrontare compiti molto diversi tra loro.
Un esempio emblematico è AION-1, il primo modello di questo tipo applicato all’astronomia, addestrato su oltre duecento milioni di oggetti celesti[2]. Grazie a questa mole di dati, AION-1 può classificare galassie o stimarne proprietà fisiche, accelerando attività che un tempo richiedevano anni di lavoro umano.
L’idea dell’assistente digitale entra nei laboratori
Parallelamente, si è diffusa un’altra categoria di strumenti: gli “agenti” di Intelligenza Artificiale. Non parliamo più soltanto di programmi che analizzano dati, ma di sistemi in grado di eseguire sequenze di azioni in autonomia, come leggere articoli scientifici, sintetizzare risultati, pianificare esperimenti e utilizzare software specialistici. In teoria, una sorta di assistente di ricerca digitale.
Ed è proprio qui che la “narrazione” si incrina.
Quando i test riportano le macchine sotto il livello umano
Nonostante i progressi, questi agenti sono ancora lontani dal sostituire gli scienziati nei loro compiti quotidiani. Nei test più avanzati, che simulano compiti reali di ricerca scientifica, le loro prestazioni sono sorprendentemente inferiori a quelle umane. In parametri di riferimento per la valutazione degli agenti AI come PaperArena, che valuta la capacità di un agente di affrontare una domanda scientifica complessa, consultare la letteratura e costruire una risposta, i migliori sistemi raggiungono quasi il quaranta percento di accuratezza, contro oltre ottanta percento degli esperti “umani” con dottorati di ricerca alle loro spalle. In altre parole, tali strumenti fanno circa metà del lavoro degli scienziati e, spesso, con errori significativi.
Una frontiera irregolare fatta di picchi e cadute
Questo dato racconta bene il paradosso attuale dell’Intelligenza Artificiale che da un lato dimostra di possedere capacità straordinarie e dall’altro di soffrire di inattese fragilità. Insomma, possiamo dire che gli stessi modelli che riescono a risolvere problemi matematici di livello “super-umano”, così come di generare testi sofisticati, possono fallire in compiti apparentemente semplici, come leggere correttamente un orologio analogico (un errore che si verifica la metà delle volte!).
I ricercatori parlano di “frontiera frastagliata”, poiché ci troviamo di fronte a un progresso irregolare fatto di picchi di eccellenza e di lacune improvvise.
Entusiasmo diffuso, ma cresce il timore sulla qualità
Non sorprende quindi che, accanto al sempre presente entusiasmo “del grande pubblico”, si stia sviluppando un dibattito sempre più acceso nei diversi settori specifici ove l’Intelligenza Artificiale opera. Alcuni scienziati vedono nell’adozione massiccia di tale tecnologia un rischio per la qualità della ricerca.
La crescita rapidissima del suo uso in tale campo (basti pensare all’aumento del ventisei percento del suo uso nelle pubblicazioni scientifiche nel solo 2025), potrebbe infatti aver superato la capacità della comunità scientifica di adattare standard e metodi di verifica. Il timore è che l’uso diffuso di strumenti “intelligenti” produca una quantità enorme di risultati (ma non necessariamente migliori). Allo stesso tempo, però, è difficile immaginare un ritorno “al passato”.
Molti ricercatori ormai considerano l’Intelligenza Artificiale indispensabile, poiché si dimostra essere uno strumento che velocizza analisi, suggerisce ipotesi e automatizza compiti ripetitivi, abbattendo costi e tempi in maniera formidabile. Anche se le prove di un reale aumento della produttività scientifica sono ancora limitate (e vanno verificate caso per caso), l’impressione diffusa nel mondo della ricerca è che senza l’uso dell’Intelligenza Artificiale il lavoro rallenterebbe drasticamente. E, con tutta probabilità, ciò è vero.
Il nodo delle scoperte resta ancora aperto
Un altro aspetto interessante riguarda il tipo di scoperte che l’Intelligenza Artificiale è in grado di produrre. Da anni si parla della possibilità che le macchine possano contribuire direttamente a nuove scoperte scientifiche, non solo come strumenti ma come “co-autori” della conoscenza.
Alcuni passi in questa direzione ci sono stati. Nel 2025, per esempio, un sistema di Intelligenza Artificiale ha generato un articolo accettato in un workshop scientifico[3]. Tuttavia, quando si guarda alle scoperte confermate sperimentalmente, l’elenco resta ancora molto breve. Insomma, per il momento possiamo affermare che l’Intelligenza Artificiale “aiuta”, ma raramente “scopre” da sola.
Sistemi promettenti, ma ancora poco leggibili
Questo limite emerge chiaramente anche dagli studi sugli agenti autonomi. Una recente ricerca evidenzia come questi sistemi siano estremamente promettenti ma ancora poco trasparenti e difficili da valutare in modo rigoroso.
Gli “ecosistemi” di agenti oggi presenti sulla piazza sono complessi, evolvono rapidamente e spesso mancano standard condivisi per misurarne sicurezza, affidabilità e impatto. In pratica, si stanno sviluppando più velocemente di quanto riusciamo a comprenderli.
Dove i risultati sono già concreti
Eppure, non tutto è negativo. Infatti, in alcuni ambiti, i progressi sono tangibili.
L’Intelligenza Artificiale ha già rivoluzionato settori come la previsione meteorologica, dove nuovi modelli riescono a generare previsioni globali in pochi minuti, con una velocità fino a decine di volte superiore rispetto ai metodi tradizionali[4].
Anche nella biomedicina e nelle scienze della Terra, tale tecnologia sta permettendo di analizzare quantità di dati prima ingestibili, aprendo nuove possibilità di ricerca.
Il vero punto è imparare a usarla bene
Il punto, quindi, non è stabilire se l’Intelligenza Artificiale sia utile o meno alla scienza (lo è, lo sappiamo con certezza); abbiamo solo bisogno di capire come integrarla in modo efficace.
Gli strumenti attuali non sono ancora in grado di sostituire il pensiero critico, l’intuizione e l’esperienza degli scienziati “umani”. Possono però amplificarli, se utilizzati con consapevolezza.
Una transizione ancora aperta
In questo senso, la fase attuale che stiamo vivendo assomiglia più a una transizione che a una rivoluzione compiuta. L’Intelligenza Artificiale sta cambiando il modo di fare scienza, ma non ne ha ancora ridefinito completamente le regole.
I ricercatori stanno imparando, spesso per tentativi ed errori, quando fidarsi delle macchine e quando no.
Il vantaggio umano resta nei problemi davvero complessi
Forse la lezione più importante che emerge è proprio questa: l’Intelligenza Artificiale non è una scorciatoia verso la conoscenza, ma uno strumento potente e imperfetto. E come tutti gli strumenti, richiede competenza, spirito critico e tempo per essere compreso davvero.
Nel frattempo, la scienza continua ad “avanzare”, in un dialogo sempre più stretto tra esseri umani e macchine. Un dialogo che, almeno per ora, vede ancora gli esseri umani chiaramente in vantaggio soprattutto quando i problemi diventano davvero complessi.[5]
Note
[1] Human scientists trounce the best AI agents on complex tasks. Nature. https://www.nature.com/articles/d41586-026-01199-z
[2] AION-1: Omnimodal Foundation Model for Astronomical Sciences. ArXiv. https://arxiv.org/abs/2510.17960
[3] An AI-authored paper just passed peer review. The scientific community isn’t ready. Scientific American. https://www.scientificamerican.com/article/ai-wrote-a-scientific-paper-that-passed-peer-review/
[4] Can AI models reliably forecast extreme weather events? Nature. https://www.nature.com/articles/d41586-026-00842-z
[5] PaperArena: An Evaluation Benchmark for Tool-Augmented Agentic Reasoning on Scientific Literature. ArXiv. https://arxiv.org/abs/2510.10909









