L’Intelligenza Artificiale sta cambiando rapidamente il modo in cui si fa ricerca scientifica, aumentando produttività ed efficienza, in un settore dinamico in cui la precisione e l’affidabilità sono due pilastri portanti della materia. Tuttavia, bisogna necessariamente fare i conti con i rischi per la qualità, la diversità e l’integrità del sapere, che rappresentano i punti deboli del settore in esame.
Indice degli argomenti
La diffusione dell’intelligenza artificiale nella ricerca scientifica
La diffusione degli strumenti di Intelligenza Artificiale tra i ricercatori è ormai capillare e in rapida crescita. In una recente indagine condotta da Wiley su oltre 2.400 ricercatori[1], quasi due terzi degli intervistati hanno dichiarato di utilizzare l’Intelligenza Artificiale in attività legate alla ricerca o alla pubblicazione.
L’uso è particolarmente frequente tra gli studiosi all’inizio della carriera e nelle discipline scientifiche, dove la familiarità con grandi volumi di dati e strumenti computazionali rende l’adozione dell’Intelligenza Artificiale più naturale rispetto alle aree umanistiche o ad alcune branche della matematica e della statistica.
Strumenti e applicazioni dell’intelligenza artificiale nella ricerca scientifica
Gli strumenti più utilizzati appartengono a due grandi famiglie: da un lato l’Intelligenza Artificiale generativa, ossia quella che ormai (quasi) tutti noi impieghiamo per scrivere, tradurre, riassumere testi e per assistere nella redazione di articoli e progetti; dall’altro i sistemi di apprendimento automatico (Machine Learning), usati per analizzare enormi set di dati sperimentali o osservazionali.
Nella stessa indagine di Wiley, la grande maggioranza dei partecipanti ha segnalato che l’Intelligenza Artificiale ha migliorato l’efficienza del proprio lavoro, ha aumentato la quantità di risultati prodotti e, in molti casi, ne ha innalzato la qualità percepita, confermando che l’impatto non è solo marginale ma strutturale.
Esempi applicativi: dall’astronomia alle simulazioni
Un esempio emblematico viene dall’astronomia, disciplina che da anni si confronta con flussi di dati colossali provenienti da radiotelescopi, osservazioni del cielo e simulazioni numeriche. Alcuni gruppi di ricerca utilizzano da tempo algoritmi di Intelligenza Artificiale per “setacciare” migliaia di segnali alla ricerca di stelle di neutroni o altri oggetti rari, riducendo operazioni che richiederebbero settimane di lavoro (umano) a pochi secondi di calcolo (della macchina).
In parallelo si stanno sviluppando ambienti interattivi che combinano simulazioni dell’universo con modelli generativi, in grado di affiancare il docente o il ricercatore nella visualizzazione di sistemi complessi (come gli ammassi globulari, ossia quegli insiemi di stelle molto antiche tenute insieme da una forte gravità), integrando immagini e grafici tra loro.
L’uso dell’Intelligenza Artificiale non si limita all’analisi dei dati ma si estende a molte fasi del processo scientifico, dalla formulazione delle ipotesi alla stesura degli articoli. Modelli linguistici avanzati vengono impiegati per scandagliare milioni di pubblicazioni, individuare connessioni (non ovvie) tra risultati “dispersi” in campi diversi e suggerire direzioni di ricerca che potrebbero sfuggire a una lettura manuale.
In alcuni casi, l’Intelligenza Artificiale viene persino utilizzata per generare esperimenti virtuali o per ottimizzare il disegno di studi clinici e progetti di laboratorio, riducendo costi e tempi necessari a verificare una nuova ipotesi.
Carriere e produttività nell’era dell’intelligenza artificiale nella ricerca scientifica
I benefici individuali di questa trasformazione sono ormai misurabili su larga scala. Un recente studio (a breve online[2]), che ha analizzato quasi 68 milioni di articoli in sei grandi aree disciplinari tra il 1980 e il 2024, ha identificato oltre un milione di lavori “assistiti” dall’Intelligenza Artificiale e ha confrontato le carriere degli autori con quelle dei colleghi che non utilizzano questi strumenti.
I risultati indicano che chi integra l’Intelligenza Artificiale nel proprio lavoro tende a pubblicare un numero significativamente maggiore di articoli, a ricevere più citazioni e a ricoprire ruoli di guida nei gruppi di ricerca con alcuni anni di anticipo rispetto ai non utilizzatori.
Questo effetto non riguarda solo la produttività numerica, ma anche la visibilità e la centralità degli autori nelle varie reti di collaborazione scientifica e accademica. I ricercatori che adottano l’Intelligenza Artificiale risultano spesso inseriti in comunità scientifiche più connesse, partecipano a progetti internazionali più ambiziosi e sono maggiormente coinvolti in attività di coordinamento, revisione e supervisione.
Il vantaggio competitivo tende quindi a rafforzarsi nel tempo, alimentando una dinamica in cui “chi parte per primo” con l’Intelligenza Artificiale accumula progressivamente più dati, competenze e riconoscimento dai propri colleghi e dal mondo accademico.
Il costo collettivo dell’intelligenza artificiale per la ricerca scientifica
Tuttavia, l’impatto collettivo dell’Intelligenza Artificiale sulla scienza non coincide con la somma dei benefici individuali che tale tecnologia reca con sé. Lo stesso studio che evidenzia il successo degli autori assistiti dall’Intelligenza Artificiale segnala che questi lavori si concentrano in modo marcato su domini già ben consolidati e ricchi di dati, contribuendo a restringere l’ampiezza dei temi esplorati all’interno dei vari campi disciplinari che vi sono.
In termini tecnici, l’“estensione della conoscenza” si riduce, poiché molti sforzi convergono su problemi per i quali esistono ampi dataset e benchmark (parametri di riferimento), mentre aree emergenti, meno strutturate o con dati scarsi attraggono meno attenzione da parte dei ricercatori.
Questa tendenza alla “concentrazione su temi consolidati” si traduce in una minore diversità scientifica, con il rischio che alcuni filoni di ricerca, potenzialmente innovativi ma meno “compatibili” con gli strumenti di Intelligenza Artificiale, rimangano “sotto-esplorati” o, nel peggiore dei casi, “inesplorati”.
La letteratura che analizza l’uso dell’Intelligenza Artificiale in ambito scientifico segnala, inoltre, fenomeni di “innovazione ridondante”, in cui molti gruppi di ricercatori sviluppano varianti simili di soluzioni su pochi problemi molto citati, senza contribuire in modo significativo all’espansione complessiva del sapere scientifico.
Ne deriva una tensione tra incentivi personali, che premiano chi sfrutta l’Intelligenza Artificiale in contesti maturi e produttivi, e l’interesse collettivo a mantenere un ecosistema di ricerca ricco di approcci, metodi e domande differenti.
Qualità, bias e rischi sistemici dei risultati prodotti con l’AI
L’adozione massiccia di strumenti di Intelligenza Artificiale solleva (inevitabilmente) anche interrogativi sulla qualità e sull’affidabilità dei risultati scientifici. Molti modelli generativi sono noti per produrre le cosiddette “allucinazioni”, ovvero contenuti “plausibili ma falsi”, incluse citazioni inventate o dati inesistenti, che possono persino infiltrarsi nei manoscritti ove il ricercatore non esercitasse un controllo rigoroso su quanto elaborato.
Nella già citata indagine di Wiley, una quota molto elevata di partecipanti dichiara di essere preoccupato circa la possibilità di errori prodotti dall’Intelligenza Artificiale, oltre ai rischi per la sicurezza dei dati, ai problemi etici e alla scarsa trasparenza sui dati di addestramento degli strumenti utilizzati.
Bias, campi sensibili e spiegabilità dei modelli
Oltre alle allucinazioni, l’Intelligenza Artificiale può amplificare i bias (cosiddetti “pregiudizi”) presenti nei dati su cui viene addestrata, riproducendo (e a volte accentuando) distorsioni preesistenti nelle pubblicazioni o nei dataset sperimentali.
In campi delicati come la medicina, la giustizia o la finanza, questo può tradursi in raccomandazioni “sbilanciate” da parte dell’Intelligenza Artificiale, che penalizzano certi gruppi o sottostimano alcuni rischi, con possibili ripercussioni sui pazienti, sui cittadini o sui mercati finanziari.
Inoltre, la natura – spesso opaca – dei modelli complessi rende difficile spiegare perché un sistema di Intelligenza Artificiale abbia suggerito una certa ipotesi o identificato un risultato come rilevante, ostacolando la riproducibilità e la verifica indipendente dei lavori che si basano su tali strumenti.
Dati sensibili, proprietà intellettuale e integrità del processo scientifico
Un altro fronte critico riguarda la sicurezza, la riservatezza e la protezione dei dati utilizzati dagli strumenti di Intelligenza Artificiale. L’uso di piattaforme esterne per analizzare dataset sensibili, per esempio in ambito biomedico o sociale, può esporre informazioni personali o risultati non ancora pubblicati a rischi di accesso non autorizzato, riuso improprio o fuga di segreti industriali.
In parallelo, la possibilità che contenuti generati dall’Intelligenza Artificiale vengano riutilizzati per addestrare ulteriori modelli, senza un controllo chiaro delle licenze e dei diritti, solleva questioni di proprietà intellettuale e di riconoscimento del contributo degli autori umani.
Con la crescita dell’Intelligenza Artificiale cresce anche l’esigenza di preservare l’integrità del processo di ricerca e della comunicazione scientifica. Organizzazioni impegnate nell’ambito dell’etica accademica sottolineano che gli strumenti generativi possono facilitare forme nuove di plagio, auto-citazione eccessiva o manipolazione di immagini, rendendo più difficile per editori e revisori distinguere fra un contributo originale e un testo assemblato a partire da modelli pre-addestrati.
A preoccupare è anche l’uso improprio dell’Intelligenza Artificiale nei processi di peer-review, ossia quel processo in cui uno studio scientifico viene valutato, prima della pubblicazione, da altri esperti dello stesso settore per verificarne qualità, validità e originalità.
Per esempio, quando un revisore carica parti di manoscritti riservati su piattaforme pubbliche per ottenere giudizi automatici, viola la confidenzialità che tutela gli autori, poiché sta rivelando a terzi contenuti che deve invece mantenere strettamente riservati (violando uno dei pilastri etici della peer-review).
Linee guida e regole per l’uso dell’intelligenza artificiale nella ricerca scientifica
Per rispondere a queste sfide, vari attori della comunità scientifica internazionale hanno iniziato a definire linee guida specifiche per l’uso responsabile dell’Intelligenza Artificiale nella ricerca e nella pubblicazione.
Editori internazionali richiedono sempre più spesso che gli autori dichiarino l’eventuale uso di strumenti di Intelligenza Artificiale nella preparazione dei manoscritti, specificando quali strumenti sono stati utilizzati, per quali compiti e con quale grado di “supervisione umana”, rafforzando il principio per cui la responsabilità finale del contenuto resta sempre in capo agli esseri umani.
Dalle policy editoriali alle linee guida europee
Allo stesso tempo, società scientifiche e organismi di vigilanza invitano revisori ed editor a non impiegare sistemi generativi nella valutazione riservata degli articoli, al fine di proteggere i dati personali (e non) presenti in testi non pubblicati.
Anche alcune istituzioni pubbliche stanno intervenendo sul tema, proponendo regole per integrare l’Intelligenza Artificiale nel mondo scientifico senza comprometterne l’etica e la qualità.
In Unione Europea, documenti di indirizzo promossi da agenzie di ricerca e organi consultivi della Commissione Europea evidenziano[3] l’importanza di garantire trasparenza, equità, tutela dei dati personali e rispetto dei diritti di proprietà intellettuale quando si scelgono strumenti generativi per l’uso in progetti finanziati.
Queste raccomandazioni invitano anche a valutare l’impatto ambientale delle soluzioni adottate e a promuovere la formazione dei ricercatori, in modo che comprendano limiti e potenzialità dell’Intelligenza Artificiale invece di considerarla una “scatola nera” da usare in modo acritico.
Ampliare le domande scientifiche e ridurre le disuguaglianze con l’AI
Accanto alle regole, inoltre, si sviluppano approcci più propositivi che mirano a sfruttare l’Intelligenza Artificiale per ampliare, anziché restringere, lo spazio delle domande scientifiche.
Alcuni lavori suggeriscono che l’Intelligenza Artificiale, se utilizzata per combinare fonti di conoscenza eterogenee e per facilitare il dialogo tra discipline diverse, possa aiutare a formulare problemi nuovi che superano le barriere tradizionali tra i vari campi e settori, rendendo la ricerca più capace di affrontare sfide complesse come il cambiamento climatico o la salute globale.
In questo scenario, l’Intelligenza Artificiale non sarebbe solo uno strumento per accelerare analisi “già note”, ma un vero e proprio “catalizzatore” per esplorare “territori concettuali meno battuti”, a condizione che vi sia una governance attenta agli equilibri tra efficienza e pluralità.
Divari di accesso e competenze critiche
Si delineano così alcune condizioni chiave perché l’Intelligenza Artificiale contribuisca a una scienza non solo più rapida, ma anche più inclusiva e robusta.
Servono politiche che riducano il divario tra istituzioni e comunità con diversa capacità di accesso a dati e infrastrutture computazionali, evitando che il vantaggio nell’uso dell’Intelligenza Artificiale si concentri in pochi centri già privilegiati.
È necessario inoltre promuovere competenze critiche diffuse, in modo che i ricercatori possano valutare e mettere alla prova le proposte dei modelli, preservando il ruolo del giudizio umano nella scelta dei problemi, nell’interpretazione dei risultati e nella definizione delle priorità di ricerca.
Per il grande pubblico, spesso esposto a slogan che presentano l’Intelligenza Artificiale – al contempo – come “soluzione miracolosa” e “minaccia assoluta”, in una sorta di “dicotomia ossimorica” a mo’ di “diavolo e acqua santa”, è utile comprendere come la realtà si collochi in una zona “grigia” e intermedia più complessa.
L’Intelligenza Artificiale promette di ridurre i tempi tra scoperta e applicazione, di migliorare la capacità di analizzare sistemi complessi e di ampliare l’accesso agli strumenti di analisi anche per chi lavora in contesti con risorse limitate.
Allo stesso tempo, senza una riflessione collettiva su regole, incentivi e responsabilità, la stessa tecnologia potrebbe contribuire a impoverire la varietà delle ricerche scientifiche, a consolidare disuguaglianze e a rendere meno trasparenti i processi attraverso cui si producono le conoscenze che orientano le decisioni pubbliche.
Governance e futuro dell’intelligenza artificiale nella ricerca scientifica
La sfida che attende la comunità scientifica internazionale non è dunque decidere se usare o meno l’Intelligenza Artificiale, scelta che – nei fatti – è già avvenuta (ed è sì, è possibile); ma stabilire come usarla in modo da conciliare efficienza e diversità, velocità e controllo, automazione e responsabilità umana.
La direzione che verrà imboccata dipenderà dalle scelte di ricercatori, editori, società che finanziano la ricerca e decisori politici, ma anche dall’attenzione che l’opinione pubblica dedicherà a questi temi, chiedendo una scienza che sfrutti l’innovazione tecnologica senza rinunciare ai propri principi fondamentali di rigore, apertura e pluralismo.[4]
Note
[1] New Wiley study shows enduring optimism, evolving views about the role of AI. Wiley. https://newsroom.wiley.com/press-releases/press-release-details/2025/AI-Adoption-Jumps-to-84-Among-Researchers-as-Expectations-Undergo-Significant-Reality-Check/default.aspx
[2] Artificial Intelligence Tools Expand Scientists’ Impact but Contract Science’s Focus. ArXiv. https://arxiv.org/abs/2412.07727
[3] Living guidelines on the responsible use of generative AI in research. European Commission. https://research-and-innovation.ec.europa.eu/document/download/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en
[4] NEWS 05 December 2025 – AI is saving time and money in research — but at what cost? Nature. https://www.nature.com/articles/d41586-025-03936-2













