i numeri

AI nella ricerca: più efficienza, meno esplorazione



Indirizzo copiato

L’intelligenza artificiale aumenta la produttività dei ricercatori ma riduce la diversità della ricerca scientifica. Uno studio su 41 milioni di pubblicazioni rivela come l’AI concentri l’attività nei settori ricchi di dati, limitando l’esplorazione di nuovi ambiti

Pubblicato il 18 dic 2025

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



science4policy Geoscienza digitale ai e ricerca

Un maxi studio accettato da Nature su 41 milioni di pubblicazioni rivela che l’AI moltiplica la produttività dei singoli ricercatori ma riduce la diversità della ricerca scientifica, concentrandola nei settori più ricchi di dati. Una survey Wiley su 2.400 ricercatori aggiunge la prospettiva soggettiva della comunità: entusiasmo per l’efficienza, ma anche timori su errori, trasparenza e declino della capacità critica. Due fonti complementari che raccontano un paradosso, più efficienza, meno esplorazione.

La trasformazione accelerata del lavoro scientifico negli ultimi due anni

Come l’intelligenza artificiale sta cambiando il lavoro degli scienziati e cosa potremmo perdere lungo la strada

Negli ultimi due anni l’intelligenza artificiale ha conosciuto un’accelerazione senza precedenti anche all’interno delle comunità scientifiche. Sempre più ricercatori la utilizzano per analizzare dati, scrivere articoli, generare codice, tradurre testi, condurre simulazioni o verificare errori. Una trasformazione profonda, non riconducibile alla semplice “automazione” di alcune attività di routine, ma capace di incidere sulle traiettorie della scienza.

Lo studio accademico, appena accettato da Nature, intitolato “Artificial Intelligence Tools Expand Scientists’ Impact but Contract Science’s Focus” analizza quantitativamente 41 milioni di articoli scientifici pubblicati tra il 1980 e il 2025. Qui l’AI è misurata come variabile strutturale, si osservano l’impatto sulle carriere, sulla produttività e sull’evoluzione delle discipline.

Nella survey condotta da Wiley, una delle principali case editrici accademiche al mondo, fondata nel 1807 negli Stati Uniti e nota per pubblicare più di 1.600 riviste scientifiche peer review e per collaborare con centinaia di società scientifiche internazionali, sono state raccolte invece, percezioni, pratiche dichiarate e preoccupazioni dei ricercatori che utilizzano i suoi servizi editoriali.

I vantaggi misurabili dell’AI per la carriera dei ricercatori

Lo studio accademico misura con una precisione inedita gli effetti dell’AI sul lavoro dei ricercatori. I risultati sono straordinariamente consistenti in tutti e sei i campi disciplinari analizzati.

Gli scienziati che adottano strumenti di AI:

  • pubblicano 3,02 volte più articoli rispetto ai colleghi;
  • ricevono 4,84 volte più citazioni;
  • diventano leader di gruppo 1,37 anni prima;
  • hanno una probabilità significativamente maggiore di permanere in accademia e avanzare di ruolo.

L’AI funziona come un vero e proprio moltiplicatore di carriera. Aiuta a gestire enormi quantità di dati, a filtrare migliaia di risultati, a scrivere e revisionare più rapidamente, a scoprire correlazioni altrimenti invisibili. Non sorprende, quindi, che secondo la survey Wiley — che, lo ricordiamo, non osserva i dati oggettivi della produzione scientifica, ma le percezioni e l’esperienza dichiarata dai ricercatori — il 62% degli intervistati utilizzi strumenti di AI nelle proprie attività quotidiane. È un dato molto diverso rispetto allo studio accademico, non parla di output reali, ma di adozione percepita. La survey non misura l’impatto oggettivo dell’AI, ma la sua presenza psicologica e operativa nel lavoro dei ricercatori. Nel dettaglio, la survey evidenzia che:

  • l’85% percepisce un aumento dell’efficienza;
  • il 77% nota un incremento della quantità di lavoro gestita;
  • il 73% ritiene che l’AI migliori la qualità dei propri risultati.

Sono dati che non contraddicono lo studio accademico, ma lo completano, la percezione soggettiva di efficienza si allinea con l’aumento oggettivo della produttività. Il 62% dei ricercatori utilizzi già strumenti di AI nel proprio flusso di lavoro, in forte crescita rispetto al 45% del 2024. Gli early-career scientist sono i più veloci nell’adozione, per chi deve costruire una reputazione scientifica rapidamente, l’AI è ormai una leva competitiva cruciale.

La contrazione dello spazio esplorativo e il fenomeno del lampione

All’aumento dell’efficienza del singolo, però, corrisponde, secondo lo studio accademico, una contrazione della diversità tematica della ricerca. Gli autori hanno analizzato la posizione semantica di milioni di articoli scientifici in uno spazio vettoriale ad alta dimensionalità (SPECTER 2.0). Da questa mappa emerge un fenomeno chiaro:

  • la knowledge extent dei paper assistiti da AI è inferiore del 4,63% rispetto ai paper tradizionali;
  • la contrazione si osserva in oltre il 70% dei 200 sotto-campi disciplinari analizzati;
  • la distribuzione tematica ha meno entropia: la ricerca si concentra in cluster già maturi e ricchi di dati;
  • la rete delle citazioni successive mostra una riduzione del 22% dell’interazione tra lavori, generando traiettorie parallele che non dialogano;
  • emerge un forte effetto “star system”: il 20% dei paper AI-assistiti riceve l’80% delle citazioni.

In altre parole, l’AI amplifica ciò che è già forte.

Il motivo è semplice, i modelli funzionano meglio nei campi dove esistono dati abbondanti, puliti e storicizzati. Per questo l’AI accelera le discipline data-rich come astrofisica, biologia computazionale, medicina per immagini, scienza dei materiali, chimica computazionale, lasciando indietro campi meno strutturati o più difficili da misurare.

La scienza, così, rischia di concentrarsi “sotto il lampione”, ottimizzare ciò che è illuminato, trascurando ciò che rimane nell’ombra. Un rischio sistemico che la survey Wiley, pur non misurando la contrazione tematica, intuisce nelle preoccupazioni espresse dai ricercatori.

Team più piccoli e la riduzione delle opportunità per i giovani ricercatori

Lo studio evidenzia anche un cambiamento importante nella composizione dei team di ricerca. I gruppi che pubblicano con assistenza AI tendono a essere più piccoli del 9–12% rispetto ai team tradizionali. Questo accade perché l’AI sostituisce una parte del lavoro operativo svolto dai collaboratori junior, riducendo la necessità di grandi gruppi.

Le conseguenze sono rilevanti:

  • la presenza di ricercatori junior cala del 7%, con minori opportunità di apprendere sul campo;
  • aumenta invece la quota di ricercatori senior (+5%), più capaci di integrare l’AI come leva di accelerazione;
  • i team diventano più verticali e meno formativi, con una riduzione della funzione pedagogica della ricerca.

Una scienza che si regge su meno giovani rischia di impoverire la propria futura capacità di innovazione. Un fenomeno analogo a quello che si osserva nel mercato del lavoro con l’adozione dell’AI da parte delle imprese. L’introduzione massiva di sistemi intelligenti aumenta la produttività complessiva delle aziende, ma riduce al tempo stesso le opportunità per i profili junior, le mansioni più operative o ripetitive vengono assorbite dagli strumenti digitali, mentre cresce il peso dei ruoli altamente qualificati, strategici o già esperti nell’uso dell’AI. Ne deriva una forza lavoro più efficiente, ma anche più polarizzata, con meno spazio per l’apprendimento sul campo e per il ricambio generazionale.

Il paradosso è lo stesso che emerge nella ricerca scientifica, se oggi non si formano giovani, domani mancheranno i senior. Un sistema che riduce i punti di ingresso rischia di compromettere la propria capacità futura di innovare, perché la competenza non si improvvisa, si costruisce nel tempo, attraverso la partecipazione ai processi, l’errore, la verifica e l’accompagnamento dei più esperti. Una società che diventa più efficiente grazie all’AI può, al tempo stesso, indebolire i meccanismi che garantiscono continuità, rinnovamento e trasmissione dei saperi.

Errori, opacità e il rischio della pigrizia cognitiva nella comunità scientifica

Il sondaggio Wiley aggiunge una prospettiva umana e culturale. L’87% dei ricercatori esprime preoccupazione per un insieme articolato di rischi. La possibilità che i modelli generino errori o hallucinations; la sicurezza e la protezione dei dati sensibili; l’opacità che ancora circonda i dataset di addestramento; l’effetto che un uso non critico degli strumenti potrebbe avere sulla capacità di analisi e sulla profondità del ragionamento scientifico.

A queste paure si aggiunge una dimensione più sottile ma già visibile nella pratica quotidiana, la tendenza a delegare all’AI operazioni che dovrebbero restare sotto il controllo cognitivo dello scienziato, con il rischio di indebolire la disciplina mentale necessaria alla ricerca. Questa deriva minaccia uno dei fondamenti della scienza, il dubbio sistematico.

Un timore analogo è espresso da Nigel Hitchin, matematico dell’Università di Oxford, che individua nel crescente affidamento ai modelli un rischio ancora più profondo, la possibilità che la comunità scientifica inizi a presumere che le risposte fornite dall’AI siano corrette per definizione. Secondo Hitchin, questa fiducia eccessiva può trasformarsi in una forma di “pigrizia cognitiva”, perché la tecnologia non spiega perché un risultato è giusto o sbagliato.

Il pericolo, dunque, non è solo l’errore in sé, ma la perdita graduale dell’abitudine critica che permette di riconoscerlo. A questa dinamica si affiancano evidenze provenienti da studi che osservano gli effetti dell’AI sulle capacità cognitive individuali. L’uso di strumenti generativi per produrre testi può ridurre l’attivazione cerebrale, la varietà linguistica e la capacità di scrivere autonomamente in una fase successiva senza assistenza. Questo è il fenomeno del cognitive offloading: delegando alla macchina processi cognitivi che richiedono sforzo e attenzione, si rischia di indebolire le stesse facoltà che la ricerca scientifica richiede.

Un ulteriore concetto emerso con forza da questo filone di studi è quello di brainrot, una forma di indebolimento cognitivo più ampia, che non riguarda solo il singolo compito delegato all’AI, ma l’intero ecosistema mentale. Il brainrot descrive un fenomeno in cui l’uso esteso di modelli generativi tende a incoraggiare pensieri più brevi, più superficiali e meno strutturati, riducendo progressivamente la capacità di mantenere attenzione, sviluppare idee originali e sostenere processi analitici complessi.

Il paradosso dell’efficienza individuale e della debolezza collettiva

Dal confronto tra lo studio accademico e la survey Wiley emerge un paradosso che caratterizza in profondità questa fase della ricerca scientifica assistita da AI. Da un lato, l’intelligenza artificiale amplifica la capacità dei singoli ricercatori di incidere sul proprio campo, accelera i tempi di produzione, aumenta la visibilità scientifica, rende più efficiente la gestione dei dati e moltiplica la possibilità di individuare pattern altrimenti sfuggenti. Dall’altro lato, però, la stessa tecnologia tende a restringere la varietà complessiva della ricerca, spingendo la comunità verso territori già consolidati, dove i dati sono abbondanti e gli algoritmi possono esprimere il massimo delle loro prestazioni. Una scienza potenziata individualmente rischia di essere indebolita collettivamente. Il successo dei singoli non coincide automaticamente con l’avanzamento della conoscenza, l’aumento della produttività non garantisce un ampliamento dello spazio esplorativo. La tensione tra efficienza e apertura, tra ottimizzazione e scoperta, è reale e crescente. La sfida dei prossimi anni sarà capire se l’AI saprà diventare non solo uno strumento che rende la ricerca più rapida, ma anche un alleato capace di sostenerla nelle sue parti più fragili: il dubbio, l’esplorazione e il coraggio di uscire dai sentieri più battuti.

Il rischio del cartello dei saperi guidato dalle piattaforme tecnologiche

Se l’AI potenzia le discipline ricche di dati e penalizza quelle prive di grandi dataset, allora la geografia della scienza rischia di riallinearsi con quella delle piattaforme tecnologiche. Il risultato è un possibile “cartello dei saperi”, un sistema in cui i domini capaci di alimentare i modelli con grandi quantità di dati diventano automaticamente più finanziabili, più pubblicabili e più visibili. I confini tra ciò che è scientificamente rilevante e ciò che è solo tecnicamente conveniente rischiano di sovrapporsi. In questo scenario, l’AI potrebbe non solo amplificare la scienza, ma anche ridefinire le priorità della conoscenza, favorendo ciò che si adatta ai modelli ed escludendo ciò che richiede invece creatività, esplorazione, lentezza. Una scienza modellata dagli incentivi è una scienza che rischia di perdere autonomia, non perché qualcuno imponga cosa studiare, ma perché i flussi di dati e gli strumenti disponibili orientano sottilmente cosa conviene studiare.

Tre scenari possibili per il futuro della scienza

Scenario 1 – La scienza che accelera ma si restringe

L’AI continua a rafforzare l’efficienza dei singoli ricercatori, rendendo la produzione scientifica più rapida e più abbondante. L’ecosistema complessivo si polarizza, le discipline ricche di dati attraggono finanziamenti, citazioni e talenti, mentre altre aree, meno strutturate o più lente nella generazione di dataset, finiscono in una zona d’ombra. La ricerca rimane vivace, ma sempre più concentrata. Una scienza che corre, ma nella stessa direzione, rischiando forme di oblio disciplinare.

Scenario 2 – La scienza che si espande grazie a nuovi sensi

In questo scenario l’AI non si limita a elaborare i dati esistenti, diventa uno strumento che permette di generarne di nuovi. Robot autonomi in laboratorio, sensori intelligenti, piattaforme di simulazione avanzate e modelli capaci di proporre esperimenti inediti allargano il perimetro del conoscibile. L’AI non ottimizza ciò che già c’è: apre territori di ricerca prima inaccessibili. Le discipline oggi marginali ritrovano spazio perché l’intelligenza artificiale diventa un’estensione dei sensi scientifici, non solo del calcolo.

Scenario 3 – La scienza che ritrova il proprio baricentro cognitivo

Qui il sistema reagisce ai rischi emersi: pigrizia cognitiva, brainrot, delega inconsapevole. L’AI viene integrata nei percorsi formativi come strumento per allenare, non per sostituire, il pensiero critico. Gli studenti apprendono non solo a usare i modelli, ma soprattutto a verificare, controllare, confutare. La tecnologia diventa un tutor cognitivo che rafforza la capacità di ragionamento, anziché indebolirla. Una scienza che non rifiuta l’AI, ma la incapsula in un’etica dell’attenzione e della comprensione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x