l’inchiesta

L’IA impara anche da ricerche scientifiche bocciate: rischi gravi



Indirizzo copiato

I modelli di intelligenza artificiale come ChatGPT citano frequentemente studi scientifici ritirati dalla comunità accademica. Un’inchiesta del MIT Technology Review rivela come questi sistemi apprendano da dati inaffidabili, mettendo a rischio salute pubblica e fiducia nella tecnologia

Pubblicato il 8 ott 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



ai-sovrana-agenda-digitale ia e studi ritirati; ai cybersecurity; AI scrittura manuale

Dietro la “patina della competenza” dell’Intelligenza Artificiale si nasconde una minaccia silenziosa e poco compresa: i modelli di IA, infatti, “imparano” spesso anche da studi scientifici che la stessa comunità scientifica ha ritenuto inaffidabili o addirittura pericolosi, perché formalmente ritirati (“retracted”) dalla letteratura scientifica internazionale.

Cosa significa ritirare uno studio scientifico

Ma partiamo dalle basi. Un articolo scientifico viene ritirato quando, a seguito di verifiche o indagini, la comunità accademica accerta che i suoi risultati non sono affidabili. Le cause più frequenti sono errori metodologici gravi, dati manipolati, frodi, o persino, semplicemente, la scoperta di errori tali da rendere i risultati della sperimentazione inutilizzabili. In pratica, da quel momento, la ricerca in questione “non dovrebbe” più essere considerata come fonte di verità scientifica; tuttavia, una volta pubblicati online, i dati restano spesso nei database di diverse riviste e, a quanto pare, anche nelle “memorie” dei modelli di Intelligenza Artificiale.

L’inchiesta del MIT Technology Review su ChatGPT

E un’inchiesta pubblicata dal MIT Technology Review ha smascherato questa problematica in modo inequivocabile.

Alcuni ricercatori americani hanno interrogato ChatGPT[1], uno dei chatbot più diffusi al mondo, ponendo domande basate su ventuno articoli ritirati nel settore dell’imaging medico, ossia la diagnostica per immagini, branca della medicina che produce immagini non invasive di strutture interne del corpo per diagnosi e monitoraggio di diverse malattie. Il risultato? In cinque casi su ventuno, l’Intelligenza Artificiale ha citato studi ritirati per motivare la propria risposta, e solo tre volte ha “avvertito” l’utente che l’articolo non era affidabile. In altri casi ancora, l’Intelligenza Artificiale non ha nemmeno identificato affatto la natura “ritirata” dell’articolo. E non è un problema che riguarda un solo sistema: strumenti specializzati come Elicit, Ai2 ScholarQA dell’Allen Institute, Perplexity e Consensus hanno dato risultati simili, spesso citando lavori invalidati senza segnalarlo all’utente, ossia a chi interrogava tali sistemi.

Come i modelli linguistici apprendono dati non filtrati

Ma qual è il motivo principale di questa clamorosa débâcle tecnologica in un settore così importante per la salute e per la scienza? Il motivo principale è di tipo tecnico e culturale. I modelli di Intelligenza Artificiale, come ChatGPT, ossia – per chiarirci – quelli basati sui “modelli linguistici di grandi dimensioni” o, più comunemente “Large Language Models” (LLM), vengono “allenati” su enormi quantità di dati “pescati a strascico” da internet, repository scientifici e archivi digitali.

Se il database di partenza non distingue tra studi validi e studi ritirati, o se il sistema di allerta non è perfettamente integrato, l’Intelligenza Artificiale rischia di interiorizzare, senza filtri, anche i contenuti più discutibili. Nel caso del mondo scientifico, questa assenza di una “cintura di sicurezza” può portare a errori anche gravi nella risposta, specialmente se l’utente finale (magari, chissà, un paziente “curioso” o uno studente di medicina o biologia) non ha gli strumenti per riconoscerli.

Perché la qualità dei dati è fondamentale

Alcuni potrebbero persino chiedersi (per assurdo) se sia davvero così grave tutta questa storia. Insomma, non potrebbe essere che, sotto sotto, anche gli errori siano utili, per “temprare” i modelli e renderli più robusti? In realtà, nell’ambito scientifico la qualità del dato conta immensamente e, detto in soldoni, c’è poco spazio all’improvvisazione e agli errori che da questa possono derivare. I modelli di Intelligenza Artificiale che imparano da dati corrotti rischiano di perpetuare falsità o, peggio, decisioni errate in campi ad alto rischio come la salute pubblica, la giustizia o la finanza. Il noto principio informatico “garbage in, garbage out” (“se inserisci spazzatura ottieni spazzatura”), per il quale non ci si può aspettare un buon risultato se si parte da dati di bassa qualità, non è mai stato così attuale.

Il sistema delle segnalazioni non raggiunge l’IA

Quando si scopre che uno studio debba essere ritirato, la rivista scientifica aggiorna i propri archivi, apponendo un avviso ben visibile (spesso con dicitura ben visibile “RETRACTED”, ossia “ritirato”). Tuttavia, questo sistema funziona bene solo sulle piattaforme ufficiali (come PubMed, noto archivio medico internazionale, o con i siti delle case editrici). Se qualcun altro, come un sistema di Intelligenza Artificiale o un motore di ricerca, ha già scaricato una copia dell’articolo nel proprio database, la segnalazione potrebbe non arrivare mai all’utente, il quale ben potrebbe “rintracciarlo” interrogando un modello di Intelligenza Artificiale o un motore di ricerca.

L’impatto concreto sugli utenti finali

Ragion per cui, è assolutamente importante sottolineare l’impatto concreto che questi errori possono avere sugli utenti. Oggi sempre più persone si affidano ai chatbot per informazioni di salute, pareri legali, investimenti finanziarie o per svolgere ricerche accademiche. Se questi strumenti attingono a pubblicazioni smentite (magari, come spesso accade, senza avvisare del pericolo) il risultato può essere una diffusione di notizie false, terapie illusorie e persino danni fisici a chi prendesse sul serio “consigli” sbagliati spacciati per scienza. Con esiti a volte nefasti[2].

I tentativi di soluzione e retraction watch

In alcuni casi, le aziende e le community di sviluppo tentano di porre rimedio. Consensus, un motore per ricerca accademica e scientifica alimentato dall’Intelligenza Artificiale, ha iniziato a integrare dati provenienti da fonti specializzate come Retraction Watch[3], un’organizzazione che monitora costantemente i ritiri delle pubblicazioni a livello internazionale e mantiene un database aggiornato, con oltre sessantamila casi schedati. Soluzioni simili sono state annunciate anche da altri soggetti, che stanno lavorando per incrociare le informazioni provenienti da molteplici aggregatori e editori scientifici. Ma la situazione resta molto frammentata: spesso le segnalazioni non sono in tempo reale e il rischio di “inquinamento” persiste sempre.

La questione della responsabilità e trasparenza

Ma parlando di responsabilità, chi ha (o potrebbe avere) il compito di garantire l’integrità della conoscenza scientifica trasmessa dall’Intelligenza Artificiale? Gli sviluppatori di modelli? Gli utenti? Le piattaforme che pubblicano gli articoli scientifici? Inutile affannarsi nel rispondere: la discussione è molto accesa sul punto. Ciò che è pacifico, è che molti studiosi spingono per una maggiore trasparenza su come funzionano i meccanismi di addestramento degli algoritmi, chiedendo che sia sempre possibile vedere con chiarezza da dove proviene ogni risposta fornita dall’Intelligenza Artificiale. In un’epoca in cui la velocità sembra valere più della cautela, la capacità di tale straordinaria tecnologia di fornire sintesi rapide e risposte pronte rischia di far passare in secondo piano l’elemento critico della verifica dei fatti. Non basta più chiedere “cosa dice questo modello?”, bisogna domandarsi “da dove arriva questa informazione, e come posso verificarne la bontà?”.

Strategie per il futuro e alfabetizzazione digitale

Forse, come strategie per il futuro, implementare alert automatici che indichino la presenza del ritiro di una pubblicazione durante una ricerca potrebbe essere una grande soluzione nel breve-medio periodo. Magari abbinando il tutto a un costante aggiornamento dei database utilizzati per l’addestramento, eliminando attivamente i lavori “ritirati”. Inoltre si può pensare rafforzare la collaborazione tra editori, riviste scientifiche e sviluppatori di Intelligenza Artificiale, affinché quando avviene un ritiro di pubblicazione vi sia una notifica che venga trasmessa in modo tempestivo sull’intera “catena informativa”. Infine, non è da meno una netta promozione di un’alfabetizzazione digitale presso il grande pubblico, in modo da insegnare a riconoscere la differenza tra uno studio pubblicato, uno non ancora revisionato e uno ritirato.

Il rischio per la fiducia pubblica nella scienza

Il rischio reale di questa problematica non sta solo nella possibilità di errori o danni contingenti, ma nell’erosione lenta della fiducia pubblica sia nella scienza che nella tecnologia. Se arrivassimo al punto in cui i cittadini percepissero che nemmeno i grandi modelli di Intelligenza Artificiale siano in grado di “separare verità e bugie”, potremmo assistere a un ritorno di diffidenza verso l’intero sistema della conoscenza digitale. Per questo motivo, molte università stanno chiedendo standard più rigorosi e pubblici per la gestione delle fonti, con l’identificazione degli studi ritirati e maggiore trasparenza nell’addestramento dei modelli di Intelligenza Artificiale.

Verso un nuovo patto di trasparenza

In conclusione, ed è ben importante affermarlo riprendendo l’ultimo punto o principio che precede, serve un nuovo “patto di trasparenza”. Servono, in parole povere, modelli di Intelligenza Artificiale più trasparenti, database più accurati, e principalmente operatori e cittadini in grado di esercitare un pensiero critico anche davanti all’interfaccia più tecnologicamente avanzata. Una soluzione, potremmo dire di medio-lungo periodo, che potrebbe restituire al dato scientifico il suo carattere dinamico, capace di auto-correggersi e di segnalare le proprie “ferite”.[4]

Note


[1] Alarm: Retracted articles on cancer imaging are not only continuously cited by publications but also used by ChatGPT to answer questions. Journal of Advanced Research – Science Direct. https://www.sciencedirect.com/science/article/pii/S2090123225001808

[2] Gli ultimi cinque mesi di Sophie, suicida a 29 anni dopo la “terapia” virtuale con ChatGpt. La Stampa. https://www.lastampa.it/esteri/2025/08/22/news/suicidio_terapia_chatgpt-15279141/

[3] Retractions, AI, and the Risks of Biomedical Misinformation. Memorial Sloan Kettering Cancer Center Library. https://library.mskcc.org/blog/2025/05/retractions-ai-and-the-risks-of-biomedical-misinformation/

[4] AI models are using material from retracted scientific papers. MIT Technology Review. https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati