l’inchiesta

L’IA impara anche da ricerche scientifiche bocciate: rischi gravi



Indirizzo copiato

I modelli di intelligenza artificiale come ChatGPT citano frequentemente studi scientifici ritirati dalla comunità accademica. Un’inchiesta del MIT Technology Review rivela come questi sistemi apprendano da dati inaffidabili, mettendo a rischio salute pubblica e fiducia nella tecnologia

Pubblicato il 8 ott 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



ai-sovrana-agenda-digitale ia e studi ritirati; ai cybersecurity; AI scrittura manuale

Dietro la “patina della competenza” dell’Intelligenza Artificiale si nasconde una minaccia silenziosa e poco compresa: i modelli di IA, infatti, “imparano” spesso anche da studi scientifici che la stessa comunità scientifica ha ritenuto inaffidabili o addirittura pericolosi, perché formalmente ritirati (“retracted”) dalla letteratura scientifica internazionale.

Continua a leggere questo articolo

Articoli correlati