Dietro la “patina della competenza” dell’Intelligenza Artificiale si nasconde una minaccia silenziosa e poco compresa: i modelli di IA, infatti, “imparano” spesso anche da studi scientifici che la stessa comunità scientifica ha ritenuto inaffidabili o addirittura pericolosi, perché formalmente ritirati (“retracted”) dalla letteratura scientifica internazionale.
l’inchiesta
L’IA impara anche da ricerche scientifiche bocciate: rischi gravi
I modelli di intelligenza artificiale come ChatGPT citano frequentemente studi scientifici ritirati dalla comunità accademica. Un’inchiesta del MIT Technology Review rivela come questi sistemi apprendano da dati inaffidabili, mettendo a rischio salute pubblica e fiducia nella tecnologia
Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026









