pregiudizi digitali

L’IA in Sanità è razzista: serve ancora molta cautela



Indirizzo copiato

Un articolo su Nature esplora come i Large Language Models (LLM) come ChatGPT e Bard possano propagare pregiudizi razziali in contesti medici. Lo studio evidenzia la necessità di una rigorosa valutazione e modifica di questi modelli per prevenire danni e garantire la sicurezza dei pazienti

Pubblicato il 3 giu 2024

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria



smart health

Un articolo uscito sulla rivista Nature nel lo scorso mese di ottobre dal titolo “Large language models propagate race-based medicine” con primo ricercatore Jesutofunmi A. Omiye, esamina l’uso dei Large Language Models (LLM) come ChatGPT e Google Gemini nel contesto medico, con un focus particolare sulla loro capacità di propagare pregiudizi medici basati sulla razza.

Continua a leggere questo articolo

Articoli correlati