bias di genere

ChatGPT ha un problema con gli stereotipi: lo studio italiano



Indirizzo copiato

I modelli di intelligenza artificiale generativa come ChatGPT riproducono stereotipi di genere appresi durante l’addestramento. La produzione massiva di contenuti sintetici crea un effetto moltiplicatore che rischia di amplificare discriminazioni sociali e perpetuare pregiudizi radicati.

Pubblicato il 27 gen 2026

Bernardo Magnini

Fondazione Bruno Kessler



IA e disuguaglianza

I recenti modelli di intelligenza artificiale generativa, in particolare i Large Language Models (LLMs) come ChatGPT, sebbene esibiscano grandi capacità nel risolvere compiti linguistici complessi (rispondere a domande, tradurre da una lingua ad un’altra, produrre un testo su un argomento, fornire spiegazioni, riassumere un testo), sono soggetti ad usare vari tipi di stereotipi sociali, in particolare quelli legati al genere delle persone.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x