I recenti modelli di intelligenza artificiale generativa, in particolare i Large Language Models (LLMs) come ChatGPT, sebbene esibiscano grandi capacità nel risolvere compiti linguistici complessi (rispondere a domande, tradurre da una lingua ad un’altra, produrre un testo su un argomento, fornire spiegazioni, riassumere un testo), sono soggetti ad usare vari tipi di stereotipi sociali, in particolare quelli legati al genere delle persone.
bias di genere
ChatGPT ha un problema con gli stereotipi: lo studio italiano
I modelli di intelligenza artificiale generativa come ChatGPT riproducono stereotipi di genere appresi durante l’addestramento. La produzione massiva di contenuti sintetici crea un effetto moltiplicatore che rischia di amplificare discriminazioni sociali e perpetuare pregiudizi radicati.
Fondazione Bruno Kessler

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026









