lo studio

Generative exaggeration: come l’AI deforma il linguaggio politico



Indirizzo copiato

Gli LLM che simulano opinioni politiche tendono a enfatizzare i segnali più estremi: irrigidiscono le posizioni, accentuano polarizzazione e linguaggio tossico, moltiplicano emoji e hashtag identitari, trasformando il confronto online in una caricatura semplificata e meno rappresentativa delle persone reali

Pubblicato il 10 feb 2026



tpu gpu

L’uso dei modelli linguistici come agenti sociali sta uscendo dai laboratori e entrando in sistemi reali: moderazione dei contenuti, simulazioni di dibattito pubblico, test di policy, ambienti deliberativi artificiali. In tutti questi contesti c’è un presupposto implicito: che un LLM, se opportunamente istruito, possa simulare in modo plausibile il comportamento umano. Il nostro studio mette in discussione questo presupposto, mostrando che la simulazione non è neutra e che, anzi, introduce distorsioni sistematiche.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x