L’uso dei modelli linguistici come agenti sociali sta uscendo dai laboratori e entrando in sistemi reali: moderazione dei contenuti, simulazioni di dibattito pubblico, test di policy, ambienti deliberativi artificiali. In tutti questi contesti c’è un presupposto implicito: che un LLM, se opportunamente istruito, possa simulare in modo plausibile il comportamento umano. Il nostro studio mette in discussione questo presupposto, mostrando che la simulazione non è neutra e che, anzi, introduce distorsioni sistematiche.
lo studio
Generative exaggeration: come l’AI deforma il linguaggio politico
Gli LLM che simulano opinioni politiche tendono a enfatizzare i segnali più estremi: irrigidiscono le posizioni, accentuano polarizzazione e linguaggio tossico, moltiplicano emoji e hashtag identitari, trasformando il confronto online in una caricatura semplificata e meno rappresentativa delle persone reali
Sapienza Università di Roma
Sapienza Università di Roma

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026








