L’uso dei modelli linguistici come agenti sociali sta uscendo dai laboratori e entrando in sistemi reali: moderazione dei contenuti, simulazioni di dibattito pubblico, test di policy, ambienti deliberativi artificiali. In tutti questi contesti c’è un presupposto implicito: che un LLM, se opportunamente istruito, possa simulare in modo plausibile il comportamento umano. Il nostro studio mette in discussione questo presupposto, mostrando che la simulazione non è neutra e che, anzi, introduce distorsioni sistematiche.
lo studio
Generative exaggeration: come l’AI deforma il linguaggio politico
Gli LLM che simulano opinioni politiche tendono a enfatizzare i segnali più estremi: irrigidiscono le posizioni, accentuano polarizzazione e linguaggio tossico, moltiplicano emoji e hashtag identitari, trasformando il confronto online in una caricatura semplificata e meno rappresentativa delle persone reali
Sapienza Università di Roma
Sapienza Università di Roma

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026








