L’uso dei modelli linguistici come agenti sociali sta uscendo dai laboratori e entrando in sistemi reali: moderazione dei contenuti, simulazioni di dibattito pubblico, test di policy, ambienti deliberativi artificiali. In tutti questi contesti c’è un presupposto implicito: che un LLM, se opportunamente istruito, possa simulare in modo plausibile il comportamento umano. Il nostro studio mette in discussione questo presupposto, mostrando che la simulazione non è neutra e che, anzi, introduce distorsioni sistematiche.
lo studio
Generative exaggeration: come l’AI deforma il linguaggio politico
Gli LLM che simulano opinioni politiche tendono a enfatizzare i segnali più estremi: irrigidiscono le posizioni, accentuano polarizzazione e linguaggio tossico, moltiplicano emoji e hashtag identitari, trasformando il confronto online in una caricatura semplificata e meno rappresentativa delle persone reali
Sapienza Università di Roma
Sapienza Università di Roma

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business

INNOVATTORI
-

Tracciabilità supply chain, come Erp e cloud spingono la competitività
14 Nov 2025 -

Manifattura elettronica, come salvare il settore con la gestione smart degli impianti
31 Ott 2025 -

Cybersecurity nel manifatturiero, perché puntare sulle persone: il ruolo di policy e formazione
01 Ott 2025 -

AI per il lavoro in condizioni estreme, quali tecnologie scegliere
27 Ago 2025 -

Verso una PA cognitiva: ecco le strategie di innovazione per gli enti
14 Ago 2025















