lo studio anthropic

I chatbot sembrano capirci davvero. Ed è qui che nasce il rischio



Indirizzo copiato

Anthropic sta studiando perché i modelli linguistici sembrano prudenti, empatici o riflessivi e quali effetti produca questa impressione. Il nodo non è dimostrare che “capiscano”, ma misurare come la loro performance linguistica influenzi fiducia, decisioni e rischio

Pubblicato il 1 apr 2026

Stefania La Rocca

Humane Technology Lab., Università Cattolica del Sacro Cuore, Milano

Federico Longoni

Dipartimento di Informatica, Università di Pisa, Pisa, Humane Technology Lab., Università Cattolica del Sacro Cuore, Milano

Giuseppe Riva

Humane Technology Lab., Università Cattolica del Sacro Cuore, Milano, Applied Technology for Neuro-Psychology Lab., Istituto Auxologico Italiano IRCCS



chatbot e manipolazione emotiva disempowerment

Anthropic, una delle principali società di intelligenza artificiale, ha avviato un programma di ricerca per capire come e perché i modelli linguistici di grandi dimensioni (LLM) sono in grado dare agli utenti l’impressione di essere prudenti, empatici o riflessivi. Il punto non è solo descrivere questo effetto, ma misurarne le conseguenze: la fiducia che riponiamo in questi sistemi, le decisioni che prendiamo sulla base delle loro risposte e i rischi che corriamo quando scambiamo una performance linguistica convincente per comprensione.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x