Anthropic, una delle principali società di intelligenza artificiale, ha avviato un programma di ricerca per capire come e perché i modelli linguistici di grandi dimensioni (LLM) sono in grado dare agli utenti l’impressione di essere prudenti, empatici o riflessivi. Il punto non è solo descrivere questo effetto, ma misurarne le conseguenze: la fiducia che riponiamo in questi sistemi, le decisioni che prendiamo sulla base delle loro risposte e i rischi che corriamo quando scambiamo una performance linguistica convincente per comprensione.
lo studio anthropic
I chatbot sembrano capirci davvero. Ed è qui che nasce il rischio
Anthropic sta studiando perché i modelli linguistici sembrano prudenti, empatici o riflessivi e quali effetti produca questa impressione. Il nodo non è dimostrare che “capiscano”, ma misurare come la loro performance linguistica influenzi fiducia, decisioni e rischio
Humane Technology Lab., Università Cattolica del Sacro Cuore, Milano
Dipartimento di Informatica, Università di Pisa, Pisa, Humane Technology Lab., Università Cattolica del Sacro Cuore, Milano
Humane Technology Lab., Università Cattolica del Sacro Cuore, Milano, Applied Technology for Neuro-Psychology Lab., Istituto Auxologico Italiano IRCCS

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026











