la rficerca

Domande senza senso, risposte convincenti: così il MIT mostra quanto è fragile l’IA



Indirizzo copiato

Un nuovo studio del MIT mostra come gli LLM possano rispondere correttamente a domande assurde solo perché riconoscono schemi sintattici noti. Un limite strutturale che apre scenari rischiosi in sanità, finanza, servizi al cliente e sicurezza dei sistemi di intelligenza artificiale

Pubblicato il 5 dic 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



Memoria AI AI e cultura del dato Responsabilità civile AI ecosistema canadese dell'IA accesso ai dati dsa governance ai globale cern dell'AI thermodynamic computing

Negli ultimi anni, i modelli linguistici di grandi dimensioni (“Large Language Models” o “LLM”) hanno conquistato l’immaginazione collettiva, promettendo di rivoluzionare il modo in cui lavoriamo, comunichiamo e come possiamo risolvere i nostri problemi. Questi sistemi sembrano capaci di comprendere il linguaggio naturale umano con una precisione sorprendente, generando risposte coerenti e articolate su praticamente qualsiasi argomento.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x