L’attività che i cosiddetti Large Language Model (LLM) come ChatGPT vanno facendo viene quotidianamente antropomorfizzata e trasformata in attività senziente, e gli strafalcioni in cui sistematicamente incorre vengono chiamati allucinazioni, come se quanto ci viene proposto da un LLM avesse una qualche relazione, sia pur negativa, con la verità.
intelligenza artificiale
Non sottovalutiamo gli errori di ChatGPT: corriamo rischi molto seri
Gli strafalcioni di ChatGPT danno la sensazione di star ascoltando uno studente che si è presentato all’esame senza aver aperto libro e ripete frasi che sembrano qualcosa ma non vogliono dire nulla. Ma non vanno minimizzati, perché i rischi sono molti e gravi
Dipartimento di Ingegneria Civile ed Ingegneria Informatica, Università di Tor Vergata

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026









