L’attività che i cosiddetti Large Language Model (LLM) come ChatGPT vanno facendo viene quotidianamente antropomorfizzata e trasformata in attività senziente, e gli strafalcioni in cui sistematicamente incorre vengono chiamati allucinazioni, come se quanto ci viene proposto da un LLM avesse una qualche relazione, sia pur negativa, con la verità.
intelligenza artificiale
Non sottovalutiamo gli errori di ChatGPT: corriamo rischi molto seri
Gli strafalcioni di ChatGPT danno la sensazione di star ascoltando uno studente che si è presentato all’esame senza aver aperto libro e ripete frasi che sembrano qualcosa ma non vogliono dire nulla. Ma non vanno minimizzati, perché i rischi sono molti e gravi
Dipartimento di Ingegneria Civile ed Ingegneria Informatica, Università di Tor Vergata

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026










