Tra i più grandi problemi dell’Intelligenza Artificiale vi è quello delle allucinazioni, vera spina nel fianco degli utilizzatori di questa tecnologia. La tendenza a “inventare risposte” e a ripeterle con sicurezza, con il solo fine di soddisfare il più possibile gli utenti, mina l’affidabilità dei modelli di Intelligenza Artificiale (soprattutto LLM, ossia i “modelli linguistici di grandi dimensioni” atti a produrre testi, audio e video). Questo è un problema ricorrente che riguarda tutti i modelli, quindi ChatGpt di OpenAI, Llama di Meta, Google Gemini, DeepSeek ecc. (nessuno escluso).
Amazon & C
Allucinazioni dell’IA, i nuovi approcci per risolvere il problema
Le allucinazioni rappresentano il tallone d’Achille dell’IA. Amazon propone “Automated Reasoning Checks” per garantire risposte verificabili nei contesti aziendali, particolarmente utile nei settori regolamentati. Altre big tech ci lavorano. Un passo avanti, non una soluzione definitiva
Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026












