Tra i più grandi problemi dell’Intelligenza Artificiale vi è quello delle allucinazioni, vera spina nel fianco degli utilizzatori di questa tecnologia. La tendenza a “inventare risposte” e a ripeterle con sicurezza, con il solo fine di soddisfare il più possibile gli utenti, mina l’affidabilità dei modelli di Intelligenza Artificiale (soprattutto LLM, ossia i “modelli linguistici di grandi dimensioni” atti a produrre testi, audio e video). Questo è un problema ricorrente che riguarda tutti i modelli, quindi ChatGpt di OpenAI, Llama di Meta, Google Gemini, DeepSeek ecc. (nessuno escluso).
Amazon & C
Allucinazioni dell’IA, i nuovi approcci per risolvere il problema
Le allucinazioni rappresentano il tallone d’Achille dell’IA. Amazon propone “Automated Reasoning Checks” per garantire risposte verificabili nei contesti aziendali, particolarmente utile nei settori regolamentati. Altre big tech ci lavorano. Un passo avanti, non una soluzione definitiva
Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

Continua a leggere questo articolo
Argomenti
Canali