I chatbot basati sull’IA generativa si comportano come persone “compiacenti”, inventando risposte invece di ammettere di non conoscere la risposta giusta: tutti i modelli, che siano ChatGPT di OpenAI, Bing di Microsoft, Bard di Google, per citare i più noti, inventano continuamente risposte, giuste o sbagliate che siano. Siamo dinanzi a quelle che vengono chiamate “allucinazioni” dell’Intelligenza Artificiale.
scenari
Allucinazioni dell’IA, come viverle senza problemi
I chatbot si limitano a prevedere la parola successiva, ma non comprendono necessariamente ogni domanda che viene loro posta. Per evitare le allucinazioni è probabile serva un nuovo metodo di apprendimento, su cui aziende leader stanno già lavorando. O forse dovremmo accettarle come una caratteristica dell’IA?
Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026










