large language model

LLM e limiti dell’AI: guida all’uso consapevole



Indirizzo copiato

Un workshop presso l’Università di Milano ha esplorato potenzialità e limiti dei Large Language Models. Dall’analisi delle domande problematiche alle strategie di prompting, emerge la necessità di competenze critiche per distinguere risposte affidabili da quelle solo apparentemente corrette nella pratica quotidiana

Pubblicato il 12 feb 2026

Paolo Ceravolo

Associate Professor SESAR Lab – Dipartimento di Informatica Università degli Studi di Milano



gpt early adopter llm

I Large Language Models (LLM) – come ChatGPT, Claude o Gemini – sono entrati rapidamente nella vita quotidiana di tutti noi. Scrivono testi, riassumono documenti, rispondono a domande complesse, assistono nel coding e supportano attività creative. È quindi fondamentale imparare a conoscere questi strumenti con le loro caratteristiche, le loro potenzialità e i loro limiti.

È questo l’obiettivo del workshop “Intelligenza Artificiale. Cosa (non) possiamo chiederle”, che si è tenuto il 5 febbraio all’interno degli Stati Generali del Museo della Filosofia presso l’Università degli Studi di Milano.


Come funzionano gli LLM: un’intelligenza basata sul linguaggio

Gli LLM sono modelli addestrati su enormi quantità di testi. Il loro apprendimento si basa su un meccanismo noto come masking: durante il training, parti di una frase vengono oscurate e il modello deve imparare a ricostruirle a partire dal contesto. Ripetuto su larga scala, questo processo consente di apprendere regolarità linguistiche, associazioni concettuali e strutture sintattiche molto sofisticate.

Quando un utente pone una domanda, il modello genera una risposta producendo una sequenza di parole coerente con l’input e con ciò che ha appreso. Questo approccio è estremamente efficace per molti compiti, ma ha anche conseguenze importanti: l’LLM opera sul piano del linguaggio, non su quello della verifica diretta dei fatti o dell’esperienza.

Questi limiti non sono ignorati nello sviluppo degli LLM contemporanei. I modelli più recenti integrano strumenti esterni – come calcolatrici, motori di ricerca, accesso a database o meccanismi di function calling – che permettono di affrontare molte delle difficoltà tipiche dei primi sistemi, in particolare quelle legate ai calcoli, all’aggiornamento delle informazioni e alla verifica di dati fattuali. Tuttavia, queste soluzioni non eliminano completamente il problema: in molte situazioni le difficoltà permangono, soprattutto quando la domanda è ambigua, mal posta, logicamente contraddittoria o il recupero di informazioni nel Web non è semplice o le informazioni disponibili sono ambigue.


Domande difficili: quando il modello va in crisi

Uno degli aspetti centrali del workshop è l’analisi sistematica delle tipologie di domande che mettono in difficoltà gli LLM. Non si tratta di casi isolati, ma di vere e proprie situazioni ricorrenti che è importante imparare a riconoscere.

Alcuni esempi:

  • domande logicamente impossibili o contraddittorie, che non ammettono una risposta coerente;
  • domande ambigue o sotto-specificate, in cui il contesto è insufficiente;
  • richieste di informazioni aggiornate o in tempo reale, fuori dal perimetro del modello;
  • problemi matematici o logici multi-step, che richiedono una gestione rigorosa dei passaggi intermedi;
  • domande che richiedono esperienza sensoriale o incarnata, come valutazioni tattili, percettive o spaziali;
  • richieste di fonti e citazioni verificabili, quando queste non sono facilmente raggiungibili nel Web.

Il punto critico non è solo l’errore, ma il fatto che il modello non sempre segnala esplicitamente l’incertezza. In questi casi, la risposta può apparire affidabile anche quando non lo è.


Imparare a dialogare con gli LLM: tecniche di prompting

Saper formulare un buon prompt non significa solo “chiedere bene”, ma strutturare la richiesta in modo che il modello possa lavorare nelle condizioni ottimali. Un prompt efficace riduce le ambiguità, fornisce il contesto necessario e guida il modello attraverso ragionamenti complessi.

Alcune strategie concrete emerse durante il workshop:

  • Essere specifici e dettagliati: invece di “riassumi questo testo”, specificare “riassumi questo testo in 3 punti, evidenziando le criticità tecniche e i limiti metodologici”.
  • Fornire esempi (few-shot prompting): mostrare al modello il formato o lo stile di risposta desiderato attraverso 1-2 esempi concreti aumenta significativamente la qualità dell’output.
  • Chiedere ragionamenti step-by-step: per problemi complessi, istruire esplicitamente il modello a “pensare ad alta voce” o “procedere per passi” migliora la coerenza logica e permette di individuare eventuali errori nel ragionamento.
  • Assegnare un ruolo o una prospettiva: “Rispondi come se fossi un esperto di UX design” o “Analizza questo caso dal punto di vista etico” orienta il modello verso registri e competenze specifiche.
  • Usare delimitatori e strutture: separare chiaramente istruzioni, contesto e domanda (ad esempio con tag o sezioni numerate) aiuta il modello a interpretare correttamente la richiesta.

Tuttavia, il prompt perfetto non esiste: anche la formulazione più accurata non può compensare completamente i limiti strutturali del modello. Per questo la competenza nell’uso degli LLM non si riduce alla tecnica del prompting, ma richiede sempre un atteggiamento critico e la capacità di valutare l’affidabilità delle risposte ottenute. Il buon prompt è il punto di partenza, non la garanzia di successo.

Dal prompt efficace alla competenza critica

Il workshop del 5 febbraio ha proposto attività pratica e collaborativa: i partecipanti, divisi in gruppi, hanno testato diversi modelli sottoponendoli a domande progettate per esplorarne i limiti. L’obiettivo non è osservare empiricamente come reagisce a input problematici.

Da qui nasce una competenza più profonda del semplice prompt engineering:

  • imparare a riconoscere quando una risposta va verificata;
  • capire come riformulare una domanda per ridurre ambiguità;
  • sapere quando spezzare un problema complesso in più passaggi;
  • distinguere tra ciò che l’LLM può fare autonomamente e ciò che richiede strumenti o giudizio umano.

Un tema tecnico, una questione filosofica

Discutere i limiti degli LLM significa anche interrogarsi su temi più ampi: il rapporto tra linguaggio e conoscenza, tra apparenza di correttezza e affidabilità, tra automazione e responsabilità. Non è un caso che questa riflessione trovi spazio negli Stati Generali del Museo della Filosofia, un contesto in cui tecnologia e pensiero critico si incontrano.

Gli LLM sono strumenti potenti, ma non neutrali né infallibili. Conoscerne i confini li rende utilizzabile in modo più maturo, efficace e consapevole.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x