il rpgetto di ricerca

Quando l’IA entra in museo: Alfieri risponde, Pepper ti accompagna



Indirizzo copiato

L’Università di Torino sperimenta l’IA nei musei con due progetti: un avatar di Vittorio Alfieri che dialoga usando fonti controllate e il robot Pepper che si muove e interagisce nello spazio. Obiettivo: visite più coinvolgenti, con attenzione a sicurezza ed errori

Pubblicato il 16 feb 2026

Norberto Albano

Laboratorio di simulazione del comportamento e robotica educativa “Luciano Gallino – Dipartimento di Filosofia e Scienze dell’educazione, Università di Torino

Sandro Brignone

Laboratorio di simulazione del comportamento e robotica educativa "Luciano Gallino" – Dipartimento di Filosofia e Scienze dell'Educazione – Università di Torino

Renato Grimaldi

Laboratorio di simulazione del comportamento e robotica educativa "Luciano Gallino" – Dipartimento di Filosofia e Scienze dell'Educazione – Università di Torino



laboratorio gallino robot alfieri
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

IA generativa nei musei significa ripensare la mediazione culturale: non solo contenuti da ascoltare, ma interlocutori capaci di dialogare e, sempre più, di agire nello spazio. Nel progetto del Laboratorio Gallino (Università di Torino) la sperimentazione attraversa due “anime” complementari: l’avatar conversazionale di Vittorio Alfieri e il social robot Pepper come agente embodied.

Il Laboratorio Gallino e l’IA generativa nei musei come ricerca integrata

Il Laboratorio di simulazione del comportamento e robotica educativa “Luciano Gallino” si configura come un osservatorio privilegiato per analizzare criticamente le tecnologie emergenti e le loro ricadute sociali, educative e culturali. Istituito nel 2018, nel contesto del Progetto di Eccellenza del Dipartimento di Filosofia e Scienze dell’Educazione dell’Università degli Studi di Torino, il Laboratorio opera all’intersezione tra discipline umanistiche, scienze computazionali e sperimentazioni sul campo.

La sua missione trascende la mera indagine ingegneristica o funzionale, proponendosi di esplorare le profonde ripercussioni che l’innovazione tecnologica esercita sui paradigmi educativi, assistenziali e sociali.

In questa cornice si colloca un progetto di ricerca integrato, attualmente in corso, che sperimenta l’impiego dei Large Language Models (LLM) all’interno di ecosistemi socioeducativi e piattaforme robotiche, al fine di valutarne empiricamente le potenzialità trasformative e le criticità latenti. Il progetto si sviluppa attraverso due flussi complementari, concepiti come due “anime” di un medesimo percorso:

  • una componente “narrativo-storica”, orientata alla valorizzazione del patrimonio culturale mediante un agente conversazionale (con Intelligenza Artificiale generativa – IA Gen);
  • una componente “fisico-comportamentale”, centrata sull’interazione autonoma nello spazio fisico, implementata sul social robot Pepper (un’IA Gen come agente embodied, cioè “incarnato” in un corpo robotico).

I due filoni procedono in parte in parallelo, ma sono concepiti come tappe di un percorso coerente: dall’interazione conversazionale e documentata con un personaggio storico-letterario, fino alla possibilità di trasferire tale interazione in un contesto fisico e situato, grazie a una piattaforma robotica.

L’obiettivo finale convergente è arrivare a forme di interazione in cui la competenza culturale e narrativa dell’agente possa innestarsi su una presenza robotica embodied, ampliando l’esperienza dall’ascolto/risposta alla dimensione situata e sociale. Di seguito si descrivono sinteticamente le tappe di questo percorso.

IA generativa nei musei: Vittorio Alfieri dall’animazione alla conversazione “certificata”

Il primo flusso di ricerca esplora l’Intelligenza Artificiale come strumento di mediazione culturale e narrativa applicata al patrimonio storico-letterario. In questo contesto si inserisce il lavoro sull’avatar interattivo di Vittorio Alfieri – drammaturgo, poeta e scrittore astigiano vissuto nella seconda metà del Settecento – sviluppato grazie alla collaborazione tra la Fondazione Centro Studi Alfieriani di Asti (presieduta dalla Prof.ssa Giulia Carluccio) e il Laboratorio Gallino.

L’iniziativa si colloca come evoluzione del progetto “Benvenuti a Casa Alfieri”, promosso dalla Fondazione per superare la staticità dei tradizionali apparati didattici museali e coinvolgere pubblici differenti. Questo filone si sviluppa in tre momenti progressivi, ciascuno dei quali aumenta il livello di interattività e complessità del sistema.

Narrazione multimediale: il primo passo verso l’interazione

In una fase iniziale, l’impiego di tecnologie di animazione facciale e sintesi vocale neurale ha consentito la produzione di contenuti multimediali multilingue, nei quali figure storiche (come Vittorio Alfieri, Monica Maillard di Tournon, Luisa Stolberg, ecc.) raccontano in prima persona le proprie vicende biografiche.

Si tratta di una soluzione già innovativa, ma che mantiene l’utente in una posizione prevalentemente passiva, simile a quella della fruizione di un contenuto audiovisivo (Forno, Lombardo, Prasso, 2025).

Vittorio Alfieri Benvenuti ITA


Didascalia video: Avatar animato di Vittorio Alfieri ricavato dall’immagine di uno dei quadri esposti nel Museo della Fondazione

Conversazione in tempo reale con architettura RAG

Il Laboratorio Gallino, sempre in collaborazione con la Fondazione, sta sviluppando un sistema che supera il paradigma dell’audioguida e si comporta come un interlocutore attivo. Dal punto di vista tecnico, il cuore del sistema è un’architettura Retrieval-Augmented Generation (RAG): diversamente dai chatbot generalisti, che rispondono attingendo a grandi masse di dati eterogenei e non necessariamente verificati, l’approccio RAG vincola la generazione del testo a un insieme di fonti selezionate e controllate.

In questa fase, grazie alla collaborazione con esperti del dominio – tra cui la Dott.ssa Carla Forno, Direttrice della Fondazione – si sta costruendo un dataset validato per alimentare la base di conoscenza del modello.

Parallelamente, una mirata attività di prompt engineering lavora sulla resa del registro stilistico alfieriano, solenne e drammatico, con l’obiettivo di preservare coerenza espressiva senza sacrificare l’accuratezza dei contenuti.

La validazione prevede anche la definizione di benchmark per misurare la qualità e la correttezza delle risposte in sinergia con gli specialisti della Fondazione, nonché con gli studenti del liceo classico “Vittorio Alfieri” di Asti.

Scalare al corpus alfieriano: infrastruttura e rischi residui

In un passaggio successivo, il progetto mira a integrare l’intero corpus alfieriano digitalizzato, trasformando l’agente conversazionale in uno strumento più completo per la fruizione dell’opera e della figura dell’autore.

L’infrastruttura software prevede un’orchestrazione a bassa latenza che include trascrizione dell’input vocale, recupero semantico delle fonti pertinenti e sintesi vocale della risposta. Una routine specifica gestisce il flusso audio, inibendo l’ascolto durante la fase di output per evitare loop di auto-trascrizione.

Accanto alle opportunità didattiche e divulgative, questa linea di lavoro impone una riflessione etica e filologica: anche con architetture vincolate alle fonti permane un rischio residuo di “allucinazioni” o di anacronismi concettuali, che in ambito museale e formativo possono compromettere l’accuratezza storiografica richiesta.

Pepper: quando l’IA diventa agente nello spazio fisico

In parallelo allo sviluppo dell’agente conversazionale dedicato ad Alfieri, il Laboratorio Gallino ha avviato un secondo flusso di ricerca focalizzato sulla robotica autonoma e sull’interazione fisica uomo-macchina. Questa sperimentazione sposta l’indagine dal piano virtuale a quello fisico.

Se il primo filone lavora sulla dimensione narrativa e cognitiva, questo secondo asse studia cosa accade quando un modello linguistico non si limita a dialogare, ma orchestra azioni in un corpo robotico situato nell’ambiente: una competenza che, in prospettiva, potrà innestarsi anche sul filone culturale.

Dalla programmazione If–Then all’approccio agentico

La sperimentazione si concentra sul robot umanoide Pepper e rappresenta un superamento della programmazione imperativa tradizionale, in cui movimenti e reazioni devono essere codificati a priori (logica If–Then).

L’approccio adottato è di tipo agentico: il robot viene dotato di un repertorio di funzionalità (tools) e di capacità di ragionamento che gli consentono di pianificare ed eseguire sequenze operative in risposta a comandi complessi espressi in linguaggio naturale.

L’agente, consapevole dei propri vincoli hardware – mobilità articolare, sensori laser, sistemi di visione artificiale – utilizza un Large Language Model (es. ChatGPT) come unità di orchestrazione per combinare percezione, decisione e azione.

ReAct: pianificazione, azione e osservazione in ciclo

Di fronte a una richiesta del tipo “Esplora l’ambiente, individua un soggetto umano e interagisci”, il sistema non esegue uno script fisso: attiva invece un ciclo cognitivo ispirato al modello Thought–Action–Observation (ReAct), in cui pianifica i passi (movimento, scansione ambientale, riconoscimento visivo, interazione verbale), osserva i feedback sensoriali e adatta di conseguenza il comportamento.

Demo: Agente Pepper con ChatGPT


Didascalia video: Una delle prime demo sul social robot Pepper che esegue la richiesta del ricercatore: “Dimmi ad alta voce un numero casuale tra 70 e 120, poi muoviti descrivendo un quadrato avente lato in centimetri quel numero da te detto e ad ogni angolo dimmi una ‘curiosità’ su Vittorio Alfieri”]

Opportunità e criticità: flessibilità, latenza, sicurezza

Questa flessibilità amplia enormemente le possibilità d’uso, riducendo le barriere tecniche per l’interazione. Al tempo stesso, introduce criticità rilevanti sul piano della sicurezza e dell’affidabilità: rispetto ai sistemi deterministici, l’azione guidata da modelli probabilistici incorpora una quota di imprevedibilità. Inoltre, la latenza dovuta a elaborazioni in cloud può limitare la reattività del robot in scenari che richiedono risposte tempestive.

In una prospettiva futura, l’architettura agentica sperimentata su Pepper potrà diventare un supporto fisico per agenti conversazionali culturali come quello dedicato ad Alfieri – per social robot di nuova generazione che si muoveranno all’interno dello stesso Museo – trasformando l’interazione puramente virtuale in un’esperienza embodied e situata, in cui la dimensione narrativa potrà integrarsi con quella spaziale e sociale.

Prospettive e criticità: dall’innovazione alla cittadinanza digitale

Nel loro insieme, le sperimentazioni del Laboratorio Gallino delineano prospettive concrete per l’integrazione dell’Intelligenza Artificiale Generativa in ambiti strategici quali l’istruzione personalizzata, la valorizzazione dei beni culturali e l’assistenza robotica avanzata.

I lavori sull’avatar di Alfieri e sul robot Pepper mostrano come queste tecnologie possano evolvere da strumenti di automazione a supporti cognitivi adattivi, in grado di rispondere dinamicamente alle esigenze dell’utenza.

Gli sviluppi futuri dovranno però affrontare criticità non marginali: da un lato, l’affidabilità delle informazioni generate e la sicurezza fisica nell’interazione autonoma; dall’altro, il rischio di dipendenza tecnologica e di impoverimento di competenze, in un contesto in cui molte infrastrutture chiave restano concentrate nelle mani di poche grandi corporazioni.

Per questo la ricerca non mira soltanto all’ottimizzazione tecnica, ma anche alla definizione di linee guida sociali, pedagogiche, etiche e filosofiche capaci di valorizzare le potenzialità dei sistemi intelligenti, mitigando i rischi intrinseci.

L’obiettivo ultimo è contribuire alla formazione di una cittadinanza digitale in grado di interagire in modo consapevole con macchine che simulano comportamenti umani, distinguendo chiaramente tra elaborazione algoritmica e intenzionalità cosciente.

Bibliografia

Brignone S. (2024), Un modello di attore sociale tra simulazione ad agenti e robotica, Roma, Aracne.
Forno C., Lombardo G., Prasso M. (2025), IA nei musei: i dipinti prendono vita ad Asti, in “Agenda Digitale”; https://www.agendadigitale.eu/cultura-digitale/ia-nei-musei-i-dipinti-prendono-vita-ad-asti/.
Grimaldi R. (2022) (a cura di), La società dei robot, Milano, Mondadori.
Holzinger A., Longo L., Cangelosi A., & Ser J.D. (2025), Research Frontiers in Machine Learning & Knowledge Extraction, in “Machine Learning and Knowledge Extraction”, 8(1), 6. https://www.mdpi.com/2504-4990/8/1/6#
Magrini M., Poggio T. (2023), Cervelli menti algoritmi, Milano, Sperling&Kupfer.
Raptis E. K., Kapoutsis A. Ch., & Kosmatopoulos E. B. (2025), Agentic LLM-based robotic systems for real-world applications: A review on their agenticness and ethics, in “Frontiers in Robotics and AI”, 12, Article 1605405. https://www.frontiersin.org/journals/robotics-and-ai/articles/10.3389/frobt.2025.1605405/full

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x