This thesis presents MuseumBots, a single-user, multi-agent conversational system designed to enhance visitor engagement and educational exploration in virtual museum environments. The system enables interaction with two specialized AI agents: one guiding navigation through virtual rooms and another providing concise, context-aware descriptions of artworks. Existing virtual museum chatbots typically rely on single-agent designs that struggle to manage multiple conversation goals simultaneously, often resulting in redundancy or incoherent exchanges. To address this limitation, MuseumBots introduces a coordinated Multi-agent framework powered by Large Language Models (LLMs) and governed by a lightweight Conversation and Topic Management (CTM-lite) mechanism. This architecture ensures role clarity, sequential turn-taking, and explicit user consent before navigation or content display, enabling a controlled and transparent dialogue flow. All interactions are grounded in a structured museum knowledge base created for this project, which defines rooms, artworks, and their descriptions to ensure factual accuracy and alignment between dialogue and visual simulation. Through this structured multi-agent coordination, MuseumBots demonstrates how LLM-driven systems can provide coherent, educational, and immersive experiences for individual users while preserving conversational transparency and modularity.

La presente tesi introduce MuseumBots, un sistema conversazionale multi-agente progettato per un singolo utente, sviluppato con l’obiettivo di migliorare il coinvolgimento dei visitatori e favorire un’esplorazione educativa all’interno di ambienti museali virtuali. Il sistema consente l’interazione con due agenti di intelligenza artificiale specializzati: il primo guida la navigazione tra le diverse sale del museo virtuale, mentre il secondo fornisce descrizioni concise e contestualmente pertinenti delle opere d’arte. I chatbot museali virtuali esistenti si basano generalmente su architetture a singolo agente, che spesso non riescono a gestire simultaneamente più obiettivi comunicativi, generando ridondanza o incoerenza nelle risposte. Per superare tale limitazione, MuseumBots introduce un’architettura multi-agente coordinata, basata su modelli linguistici di grandi dimensioni (Large Language Models, LLMs) e regolata da un meccanismo leggero di Conversation and Topic Management (CTM-lite). Questa struttura garantisce chiarezza dei ruoli, turnazione sequenziale e consenso esplicito dell’utente prima di ogni azione di navigazione o visualizzazione, assicurando un flusso dialogico controllato e trasparente. Tutte le interazioni si basano su una base di conoscenza museale strutturata, creata appositamente per questo progetto, che definisce le sale, le opere e le relative descrizioni, garantendo coerenza tra i contenuti testuali e la simulazione visiva. Attraverso questa coordinazione multi-agente, MuseumBots dimostra come i sistemi basati su LLM possano offrire esperienze coerenti, educative e coinvolgenti per singoli utenti, mantenendo al tempo stesso trasparenza e modularità nel dialogo.

MuseumBots: a single-user multi-agent conversational system for virtual museum guidance

DELARAM, MAHSA
2024/2025

Abstract

This thesis presents MuseumBots, a single-user, multi-agent conversational system designed to enhance visitor engagement and educational exploration in virtual museum environments. The system enables interaction with two specialized AI agents: one guiding navigation through virtual rooms and another providing concise, context-aware descriptions of artworks. Existing virtual museum chatbots typically rely on single-agent designs that struggle to manage multiple conversation goals simultaneously, often resulting in redundancy or incoherent exchanges. To address this limitation, MuseumBots introduces a coordinated Multi-agent framework powered by Large Language Models (LLMs) and governed by a lightweight Conversation and Topic Management (CTM-lite) mechanism. This architecture ensures role clarity, sequential turn-taking, and explicit user consent before navigation or content display, enabling a controlled and transparent dialogue flow. All interactions are grounded in a structured museum knowledge base created for this project, which defines rooms, artworks, and their descriptions to ensure factual accuracy and alignment between dialogue and visual simulation. Through this structured multi-agent coordination, MuseumBots demonstrates how LLM-driven systems can provide coherent, educational, and immersive experiences for individual users while preserving conversational transparency and modularity.
VALCAMONICA, GIULIA
VONA, FRANCESCO
ING - Scuola di Ingegneria Industriale e dell'Informazione
10-dic-2025
2024/2025
La presente tesi introduce MuseumBots, un sistema conversazionale multi-agente progettato per un singolo utente, sviluppato con l’obiettivo di migliorare il coinvolgimento dei visitatori e favorire un’esplorazione educativa all’interno di ambienti museali virtuali. Il sistema consente l’interazione con due agenti di intelligenza artificiale specializzati: il primo guida la navigazione tra le diverse sale del museo virtuale, mentre il secondo fornisce descrizioni concise e contestualmente pertinenti delle opere d’arte. I chatbot museali virtuali esistenti si basano generalmente su architetture a singolo agente, che spesso non riescono a gestire simultaneamente più obiettivi comunicativi, generando ridondanza o incoerenza nelle risposte. Per superare tale limitazione, MuseumBots introduce un’architettura multi-agente coordinata, basata su modelli linguistici di grandi dimensioni (Large Language Models, LLMs) e regolata da un meccanismo leggero di Conversation and Topic Management (CTM-lite). Questa struttura garantisce chiarezza dei ruoli, turnazione sequenziale e consenso esplicito dell’utente prima di ogni azione di navigazione o visualizzazione, assicurando un flusso dialogico controllato e trasparente. Tutte le interazioni si basano su una base di conoscenza museale strutturata, creata appositamente per questo progetto, che definisce le sale, le opere e le relative descrizioni, garantendo coerenza tra i contenuti testuali e la simulazione visiva. Attraverso questa coordinazione multi-agente, MuseumBots dimostra come i sistemi basati su LLM possano offrire esperienze coerenti, educative e coinvolgenti per singoli utenti, mantenendo al tempo stesso trasparenza e modularità nel dialogo.
File allegati
File Dimensione Formato  
2025_12_Delaram.pdf

accessibile in internet per tutti

Descrizione: Thesis text
Dimensione 30.27 MB
Formato Adobe PDF
30.27 MB Adobe PDF Visualizza/Apri

I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/10589/247347