The integration of Generative Artificial Intelligence (Generative AI) in education has the potential to revolutionize Intelligent Tutoring Systems (ITS) by enhancing knowledge retrieval, exercise generation, and problem-solving. This thesis explores the implementation of three key pillars essential for AI-driven educational support: building a reliable theoretical knowledge base, generating new theoretical questions and exercises, and solving exercises with structured and interpretable solutions. To achieve these objectives, a framework leveraging Large Language Models (LLMs) is developed, integrating Retrieval-Augmented Generation (RAG) for context-aware responses, clustering techniques for structured exercise generation, and hybrid AI-algorithmic solutions to enhance mathematical reasoning and problem-solving accuracy. Course materials are processed through embeddings and stored in a vectorized format to ensure reliable retrieval, while question and exercise generation utilize past exams through few-shot learning. Additionally, deterministic algorithms are employed to mitigate LLM limitations in step-by-step mathematical computations. This research highlights both the potential and the constraints of LLMs in educational applications. While LLMs are effective in natural language generation and contextual understanding, their mathematical reasoning requires augmentation with dedicated computational tools. The findings demonstrate how a hybrid approach — combining AI with structured algorithms — can significantly improve the reliability of AI-powered tutoring systems, contributing to future advancements in educational technology.
L'integrazione dell'Intelligenza Artificiale Generativa nell'educazione ha il potenziale di rivoluzionare i Sistemi di Tutoraggio Intelligente (ITS) migliorando il recupero delle informazioni, la generazione di domande e la risoluzione degli esercizi. Questa tesi esplora l'implementazione di tre pilastri fondamentali per il supporto educativo basato sull'IA: la costruzione di una base teorica affidabile, la generazione di nuove domande teoriche ed esercizi, e la risoluzione strutturata e interpretabile degli esercizi. Per raggiungere questi obiettivi, è stato sviluppato un framework che sfrutta i Large Language Models (LLM), integrando la Retrieval-Augmented Generation (RAG) per risposte contestualizzate, tecniche di clustering per la generazione strutturata di esercizi e soluzioni ibride AI-algoritmiche per migliorare il ragionamento matematico e l’accuratezza nella risoluzione dei problemi. Il materiale del corso è stato elaborato attraverso embeddings e memorizzato in un formato vettoriale per garantire un recupero affidabile delle informazioni, mentre la generazione di domande ed esercizi sfrutta esami passati mediante il few-shot learning. Inoltre, per mitigare le limitazioni degli LLM nei calcoli matematici step-by-step, sono stati impiegati algoritmi deterministici. Questa ricerca evidenzia sia il potenziale che le limitazioni degli LLM nelle applicazioni educative. Sebbene questi modelli siano efficaci nella generazione di linguaggio naturale e nella comprensione contestuale, il loro ragionamento matematico necessita di strumenti computazionali dedicati. I risultati dimostrano come un approccio ibrido, che combina IA e algoritmi strutturati, possa migliorare significativamente l'affidabilità dei sistemi di tutoraggio basati sull'intelligenza artificiale, contribuendo all’evoluzione delle tecnologie educative.
AI in education: leveraging generative models for exercise generation and resolution
BERTON GIACHETTI, FEDERICO MARIA
2024/2025
Abstract
The integration of Generative Artificial Intelligence (Generative AI) in education has the potential to revolutionize Intelligent Tutoring Systems (ITS) by enhancing knowledge retrieval, exercise generation, and problem-solving. This thesis explores the implementation of three key pillars essential for AI-driven educational support: building a reliable theoretical knowledge base, generating new theoretical questions and exercises, and solving exercises with structured and interpretable solutions. To achieve these objectives, a framework leveraging Large Language Models (LLMs) is developed, integrating Retrieval-Augmented Generation (RAG) for context-aware responses, clustering techniques for structured exercise generation, and hybrid AI-algorithmic solutions to enhance mathematical reasoning and problem-solving accuracy. Course materials are processed through embeddings and stored in a vectorized format to ensure reliable retrieval, while question and exercise generation utilize past exams through few-shot learning. Additionally, deterministic algorithms are employed to mitigate LLM limitations in step-by-step mathematical computations. This research highlights both the potential and the constraints of LLMs in educational applications. While LLMs are effective in natural language generation and contextual understanding, their mathematical reasoning requires augmentation with dedicated computational tools. The findings demonstrate how a hybrid approach — combining AI with structured algorithms — can significantly improve the reliability of AI-powered tutoring systems, contributing to future advancements in educational technology.File | Dimensione | Formato | |
---|---|---|---|
2025_04_Berton Giachetti_Tesi.pdf
accessibile in internet per tutti
Descrizione: Testo Tesi
Dimensione
3.37 MB
Formato
Adobe PDF
|
3.37 MB | Adobe PDF | Visualizza/Apri |
2025_04_Berton Giachetti_Executive Summary.pdf
accessibile in internet per tutti
Descrizione: Testo Executive Summary
Dimensione
494.72 kB
Formato
Adobe PDF
|
494.72 kB | Adobe PDF | Visualizza/Apri |
I documenti in POLITesi sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/10589/235498