This thesis designs and implements an analytics dashboard, integrated into FaceIT, to support instructors in evaluating quiz questions through indicators of use (submissions/valid answers), outcome (accuracy), perceived difficulty, and response times. The architecture cleanly separates data transformation from presentation: a Python/Flask backend with consistent temporal filters and JSON aggregations, and a JavaScript/D3 frontend with Bootstrap components for coherent, readable visualizations. The interface is organized into three tabs with daily/cumulative time series, per-choice distributions, and histograms of difficulty and response times; contextual metadata supports interpretation. A case study with simulated yet realistic data shows how combining signals (accuracy, perception, timing) enables rapid diagnosis, e.g., weak distractors, textual ambiguities, or misalignment between intended and perceived difficulty, and informed instructional decisions. In conclusion, the system offers instructors a clear, consistent yardstick to assess their practice, identify where to intervene, and steer revision and improvement choices based on evidence.

Questa tesi progetta e realizza una dashboard analitica, integrata in FaceIT, per supportare i docenti nella valutazione dei quesiti dei quiz attraverso indicatori di uso (sottomissioni/risposte valide), esito (correttezza), difficoltà percepita e tempi di risposta. L’architettura separa chiaramente trasformazione e presentazione: back-end Python/Flask con filtri temporali omogenei e aggregazioni in JSON; front-end JavaScript/D3 e componenti Bootstrap per visualizzazioni coerenti e leggibili. L’interfaccia è organizzata in tre schede con serie giornaliere/cumulative, distribuzioni per alternativa e istogrammi di difficoltà/tempi; metadati contestuali aiutano l’interpretazione. Un caso di studio con dati simulati ma verosimili mostra come la combinazione di segnali (correttezza, percezione, tempi) consenta diagnosi rapide, ad esempio distrattori deboli, ambiguità testuali o disallineamenti tra difficoltà pensata e percepita, e decisioni didattiche informate. In conclusione, il sistema offre ai docenti un metro di valutazione chiaro e coerente per giudicare il proprio operato, individuare dove intervenire e orientare con evidenza dati scelte di revisione e miglioramento.

Analisi delle prestazioni delle domande in ambiente e-learning: progettazione e realizzazione di una dashboard

FERRARO, LUCA
2024/2025

Abstract

This thesis designs and implements an analytics dashboard, integrated into FaceIT, to support instructors in evaluating quiz questions through indicators of use (submissions/valid answers), outcome (accuracy), perceived difficulty, and response times. The architecture cleanly separates data transformation from presentation: a Python/Flask backend with consistent temporal filters and JSON aggregations, and a JavaScript/D3 frontend with Bootstrap components for coherent, readable visualizations. The interface is organized into three tabs with daily/cumulative time series, per-choice distributions, and histograms of difficulty and response times; contextual metadata supports interpretation. A case study with simulated yet realistic data shows how combining signals (accuracy, perception, timing) enables rapid diagnosis, e.g., weak distractors, textual ambiguities, or misalignment between intended and perceived difficulty, and informed instructional decisions. In conclusion, the system offers instructors a clear, consistent yardstick to assess their practice, identify where to intervene, and steer revision and improvement choices based on evidence.
2024
Performance Analysis of Questions in an E-Learning Environment: Design and Development of a Dashboard
Questa tesi progetta e realizza una dashboard analitica, integrata in FaceIT, per supportare i docenti nella valutazione dei quesiti dei quiz attraverso indicatori di uso (sottomissioni/risposte valide), esito (correttezza), difficoltà percepita e tempi di risposta. L’architettura separa chiaramente trasformazione e presentazione: back-end Python/Flask con filtri temporali omogenei e aggregazioni in JSON; front-end JavaScript/D3 e componenti Bootstrap per visualizzazioni coerenti e leggibili. L’interfaccia è organizzata in tre schede con serie giornaliere/cumulative, distribuzioni per alternativa e istogrammi di difficoltà/tempi; metadati contestuali aiutano l’interpretazione. Un caso di studio con dati simulati ma verosimili mostra come la combinazione di segnali (correttezza, percezione, tempi) consenta diagnosi rapide, ad esempio distrattori deboli, ambiguità testuali o disallineamenti tra difficoltà pensata e percepita, e decisioni didattiche informate. In conclusione, il sistema offre ai docenti un metro di valutazione chiaro e coerente per giudicare il proprio operato, individuare dove intervenire e orientare con evidenza dati scelte di revisione e miglioramento.
learning analytics
e-learning
dashboard
web-app
File in questo prodotto:
File Dimensione Formato  
Ferraro_Luca.pdf

accesso aperto

Dimensione 1.1 MB
Formato Adobe PDF
1.1 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/91719