As embedded systems become increasingly prevalent in robotics and automation, there is a growing demand for efficient, real-time object detection models suitable for low-power hardware. This thesis investigates the optimization of the YOLOv11 architecture for such applications, with a focus on obstacle detection in autonomous lawnmower robots. A monocular camera setup was used to collect a custom dataset comprising real-world garden environments, sourced from both field recordings and online media. To enhance the model’s robustness in challenging conditions—such as shadows, glare, and low light—various data augmentation techniques were applied during training. Multiple optimization strategies, including quantization, pruning, and model conversion to TensorFlow Lite, were implemented to enable seamless deployment on the NXP i.MX8M Plus embedded platform. The final system was evaluated in real-time scenarios, demonstrating high detection accuracy and efficient inference speed. This work showcases how state-of-the-art models like YOLOv11 can be effectively adapted for embedded use and provides a complete, reproducible pipeline, including open-source code, a documented dataset preparation process, and clearly outlined deployment procedures.

Con la crescente diffusione dei sistemi embedded nella robotica e nell’automazione, aumenta l’interesse verso modelli di rilevamento oggetti in tempo reale efficienti e adatti a dispositivi a basso consumo energetico. Questa tesi esplora l’ottimizzazione dell’architettura YOLOv11 per tali applicazioni, concentrandosi sul rilevamento di ostacoli in robot tagliaerba autonomi. È stato utilizzato un sistema con videocamera monoculare per costruire un dataset personalizzato, composto da registrazioni sul campo e fonti online, rappresentativo di ambienti reali da giardino. Diverse tecniche di data augmentation sono state applicate durante l’addestramento per migliorare le prestazioni in condizioni difficili come ombre, riflessi e scarsa illuminazione. Sono state implementate varie strategie di ottimizzazione, tra cui quantizzazione, pruning e conversione del modello in TensorFlow Lite, per garantire un’integrazione fluida sulla piattaforma embedded NXP i.MX8M Plus. Il sistema finale è stato testato in scenari in tempo reale, dimostrando alta accuratezza e rapidità di inferenza. Questo lavoro dimostra come modelli di deep learning ad alte prestazioni come YOLOv11 possano essere adattati con successo all’uso su hardware embedded, offrendo una pipeline completa e riproducibile grazie a codice open-source, un processo documentato per la preparazione del dataset e istruzioni dettagliate per la fase di deployment.

Ottimizzazione del Rilevamento di Oggetti Basato su YOLO per Sistemi Embedded: Un Approccio Basato sulle Prestazioni

TAHMASEBI, SHARAREH
2024/2025

Abstract

As embedded systems become increasingly prevalent in robotics and automation, there is a growing demand for efficient, real-time object detection models suitable for low-power hardware. This thesis investigates the optimization of the YOLOv11 architecture for such applications, with a focus on obstacle detection in autonomous lawnmower robots. A monocular camera setup was used to collect a custom dataset comprising real-world garden environments, sourced from both field recordings and online media. To enhance the model’s robustness in challenging conditions—such as shadows, glare, and low light—various data augmentation techniques were applied during training. Multiple optimization strategies, including quantization, pruning, and model conversion to TensorFlow Lite, were implemented to enable seamless deployment on the NXP i.MX8M Plus embedded platform. The final system was evaluated in real-time scenarios, demonstrating high detection accuracy and efficient inference speed. This work showcases how state-of-the-art models like YOLOv11 can be effectively adapted for embedded use and provides a complete, reproducible pipeline, including open-source code, a documented dataset preparation process, and clearly outlined deployment procedures.
2024
Optimizing YOLO-Based Object Detection for Embedded Systems: A Performance-Driven Approach
Con la crescente diffusione dei sistemi embedded nella robotica e nell’automazione, aumenta l’interesse verso modelli di rilevamento oggetti in tempo reale efficienti e adatti a dispositivi a basso consumo energetico. Questa tesi esplora l’ottimizzazione dell’architettura YOLOv11 per tali applicazioni, concentrandosi sul rilevamento di ostacoli in robot tagliaerba autonomi. È stato utilizzato un sistema con videocamera monoculare per costruire un dataset personalizzato, composto da registrazioni sul campo e fonti online, rappresentativo di ambienti reali da giardino. Diverse tecniche di data augmentation sono state applicate durante l’addestramento per migliorare le prestazioni in condizioni difficili come ombre, riflessi e scarsa illuminazione. Sono state implementate varie strategie di ottimizzazione, tra cui quantizzazione, pruning e conversione del modello in TensorFlow Lite, per garantire un’integrazione fluida sulla piattaforma embedded NXP i.MX8M Plus. Il sistema finale è stato testato in scenari in tempo reale, dimostrando alta accuratezza e rapidità di inferenza. Questo lavoro dimostra come modelli di deep learning ad alte prestazioni come YOLOv11 possano essere adattati con successo all’uso su hardware embedded, offrendo una pipeline completa e riproducibile grazie a codice open-source, un processo documentato per la preparazione del dataset e istruzioni dettagliate per la fase di deployment.
Object Detection
YOLO Optimization
Embedded AI
File in questo prodotto:
File Dimensione Formato  
Tahmasebi_Sharareh.pdf

Accesso riservato

Dimensione 3.95 MB
Formato Adobe PDF
3.95 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/93351