In recent years, the remarkable development of Machine Learning and Deep Learning models has led to a true revolution in the field of Artificial Intelligence. However, the development of these models has been primarily focused on commercial and industrial aspects, without adequately addressing important issues related to user health and rights. Particularly critical is the case of autonomous driving systems. This thesis highlights the main challenges and issues in this regard, emphasizing how neuro-symbolic models and future research in this area, through the analysis of five systems, can bring significant improvements to the decision-making processes of autonomous vehicles. The use of symbolic techniques aims to address some of the shortcomings of Deep Learning algorithms (statistical methods), enhancing the reasoning capabilities of the systems at a higher level of abstraction. These techniques can thus increase the explainability of choices made by autonomous vehicles, thereby mitigating the "black-box" effect. The importance of eXplainable AI (XAI) principles is also emphasized in relation to current regulations in Europe and the United States, in order to address the challenges posed by these systems from both technical and legal perspectives.

Negli ultimi anni, il notevole sviluppo dei modelli di Machine Learning e Deep Learning ha portato a una vera e propria rivoluzione nell'ambito dell'Intelligenza Artificiale. Tuttavia, lo sviluppo di questi modelli è incentrato sugli aspetti commerciali e industriali, senza considerare le importanti questioni relative alla salute e ai diritti degli utenti. Particolarmente critico è il caso dei sistemi per la guida autonoma. In questa tesi se ne evidenziano le principali sfide e problematiche, mettendo in rilievo come modelli e future ricerche in ambito neuro simbolico, tramite l’analisi di cinque sistemi, potranno apportare miglioramenti significativi nei processi decisionali delle auto a guida autonoma. L’utilizzo di tecniche simboliche tenta di colmare alcune lacune degli algoritmi di Deep Learning (metodi statistici), aumentando la potenzialità di ragionamento dei sistemi, con un livello di astrazione più alto. Queste tecniche quindi possono aumentare il livello di spiegabilità delle scelte da parte delle auto a guida autonoma con una conseguente mitigazione dell’effetto ‘black-box’. Viene anche sottolineata l’importanza dei principi della XAI in correlazione alle normative vigenti in Europa e negli Stati Uniti, al fine di considerare le sfide poste da questi sistemi sia dal punto di vista tecnico che legale.

Analisi dei Sistemi di Guida Autonoma Attraverso un Approccio Neuro-Simbolico

ZANETTI, SIMONE
2022/2023

Abstract

In recent years, the remarkable development of Machine Learning and Deep Learning models has led to a true revolution in the field of Artificial Intelligence. However, the development of these models has been primarily focused on commercial and industrial aspects, without adequately addressing important issues related to user health and rights. Particularly critical is the case of autonomous driving systems. This thesis highlights the main challenges and issues in this regard, emphasizing how neuro-symbolic models and future research in this area, through the analysis of five systems, can bring significant improvements to the decision-making processes of autonomous vehicles. The use of symbolic techniques aims to address some of the shortcomings of Deep Learning algorithms (statistical methods), enhancing the reasoning capabilities of the systems at a higher level of abstraction. These techniques can thus increase the explainability of choices made by autonomous vehicles, thereby mitigating the "black-box" effect. The importance of eXplainable AI (XAI) principles is also emphasized in relation to current regulations in Europe and the United States, in order to address the challenges posed by these systems from both technical and legal perspectives.
2022
Analyzing Self-Driving Systems through a Neuro-Symbolic Approach
Negli ultimi anni, il notevole sviluppo dei modelli di Machine Learning e Deep Learning ha portato a una vera e propria rivoluzione nell'ambito dell'Intelligenza Artificiale. Tuttavia, lo sviluppo di questi modelli è incentrato sugli aspetti commerciali e industriali, senza considerare le importanti questioni relative alla salute e ai diritti degli utenti. Particolarmente critico è il caso dei sistemi per la guida autonoma. In questa tesi se ne evidenziano le principali sfide e problematiche, mettendo in rilievo come modelli e future ricerche in ambito neuro simbolico, tramite l’analisi di cinque sistemi, potranno apportare miglioramenti significativi nei processi decisionali delle auto a guida autonoma. L’utilizzo di tecniche simboliche tenta di colmare alcune lacune degli algoritmi di Deep Learning (metodi statistici), aumentando la potenzialità di ragionamento dei sistemi, con un livello di astrazione più alto. Queste tecniche quindi possono aumentare il livello di spiegabilità delle scelte da parte delle auto a guida autonoma con una conseguente mitigazione dell’effetto ‘black-box’. Viene anche sottolineata l’importanza dei principi della XAI in correlazione alle normative vigenti in Europa e negli Stati Uniti, al fine di considerare le sfide poste da questi sistemi sia dal punto di vista tecnico che legale.
guida autonoma
Neuro-Symolic AI
Explainable AI
Trasparenza
File in questo prodotto:
File Dimensione Formato  
TESI_SimoneZanettiPDF-A.pdf

accesso aperto

Dimensione 2.48 MB
Formato Adobe PDF
2.48 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/55689