Negli ultimi anni, l'Intelligenza Artificiale è diventata un elemento centrale in numerosi settori, grazie alla capacità di apprendere modelli complessi e di supportare decisioni critiche. Tuttavia la crescente adozione di sistemi di IA, spesso basati su modelli di machine learning, ha sollevato preoccupazioni riguardanti la loro opacità e la difficoltà di interpretare i processi decisionali sottostanti. In questo contesto, l'Explainable Artificial Intelligence (XAI) si propone come disciplina volta a sviluppare metodi e tecniche per rendere i modelli e i relativi processi decisionali più comprensibili e trasparenti. La presente tesi esplora i fondamenti teorici della XAI, analizzandone i principi, le tipologie di approcci, e le principali sfide, per poi rivolgere l'attenzione al metodo SHAP (SHapley Additive exPlanations), uno dei più diffusi e consolidati strumenti per la spiegazione delle singole previsioni di un qualsiasi modello di machine learning. Basato sulla teoria dei giochi cooperativi, assegna a ogni feature un valore specifico che rappresenta il contributo del rispettivo valore della feature in relazione alla predizione del modello. SHAP è inoltre caratterizzato da delle proprietà desiderabili che permettono di definirlo un metodo di spiegazione "equo".

Fondamenti di XAI e analisi del metodo SHAP

LECCO, LORENZO
2024/2025

Abstract

Negli ultimi anni, l'Intelligenza Artificiale è diventata un elemento centrale in numerosi settori, grazie alla capacità di apprendere modelli complessi e di supportare decisioni critiche. Tuttavia la crescente adozione di sistemi di IA, spesso basati su modelli di machine learning, ha sollevato preoccupazioni riguardanti la loro opacità e la difficoltà di interpretare i processi decisionali sottostanti. In questo contesto, l'Explainable Artificial Intelligence (XAI) si propone come disciplina volta a sviluppare metodi e tecniche per rendere i modelli e i relativi processi decisionali più comprensibili e trasparenti. La presente tesi esplora i fondamenti teorici della XAI, analizzandone i principi, le tipologie di approcci, e le principali sfide, per poi rivolgere l'attenzione al metodo SHAP (SHapley Additive exPlanations), uno dei più diffusi e consolidati strumenti per la spiegazione delle singole previsioni di un qualsiasi modello di machine learning. Basato sulla teoria dei giochi cooperativi, assegna a ogni feature un valore specifico che rappresenta il contributo del rispettivo valore della feature in relazione alla predizione del modello. SHAP è inoltre caratterizzato da delle proprietà desiderabili che permettono di definirlo un metodo di spiegazione "equo".
2024
Foundations of XAI and analysis of the SHAP method
Machine Learning
Explainable AI
SHAP
File in questo prodotto:
File Dimensione Formato  
Lecco_Lorenzo.pdf

Accesso riservato

Dimensione 1.5 MB
Formato Adobe PDF
1.5 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/89791