Negli ultimi anni, l'Intelligenza Artificiale è diventata un elemento centrale in numerosi settori, grazie alla capacità di apprendere modelli complessi e di supportare decisioni critiche. Tuttavia la crescente adozione di sistemi di IA, spesso basati su modelli di machine learning, ha sollevato preoccupazioni riguardanti la loro opacità e la difficoltà di interpretare i processi decisionali sottostanti. In questo contesto, l'Explainable Artificial Intelligence (XAI) si propone come disciplina volta a sviluppare metodi e tecniche per rendere i modelli e i relativi processi decisionali più comprensibili e trasparenti. La presente tesi esplora i fondamenti teorici della XAI, analizzandone i principi, le tipologie di approcci, e le principali sfide, per poi rivolgere l'attenzione al metodo SHAP (SHapley Additive exPlanations), uno dei più diffusi e consolidati strumenti per la spiegazione delle singole previsioni di un qualsiasi modello di machine learning. Basato sulla teoria dei giochi cooperativi, assegna a ogni feature un valore specifico che rappresenta il contributo del rispettivo valore della feature in relazione alla predizione del modello. SHAP è inoltre caratterizzato da delle proprietà desiderabili che permettono di definirlo un metodo di spiegazione "equo".
Fondamenti di XAI e analisi del metodo SHAP
LECCO, LORENZO
2024/2025
Abstract
Negli ultimi anni, l'Intelligenza Artificiale è diventata un elemento centrale in numerosi settori, grazie alla capacità di apprendere modelli complessi e di supportare decisioni critiche. Tuttavia la crescente adozione di sistemi di IA, spesso basati su modelli di machine learning, ha sollevato preoccupazioni riguardanti la loro opacità e la difficoltà di interpretare i processi decisionali sottostanti. In questo contesto, l'Explainable Artificial Intelligence (XAI) si propone come disciplina volta a sviluppare metodi e tecniche per rendere i modelli e i relativi processi decisionali più comprensibili e trasparenti. La presente tesi esplora i fondamenti teorici della XAI, analizzandone i principi, le tipologie di approcci, e le principali sfide, per poi rivolgere l'attenzione al metodo SHAP (SHapley Additive exPlanations), uno dei più diffusi e consolidati strumenti per la spiegazione delle singole previsioni di un qualsiasi modello di machine learning. Basato sulla teoria dei giochi cooperativi, assegna a ogni feature un valore specifico che rappresenta il contributo del rispettivo valore della feature in relazione alla predizione del modello. SHAP è inoltre caratterizzato da delle proprietà desiderabili che permettono di definirlo un metodo di spiegazione "equo".| File | Dimensione | Formato | |
|---|---|---|---|
|
Lecco_Lorenzo.pdf
Accesso riservato
Dimensione
1.5 MB
Formato
Adobe PDF
|
1.5 MB | Adobe PDF |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/89791