Il termine ‘Intelligenza artificiale’ viene utilizzato per fare riferimento ad algoritmi che hanno lo scopo di prendere decisioni intelligenti a partire da un insieme di informazioni messe a loro disposizione. Comparate a un medico, le tecnologie di intelligenza artificiale possono guidare un computer nell’estrazione e nell’apprendimento di informazioni e relazioni da una grande quantità di dati. Ciò è particolarmente adatto nei casi in cui le informazioni provenienti dai dati passati siano fondamentali nel processo decisionale clinico, l’AI può fornire appropriate decisioni diagnostiche, prognostiche e terapeutiche. L’AI in medicina (AIM) ha reso possibile un frequente dialogo tra medico e computer, in cui il computer assiste il medico nell’effettuare le diagnosi più probabili. I modelli di machine learning sono considerati dei black box model. L’explainable AI è un insieme di strumenti e tecniche che permettono agli utenti umani di capire e fidarsi dell’output degli algoritmi di machine learning, essi contribuiscono a garantire la correttezza, l’equità, l’assenza di bias e la trasparenza dei risultati del modello. Poter spiegare gli output di un modello diventa più importante quando l'accuratezza è un punto determinante nel processo decisionale, come nel caso della medicina. SHAP è uno strumento di explainable AI che ha comportato un cambiamento nella popolarità dell’utilizzo dei valori di Shapley e ha introdotto nuovi modi per stimarli, inoltre ne permette l’utilizzo anche in modelli che operano su testi e immagini. Un'innovazione che SHAP porta è che la spiegazione per mezzo dei valori di Shapley è rappresentata come un modello lineare.

Intelligenza artificiale in medicina: il ruolo dell'explainability attraverso un'applicazione di SHAP

CABATO, ENRICO
2024/2025

Abstract

Il termine ‘Intelligenza artificiale’ viene utilizzato per fare riferimento ad algoritmi che hanno lo scopo di prendere decisioni intelligenti a partire da un insieme di informazioni messe a loro disposizione. Comparate a un medico, le tecnologie di intelligenza artificiale possono guidare un computer nell’estrazione e nell’apprendimento di informazioni e relazioni da una grande quantità di dati. Ciò è particolarmente adatto nei casi in cui le informazioni provenienti dai dati passati siano fondamentali nel processo decisionale clinico, l’AI può fornire appropriate decisioni diagnostiche, prognostiche e terapeutiche. L’AI in medicina (AIM) ha reso possibile un frequente dialogo tra medico e computer, in cui il computer assiste il medico nell’effettuare le diagnosi più probabili. I modelli di machine learning sono considerati dei black box model. L’explainable AI è un insieme di strumenti e tecniche che permettono agli utenti umani di capire e fidarsi dell’output degli algoritmi di machine learning, essi contribuiscono a garantire la correttezza, l’equità, l’assenza di bias e la trasparenza dei risultati del modello. Poter spiegare gli output di un modello diventa più importante quando l'accuratezza è un punto determinante nel processo decisionale, come nel caso della medicina. SHAP è uno strumento di explainable AI che ha comportato un cambiamento nella popolarità dell’utilizzo dei valori di Shapley e ha introdotto nuovi modi per stimarli, inoltre ne permette l’utilizzo anche in modelli che operano su testi e immagini. Un'innovazione che SHAP porta è che la spiegazione per mezzo dei valori di Shapley è rappresentata come un modello lineare.
2024
Artificial intelligence in medicine: the role of explainability through a SHAP application
AI
explainable AI
SHAP
explainability
AI in medicina
File in questo prodotto:
File Dimensione Formato  
Cabato_Enrico.pdf

accesso aperto

Dimensione 1.43 MB
Formato Adobe PDF
1.43 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/92541