Il termine ‘Intelligenza artificiale’ viene utilizzato per fare riferimento ad algoritmi che hanno lo scopo di prendere decisioni intelligenti a partire da un insieme di informazioni messe a loro disposizione. Comparate a un medico, le tecnologie di intelligenza artificiale possono guidare un computer nell’estrazione e nell’apprendimento di informazioni e relazioni da una grande quantità di dati. Ciò è particolarmente adatto nei casi in cui le informazioni provenienti dai dati passati siano fondamentali nel processo decisionale clinico, l’AI può fornire appropriate decisioni diagnostiche, prognostiche e terapeutiche. L’AI in medicina (AIM) ha reso possibile un frequente dialogo tra medico e computer, in cui il computer assiste il medico nell’effettuare le diagnosi più probabili. I modelli di machine learning sono considerati dei black box model. L’explainable AI è un insieme di strumenti e tecniche che permettono agli utenti umani di capire e fidarsi dell’output degli algoritmi di machine learning, essi contribuiscono a garantire la correttezza, l’equità, l’assenza di bias e la trasparenza dei risultati del modello. Poter spiegare gli output di un modello diventa più importante quando l'accuratezza è un punto determinante nel processo decisionale, come nel caso della medicina. SHAP è uno strumento di explainable AI che ha comportato un cambiamento nella popolarità dell’utilizzo dei valori di Shapley e ha introdotto nuovi modi per stimarli, inoltre ne permette l’utilizzo anche in modelli che operano su testi e immagini. Un'innovazione che SHAP porta è che la spiegazione per mezzo dei valori di Shapley è rappresentata come un modello lineare.
Intelligenza artificiale in medicina: il ruolo dell'explainability attraverso un'applicazione di SHAP
CABATO, ENRICO
2024/2025
Abstract
Il termine ‘Intelligenza artificiale’ viene utilizzato per fare riferimento ad algoritmi che hanno lo scopo di prendere decisioni intelligenti a partire da un insieme di informazioni messe a loro disposizione. Comparate a un medico, le tecnologie di intelligenza artificiale possono guidare un computer nell’estrazione e nell’apprendimento di informazioni e relazioni da una grande quantità di dati. Ciò è particolarmente adatto nei casi in cui le informazioni provenienti dai dati passati siano fondamentali nel processo decisionale clinico, l’AI può fornire appropriate decisioni diagnostiche, prognostiche e terapeutiche. L’AI in medicina (AIM) ha reso possibile un frequente dialogo tra medico e computer, in cui il computer assiste il medico nell’effettuare le diagnosi più probabili. I modelli di machine learning sono considerati dei black box model. L’explainable AI è un insieme di strumenti e tecniche che permettono agli utenti umani di capire e fidarsi dell’output degli algoritmi di machine learning, essi contribuiscono a garantire la correttezza, l’equità, l’assenza di bias e la trasparenza dei risultati del modello. Poter spiegare gli output di un modello diventa più importante quando l'accuratezza è un punto determinante nel processo decisionale, come nel caso della medicina. SHAP è uno strumento di explainable AI che ha comportato un cambiamento nella popolarità dell’utilizzo dei valori di Shapley e ha introdotto nuovi modi per stimarli, inoltre ne permette l’utilizzo anche in modelli che operano su testi e immagini. Un'innovazione che SHAP porta è che la spiegazione per mezzo dei valori di Shapley è rappresentata come un modello lineare.| File | Dimensione | Formato | |
|---|---|---|---|
|
Cabato_Enrico.pdf
accesso aperto
Dimensione
1.43 MB
Formato
Adobe PDF
|
1.43 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/92541