In recent years, we have witnessed how Artificial Intelligence (AI) and Machine Learning are significantly transforming the way medical diagnoses are made. These tools contribute to faster and more accurate diagnostics; however, alongside their numerous advantages, they also introduce several critical issues, one of the most significant being algorithmic bias. In recent years, Artificial Intelligence (AI) and Machine Learning (ML) have profoundly transformed the way medical diagnosis is conducted. These tools offer several advantages, including support for healthcare professionals and faster, more accurate analyses, but they also present notable challenges. Among these, one of the most significant is the so-called algorithmic bias—a phenomenon that occurs when AI systems, trained on partial or non-representative data, produce results that tend to disadvantage certain groups of patients. Factors such as ethnicity, gender, age, or socio-economic conditions can influence diagnostic decisions, generating disparities and amplifying existing health inequalities. It is also important to consider the historical and social context in which these technologies have developed. The first applications of AI in healthcare date back to the 1970s, with expert systems designed to assist in diagnosing bacterial infections. In the following decades, the growth of computational power and the availability of large amounts of clinical data enabled a shift from rule-based models to machine learning systems capable of recognizing complex patterns in medical data. Over the past two decades, the advent of deep learning and the large-scale digitalization of health information have made AI a fundamental tool for diagnostic imaging analysis, clinical outcome prediction, and personalized treatment. Today, the most established applications can be found in fields such as radiology—where algorithms demonstrate high performance in the early detection of nodules and anomalies—and in digital pathology, with decision-support systems for clinical practice. However, the rapid diffusion of these technologies in a highly sensitive domain such as healthcare calls for particular caution and awareness. The adoption of AI, while representing an enormous opportunity for the advancement of modern medicine, must be guided by a strong sense of responsibility and by rigorous ethical principles, since its effectiveness depends closely on the quality, completeness, and representativeness of the data on which it relies. This work analyzes the main sources of bias in AI-based diagnostic systems, highlighting how such distortions can lead to tangible clinical, ethical, and social consequences. It also discusses the current and emerging strategies designed to identify and mitigate algorithmic bias, with the aim of promoting a fairer, more transparent, and more responsible use of AI in medicine.

Negli ultimi anni l’Intelligenza Artificiale (AI) e il Machine Learning (ML) hanno profondamente trasformato il modo di fare diagnosi in medicina. Questi strumenti offrono diversi vantaggi fra i quali il supporto al personale sanitario, analisi più rapide e accurate, ma insieme ad essi non mancano criticità di rilievo. Tra queste, una delle più significative è rappresentata dal cosiddetto bias algoritmico, quel fenomeno che si manifesta quando i sistemi di AI, addestrati su dati parziali o non rappresentativi, producono risultati che tendono a penalizzare determinati gruppi di pazienti. Fattori come etnia, genere, età o condizioni socio-economiche possono infatti influenzare le decisioni diagnostiche, generando disparità e contribuendo ad amplificare disuguaglianze sanitarie già esistenti. È utile anche considerare il contesto storico e sociale nel quale queste tecnologie si inseriscono, di fatti le prime applicazioni di AI in ambito sanitario risalgono agli anni Settanta, con i sistemi esperti progettati per supportare la diagnosi di infezioni batteriche. Negli anni successivi, l’evoluzione della potenza di calcolo e la disponibilità di grandi quantità di dati clinici hanno permesso di passare da modelli basati su regole fisse a sistemi di apprendimento automatico capaci di riconoscere pattern complessi nei dati medici. Negli ultimi due decenni, grazie all’avvento del Deep learning e della digitalizzazione massiva delle informazioni sanitarie, l’AI è diventata uno strumento fondamentale per l’analisi di immagini diagnostiche, la predizione di esiti clinici e la personalizzazione dei trattamenti. Le applicazioni più consolidate si ritrovano oggi in settori come la radiologia, dove gli algoritmi dimostrano prestazioni elevate nell’identificazione precoce di noduli e anomalie, e nella patologia digitale, con sistemi di supporto alle decisioni cliniche. La rapida diffusione di queste tecnologie in un contesto tanto delicato come quello sanitario richiede però particolare cautela e consapevolezza. L’adozione dell’AI, che rappresenta un’enorme opportunità di progresso per la medicina moderna, dev’essere guidata da un forte senso di responsabilità e da rigorosi principi etici, poiché la sua efficacia dipende strettamente dalla qualità, dalla completezza e dalla rappresentatività dei dati che la alimentano. Il presente elaborato analizza le principali fonti di bias nei sistemi di diagnosi basati su AI, evidenziando come tali distorsioni possano tradursi in conseguenze concrete sul piano clinico, etico e sociale. Vengono inoltre discusse anche le strategie oggi disponibili, e quelle in via di sviluppo, per identificare e mitigare il bias algoritmico, con l’obiettivo di promuovere un utilizzo più equo, trasparente e responsabile dell’AI in ambito medico.

Bias delle metodologie di intelligenza artificiale e sue implicazioni nella ricerca e nella pratica medica

GIANNASI, GIORGIA
2024/2025

Abstract

In recent years, we have witnessed how Artificial Intelligence (AI) and Machine Learning are significantly transforming the way medical diagnoses are made. These tools contribute to faster and more accurate diagnostics; however, alongside their numerous advantages, they also introduce several critical issues, one of the most significant being algorithmic bias. In recent years, Artificial Intelligence (AI) and Machine Learning (ML) have profoundly transformed the way medical diagnosis is conducted. These tools offer several advantages, including support for healthcare professionals and faster, more accurate analyses, but they also present notable challenges. Among these, one of the most significant is the so-called algorithmic bias—a phenomenon that occurs when AI systems, trained on partial or non-representative data, produce results that tend to disadvantage certain groups of patients. Factors such as ethnicity, gender, age, or socio-economic conditions can influence diagnostic decisions, generating disparities and amplifying existing health inequalities. It is also important to consider the historical and social context in which these technologies have developed. The first applications of AI in healthcare date back to the 1970s, with expert systems designed to assist in diagnosing bacterial infections. In the following decades, the growth of computational power and the availability of large amounts of clinical data enabled a shift from rule-based models to machine learning systems capable of recognizing complex patterns in medical data. Over the past two decades, the advent of deep learning and the large-scale digitalization of health information have made AI a fundamental tool for diagnostic imaging analysis, clinical outcome prediction, and personalized treatment. Today, the most established applications can be found in fields such as radiology—where algorithms demonstrate high performance in the early detection of nodules and anomalies—and in digital pathology, with decision-support systems for clinical practice. However, the rapid diffusion of these technologies in a highly sensitive domain such as healthcare calls for particular caution and awareness. The adoption of AI, while representing an enormous opportunity for the advancement of modern medicine, must be guided by a strong sense of responsibility and by rigorous ethical principles, since its effectiveness depends closely on the quality, completeness, and representativeness of the data on which it relies. This work analyzes the main sources of bias in AI-based diagnostic systems, highlighting how such distortions can lead to tangible clinical, ethical, and social consequences. It also discusses the current and emerging strategies designed to identify and mitigate algorithmic bias, with the aim of promoting a fairer, more transparent, and more responsible use of AI in medicine.
2024
Bias in artificial intelligence methodologies and its implications in medical research and practice
Negli ultimi anni l’Intelligenza Artificiale (AI) e il Machine Learning (ML) hanno profondamente trasformato il modo di fare diagnosi in medicina. Questi strumenti offrono diversi vantaggi fra i quali il supporto al personale sanitario, analisi più rapide e accurate, ma insieme ad essi non mancano criticità di rilievo. Tra queste, una delle più significative è rappresentata dal cosiddetto bias algoritmico, quel fenomeno che si manifesta quando i sistemi di AI, addestrati su dati parziali o non rappresentativi, producono risultati che tendono a penalizzare determinati gruppi di pazienti. Fattori come etnia, genere, età o condizioni socio-economiche possono infatti influenzare le decisioni diagnostiche, generando disparità e contribuendo ad amplificare disuguaglianze sanitarie già esistenti. È utile anche considerare il contesto storico e sociale nel quale queste tecnologie si inseriscono, di fatti le prime applicazioni di AI in ambito sanitario risalgono agli anni Settanta, con i sistemi esperti progettati per supportare la diagnosi di infezioni batteriche. Negli anni successivi, l’evoluzione della potenza di calcolo e la disponibilità di grandi quantità di dati clinici hanno permesso di passare da modelli basati su regole fisse a sistemi di apprendimento automatico capaci di riconoscere pattern complessi nei dati medici. Negli ultimi due decenni, grazie all’avvento del Deep learning e della digitalizzazione massiva delle informazioni sanitarie, l’AI è diventata uno strumento fondamentale per l’analisi di immagini diagnostiche, la predizione di esiti clinici e la personalizzazione dei trattamenti. Le applicazioni più consolidate si ritrovano oggi in settori come la radiologia, dove gli algoritmi dimostrano prestazioni elevate nell’identificazione precoce di noduli e anomalie, e nella patologia digitale, con sistemi di supporto alle decisioni cliniche. La rapida diffusione di queste tecnologie in un contesto tanto delicato come quello sanitario richiede però particolare cautela e consapevolezza. L’adozione dell’AI, che rappresenta un’enorme opportunità di progresso per la medicina moderna, dev’essere guidata da un forte senso di responsabilità e da rigorosi principi etici, poiché la sua efficacia dipende strettamente dalla qualità, dalla completezza e dalla rappresentatività dei dati che la alimentano. Il presente elaborato analizza le principali fonti di bias nei sistemi di diagnosi basati su AI, evidenziando come tali distorsioni possano tradursi in conseguenze concrete sul piano clinico, etico e sociale. Vengono inoltre discusse anche le strategie oggi disponibili, e quelle in via di sviluppo, per identificare e mitigare il bias algoritmico, con l’obiettivo di promuovere un utilizzo più equo, trasparente e responsabile dell’AI in ambito medico.
Bias
AI
implications
medical practice
File in questo prodotto:
File Dimensione Formato  
Giannasi_Giorgia.pdf

Accesso riservato

Dimensione 1.34 MB
Formato Adobe PDF
1.34 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/97785