Artificial intelligence (AI) has made great progress in recent years, improving and facilitating work. Consider home automation, virtual assistants, or self-driving cars. AI is also being applied in the fields of medicine and law, raising debate and concerns. In fact, although AI provides significant support today, its results are not always reliable because they are subject to bias, even unintentional biases. This thesis discusses and analyzes the problem of these biases, which are often intrinsically present in the data used to train algorithms. After a brief history of AI, the thesis analyzes how biases are introduced during the AI training phase, focusing on gender bias, which is embedded in machine translation algorithms. In this context, it also discusses the recruitment algorithm used by Amazon to reduce the time it takes to find new staff. The Amazon case is a well-known case study because the algorithm used exhibited a gender bias. The final section of the paper discusses XAI, explainable AI, which, thanks to its techniques, allows AI to be more transparent in its decision-making processes and can contribute to the detection and mitigation of bias.

Negli ultimi anni l’Intelligenza Artificiale (IA) ha fatto grandi progressi, migliorando e agevolando l’attività lavorativa. Si pensi alla domotica, al servizio di assistenza virtuale o alle automobili a guida autonoma. Ma non solo, l’applicazione dell’IA avviene anche nei campi della medicina e della giurisprudenza, sollevando discussioni e preoccupazioni. Infatti, nonostante l’IA ci dia al giorno d’oggi un grande sostegno, non sempre i suoi risultati sono attendibili, perché soggetti a bias, anche se involontari. L’elaborato si occupa di discutere ed analizzare il problema di questi bias, molto spesso presenti intrinsecamente nei dati utilizzati per l’addestramento degli algoritmi. Dopo una breve storia sull’IA, la tesi analizza come avviene l'introduzione dei bias durante la fase di addestramento dell'IA, approfondendo in particolare il bias di genere, inserito all’interno degli algoritmi di traduzione automatica. In riferimento a ciò si discuterà inoltre dell’algoritmo di reclutamento utilizzato da Amazon per ridurre i tempi di ricerca di nuovo personale da assumere. Il caso Amazon è un noto caso studio perché l’algoritmo utilizzato presentava un bias di genere. La parte finale dell’elaborato si preoccupa di discutere della XAI, l’IA spiegabile che grazie alle sue tecniche permette di rendere l’IA più trasparente nei suoi processi decisionali e può contribuire alla rilevazione e mitigazione dei bias.

Bias nei dati ed errori dell'Intelligenza Artificiale: utilizzo della XAI per valutare le discriminazioni algoritmiche.

ZUFFO, MERY CLAIRE
2024/2025

Abstract

Artificial intelligence (AI) has made great progress in recent years, improving and facilitating work. Consider home automation, virtual assistants, or self-driving cars. AI is also being applied in the fields of medicine and law, raising debate and concerns. In fact, although AI provides significant support today, its results are not always reliable because they are subject to bias, even unintentional biases. This thesis discusses and analyzes the problem of these biases, which are often intrinsically present in the data used to train algorithms. After a brief history of AI, the thesis analyzes how biases are introduced during the AI training phase, focusing on gender bias, which is embedded in machine translation algorithms. In this context, it also discusses the recruitment algorithm used by Amazon to reduce the time it takes to find new staff. The Amazon case is a well-known case study because the algorithm used exhibited a gender bias. The final section of the paper discusses XAI, explainable AI, which, thanks to its techniques, allows AI to be more transparent in its decision-making processes and can contribute to the detection and mitigation of bias.
2024
Data biases and artificial intelligence errors: the XAI to evaluate algorithmic discriminations.
Negli ultimi anni l’Intelligenza Artificiale (IA) ha fatto grandi progressi, migliorando e agevolando l’attività lavorativa. Si pensi alla domotica, al servizio di assistenza virtuale o alle automobili a guida autonoma. Ma non solo, l’applicazione dell’IA avviene anche nei campi della medicina e della giurisprudenza, sollevando discussioni e preoccupazioni. Infatti, nonostante l’IA ci dia al giorno d’oggi un grande sostegno, non sempre i suoi risultati sono attendibili, perché soggetti a bias, anche se involontari. L’elaborato si occupa di discutere ed analizzare il problema di questi bias, molto spesso presenti intrinsecamente nei dati utilizzati per l’addestramento degli algoritmi. Dopo una breve storia sull’IA, la tesi analizza come avviene l'introduzione dei bias durante la fase di addestramento dell'IA, approfondendo in particolare il bias di genere, inserito all’interno degli algoritmi di traduzione automatica. In riferimento a ciò si discuterà inoltre dell’algoritmo di reclutamento utilizzato da Amazon per ridurre i tempi di ricerca di nuovo personale da assumere. Il caso Amazon è un noto caso studio perché l’algoritmo utilizzato presentava un bias di genere. La parte finale dell’elaborato si preoccupa di discutere della XAI, l’IA spiegabile che grazie alle sue tecniche permette di rendere l’IA più trasparente nei suoi processi decisionali e può contribuire alla rilevazione e mitigazione dei bias.
Bias nell'IA
IA e XAI
Algoritmi
File in questo prodotto:
File Dimensione Formato  
Zuffo_Mery Claire_Tesi.pdf

Accesso riservato

Dimensione 1.09 MB
Formato Adobe PDF
1.09 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/93808