L'intelligenza artificiale è ormai una tecnologia che utilizziamo quotidianamente, come nel caso degli assistenti vocali o del riconoscimento facciale. Tuttavia, non tutti sono consapevoli che molti di questi sistemi, se progettati in modo inadatto, possono perpetuare discriminazioni di genere. Questa tesi affronta il tema dei bias di genere nell’intelligenza artificiale e si propone di analizzare il ruolo che tale tecnologia può avere nell’amplificare discriminazioni di genere. La ricerca si concentra sull’analizzare i meccanismi utilizzati per addestrare gli algoritmi delle IA, considerando i rischi associati all’uso di sistemi che contengano visioni stereotipate della realtà, in particolare per quanto riguarda i ruoli di genere. Utilizzando una metodologia qualitativa, basata su studi e ricerche esistenti, la tesi esplora casi concreti di bias di genere in vari modelli di intelligenza artificiale. L’obiettivo finale è sensibilizzare sui pericoli derivanti dall’adozione di tecnologie non progettate in modo inclusivo e proporre possibili soluzioni per lo sviluppo di algoritmi più equi e rispettosi della diversità di genere.
Stereotipi di Genere nell'Intelligenza Artificiale: Analisi delle Implicazioni Sociali, Etiche e Normative
PEDRON, ELENA
2024/2025
Abstract
L'intelligenza artificiale è ormai una tecnologia che utilizziamo quotidianamente, come nel caso degli assistenti vocali o del riconoscimento facciale. Tuttavia, non tutti sono consapevoli che molti di questi sistemi, se progettati in modo inadatto, possono perpetuare discriminazioni di genere. Questa tesi affronta il tema dei bias di genere nell’intelligenza artificiale e si propone di analizzare il ruolo che tale tecnologia può avere nell’amplificare discriminazioni di genere. La ricerca si concentra sull’analizzare i meccanismi utilizzati per addestrare gli algoritmi delle IA, considerando i rischi associati all’uso di sistemi che contengano visioni stereotipate della realtà, in particolare per quanto riguarda i ruoli di genere. Utilizzando una metodologia qualitativa, basata su studi e ricerche esistenti, la tesi esplora casi concreti di bias di genere in vari modelli di intelligenza artificiale. L’obiettivo finale è sensibilizzare sui pericoli derivanti dall’adozione di tecnologie non progettate in modo inclusivo e proporre possibili soluzioni per lo sviluppo di algoritmi più equi e rispettosi della diversità di genere.| File | Dimensione | Formato | |
|---|---|---|---|
|
Pedron_Elena .pdf
Accesso riservato
Dimensione
1.27 MB
Formato
Adobe PDF
|
1.27 MB | Adobe PDF |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/98865