Questa tesi riflette sul fenomeno della profilazione algoritmica e su come questa contribuisca alla riproduzione di pregiudizi razziali. La ricerca mostra come i sistemi di Intelligenza Artificiale, attraverso i dati loro forniti, possano produrre risultati distorti e discriminatori. Questa distorsione si rivela però non come un errore dell’algoritmo in sé, ma come il riflesso di pregiudizi umani presenti nei dati di addestramento o nelle modalità di progettazione dell’algoritmo. L’analisi è strutturata in tre capitoli. Nel primo viene presentato il fenomeno della profilazione ed analizzato il ruolo dell’Intelligenza Artificiale all’interno di questo processo. Vengono sottolineati sia gli aspetti positivi dell’utilizzo di questa nuova tecnologia, sia i potenziali rischi, quali la violazione del diritto alla riservatezza, del diritto alla privacy e la discriminazione. Il secondo capitolo fornisce una panoramica del quadro normativo europeo in relazione alla profilazione, analizzando in dettaglio le disposizioni del General Data Protection Regulation e dell’Artificial Intelligence Act, per comprendere come il sistema europeo cerchi di tutelare i diritti fondamentali dei cittadini e di mitigarne i rischi di infrazione. Infine, il terzo capitolo, approfondisce la nozione di bias algoritmico etnico-razziale. Vengono prese in analisi le cause di tale fenomeno e le sue manifestazioni in vari settori, dalla giustizia penale al mercato del lavoro. Questa tesi vuole sottolineare la necessità di un’adeguata governance e di un approccio etico, senza i quali i sistemi algoritmici rischiano di perpetuare e amplificare le discriminazioni sociali. La ricerca vuole proporre una riflessione sull’importanza di un approccio multidisciplinare al fine di garantire uno sviluppo tecnologico equo e rispettoso dei diritti umani.
Intelligenza Artificiale e discriminazione: la riproduzione dei pregiudizi razziali nei sistemi di profilazione algoritmica
LAZZARINI, CAMILLA
2024/2025
Abstract
Questa tesi riflette sul fenomeno della profilazione algoritmica e su come questa contribuisca alla riproduzione di pregiudizi razziali. La ricerca mostra come i sistemi di Intelligenza Artificiale, attraverso i dati loro forniti, possano produrre risultati distorti e discriminatori. Questa distorsione si rivela però non come un errore dell’algoritmo in sé, ma come il riflesso di pregiudizi umani presenti nei dati di addestramento o nelle modalità di progettazione dell’algoritmo. L’analisi è strutturata in tre capitoli. Nel primo viene presentato il fenomeno della profilazione ed analizzato il ruolo dell’Intelligenza Artificiale all’interno di questo processo. Vengono sottolineati sia gli aspetti positivi dell’utilizzo di questa nuova tecnologia, sia i potenziali rischi, quali la violazione del diritto alla riservatezza, del diritto alla privacy e la discriminazione. Il secondo capitolo fornisce una panoramica del quadro normativo europeo in relazione alla profilazione, analizzando in dettaglio le disposizioni del General Data Protection Regulation e dell’Artificial Intelligence Act, per comprendere come il sistema europeo cerchi di tutelare i diritti fondamentali dei cittadini e di mitigarne i rischi di infrazione. Infine, il terzo capitolo, approfondisce la nozione di bias algoritmico etnico-razziale. Vengono prese in analisi le cause di tale fenomeno e le sue manifestazioni in vari settori, dalla giustizia penale al mercato del lavoro. Questa tesi vuole sottolineare la necessità di un’adeguata governance e di un approccio etico, senza i quali i sistemi algoritmici rischiano di perpetuare e amplificare le discriminazioni sociali. La ricerca vuole proporre una riflessione sull’importanza di un approccio multidisciplinare al fine di garantire uno sviluppo tecnologico equo e rispettoso dei diritti umani.| File | Dimensione | Formato | |
|---|---|---|---|
|
Lazzarini_Camilla.pdf
Accesso riservato
Dimensione
554.33 kB
Formato
Adobe PDF
|
554.33 kB | Adobe PDF |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/98834