La presente tesi analizza la manifestazione e la perpetuazione dei bias di genere nei sistemi di Intelligenza Artificiale di uso comune. L'indagine si concentra in particolare sulla rappresentazione della figura femminile, con l'obiettivo di documentare come le tecnologie emergenti riflettano e amplifichino stereotipi culturali preesistenti. Per raggiungere tale scopo, è stata condotta una ricerca con metodi misti (mixed-methods research). La fase qualitativa ha previsto un'analisi critica di tre categorie di strumenti – assistenti vocali, generatori di immagini e filtri estetici – per identificare i pattern stereotipici nel loro design e funzionamento. La successiva fase quantitativa ha approfondito il tema attraverso un questionario online, volto a misurare il livello di consapevolezza e le percezioni degli utenti. I risultati evidenziano una sistematica tendenza alla riproduzione di stereotipi: dalla femminilizzazione dei ruoli di assistenza vocale alla sessualizzazione delle figure professionali femminili nelle immagini generate, fino all'imposizione di un canone di bellezza eurocentrico e omologante nei filtri estetici. Emerge, inoltre, una consapevolezza "latente" da parte degli utenti: sebbene la percezione del problema a livello generale sia moderata, essa si acuisce significativamente di fronte a scenari concreti, rivelando una forte domanda di equità e responsabilità da parte delle aziende tecnologiche. In conclusione, questo lavoro offre una mappatura dei bias di genere nell'IA quotidiana e contribuisce al dibattito sulla necessità di uno sviluppo tecnologico più etico e inclusivo. Le evidenze raccolte forniscono spunti critici per gli utenti e raccomandazioni pratiche per sviluppatori e designer impegnati nella progettazione dei futuri sistemi di intelligenza artificiale.

Intelligenza Artificiale e disuguaglianze di genere: tra progettazione e rappresentazione

MOLENA, ELISA
2024/2025

Abstract

La presente tesi analizza la manifestazione e la perpetuazione dei bias di genere nei sistemi di Intelligenza Artificiale di uso comune. L'indagine si concentra in particolare sulla rappresentazione della figura femminile, con l'obiettivo di documentare come le tecnologie emergenti riflettano e amplifichino stereotipi culturali preesistenti. Per raggiungere tale scopo, è stata condotta una ricerca con metodi misti (mixed-methods research). La fase qualitativa ha previsto un'analisi critica di tre categorie di strumenti – assistenti vocali, generatori di immagini e filtri estetici – per identificare i pattern stereotipici nel loro design e funzionamento. La successiva fase quantitativa ha approfondito il tema attraverso un questionario online, volto a misurare il livello di consapevolezza e le percezioni degli utenti. I risultati evidenziano una sistematica tendenza alla riproduzione di stereotipi: dalla femminilizzazione dei ruoli di assistenza vocale alla sessualizzazione delle figure professionali femminili nelle immagini generate, fino all'imposizione di un canone di bellezza eurocentrico e omologante nei filtri estetici. Emerge, inoltre, una consapevolezza "latente" da parte degli utenti: sebbene la percezione del problema a livello generale sia moderata, essa si acuisce significativamente di fronte a scenari concreti, rivelando una forte domanda di equità e responsabilità da parte delle aziende tecnologiche. In conclusione, questo lavoro offre una mappatura dei bias di genere nell'IA quotidiana e contribuisce al dibattito sulla necessità di uno sviluppo tecnologico più etico e inclusivo. Le evidenze raccolte forniscono spunti critici per gli utenti e raccomandazioni pratiche per sviluppatori e designer impegnati nella progettazione dei futuri sistemi di intelligenza artificiale.
2024
Artificial Intelligence and gender inequality: from design to representation
Bias di genere
IA
Stereotipi di genere
File in questo prodotto:
File Dimensione Formato  
Molena_Elisa.pdf.pdf

accesso aperto

Dimensione 1.84 MB
Formato Adobe PDF
1.84 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/90635