This thesis aims to explore the phenomenon of hate speech channeled through chatbots, with particular emphasis on the cases of "Tay" and "Zo" developed by Microsoft. The study examines how these artificial intelligence systems can be manipulated to spread messages of hate and discrimination, delving into the issues related to programming, machine learning, and content moderation. The analysis highlights the urgency to develop effective solutions to prevent the misuse of these technologies, aiming to ensure a correct, ethic use.

La presente tesi mira a esplorare il fenomeno dell'hate speech veicolato attraverso chatbot, con particolare riferimento ai casi di "Tay" e "Zo", sviluppati da Microsoft. Questa ricerca esamina come questi sistemi di intelligenza artificiale possano essere manipolati per diffondere messaggi di odio e discriminazione, analizzando le problematiche relative alla programmazione, all'apprendimento automatico e alla moderazione del contenuto. L'analisi proposta sottolinea l'urgenza di sviluppare soluzioni efficaci per prevenire l'uso improprio di queste tecnologie, al fine di garantirne un uso corretto, etico.

Le chatbot come veicolo di hate speech: studio e analisi dei casi Microsoft “Tay” e “Zo”

TAMAS, ALESSIA
2022/2023

Abstract

This thesis aims to explore the phenomenon of hate speech channeled through chatbots, with particular emphasis on the cases of "Tay" and "Zo" developed by Microsoft. The study examines how these artificial intelligence systems can be manipulated to spread messages of hate and discrimination, delving into the issues related to programming, machine learning, and content moderation. The analysis highlights the urgency to develop effective solutions to prevent the misuse of these technologies, aiming to ensure a correct, ethic use.
2022
Chatbots as a hate speech vehicle: study and analysis of Microsoft's "Tay" and "Zo" cases
La presente tesi mira a esplorare il fenomeno dell'hate speech veicolato attraverso chatbot, con particolare riferimento ai casi di "Tay" e "Zo", sviluppati da Microsoft. Questa ricerca esamina come questi sistemi di intelligenza artificiale possano essere manipolati per diffondere messaggi di odio e discriminazione, analizzando le problematiche relative alla programmazione, all'apprendimento automatico e alla moderazione del contenuto. L'analisi proposta sottolinea l'urgenza di sviluppare soluzioni efficaci per prevenire l'uso improprio di queste tecnologie, al fine di garantirne un uso corretto, etico.
Chatbot
Hate speech
Microsoft
File in questo prodotto:
File Dimensione Formato  
TESI ALESSIA TAMAS MATRICOLA 2012670-.pdf

accesso riservato

Dimensione 1.47 MB
Formato Adobe PDF
1.47 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/49756