Una delle principali preoccupazioni riguardo l’uso di modelli di Intelligenza Artificiale, in particolare di deep learning, è la loro caratteristica di essere opachi e quindi poco interpretabili dall’uomo nelle loro decisioni. Per questo l’area di ricerca dell’Explainable Artficial Intelligence (XAI) si propone di sviluppare modelli di machine learning e deep learning comprensibili, che diano una spiegazione dell’output ottenuto a seguito di una procedura non lineare. Nell’ambito del rilevamento dei discorsi d’odio, una volta operato da moderatori umani manualmente, cominciano ad essere usate anche tecniche di deep learning che rilevano automaticamente la presenza di questi contenuti e che permettono una moderazione su larga scala dei contenuti ma una minore giustificazione di questa. Per questo il tema della spiegazione di questi modelli è emerso e ha l’obiettivo di rendere questi sistemi comprensibili in modo da evidenziare perché sia avvenuta una certa classificazione di un contenuto come discorso d’odio o meno, senza mettere a rischio la libertà di espressione, indicando quali proprietà dell’input hanno inciso in modo significativo sull’output finale.

Analisi degli approcci per la rilevazione dei discorsi d'odio attraverso l'Explainable AI

TURATO, MATILDE
2022/2023

Abstract

Una delle principali preoccupazioni riguardo l’uso di modelli di Intelligenza Artificiale, in particolare di deep learning, è la loro caratteristica di essere opachi e quindi poco interpretabili dall’uomo nelle loro decisioni. Per questo l’area di ricerca dell’Explainable Artficial Intelligence (XAI) si propone di sviluppare modelli di machine learning e deep learning comprensibili, che diano una spiegazione dell’output ottenuto a seguito di una procedura non lineare. Nell’ambito del rilevamento dei discorsi d’odio, una volta operato da moderatori umani manualmente, cominciano ad essere usate anche tecniche di deep learning che rilevano automaticamente la presenza di questi contenuti e che permettono una moderazione su larga scala dei contenuti ma una minore giustificazione di questa. Per questo il tema della spiegazione di questi modelli è emerso e ha l’obiettivo di rendere questi sistemi comprensibili in modo da evidenziare perché sia avvenuta una certa classificazione di un contenuto come discorso d’odio o meno, senza mettere a rischio la libertà di espressione, indicando quali proprietà dell’input hanno inciso in modo significativo sull’output finale.
2022
Analysis of approaches for hate speech detection through Explainable AI
discorsi d'odio
rilevazione
Explainable AI
trasparenza
File in questo prodotto:
File Dimensione Formato  
Turato_Matilde.pdf

accesso riservato

Dimensione 1.06 MB
Formato Adobe PDF
1.06 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/55688