Una delle principali preoccupazioni riguardo l’uso di modelli di Intelligenza Artificiale, in particolare di deep learning, è la loro caratteristica di essere opachi e quindi poco interpretabili dall’uomo nelle loro decisioni. Per questo l’area di ricerca dell’Explainable Artficial Intelligence (XAI) si propone di sviluppare modelli di machine learning e deep learning comprensibili, che diano una spiegazione dell’output ottenuto a seguito di una procedura non lineare. Nell’ambito del rilevamento dei discorsi d’odio, una volta operato da moderatori umani manualmente, cominciano ad essere usate anche tecniche di deep learning che rilevano automaticamente la presenza di questi contenuti e che permettono una moderazione su larga scala dei contenuti ma una minore giustificazione di questa. Per questo il tema della spiegazione di questi modelli è emerso e ha l’obiettivo di rendere questi sistemi comprensibili in modo da evidenziare perché sia avvenuta una certa classificazione di un contenuto come discorso d’odio o meno, senza mettere a rischio la libertà di espressione, indicando quali proprietà dell’input hanno inciso in modo significativo sull’output finale.
Analisi degli approcci per la rilevazione dei discorsi d'odio attraverso l'Explainable AI
TURATO, MATILDE
2022/2023
Abstract
Una delle principali preoccupazioni riguardo l’uso di modelli di Intelligenza Artificiale, in particolare di deep learning, è la loro caratteristica di essere opachi e quindi poco interpretabili dall’uomo nelle loro decisioni. Per questo l’area di ricerca dell’Explainable Artficial Intelligence (XAI) si propone di sviluppare modelli di machine learning e deep learning comprensibili, che diano una spiegazione dell’output ottenuto a seguito di una procedura non lineare. Nell’ambito del rilevamento dei discorsi d’odio, una volta operato da moderatori umani manualmente, cominciano ad essere usate anche tecniche di deep learning che rilevano automaticamente la presenza di questi contenuti e che permettono una moderazione su larga scala dei contenuti ma una minore giustificazione di questa. Per questo il tema della spiegazione di questi modelli è emerso e ha l’obiettivo di rendere questi sistemi comprensibili in modo da evidenziare perché sia avvenuta una certa classificazione di un contenuto come discorso d’odio o meno, senza mettere a rischio la libertà di espressione, indicando quali proprietà dell’input hanno inciso in modo significativo sull’output finale.File | Dimensione | Formato | |
---|---|---|---|
Turato_Matilde.pdf
accesso riservato
Dimensione
1.06 MB
Formato
Adobe PDF
|
1.06 MB | Adobe PDF |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/55688