Questa tesi esplora la vulnerabilità dei modelli di intelligenza artificiale, in particolare dei Diffusion Models (DM), rispetto ad uno specifico attacco noto come Membership Inference Attack (MIA). Tali attacchi mirano a determinare se un determinato dato sia stato incluso nel set di addestramento del modello, rivelando potenziali rischi per la privacy. La tesi esplora il funzionamento di questi modelli, ed esamina la letteratura esistente sugli attacchi di inferenza di appartenenza (MIAs) e relative strategie difensive. Tramite il calcolo dell’Errore Quadratico Medio (MSE) tra le immagini pulite dal modello e quelle originali, si riesce, sotto particolari condizioni, a distinguere tra le immagini utilizzate durante l’addestramento e quelle di testing. Viene quindi valutata la performance di un MIA sul dataset di immagini MNIST, che rivela variazioni significative nell’efficacia dell’attacco tra le diverse cifre. Dai risultati emerge che il MIA è più efficace quando il modello è addestrato su un numero limitato di campioni e per un elevato numero di epoche, suggerendo che il modello tende a memorizzare i dati di addestramento piuttosto che generalizzare. Al contrario, con dataset più ampi e meno epoche di addestramento, il modello risulta più resistente agli attacchi di inferenza.

Inferenza del dataset da modelli di diffusione generativi

BERNO, SARA
2023/2024

Abstract

Questa tesi esplora la vulnerabilità dei modelli di intelligenza artificiale, in particolare dei Diffusion Models (DM), rispetto ad uno specifico attacco noto come Membership Inference Attack (MIA). Tali attacchi mirano a determinare se un determinato dato sia stato incluso nel set di addestramento del modello, rivelando potenziali rischi per la privacy. La tesi esplora il funzionamento di questi modelli, ed esamina la letteratura esistente sugli attacchi di inferenza di appartenenza (MIAs) e relative strategie difensive. Tramite il calcolo dell’Errore Quadratico Medio (MSE) tra le immagini pulite dal modello e quelle originali, si riesce, sotto particolari condizioni, a distinguere tra le immagini utilizzate durante l’addestramento e quelle di testing. Viene quindi valutata la performance di un MIA sul dataset di immagini MNIST, che rivela variazioni significative nell’efficacia dell’attacco tra le diverse cifre. Dai risultati emerge che il MIA è più efficace quando il modello è addestrato su un numero limitato di campioni e per un elevato numero di epoche, suggerendo che il modello tende a memorizzare i dati di addestramento piuttosto che generalizzare. Al contrario, con dataset più ampi e meno epoche di addestramento, il modello risulta più resistente agli attacchi di inferenza.
2023
Dataset inference on generative diffusion models
data inference
generative AI
diffusion model
deep learning
privacy
File in questo prodotto:
File Dimensione Formato  
Berno_Sara.pdf

accesso aperto

Dimensione 5.26 MB
Formato Adobe PDF
5.26 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/71282