Negli ultimi anni, l'Intelligenza Artificiale ha acquisito sempre più notorietà e le sue applicazioni in ambiti quotidiani ricoprono sempre più maggiore importanza; esempi significativi sono certamente gli utilizzi di tool di intelligenza artificiale per ricreare immagini o testi, come ad esempio Dall-E e ChatGPT, i quali vengono addestrati utilizzando informazioni provenienti da molte fonti, come siti web, libri, articoli, forum, e molti altri, anche se la vera fonte di ispirazione siamo noi e i nostri dati sensibili: a titolo d'esempio infatti, recentemente, in Italia è stato bloccato temporaneamente il servizio di ChatGPT per l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Infatti, di pari passo, la tecnologizzazione globale che viviamo quotidianamente può portare con sé numerosi problemi di sicurezza: basti considerare gli innumerevoli dati personali che abbiamo salvati nei nostri device, come password di account bancari o altre informazioni sensibili. Più semplicemente, ogni qualvolta digitiamo una nostra preferenza ad un sondaggio o accettiamo i "cookie" dei siti che visitiamo regolarmente, stiamo offrendo, a fini di marketing, le nostre abitudini a grandi aziende che devono avere il compito di mantenere segreti i dati che trasmettiamo: in una parola devono garantire la privacy. In questa tesi mostreremo una tecnica utilizzata per far sì che l'addestramento di una macchina di Intelligenza Artificiale non necessiti in maniera assoluta di uno scambio diretto di dati tra gli utenti e la macchina (Federated Learning). A questa tecnica assoceremo un ulteriore algoritmo per creare ancora più sicurezza nello scambio di dati, che deriva dalla definizione di ε-differential privacy. Valuteremo infine queste due tecniche appaiate per stabilire la reale accuratezza dell'analisi effettuata, in termini di efficienza del modello e di privacy ottenuta.

Valutazione di metodi di ε-differential privacy in federated learning

BRISOLIN, DAVIDE
2022/2023

Abstract

Negli ultimi anni, l'Intelligenza Artificiale ha acquisito sempre più notorietà e le sue applicazioni in ambiti quotidiani ricoprono sempre più maggiore importanza; esempi significativi sono certamente gli utilizzi di tool di intelligenza artificiale per ricreare immagini o testi, come ad esempio Dall-E e ChatGPT, i quali vengono addestrati utilizzando informazioni provenienti da molte fonti, come siti web, libri, articoli, forum, e molti altri, anche se la vera fonte di ispirazione siamo noi e i nostri dati sensibili: a titolo d'esempio infatti, recentemente, in Italia è stato bloccato temporaneamente il servizio di ChatGPT per l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma. Infatti, di pari passo, la tecnologizzazione globale che viviamo quotidianamente può portare con sé numerosi problemi di sicurezza: basti considerare gli innumerevoli dati personali che abbiamo salvati nei nostri device, come password di account bancari o altre informazioni sensibili. Più semplicemente, ogni qualvolta digitiamo una nostra preferenza ad un sondaggio o accettiamo i "cookie" dei siti che visitiamo regolarmente, stiamo offrendo, a fini di marketing, le nostre abitudini a grandi aziende che devono avere il compito di mantenere segreti i dati che trasmettiamo: in una parola devono garantire la privacy. In questa tesi mostreremo una tecnica utilizzata per far sì che l'addestramento di una macchina di Intelligenza Artificiale non necessiti in maniera assoluta di uno scambio diretto di dati tra gli utenti e la macchina (Federated Learning). A questa tecnica assoceremo un ulteriore algoritmo per creare ancora più sicurezza nello scambio di dati, che deriva dalla definizione di ε-differential privacy. Valuteremo infine queste due tecniche appaiate per stabilire la reale accuratezza dell'analisi effettuata, in termini di efficienza del modello e di privacy ottenuta.
2022
Evaluation of ε-differential privacy methods in federated learning
machine learning
differential privacy
federated learning
File in questo prodotto:
File Dimensione Formato  
Brisolin_Davide.pdf

accesso aperto

Dimensione 1.53 MB
Formato Adobe PDF
1.53 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/57073