In questa tesi viene trattato il tema della compressione dati di tipo lossy, effettuata attraverso l'algoritmo di Linde, Buzo, Gray (LBG) e l'autoencoder. Abbiamo introdotto i due metodi analizzandone funzionamento e prestazioni sotto gli aspetti di complessità computazionale e occupazione di memoria. Infine, li abbiamo confrontati in termini di qualità di compressione e regioni di decisione, valutando anche gli aspetti sopra citati. A parità di bit usati per la compressione, il risultato è che l'autoencoder effettua una ricostruzione migliore rispetto all'algoritmo LBG, pagando però il prezzo di una maggiore complessità computazionale in fase di training e una maggiore occupazione di memoria.

Confronto tra la compressione con quantizzazione e machine learning

SEGALA, ANDREA
2021/2022

Abstract

In questa tesi viene trattato il tema della compressione dati di tipo lossy, effettuata attraverso l'algoritmo di Linde, Buzo, Gray (LBG) e l'autoencoder. Abbiamo introdotto i due metodi analizzandone funzionamento e prestazioni sotto gli aspetti di complessità computazionale e occupazione di memoria. Infine, li abbiamo confrontati in termini di qualità di compressione e regioni di decisione, valutando anche gli aspetti sopra citati. A parità di bit usati per la compressione, il risultato è che l'autoencoder effettua una ricostruzione migliore rispetto all'algoritmo LBG, pagando però il prezzo di una maggiore complessità computazionale in fase di training e una maggiore occupazione di memoria.
2021
Comparison between compression with quantization and machine learning
compressione
quantizzazione
machine learning
File in questo prodotto:
File Dimensione Formato  
Segala_Andrea.pdf

accesso aperto

Dimensione 8.77 MB
Formato Adobe PDF
8.77 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/10903