Electrocardiogram (ECG) is one of the most common noninvasive diagnostic tools used in clinical medicine. It is mostly used by cardiologists to assess heart function and electrophysiology in order to assist cardiovascular disease detection and development of treatment strategies. In recent years, the rapid evolution of machine learning models has opened the possibility to automate a variety of tasks not feasible by traditional algorithms, such as the detection and classification of arrhythmia, biometric recognition, and even the diagnosis of other diseases. Supervised machine learning models, especially deep neural networks, require a large amount of quality annotated data. The acquisition of ECG data, however, results difficult for several reasons, including privacy and other legal constraints. A widely employed technique to overcome this kind of problem is data augmentation, which consists in increasing the volume, quality and diversity of a training dataset by generating additional data samples. It is especially useful in cases where data collection consumes a considerable amount of time and resources. One viable approach to data augmentation consists in estimating the underlying distribution of the data to be augmented. This enables the creation of new synthetic data, that exhibit a high degree of correlation with the existing ones, through a suitable sampling process. Recently, this approach reached state-of-art performances thanks to the embedding of neural networks into the probability estimators. The aim of this thesis focuses on exploiting the potential of the VAE latent space by using its most visually interpretable representation, the two dimensional one. It is going to be shown how the model can be effectively used for two main purposes: the first one is generating new ECG data samples from the ones measured from a 'real' person, by also allowing an adjustable degree of variability. The second one is generating ECG data samples associated to a 'synthetic' person, which combines feature of the ECGs belonging to two or more 'real' people. The whole process can be directed by human intervention with a high degree of control and assisted by proper metrics that are used to evaluate the quality of the generated data. The proposed method allows the generation of single-beat ECGs having a fixed length. The temporal correlation among consecutive ECG beats and, in general, ECG trace variability, will be considered in a future work. The first two chapters will be used to introduce the main topics of the thesis, such as the concepts of artificial intelligence, data augmentation, ECG signals, and explainable AI. The third one presents the theoretical background of the implemented variational autoencoder model and its training process. The fourth one contains the specific of the chosen model architecture, while the fifth and sixth ones the application of the model for respectively a test sinusoid dataset and the assign ECG dataset. Finally, the last chapter is a sum up of the thesis work and results, along with some further work proposals.
L’elettrocardiogramma (ECG) è uno degli strumenti diagnostici non invasivi più comunemente utilizzati in medicina clinica. Viene utilizzato principalmente dai cardiologi per valutare la funzione cardiaca e la sua elettrofisiologia al fine di assistere nel rilevamento di malattie cardiovascolari e nello sviluppo di strategie di trattamento. Negli ultimi anni, la rapida evoluzione dei modelli di apprendimento automatico ha aperto la possibilità di automatizzare una serie di compiti non realizzabili dagli algoritmi tradizionali, come il rilevamento e la classificazione dell’aritmia, il riconoscimento biometrico e persino la diagnosi di altre malattie. I modelli di machine learning supervisionati, in particolare le reti neurali profonde, richiedono una grande quantità di dati annotati di qualità. L'acquisizione dei dati ECG, tuttavia, risulta difficile per diversi motivi, tra cui la privacy e altri vincoli legali. Una tecnica ampiamente utilizzata per alleviare questo tipo di problema è la "data augmentation", che consiste nell’aumentare il volume, la qualità e la diversità di un set di dati di addestramento generando ulteriori campioni di dati. È particolarmente utile nei casi in cui la raccolta di quest'ultimi consumi una notevole quantità di tempo e risorse. Un possibile approccio di "data augmentation" consiste nella stima della distribuzione di probabilità associata ai dati da aumentare di numero. Ciò consente la creazione di nuovi dati sintetici, che presentano un elevato grado di correlazione con quelli esistenti, attraverso un adeguato processo di campionamento. Recentemente questo approccio ha raggiunto prestazioni allo stato dell'arte grazie all'inclusione di reti neurali negli stimatori di probabilità. Lo scopo di questa tesi si concentra sul massimo impiego del potenziale offerto dallo spazio latente del VAE, facendo uso della sua rappresentazione più visivamente interpretabile, quella bidimensionale. Verrà mostrato come il modello possa essere efficacemente utilizzato per due scopi principali: il primo è generare nuovi campioni di dati ECG basandosi su quelli misurati da una persona 'reale', consentendo anche di regolarne la variabilità. Il secondo consiste nel generare campioni di dati ECG di una persona 'sintetica', che combina le caratteristiche degli ECG appartenenti a due o più persone 'reali'. L'intero processo può essere diretto dall'intervento umano con un elevato grado di controllo e assistito da opportune metriche utilizzate per valutare la qualità dei dati generati. Il metodo proposto consente la generazione di ECG a singolo battito aventi lunghezza prefissata. La correlazione temporale tra battiti consecutivi di un ECG e, in generale, la variabilità del tracciato ECG stesso, verranno presi in considerazione in un lavoro futuro. I primi due capitoli sono utilizzati per introdurre i temi principali di questo lavoro di tesi, come ad esempio l'intelligenza artificiale, l'incremento artificiale dei dati, i segnali ECG e l'AI spiegabile. Il terzo, invece, presenta il background teorico relativo al modello di autoencoder variazionale implementato e la sua procedura di allenamento. Il quarto contiene le specifiche dell'architettura del modello, mentre il quinto e sesto l'applicazione di quest'ultimo per quanto riguarda il dataset di sinusoidi di prova e il dataset di elettrocardiogrammi assegnato. Infine, l'ultimo capitolo riassume il lavoro di tesi trattato e futuri potenziali miglioramenti e applicazioni del modello sviluppato.
Un approccio spiegabile alla generazione di singoli battiti ECG tramite uso di VAE
MICHELOTTI, LORENZO
2023/2024
Abstract
Electrocardiogram (ECG) is one of the most common noninvasive diagnostic tools used in clinical medicine. It is mostly used by cardiologists to assess heart function and electrophysiology in order to assist cardiovascular disease detection and development of treatment strategies. In recent years, the rapid evolution of machine learning models has opened the possibility to automate a variety of tasks not feasible by traditional algorithms, such as the detection and classification of arrhythmia, biometric recognition, and even the diagnosis of other diseases. Supervised machine learning models, especially deep neural networks, require a large amount of quality annotated data. The acquisition of ECG data, however, results difficult for several reasons, including privacy and other legal constraints. A widely employed technique to overcome this kind of problem is data augmentation, which consists in increasing the volume, quality and diversity of a training dataset by generating additional data samples. It is especially useful in cases where data collection consumes a considerable amount of time and resources. One viable approach to data augmentation consists in estimating the underlying distribution of the data to be augmented. This enables the creation of new synthetic data, that exhibit a high degree of correlation with the existing ones, through a suitable sampling process. Recently, this approach reached state-of-art performances thanks to the embedding of neural networks into the probability estimators. The aim of this thesis focuses on exploiting the potential of the VAE latent space by using its most visually interpretable representation, the two dimensional one. It is going to be shown how the model can be effectively used for two main purposes: the first one is generating new ECG data samples from the ones measured from a 'real' person, by also allowing an adjustable degree of variability. The second one is generating ECG data samples associated to a 'synthetic' person, which combines feature of the ECGs belonging to two or more 'real' people. The whole process can be directed by human intervention with a high degree of control and assisted by proper metrics that are used to evaluate the quality of the generated data. The proposed method allows the generation of single-beat ECGs having a fixed length. The temporal correlation among consecutive ECG beats and, in general, ECG trace variability, will be considered in a future work. The first two chapters will be used to introduce the main topics of the thesis, such as the concepts of artificial intelligence, data augmentation, ECG signals, and explainable AI. The third one presents the theoretical background of the implemented variational autoencoder model and its training process. The fourth one contains the specific of the chosen model architecture, while the fifth and sixth ones the application of the model for respectively a test sinusoid dataset and the assign ECG dataset. Finally, the last chapter is a sum up of the thesis work and results, along with some further work proposals.File | Dimensione | Formato | |
---|---|---|---|
Michelotti_Lorenzo.pdf
accesso aperto
Dimensione
31.9 MB
Formato
Adobe PDF
|
31.9 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/66632