Nowadays, the management and analysis of large volumes of real-time data are becoming crucial for the entire community. In this context, technologies like Apache Kafka and Apache Druid emerge as potential solutions aimed at creating a data pipeline capable of meeting scalability, high efficiency, and fault tolerance requirements. In the development of this solution, a containerized approach will be adopted with the goal of achieving high portability and simplifying the configuration of the application's execution environment.

Oggigiorno la gestione e l'analisi di grandi moli di dati in tempo reale sta diventando fondamentale per l'intera collettività. In tale ambito tecnologie come Apache Kafka e Apache Druid emergono come possibile soluzione finalizzata alla creazione di una pipeline dati in grado di soddisfare esigenze di scalabilità, alta efficienza e fault tollerance. Nell'elaborazione di tale soluzione verrà adottato un approccio containerizzato con lo scopo di raggiungere alta portabilità e semplificare la configurazione dell'ambiente di esecuzione dell'applicazione.

Creazione di una Data Pipeline per il trattamento dei dati con Apache Kafka e Apache Druid

BRUGIN, MARCO
2022/2023

Abstract

Nowadays, the management and analysis of large volumes of real-time data are becoming crucial for the entire community. In this context, technologies like Apache Kafka and Apache Druid emerge as potential solutions aimed at creating a data pipeline capable of meeting scalability, high efficiency, and fault tolerance requirements. In the development of this solution, a containerized approach will be adopted with the goal of achieving high portability and simplifying the configuration of the application's execution environment.
2022
Creating a Data Pipeline for data processing with Apache Kafka and Apache Druid.
Oggigiorno la gestione e l'analisi di grandi moli di dati in tempo reale sta diventando fondamentale per l'intera collettività. In tale ambito tecnologie come Apache Kafka e Apache Druid emergono come possibile soluzione finalizzata alla creazione di una pipeline dati in grado di soddisfare esigenze di scalabilità, alta efficienza e fault tollerance. Nell'elaborazione di tale soluzione verrà adottato un approccio containerizzato con lo scopo di raggiungere alta portabilità e semplificare la configurazione dell'ambiente di esecuzione dell'applicazione.
distribuito
evento
container
high availability
OLAP
File in questo prodotto:
File Dimensione Formato  
Brugin_Marco.pdf

accesso aperto

Dimensione 2.46 MB
Formato Adobe PDF
2.46 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/52291