Ensemble Learning (EL) is a machine learning technique that involves combining multiple individual models, called weak learners, in order to produce more accurate predictions. The idea behind EL is that by aggregating the predictions of multiple models, the final prediction can be more robust, accurate, and generalizable than that of any of the single weak learners alone. Boosting is a powerful EL method in which the ensemble of models is constructed iteratively, so that at each iteration the training of new learners focuses on the training examples for which the previously selected models perform poorly. Boosting algorithms have been successfully applied to various domains, including image and object recognition, text mining, finance and a number of other fields. They are particularly effective in scenarios where high accuracy and stability are crucial, making them a valuable tool in the field of machine learning. Qboost is a boosting algorithm first introduced by Neven et al. in 2008 that casts the problem of EL into a hard combinatorial optimization problem that takes the form of a QUBO (Quadratic Unconstrained Binary Optimization) problem or, equivalently, an Ising model optimization. This kind of optimization problem is NP-complete and therefore difficult to tackle with classical digital computing methods and algorithms like simulated annealing (SA). Hence, alternative computational methods like the ones developed within the framework of quantum computing are of high interest for this class of problems. In particular, adiabatic quantum annealing (AQA) has been recently used for multiple demonstrations in the fields of particle detection, aerial imaging and financial applications. Its implementation on neutral atom processors, a type of adiabatic quantum hardware, has yielded promising results in terms of practical usefulness and scalability. This thesis aims to develop, test and benchmark a Qboost-based algorithm in the context of multilabel classification problems. The study and the implementation take into account several quantum-hybrid, quantum-inspired and traditional optimization algorithms as well as different hardware solutions, including quantum computers with neutral atom processors. The project matured during an internship experience at Axyon AI, a FinTech company that serves quantitative asset managers through its proprietary machine learning software platform. Axyon AI exploits ensemble learning and boosting in its machine learning pipeline. The scope of this project is to build a proof of concept for the improvement of the performance of the ensemble building step in the pipeline with respect to the currently employed EL algorithm. The proposed techniques facilitate a broader exploration of the configuration space of the weak learners, aiming to maximise performance and capture untapped potential.

L'Ensemble Learning (EL) è una tecnica di machine learning che prevede la combinazione di più modelli, chiamati weak learners, al fine di produrre previsioni più accurate. L'idea alla base dell'EL si basa sul fatto che aggregando le previsioni di più modelli, la previsione finale può essere più robusta, accurata e generalizzabile rispetto a quella di ciascun weak learner considerato singolarmente. Il boosting è una tecnica di EL in cui l'insieme di modelli viene costruito in modo iterativo, in modo tale che ad ogni iterazione l'addestramento di nuovi learners si concentri sulle istanze di addestramento sulle quali quali i modelli precedentemente selezionati sbagliano più frequentemente. Gli algoritmi di boosting sono stati applicati con successo in vari ambiti, tra cui il riconoscimento di immagini e oggetti, text mining, finanza e altri campi. Sono particolarmente efficaci in scenari in cui l'alta precisione e la stabilità sono cruciali, rendendoli uno strumento prezioso nel campo del machine learning. Qboost è un algoritmo di boosting introdotto per la prima volta da Neven et al. nel 2008, che trasforma il problema dell'EL in un problema di ottimizzazione combinatoria difficile che assume la forma di un problema QUBO (Quadratic Unconstrained Binary Optimization) o, equivalentemente, un'ottimizzazione del modello di Ising. Questo tipo di problema di ottimizzazione è NP-completo e quindi difficile da affrontare con metodi classici di calcolo digitale e algoritmi come il Simulated Annealing (SA). Pertanto, metodi computazionali alternativi, come quelli sviluppati nel contesto della computazione quantistica, sono di grande interesse per questa classe di problemi. In particolare, l’Adiabatic Quantum Annealing (AQA) è stato recentemente utilizzato per diverse dimostrazioni dell’efficacia di questo tipo di computazione in diversi ambiti quali la rilevazione di particelle, l’analisi di immagini aeree e alcune applicazioni finanziarie. La sua implementazione su processori ad atomi neutri, un tipo di adiabatic quantum hardware, ha fornito risultati promettenti in termini di utilità pratica e scalabilità. Questa tesi mira a sviluppare, testare e valutare un algoritmo basato su Qboost nel contesto dei problemi di classificazione multi-label. Lo studio e l'implementazione prendono in considerazione diversi algoritmi di ottimizzazione quantum-hybrid, quantum-inspired e tradizionali, nonché diverse soluzioni hardware, inclusi computer quantistici con processori ad atomi neutri. Il progetto si è sviluppato durante un'esperienza di stage presso Axyon AI, un'azienda FinTech che supporta gli asset manager attraverso la sua piattaforma software di machine learning. Axyon AI sfrutta l'ensemble learning e il boosting nella sua pipeline di machine learning. Lo scopo di questo progetto è fornire una dimostrazione di fattibilità riguardo il miglioramento delle prestazioni della fase di costruzione dell'ensemble rispetto all'algoritmo di EL attualmente impiegato dall’azienda. Le tecniche proposte agevolano una più ampia esplorazione dello spazio di configurazione dei weak learners, mirando a massimizzare le prestazioni e a cogliere eventuale potenziale precedentemente inesplorato.

Study and implementation of quantum-inspired boosting algorithms for AI powered Financial Asset Management.

LAMBERTINI, ALESSANDRO
2022/2023

Abstract

Ensemble Learning (EL) is a machine learning technique that involves combining multiple individual models, called weak learners, in order to produce more accurate predictions. The idea behind EL is that by aggregating the predictions of multiple models, the final prediction can be more robust, accurate, and generalizable than that of any of the single weak learners alone. Boosting is a powerful EL method in which the ensemble of models is constructed iteratively, so that at each iteration the training of new learners focuses on the training examples for which the previously selected models perform poorly. Boosting algorithms have been successfully applied to various domains, including image and object recognition, text mining, finance and a number of other fields. They are particularly effective in scenarios where high accuracy and stability are crucial, making them a valuable tool in the field of machine learning. Qboost is a boosting algorithm first introduced by Neven et al. in 2008 that casts the problem of EL into a hard combinatorial optimization problem that takes the form of a QUBO (Quadratic Unconstrained Binary Optimization) problem or, equivalently, an Ising model optimization. This kind of optimization problem is NP-complete and therefore difficult to tackle with classical digital computing methods and algorithms like simulated annealing (SA). Hence, alternative computational methods like the ones developed within the framework of quantum computing are of high interest for this class of problems. In particular, adiabatic quantum annealing (AQA) has been recently used for multiple demonstrations in the fields of particle detection, aerial imaging and financial applications. Its implementation on neutral atom processors, a type of adiabatic quantum hardware, has yielded promising results in terms of practical usefulness and scalability. This thesis aims to develop, test and benchmark a Qboost-based algorithm in the context of multilabel classification problems. The study and the implementation take into account several quantum-hybrid, quantum-inspired and traditional optimization algorithms as well as different hardware solutions, including quantum computers with neutral atom processors. The project matured during an internship experience at Axyon AI, a FinTech company that serves quantitative asset managers through its proprietary machine learning software platform. Axyon AI exploits ensemble learning and boosting in its machine learning pipeline. The scope of this project is to build a proof of concept for the improvement of the performance of the ensemble building step in the pipeline with respect to the currently employed EL algorithm. The proposed techniques facilitate a broader exploration of the configuration space of the weak learners, aiming to maximise performance and capture untapped potential.
2022
Study and implementation of quantum-inspired boosting algorithms for AI powered Financial Asset Management.
L'Ensemble Learning (EL) è una tecnica di machine learning che prevede la combinazione di più modelli, chiamati weak learners, al fine di produrre previsioni più accurate. L'idea alla base dell'EL si basa sul fatto che aggregando le previsioni di più modelli, la previsione finale può essere più robusta, accurata e generalizzabile rispetto a quella di ciascun weak learner considerato singolarmente. Il boosting è una tecnica di EL in cui l'insieme di modelli viene costruito in modo iterativo, in modo tale che ad ogni iterazione l'addestramento di nuovi learners si concentri sulle istanze di addestramento sulle quali quali i modelli precedentemente selezionati sbagliano più frequentemente. Gli algoritmi di boosting sono stati applicati con successo in vari ambiti, tra cui il riconoscimento di immagini e oggetti, text mining, finanza e altri campi. Sono particolarmente efficaci in scenari in cui l'alta precisione e la stabilità sono cruciali, rendendoli uno strumento prezioso nel campo del machine learning. Qboost è un algoritmo di boosting introdotto per la prima volta da Neven et al. nel 2008, che trasforma il problema dell'EL in un problema di ottimizzazione combinatoria difficile che assume la forma di un problema QUBO (Quadratic Unconstrained Binary Optimization) o, equivalentemente, un'ottimizzazione del modello di Ising. Questo tipo di problema di ottimizzazione è NP-completo e quindi difficile da affrontare con metodi classici di calcolo digitale e algoritmi come il Simulated Annealing (SA). Pertanto, metodi computazionali alternativi, come quelli sviluppati nel contesto della computazione quantistica, sono di grande interesse per questa classe di problemi. In particolare, l’Adiabatic Quantum Annealing (AQA) è stato recentemente utilizzato per diverse dimostrazioni dell’efficacia di questo tipo di computazione in diversi ambiti quali la rilevazione di particelle, l’analisi di immagini aeree e alcune applicazioni finanziarie. La sua implementazione su processori ad atomi neutri, un tipo di adiabatic quantum hardware, ha fornito risultati promettenti in termini di utilità pratica e scalabilità. Questa tesi mira a sviluppare, testare e valutare un algoritmo basato su Qboost nel contesto dei problemi di classificazione multi-label. Lo studio e l'implementazione prendono in considerazione diversi algoritmi di ottimizzazione quantum-hybrid, quantum-inspired e tradizionali, nonché diverse soluzioni hardware, inclusi computer quantistici con processori ad atomi neutri. Il progetto si è sviluppato durante un'esperienza di stage presso Axyon AI, un'azienda FinTech che supporta gli asset manager attraverso la sua piattaforma software di machine learning. Axyon AI sfrutta l'ensemble learning e il boosting nella sua pipeline di machine learning. Lo scopo di questo progetto è fornire una dimostrazione di fattibilità riguardo il miglioramento delle prestazioni della fase di costruzione dell'ensemble rispetto all'algoritmo di EL attualmente impiegato dall’azienda. Le tecniche proposte agevolano una più ampia esplorazione dello spazio di configurazione dei weak learners, mirando a massimizzare le prestazioni e a cogliere eventuale potenziale precedentemente inesplorato.
DeepLearning
MachineLearning
QuantumComputing
QuantumDevices
File in questo prodotto:
File Dimensione Formato  
Lambertini_alessandro.pdf

accesso aperto

Dimensione 2.3 MB
Formato Adobe PDF
2.3 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/54842