Il reinforcement learning (RL) è un approccio dell’intelligenza artificiale che permette agli agenti di apprendere comportamenti ottimali attraverso interazioni con l’ambiente, senza supervisione esplicita. Questa tesi introduce i concetti chiave del RL con un focus sui processi di decisione sequenziale rappresentati dai modelli di Markov. Vengono analizzati i principali algoritmi di RL evidenziandone vantaggi e limiti. Un’applicazione pratica dell’RL è stata implementata nel contesto del 'Mondo del Wumpus', un ambiente virtuale che richiede capacità decisionali in condizioni di incertezza. L’agente, attraverso tecniche di apprendimento per rinforzo, ha sviluppato strategie efficaci per esplorare l’ambiente e massimizzare le ricompense. Infine, la tesi discute le potenziali applicazioni future del RL, mettendo in evidenza le sfide attuali che si stanno affrontando in questo campo.
Introduzione al Reinforcement Learning
DUSI, LUCA
2024/2025
Abstract
Il reinforcement learning (RL) è un approccio dell’intelligenza artificiale che permette agli agenti di apprendere comportamenti ottimali attraverso interazioni con l’ambiente, senza supervisione esplicita. Questa tesi introduce i concetti chiave del RL con un focus sui processi di decisione sequenziale rappresentati dai modelli di Markov. Vengono analizzati i principali algoritmi di RL evidenziandone vantaggi e limiti. Un’applicazione pratica dell’RL è stata implementata nel contesto del 'Mondo del Wumpus', un ambiente virtuale che richiede capacità decisionali in condizioni di incertezza. L’agente, attraverso tecniche di apprendimento per rinforzo, ha sviluppato strategie efficaci per esplorare l’ambiente e massimizzare le ricompense. Infine, la tesi discute le potenziali applicazioni future del RL, mettendo in evidenza le sfide attuali che si stanno affrontando in questo campo.File | Dimensione | Formato | |
---|---|---|---|
Dusi_Luca.pdf
accesso aperto
Dimensione
648.62 kB
Formato
Adobe PDF
|
648.62 kB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/82522