L’obbiettivo di questa tesi è di indagare le componenti hardware fondamentali che supportano il funzionamento dell’intelligenza artificiale, e successivamente valutarne il consumo energetico e l’impatto ambientale. Nell’introduzione vengono presentate brevemente le reti neurali artificiali, che costituiscono una delle principali architetture dei modelli di intelligenza artificiale. Esse sono caratterizzate da numerosi parametri che necessitano di essere calibrati attraverso un processo di addestramento, il quale richiede l’elaborazione di dataset di grandi dimensioni. Nel primo capitolo viene descritta la tecnologia più adatta a svolgere questo compito: il processore grafico (GPU, Graphic Processing Unit). Sono esposte le motivazioni per cui esso risulta preferibile rispetto al processore centrale per il calcolo parallelo massivo, la sua nascita, la distinzione tra GPU integrata e dedicata e la costituzione di una scheda grafica. Infine, viene illustrata l’architettura di un processore grafico, evidenziando il passaggio negli anni da struttura fissa- fedele alla logica della pipeline grafica- a programmabile, esponendo le diverse componenti attraverso l’analisi del processore grafico G80 di Nvidia con architettura Tesla (2006), successivamente confrontato con due modelli più recenti, la GA102 Ampere (2020) e la GB102 Blackwell (2024). Da ciò è emerso come la loro natura modulare e scalabile consenta di incrementare le prestazioni attraverso la replicazione dei blocchi costitutivi; in particolare, si può raggiungere una maggiore potenza computazionale tramite l’aumento del numero di transistor. Il secondo capitolo tratta i transistor, ripercorrendone lo sviluppo in termini di struttura e miniaturizzazione (per questo detti “ultra-scalati”) al fine di realizzare circuiti integrati sempre più densi, potenti ed efficienti, mantenendo il passo stabilito dalla Legge di Moore. Nel dettaglio, si è osservato come il progresso dei MOSFET planari, legato alla riduzione della tecnologia di nodo, si sia scontrato con gli effetti indesiderati del canale corto, i quali hanno reso necessaria l’introduzione di architetture innovative come FinFET e GAAFET, di cui vengono presentati origine, struttura, tipologie, vantaggi e difficoltà di implementazione. Dall’integrazione dei transistor e dall’unione delle GPU si formano i data center, ossia quelle infrastrutture che sostengono l’intelligenza artificiale. Nel terzo capitolo si analizzano, per quanto possibile, il consumo energetico e l’impatto ambientale dei data center, in riferimento alle fasi di addestramento e inferenza dei modelli di IA. Si discutono inoltre le prospettive future: la crescita di numero e dimensioni dei data center solleva preoccupazioni sui consumi e le emissioni a livello globale, ma al tempo stesso l’applicazione dell’intelligenza artificiale a settori quali l’industriale e l’energetico può favorire l’ottimizzazione dei processi e l’individuazione rapida di nuove soluzioni, contribuendo così a ridurre energia, emissioni e costi.
Tecnologie hardware e impatto energetico dell'intelligenza artificiale
PIERANTONI, FRANCESCA
2024/2025
Abstract
L’obbiettivo di questa tesi è di indagare le componenti hardware fondamentali che supportano il funzionamento dell’intelligenza artificiale, e successivamente valutarne il consumo energetico e l’impatto ambientale. Nell’introduzione vengono presentate brevemente le reti neurali artificiali, che costituiscono una delle principali architetture dei modelli di intelligenza artificiale. Esse sono caratterizzate da numerosi parametri che necessitano di essere calibrati attraverso un processo di addestramento, il quale richiede l’elaborazione di dataset di grandi dimensioni. Nel primo capitolo viene descritta la tecnologia più adatta a svolgere questo compito: il processore grafico (GPU, Graphic Processing Unit). Sono esposte le motivazioni per cui esso risulta preferibile rispetto al processore centrale per il calcolo parallelo massivo, la sua nascita, la distinzione tra GPU integrata e dedicata e la costituzione di una scheda grafica. Infine, viene illustrata l’architettura di un processore grafico, evidenziando il passaggio negli anni da struttura fissa- fedele alla logica della pipeline grafica- a programmabile, esponendo le diverse componenti attraverso l’analisi del processore grafico G80 di Nvidia con architettura Tesla (2006), successivamente confrontato con due modelli più recenti, la GA102 Ampere (2020) e la GB102 Blackwell (2024). Da ciò è emerso come la loro natura modulare e scalabile consenta di incrementare le prestazioni attraverso la replicazione dei blocchi costitutivi; in particolare, si può raggiungere una maggiore potenza computazionale tramite l’aumento del numero di transistor. Il secondo capitolo tratta i transistor, ripercorrendone lo sviluppo in termini di struttura e miniaturizzazione (per questo detti “ultra-scalati”) al fine di realizzare circuiti integrati sempre più densi, potenti ed efficienti, mantenendo il passo stabilito dalla Legge di Moore. Nel dettaglio, si è osservato come il progresso dei MOSFET planari, legato alla riduzione della tecnologia di nodo, si sia scontrato con gli effetti indesiderati del canale corto, i quali hanno reso necessaria l’introduzione di architetture innovative come FinFET e GAAFET, di cui vengono presentati origine, struttura, tipologie, vantaggi e difficoltà di implementazione. Dall’integrazione dei transistor e dall’unione delle GPU si formano i data center, ossia quelle infrastrutture che sostengono l’intelligenza artificiale. Nel terzo capitolo si analizzano, per quanto possibile, il consumo energetico e l’impatto ambientale dei data center, in riferimento alle fasi di addestramento e inferenza dei modelli di IA. Si discutono inoltre le prospettive future: la crescita di numero e dimensioni dei data center solleva preoccupazioni sui consumi e le emissioni a livello globale, ma al tempo stesso l’applicazione dell’intelligenza artificiale a settori quali l’industriale e l’energetico può favorire l’ottimizzazione dei processi e l’individuazione rapida di nuove soluzioni, contribuendo così a ridurre energia, emissioni e costi.| File | Dimensione | Formato | |
|---|---|---|---|
|
Pierantoni_Francesca.pdf
accesso aperto
Dimensione
3.31 MB
Formato
Adobe PDF
|
3.31 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/92512