L’impiego crescente di sistemi di intelligenza artificiale in contesti ad alto impatto sociale sta incidendo in modo significativo sulle modalità di esercizio del potere, sia pubblico sia privato, sollevando interrogativi centrali rispetto alla compatibilità di tali tecnologie con i principi del Rule of Law e con la tutela dei diritti fondamentali. L’intelligenza artificiale non si configura infatti come un semplice strumento tecnico, ma come una nuova forma di autorità algoritmica, capace di influenzare l’uguaglianza, la trasparenza, la prevedibilità e la responsabilità di tali decisioni.La tesi analizza le principali tensioni che emergono dall’uso di sistemi algoritmici nei processi decisionali, concentrandosi su tre profili critici: l’opacità algoritmica e il suo impatto sul principio di legalità e sul diritto alla decisione motivata; la natura potenzialmente discriminatoria dell’intelligenza artificiale, legata alla presenza di bias nei dati e nei modelli di apprendimento automatico; il ruolo dei Big Data nella vita quotidiana degli utenti, come infrastruttura essenziale per l’addestramento, la capacità predittiva dei sistemi intelligenti.Attraverso un’analisi teorico-critica, la ricerca mette in luce come le scelte relative alla progettazione dei sistemi, alla gestione dei dati e alle modalità di automazione decisionale incidano direttamente sulla protezione dei diritti fondamentali e sulla tenuta del paradigma del Rule of Law. In conclusione, la tesi propone alcune riflessioni su possibili approcci di governance tecnologica e di progettazione responsabile dell’AI, evidenziando il ruolo della trasparenza, dell’accountability e della supervisione umana quali condizioni essenziali per un utilizzo dell’intelligenza artificiale compatibile con i diritti umani.
Intelligenza artificiale e implicazioni per il rule of law
PIETROGRANDE, SOPHIA
2025/2026
Abstract
L’impiego crescente di sistemi di intelligenza artificiale in contesti ad alto impatto sociale sta incidendo in modo significativo sulle modalità di esercizio del potere, sia pubblico sia privato, sollevando interrogativi centrali rispetto alla compatibilità di tali tecnologie con i principi del Rule of Law e con la tutela dei diritti fondamentali. L’intelligenza artificiale non si configura infatti come un semplice strumento tecnico, ma come una nuova forma di autorità algoritmica, capace di influenzare l’uguaglianza, la trasparenza, la prevedibilità e la responsabilità di tali decisioni.La tesi analizza le principali tensioni che emergono dall’uso di sistemi algoritmici nei processi decisionali, concentrandosi su tre profili critici: l’opacità algoritmica e il suo impatto sul principio di legalità e sul diritto alla decisione motivata; la natura potenzialmente discriminatoria dell’intelligenza artificiale, legata alla presenza di bias nei dati e nei modelli di apprendimento automatico; il ruolo dei Big Data nella vita quotidiana degli utenti, come infrastruttura essenziale per l’addestramento, la capacità predittiva dei sistemi intelligenti.Attraverso un’analisi teorico-critica, la ricerca mette in luce come le scelte relative alla progettazione dei sistemi, alla gestione dei dati e alle modalità di automazione decisionale incidano direttamente sulla protezione dei diritti fondamentali e sulla tenuta del paradigma del Rule of Law. In conclusione, la tesi propone alcune riflessioni su possibili approcci di governance tecnologica e di progettazione responsabile dell’AI, evidenziando il ruolo della trasparenza, dell’accountability e della supervisione umana quali condizioni essenziali per un utilizzo dell’intelligenza artificiale compatibile con i diritti umani.| File | Dimensione | Formato | |
|---|---|---|---|
|
Pietrogrande_Sophia.pdf
accesso aperto
Dimensione
2.04 MB
Formato
Adobe PDF
|
2.04 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/104411