La soggettività giuridica rappresenta uno dei pilastri fondamentali dell’ordinamento, poiché consente di individuare i titolari di diritti e di doveri e, di conseguenza, di definire i confini della responsabilità. Nel corso della storia, questa nozione ha subito una profonda evoluzione per adattarsi ai mutamenti sociali, economici e tecnologici delle diverse epoche. Negli ultimi decenni, l’avvento dell’intelligenza artificiale ha introdotto un nuovo dibattito relativo alla possibilità di attribuire una forma di soggettività giuridica anche alle macchine intelligenti. La crescente autonomia decisionale dei sistemi di i.a., unita alla loro capacità di apprendere, interagire e incidere concretamente sulla realtà, li rende sempre più presenti nei casi giuridici contemporanei. A tal proposito ci si interroga, in particolare, se tali entità possano continuare ad essere considerate meri oggetti giuridici oppure se la loro evoluzione imponga un ripensamento delle categorie tradizionali . Per affrontare questo interrogativo è necessario iniziare definendo il concetto di soggettività giuridica, chiarendo la differenza tra capacità giuridica e capacità di agire e discutendo l’inclusione di soggetti fittizi. Si ripercorre poi l’evoluzione storica di questa nozione, osservando come si sia adattata ai cambiamenti sociali e culturali. Il secondo capitolo della tesi introduce l’intelligenza artificiale, spiegandone le tipologie e i diversi livelli di autonomia. Attraverso casi concreti, come incidenti e decisioni automatizzate, si valutano i limiti e le obiezioni di un’eventuale responsabilità della macchina, con particolare attenzione al dibattito sulla “personalità elettronica”. La parte finale approfondisce rischi e prospettive normative. Dopo l’analisi del quadro europeo, con riferimento all’AI Act, si prende in considerazione il confronto con altri ordinamenti, discutendo i rischi di un’inflazione soggettiva e i principali dilemmi etici. Vengono valutate soluzioni alternative, come forme di soggettività parziale, responsabilità indiretta e supervisione umana, per poi concludere l'elaborato con uno sguardo agli scenari futuri, esaminando gli ambiti nei quali questa apertura concettuale potrebbe incidere. L’obiettivo complessivo è quello di valutare se l’attuale struttura del diritto sia in grado di rispondere alle sfide proposte dall’intelligenza artificiale autonoma o se, al contrario, emerga l’esigenza di una revisione concettuale delle categorie giuridiche tradizionali.
La soggettività giuridica dell'intelligenza artificiale: prospettive e limiti
PIVETTA, ANGELICA
2024/2025
Abstract
La soggettività giuridica rappresenta uno dei pilastri fondamentali dell’ordinamento, poiché consente di individuare i titolari di diritti e di doveri e, di conseguenza, di definire i confini della responsabilità. Nel corso della storia, questa nozione ha subito una profonda evoluzione per adattarsi ai mutamenti sociali, economici e tecnologici delle diverse epoche. Negli ultimi decenni, l’avvento dell’intelligenza artificiale ha introdotto un nuovo dibattito relativo alla possibilità di attribuire una forma di soggettività giuridica anche alle macchine intelligenti. La crescente autonomia decisionale dei sistemi di i.a., unita alla loro capacità di apprendere, interagire e incidere concretamente sulla realtà, li rende sempre più presenti nei casi giuridici contemporanei. A tal proposito ci si interroga, in particolare, se tali entità possano continuare ad essere considerate meri oggetti giuridici oppure se la loro evoluzione imponga un ripensamento delle categorie tradizionali . Per affrontare questo interrogativo è necessario iniziare definendo il concetto di soggettività giuridica, chiarendo la differenza tra capacità giuridica e capacità di agire e discutendo l’inclusione di soggetti fittizi. Si ripercorre poi l’evoluzione storica di questa nozione, osservando come si sia adattata ai cambiamenti sociali e culturali. Il secondo capitolo della tesi introduce l’intelligenza artificiale, spiegandone le tipologie e i diversi livelli di autonomia. Attraverso casi concreti, come incidenti e decisioni automatizzate, si valutano i limiti e le obiezioni di un’eventuale responsabilità della macchina, con particolare attenzione al dibattito sulla “personalità elettronica”. La parte finale approfondisce rischi e prospettive normative. Dopo l’analisi del quadro europeo, con riferimento all’AI Act, si prende in considerazione il confronto con altri ordinamenti, discutendo i rischi di un’inflazione soggettiva e i principali dilemmi etici. Vengono valutate soluzioni alternative, come forme di soggettività parziale, responsabilità indiretta e supervisione umana, per poi concludere l'elaborato con uno sguardo agli scenari futuri, esaminando gli ambiti nei quali questa apertura concettuale potrebbe incidere. L’obiettivo complessivo è quello di valutare se l’attuale struttura del diritto sia in grado di rispondere alle sfide proposte dall’intelligenza artificiale autonoma o se, al contrario, emerga l’esigenza di una revisione concettuale delle categorie giuridiche tradizionali.| File | Dimensione | Formato | |
|---|---|---|---|
|
Pivetta_Angelica.pdf
accesso aperto
Dimensione
704.5 kB
Formato
Adobe PDF
|
704.5 kB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/99650