Questo lavoro di tesi si propone di indagare la relazione sussistente fra intelligenza artificiale e responsabilità aquiliana con particolare riferimento ai criteri di imputazione della responsabilità civile per i danni cagionati dai sistemi intelligenti. Si è anzitutto cercato di inquadrare il problema di un vuoto di responsabilità che si genera allorquando il danno sia cagionato da un sistema di IA particolarmente evoluto, in grado di fondare la propria azione su decisioni autonome frutto di un processo di autoapprendimento. Complessità tecnologica ed opacità del processo decisionale rendono, secondo parte della dottrina, obsolete ed incompatibili con il senso di giustizia al quale gli ordinamenti giuridici dovrebbero tendere le attuali norme in materia di responsabilità civile extracontrattuale. Parte da questa prospettiva, allora, l’analisi dell’attuale panorama giuridico tanto europeo quanto nazionale, finalizzata a comprendere se, come alcuni studiosi affermano, le norme già in vigore negli Stati membri siano in grado di regolamentare il fenomeno in questione; come paventato da tali autori, difatti, l’interpretazione evolutiva o l’applicazione analogica delle disposizioni di legge di cui già si dispone scongiurerebbe la necessità di una nuova produzione normativa. Simmetricamente, si è volto lo sguardo alla possibilità che i “nuovi” danni da sistemi intelligenti siano disciplinati da una normativa ad hoc; a questo proposito è stato preso in esame l’approccio europeo alla regolamentazione dell’intelligenza artificiale attraverso l’analisi del così detto AI Act, un nuovo testo di legge la cui approvazione definitiva dovrebbe arrivare ad aprile 2024. La disamina del Regolamento ha mostrato come, pur non trattandosi di regole volte a disciplinare l’aspetto della responsabilità per danno, il quadro tracciato dall’Unione europea risulti fondamentale ai fini della riduzione del rischio del verificarsi di un pregiudizio; pertanto, si giunge a ritenere che l’aspetto dell’accountability (vale a dire della responsabilizzazione dei soggetti coinvolti nella catena di progettazione, produzione e commercializzazione del sistema di IA) e l’aspetto della liability siano complementari, costituendo due facce della stessa medaglia. Si giunge a concludere che sia tuttavia necessario un ulteriore intervento da parte del legislatore europeo volto a riconoscere ai soggetti lesi un vero e proprio diritto al risarcimento per danni cagionati dai sistemi di IA più avanzati.
Intelligenza artificiale e responsabilità civile: nuove prospettive di regolamentazione alla luce dell'Artificial Intelligence Act.
BERSAN, GIULIA
2023/2024
Abstract
Questo lavoro di tesi si propone di indagare la relazione sussistente fra intelligenza artificiale e responsabilità aquiliana con particolare riferimento ai criteri di imputazione della responsabilità civile per i danni cagionati dai sistemi intelligenti. Si è anzitutto cercato di inquadrare il problema di un vuoto di responsabilità che si genera allorquando il danno sia cagionato da un sistema di IA particolarmente evoluto, in grado di fondare la propria azione su decisioni autonome frutto di un processo di autoapprendimento. Complessità tecnologica ed opacità del processo decisionale rendono, secondo parte della dottrina, obsolete ed incompatibili con il senso di giustizia al quale gli ordinamenti giuridici dovrebbero tendere le attuali norme in materia di responsabilità civile extracontrattuale. Parte da questa prospettiva, allora, l’analisi dell’attuale panorama giuridico tanto europeo quanto nazionale, finalizzata a comprendere se, come alcuni studiosi affermano, le norme già in vigore negli Stati membri siano in grado di regolamentare il fenomeno in questione; come paventato da tali autori, difatti, l’interpretazione evolutiva o l’applicazione analogica delle disposizioni di legge di cui già si dispone scongiurerebbe la necessità di una nuova produzione normativa. Simmetricamente, si è volto lo sguardo alla possibilità che i “nuovi” danni da sistemi intelligenti siano disciplinati da una normativa ad hoc; a questo proposito è stato preso in esame l’approccio europeo alla regolamentazione dell’intelligenza artificiale attraverso l’analisi del così detto AI Act, un nuovo testo di legge la cui approvazione definitiva dovrebbe arrivare ad aprile 2024. La disamina del Regolamento ha mostrato come, pur non trattandosi di regole volte a disciplinare l’aspetto della responsabilità per danno, il quadro tracciato dall’Unione europea risulti fondamentale ai fini della riduzione del rischio del verificarsi di un pregiudizio; pertanto, si giunge a ritenere che l’aspetto dell’accountability (vale a dire della responsabilizzazione dei soggetti coinvolti nella catena di progettazione, produzione e commercializzazione del sistema di IA) e l’aspetto della liability siano complementari, costituendo due facce della stessa medaglia. Si giunge a concludere che sia tuttavia necessario un ulteriore intervento da parte del legislatore europeo volto a riconoscere ai soggetti lesi un vero e proprio diritto al risarcimento per danni cagionati dai sistemi di IA più avanzati.File | Dimensione | Formato | |
---|---|---|---|
Bersan_Giulia.pdf
accesso aperto
Dimensione
1.08 MB
Formato
Adobe PDF
|
1.08 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/63354