Questo lavoro di tesi si propone di indagare la relazione sussistente fra intelligenza artificiale e responsabilità aquiliana con particolare riferimento ai criteri di imputazione della responsabilità civile per i danni cagionati dai sistemi intelligenti. Si è anzitutto cercato di inquadrare il problema di un vuoto di responsabilità che si genera allorquando il danno sia cagionato da un sistema di IA particolarmente evoluto, in grado di fondare la propria azione su decisioni autonome frutto di un processo di autoapprendimento. Complessità tecnologica ed opacità del processo decisionale rendono, secondo parte della dottrina, obsolete ed incompatibili con il senso di giustizia al quale gli ordinamenti giuridici dovrebbero tendere le attuali norme in materia di responsabilità civile extracontrattuale. Parte da questa prospettiva, allora, l’analisi dell’attuale panorama giuridico tanto europeo quanto nazionale, finalizzata a comprendere se, come alcuni studiosi affermano, le norme già in vigore negli Stati membri siano in grado di regolamentare il fenomeno in questione; come paventato da tali autori, difatti, l’interpretazione evolutiva o l’applicazione analogica delle disposizioni di legge di cui già si dispone scongiurerebbe la necessità di una nuova produzione normativa. Simmetricamente, si è volto lo sguardo alla possibilità che i “nuovi” danni da sistemi intelligenti siano disciplinati da una normativa ad hoc; a questo proposito è stato preso in esame l’approccio europeo alla regolamentazione dell’intelligenza artificiale attraverso l’analisi del così detto AI Act, un nuovo testo di legge la cui approvazione definitiva dovrebbe arrivare ad aprile 2024. La disamina del Regolamento ha mostrato come, pur non trattandosi di regole volte a disciplinare l’aspetto della responsabilità per danno, il quadro tracciato dall’Unione europea risulti fondamentale ai fini della riduzione del rischio del verificarsi di un pregiudizio; pertanto, si giunge a ritenere che l’aspetto dell’accountability (vale a dire della responsabilizzazione dei soggetti coinvolti nella catena di progettazione, produzione e commercializzazione del sistema di IA) e l’aspetto della liability siano complementari, costituendo due facce della stessa medaglia. Si giunge a concludere che sia tuttavia necessario un ulteriore intervento da parte del legislatore europeo volto a riconoscere ai soggetti lesi un vero e proprio diritto al risarcimento per danni cagionati dai sistemi di IA più avanzati.

Intelligenza artificiale e responsabilità civile: nuove prospettive di regolamentazione alla luce dell'Artificial Intelligence Act.

BERSAN, GIULIA
2023/2024

Abstract

Questo lavoro di tesi si propone di indagare la relazione sussistente fra intelligenza artificiale e responsabilità aquiliana con particolare riferimento ai criteri di imputazione della responsabilità civile per i danni cagionati dai sistemi intelligenti. Si è anzitutto cercato di inquadrare il problema di un vuoto di responsabilità che si genera allorquando il danno sia cagionato da un sistema di IA particolarmente evoluto, in grado di fondare la propria azione su decisioni autonome frutto di un processo di autoapprendimento. Complessità tecnologica ed opacità del processo decisionale rendono, secondo parte della dottrina, obsolete ed incompatibili con il senso di giustizia al quale gli ordinamenti giuridici dovrebbero tendere le attuali norme in materia di responsabilità civile extracontrattuale. Parte da questa prospettiva, allora, l’analisi dell’attuale panorama giuridico tanto europeo quanto nazionale, finalizzata a comprendere se, come alcuni studiosi affermano, le norme già in vigore negli Stati membri siano in grado di regolamentare il fenomeno in questione; come paventato da tali autori, difatti, l’interpretazione evolutiva o l’applicazione analogica delle disposizioni di legge di cui già si dispone scongiurerebbe la necessità di una nuova produzione normativa. Simmetricamente, si è volto lo sguardo alla possibilità che i “nuovi” danni da sistemi intelligenti siano disciplinati da una normativa ad hoc; a questo proposito è stato preso in esame l’approccio europeo alla regolamentazione dell’intelligenza artificiale attraverso l’analisi del così detto AI Act, un nuovo testo di legge la cui approvazione definitiva dovrebbe arrivare ad aprile 2024. La disamina del Regolamento ha mostrato come, pur non trattandosi di regole volte a disciplinare l’aspetto della responsabilità per danno, il quadro tracciato dall’Unione europea risulti fondamentale ai fini della riduzione del rischio del verificarsi di un pregiudizio; pertanto, si giunge a ritenere che l’aspetto dell’accountability (vale a dire della responsabilizzazione dei soggetti coinvolti nella catena di progettazione, produzione e commercializzazione del sistema di IA) e l’aspetto della liability siano complementari, costituendo due facce della stessa medaglia. Si giunge a concludere che sia tuttavia necessario un ulteriore intervento da parte del legislatore europeo volto a riconoscere ai soggetti lesi un vero e proprio diritto al risarcimento per danni cagionati dai sistemi di IA più avanzati.
2023
Artificial intelligence and civil liability: a new regolamentation under the Artficial Intelligence Act.
Intelligenza
artificiale
responsabilità
File in questo prodotto:
File Dimensione Formato  
Bersan_Giulia.pdf

accesso aperto

Dimensione 1.08 MB
Formato Adobe PDF
1.08 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/63354