Questa tesi si concentra sull’urgente questione del vuoto legislativo in materia di responsabilità civile per i danni prodotti dai sistemi AI. In particolare, il lavoro affronta tre nodi cruciali: la controversa questione se un modello AI possa essere considerato persona giuridica; l’applicabilità della Direttiva sulla responsabilità del produttore del 1985 (e la nuova Direttiva del 2024) ai produttori di sistemi AI; e infine, se i principi generali delle normative interne in materia di responsabilità civile extracontrattuale (artt. 2049 c.c. – 2052 c.c.) siano sufficienti a coprire i danni causati da agenti autonomi. La questione è capire quale modello si applica meglio all’AI. Applicare la responsabilità oggettiva (analogamente a quanto previsto oggi per i veicoli a motore) avrebbe il vantaggio di rendere più agevole l’imputazione di responsabilità ma dall’altra potrebbe apparire inadeguato e soprattutto ingiusto dal momento che l’utente non ha nessuna forma di controllo sulle decisioni prese dall’intelligenza artificiale. Anche un approccio basato sulla responsabilità colposa costituirebbe una medaglia con due facce. Se ricadrebbe sull’utente l’onere di dimostrare che il produttore AI ha operato con imperizia, si renderebbe eccessivamente gravosa la possibilità per le vittime di ottenere una qualche forma di ristoro per i danni subiti, data la complessità tecnica degli algoritmi. Un compromesso potrebbe essere un sistema cosiddetto ibrido prevedendo una responsabilità oggettiva per i produttori di AI a rischio elevato e una responsabilità fondata sulla colpa per gli utenti finali. Tale soluzione è stata avanzata dalla Commissione europea per l’AI Liability Directive che si pone l’obiettivo di definire regole più specifiche sulla responsabilità civile dell’AI. In ogni caso persiste una questione spinosa: la società è disposta ad accogliere un sistema di responsabilità in cui l’uomo non potrebbe essere l’unico soggetto giuridico? Fino ad ora le licenze d’uso dell’IA fanno ricadere la responsabilità sull’utente finale. È chiaro che tale impostazione risulta squilibrata a danno dei consumatori. Se un’AI è atta a prendere decisioni autonomamente, è corretto imputare tutta la responsabilità all’utente? Al momento le normative comunitarie sono inclini a trattare l’AI come un mero strumento passivo nelle mani dell’uomo ma con lo sviluppo di sistemi di autoapprendimento, questa impostazione è destinata a modificarsi. L’AI act, infatti, pur non toccando direttamente la questione della responsabilità introduce specifici obblighi a carico dei produttori, in particolar modo per i sistemi a rischio elevato.
Intelligenza artificiale e responsability gap
GOLIN, SILVIA
2024/2025
Abstract
Questa tesi si concentra sull’urgente questione del vuoto legislativo in materia di responsabilità civile per i danni prodotti dai sistemi AI. In particolare, il lavoro affronta tre nodi cruciali: la controversa questione se un modello AI possa essere considerato persona giuridica; l’applicabilità della Direttiva sulla responsabilità del produttore del 1985 (e la nuova Direttiva del 2024) ai produttori di sistemi AI; e infine, se i principi generali delle normative interne in materia di responsabilità civile extracontrattuale (artt. 2049 c.c. – 2052 c.c.) siano sufficienti a coprire i danni causati da agenti autonomi. La questione è capire quale modello si applica meglio all’AI. Applicare la responsabilità oggettiva (analogamente a quanto previsto oggi per i veicoli a motore) avrebbe il vantaggio di rendere più agevole l’imputazione di responsabilità ma dall’altra potrebbe apparire inadeguato e soprattutto ingiusto dal momento che l’utente non ha nessuna forma di controllo sulle decisioni prese dall’intelligenza artificiale. Anche un approccio basato sulla responsabilità colposa costituirebbe una medaglia con due facce. Se ricadrebbe sull’utente l’onere di dimostrare che il produttore AI ha operato con imperizia, si renderebbe eccessivamente gravosa la possibilità per le vittime di ottenere una qualche forma di ristoro per i danni subiti, data la complessità tecnica degli algoritmi. Un compromesso potrebbe essere un sistema cosiddetto ibrido prevedendo una responsabilità oggettiva per i produttori di AI a rischio elevato e una responsabilità fondata sulla colpa per gli utenti finali. Tale soluzione è stata avanzata dalla Commissione europea per l’AI Liability Directive che si pone l’obiettivo di definire regole più specifiche sulla responsabilità civile dell’AI. In ogni caso persiste una questione spinosa: la società è disposta ad accogliere un sistema di responsabilità in cui l’uomo non potrebbe essere l’unico soggetto giuridico? Fino ad ora le licenze d’uso dell’IA fanno ricadere la responsabilità sull’utente finale. È chiaro che tale impostazione risulta squilibrata a danno dei consumatori. Se un’AI è atta a prendere decisioni autonomamente, è corretto imputare tutta la responsabilità all’utente? Al momento le normative comunitarie sono inclini a trattare l’AI come un mero strumento passivo nelle mani dell’uomo ma con lo sviluppo di sistemi di autoapprendimento, questa impostazione è destinata a modificarsi. L’AI act, infatti, pur non toccando direttamente la questione della responsabilità introduce specifici obblighi a carico dei produttori, in particolar modo per i sistemi a rischio elevato.| File | Dimensione | Formato | |
|---|---|---|---|
|
Golin_Silvia_tesi.pdf
accesso aperto
Dimensione
1.49 MB
Formato
Adobe PDF
|
1.49 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/99693