La tesi si focalizza sul nuovo regolamento dell’Unione Europea che disciplina l’utilizzo e lo sviluppo delle intelligenze artificiali. Dopo una breve analisi di cosa è una intelligenza artificiale, e dividendo l’umbrella term in varie sottocategorie, passo ad analizzare i bias (pregiudizi) che possono inficiare la decisione della AI stessa, mostrando come non tutti i bias sono uguali e non tutti derivano dall’algoritmo, ma possono derivare anche dall’inserimento di dati sbagliati o errati o di bassa qualità. Viene poi analizzato l’impatto sociale delle tecnologie e quindi, il perché negli ultimi anni si è sentita la necessità di dover regolarle. Nel secondo capitolo invece si passa all’analisi della proposta di regolamento della Commissione, partendo dalla creazione dell’AI HLEG, passando poi alla consultazione degli stakeholders , per poi arrivare alla proposta stessa, la quale nonostante molte critiche da varie istituzioni (europee e non)è forse l’approccio più coerente che potevamo aspettarci. Nonostante questo, c’è comunque da sottolineare la difficoltà applicativa di alcuni atti e regolamentazioni europee in modo particolare, il GDPR e le direttive sulla non discriminazione, difficilmente applicabili alle nuovo tecnologie (alcuni parlano di vera e propria nemesi). Poi si passa ad analizzare la responsabilità civile per i danni causati dalle AI. Quella contrattuale è disciplinata dalla PDL (Product Liability Directive), quella invece non contrattuale è stata disciplinata da una nuova direttiva europea, la quale utilizza un approccio oggettivo considerando sempre responsabili i providers o developers delle stesse, senza però tenere conto della complessità dei sistemi di AI.
Artficial intelligence: selected legal issues from a European Union perspective
CATENA, ANNACHIARA
2022/2023
Abstract
La tesi si focalizza sul nuovo regolamento dell’Unione Europea che disciplina l’utilizzo e lo sviluppo delle intelligenze artificiali. Dopo una breve analisi di cosa è una intelligenza artificiale, e dividendo l’umbrella term in varie sottocategorie, passo ad analizzare i bias (pregiudizi) che possono inficiare la decisione della AI stessa, mostrando come non tutti i bias sono uguali e non tutti derivano dall’algoritmo, ma possono derivare anche dall’inserimento di dati sbagliati o errati o di bassa qualità. Viene poi analizzato l’impatto sociale delle tecnologie e quindi, il perché negli ultimi anni si è sentita la necessità di dover regolarle. Nel secondo capitolo invece si passa all’analisi della proposta di regolamento della Commissione, partendo dalla creazione dell’AI HLEG, passando poi alla consultazione degli stakeholders , per poi arrivare alla proposta stessa, la quale nonostante molte critiche da varie istituzioni (europee e non)è forse l’approccio più coerente che potevamo aspettarci. Nonostante questo, c’è comunque da sottolineare la difficoltà applicativa di alcuni atti e regolamentazioni europee in modo particolare, il GDPR e le direttive sulla non discriminazione, difficilmente applicabili alle nuovo tecnologie (alcuni parlano di vera e propria nemesi). Poi si passa ad analizzare la responsabilità civile per i danni causati dalle AI. Quella contrattuale è disciplinata dalla PDL (Product Liability Directive), quella invece non contrattuale è stata disciplinata da una nuova direttiva europea, la quale utilizza un approccio oggettivo considerando sempre responsabili i providers o developers delle stesse, senza però tenere conto della complessità dei sistemi di AI.File | Dimensione | Formato | |
---|---|---|---|
Catena_Annachiara.pdf
accesso riservato
Dimensione
1.38 MB
Formato
Adobe PDF
|
1.38 MB | Adobe PDF |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/44975