Grazie agli straordinari avanzamenti tecnologici registrati nel campo del machine learning, l’intelligenza artificiale è già diventata parte integrante delle nostre istituzioni private e pubbliche. Le sue potenzialità hanno attirato l’interesse delle potenze economiche mondiali, e allo stesso tempo i rischi e problemi che lo sviluppo e l’uso non regolato della tecnologia ha già iniziato a porre per gli essere umani fanno sì che l’esigenza di un intervento legislativo mirato a garantire la tutela dei diritti fondamentali in questo panorama di sviluppo esponenziale sia sempre più avvertita. Questo lavoro di tesi analizza comparativamente il quadro normativo attuale in materia di intelligenza artificiale, nonché quello che si prospetta nel breve termine alla luce delle proposte di regolamento dell’IA provenienti da Europa e Stati Uniti, nel tentativo di comprendere come lo spirito collaborativo emergente nel settore accademico e produttivo possa tradursi, nello spazio normativo, in uno scambio di idee e prospettive di regolamentazione dell’IA, arricchendo le tutele per le comunità umane in entrambi i paesi. Entrambi i legislatori hanno manifestato un certo favor verso un approccio alla regolamentazione basato sul rischio: tuttavia, il concetto stesso di rischio viene concepito in maniera diversa tra le due culture, così come diverse sono le rispettive tradizioni giuridiche. Partendo da una ricognizione degli elementi tecnici fondanti e degli approcci di studio e sviluppo dell’intelligenza artificiale, il Capitolo I ne esplora le principali applicazioni ed i conseguenti benefici ed aspetti problematici, dalla mancata trasparenza circa le sue logiche di funzionamento interne al rischio che essa amplifichi fenomeni discriminatori già presenti nella nostra società. In ragione di queste criticità tecniche, nonché dei contesti in cui operano, alcuni sistemi di intelligenza artificiale presentano, più di altri, un elevato rischio per i diritti fondamentali umani, ed è su questi che si concentrerà la nostra discussione. Il Capitolo II si articola in due sezioni, che guardano rispettivamente al quadro normativo dell’Unione Europea attualmente applicabile e alla proposta di Regolamento avanzata dalla Commissione Europea, che punta a cristallizzare delle regole uniformi e armonizzate sull’intelligenza artificiale nell’Unione. La proposta adotta un approccio basato sul rischio e prevede, con riguardo ai sistemi di intelligenza artificiale classificati come altamente rischiosi dal Regolamento, dei requisiti essenziali per i sistemi di IA e corrispettivi obblighi di conformità in capo a chi li utilizza e sviluppa: questi aspetti saranno oggetto di attenta analisi, e ne verranno segnalati i punti di forza e le criticità tecniche e di diritto. Successivamente, l’attenzione si sposterà sul diverso quadro normativo e giurisprudenziale statunitense, con riferimento al quale valuteremo i diversi ruoli del legislatore federale e statale, delle agenzie governative federali e delle corti nella creazione del panorama legislativo in materia di IA negli Stati Uniti. In conclusione, rivolgeremo l’attenzione verso gli usi dell’intelligenza artificiale nel settore pubblico: ci dedicheremo alla disamina delle norme e orientamenti giurisprudenziali che disciplinano la trasparenza e l’accountability dell’IA nel pubblico settore, ragionando su come soluzioni tecnologiche e normative tratte da entrambi gli ordinamenti possono colmare le distanze concettuali e pratiche tra il diritto amministrativo odierno e le applicazioni dell’intelligenza artificiale nelle PA europee, italiane e statunitensi.
I sistemi di intelligenza artificiale ad alto rischio tra Europa e Stati Uniti: riflessioni normative e spunti comparatistici
CASAGRANDE, SOFIA
2021/2022
Abstract
Grazie agli straordinari avanzamenti tecnologici registrati nel campo del machine learning, l’intelligenza artificiale è già diventata parte integrante delle nostre istituzioni private e pubbliche. Le sue potenzialità hanno attirato l’interesse delle potenze economiche mondiali, e allo stesso tempo i rischi e problemi che lo sviluppo e l’uso non regolato della tecnologia ha già iniziato a porre per gli essere umani fanno sì che l’esigenza di un intervento legislativo mirato a garantire la tutela dei diritti fondamentali in questo panorama di sviluppo esponenziale sia sempre più avvertita. Questo lavoro di tesi analizza comparativamente il quadro normativo attuale in materia di intelligenza artificiale, nonché quello che si prospetta nel breve termine alla luce delle proposte di regolamento dell’IA provenienti da Europa e Stati Uniti, nel tentativo di comprendere come lo spirito collaborativo emergente nel settore accademico e produttivo possa tradursi, nello spazio normativo, in uno scambio di idee e prospettive di regolamentazione dell’IA, arricchendo le tutele per le comunità umane in entrambi i paesi. Entrambi i legislatori hanno manifestato un certo favor verso un approccio alla regolamentazione basato sul rischio: tuttavia, il concetto stesso di rischio viene concepito in maniera diversa tra le due culture, così come diverse sono le rispettive tradizioni giuridiche. Partendo da una ricognizione degli elementi tecnici fondanti e degli approcci di studio e sviluppo dell’intelligenza artificiale, il Capitolo I ne esplora le principali applicazioni ed i conseguenti benefici ed aspetti problematici, dalla mancata trasparenza circa le sue logiche di funzionamento interne al rischio che essa amplifichi fenomeni discriminatori già presenti nella nostra società. In ragione di queste criticità tecniche, nonché dei contesti in cui operano, alcuni sistemi di intelligenza artificiale presentano, più di altri, un elevato rischio per i diritti fondamentali umani, ed è su questi che si concentrerà la nostra discussione. Il Capitolo II si articola in due sezioni, che guardano rispettivamente al quadro normativo dell’Unione Europea attualmente applicabile e alla proposta di Regolamento avanzata dalla Commissione Europea, che punta a cristallizzare delle regole uniformi e armonizzate sull’intelligenza artificiale nell’Unione. La proposta adotta un approccio basato sul rischio e prevede, con riguardo ai sistemi di intelligenza artificiale classificati come altamente rischiosi dal Regolamento, dei requisiti essenziali per i sistemi di IA e corrispettivi obblighi di conformità in capo a chi li utilizza e sviluppa: questi aspetti saranno oggetto di attenta analisi, e ne verranno segnalati i punti di forza e le criticità tecniche e di diritto. Successivamente, l’attenzione si sposterà sul diverso quadro normativo e giurisprudenziale statunitense, con riferimento al quale valuteremo i diversi ruoli del legislatore federale e statale, delle agenzie governative federali e delle corti nella creazione del panorama legislativo in materia di IA negli Stati Uniti. In conclusione, rivolgeremo l’attenzione verso gli usi dell’intelligenza artificiale nel settore pubblico: ci dedicheremo alla disamina delle norme e orientamenti giurisprudenziali che disciplinano la trasparenza e l’accountability dell’IA nel pubblico settore, ragionando su come soluzioni tecnologiche e normative tratte da entrambi gli ordinamenti possono colmare le distanze concettuali e pratiche tra il diritto amministrativo odierno e le applicazioni dell’intelligenza artificiale nelle PA europee, italiane e statunitensi.File | Dimensione | Formato | |
---|---|---|---|
Casagrande_Sofia.pdf
accesso riservato
Dimensione
1.79 MB
Formato
Adobe PDF
|
1.79 MB | Adobe PDF |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/30852