Questa tesi indaga come il design delle interfacce e l’auto-presentazione dell’Intelligenza Artificiale (IA) influenzino la fiducia e la percezione dell'utente. Attraverso un disegno sperimentale misto, viene analizzato il confronto tra Google Gemini (interfaccia antropomorfica) e Google AI Overview (interfaccia analitica). Lo studio ha coinvolto 32 tra studenti ed ex-studenti delle Università Italiane, suddivisi in quattro gruppi sperimentali. I partecipanti hanno svolto tre task sequenziali (funzionale, personale ed etico) in sessioni sincrone su Zoom. La metodologia integra dati quantitativi, raccolti tramite la Human-Computer Trust Scale (HCTS), e analisi qualitative della pragmatica del linguaggio effettuate con il software specialistico LIWC. La ricerca mira a evidenziare i rischi di miscalibrazione della fiducia e di automation bias, fornendo evidenze empiriche per una progettazione etica delle IAC e per promuovere un utilizzo più consapevole e responsabile delle tecnologie basate su Large Language Models.
Trasparenza negli strumenti di ricerca conversazionali ed effetto su stile di interazione, percezione di agentività morale e fiducia
VERDIGLIONE, CHIARA
2025/2026
Abstract
Questa tesi indaga come il design delle interfacce e l’auto-presentazione dell’Intelligenza Artificiale (IA) influenzino la fiducia e la percezione dell'utente. Attraverso un disegno sperimentale misto, viene analizzato il confronto tra Google Gemini (interfaccia antropomorfica) e Google AI Overview (interfaccia analitica). Lo studio ha coinvolto 32 tra studenti ed ex-studenti delle Università Italiane, suddivisi in quattro gruppi sperimentali. I partecipanti hanno svolto tre task sequenziali (funzionale, personale ed etico) in sessioni sincrone su Zoom. La metodologia integra dati quantitativi, raccolti tramite la Human-Computer Trust Scale (HCTS), e analisi qualitative della pragmatica del linguaggio effettuate con il software specialistico LIWC. La ricerca mira a evidenziare i rischi di miscalibrazione della fiducia e di automation bias, fornendo evidenze empiriche per una progettazione etica delle IAC e per promuovere un utilizzo più consapevole e responsabile delle tecnologie basate su Large Language Models.| File | Dimensione | Formato | |
|---|---|---|---|
|
Verdiglione_Chiara.pdf.pdf
accesso aperto
Dimensione
1.31 MB
Formato
Adobe PDF
|
1.31 MB | Adobe PDF | Visualizza/Apri |
The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License
https://hdl.handle.net/20.500.12608/107929