Questa tesi indaga come il design delle interfacce e l’auto-presentazione dell’Intelligenza Artificiale (IA) influenzino la fiducia e la percezione dell'utente. Attraverso un disegno sperimentale misto, viene analizzato il confronto tra Google Gemini (interfaccia antropomorfica) e Google AI Overview (interfaccia analitica). Lo studio ha coinvolto 32 tra studenti ed ex-studenti delle Università Italiane, suddivisi in quattro gruppi sperimentali. I partecipanti hanno svolto tre task sequenziali (funzionale, personale ed etico) in sessioni sincrone su Zoom. La metodologia integra dati quantitativi, raccolti tramite la Human-Computer Trust Scale (HCTS), e analisi qualitative della pragmatica del linguaggio effettuate con il software specialistico LIWC. La ricerca mira a evidenziare i rischi di miscalibrazione della fiducia e di automation bias, fornendo evidenze empiriche per una progettazione etica delle IAC e per promuovere un utilizzo più consapevole e responsabile delle tecnologie basate su Large Language Models.

Trasparenza negli strumenti di ricerca conversazionali ed effetto su stile di interazione, percezione di agentività morale e fiducia

VERDIGLIONE, CHIARA
2025/2026

Abstract

Questa tesi indaga come il design delle interfacce e l’auto-presentazione dell’Intelligenza Artificiale (IA) influenzino la fiducia e la percezione dell'utente. Attraverso un disegno sperimentale misto, viene analizzato il confronto tra Google Gemini (interfaccia antropomorfica) e Google AI Overview (interfaccia analitica). Lo studio ha coinvolto 32 tra studenti ed ex-studenti delle Università Italiane, suddivisi in quattro gruppi sperimentali. I partecipanti hanno svolto tre task sequenziali (funzionale, personale ed etico) in sessioni sincrone su Zoom. La metodologia integra dati quantitativi, raccolti tramite la Human-Computer Trust Scale (HCTS), e analisi qualitative della pragmatica del linguaggio effettuate con il software specialistico LIWC. La ricerca mira a evidenziare i rischi di miscalibrazione della fiducia e di automation bias, fornendo evidenze empiriche per una progettazione etica delle IAC e per promuovere un utilizzo più consapevole e responsabile delle tecnologie basate su Large Language Models.
2025
Transparency in conversational research tools and its effect on interaction style, perceived moral agency, and trust
Percezione
AI
antropomorfizzazione
Trasparenza
File in questo prodotto:
File Dimensione Formato  
Verdiglione_Chiara.pdf.pdf

accesso aperto

Dimensione 1.31 MB
Formato Adobe PDF
1.31 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/107929