The rapid evolution of Large Language Models (LLMs) has made the distinction between texts produced by humans and those generated automatically increasingly complex. In this context, the problem of authorship attribution acquires renewed relevance, extending from the traditional identification of a human author to the detection of an artificial generative source. This thesis is situated within the fields of Authorship Attribution and AI Detection, with the aim of investigating whether, and to what extent, it is possible to distinguish human-written texts from those generated by artificial intelligence models, as well as to discriminate between outputs produced by different LLMs. The underlying hypothesis is that, despite the high quality and linguistic plausibility of generated texts, language models exhibit statistical and stylometric regularities attributable to their probabilistic nature, architectural design, and training and fine-tuning strategies. When systematically analyzed, these regularities may constitute linguistic fingerprints exploitable for automatic identification. Through a comparative analysis based on Natural Language Processing techniques and computational stylometry, the thesis examines a corpus of texts produced by humans and by a heterogeneous selection of language models, including proprietary solutions (ChatGPT, DaVinci, Cohere) and open-source models (BloomZ, Dolly). The experimental approach relies on the training of supervised classification models, built using both explicit stylometric features derived through feature extraction and distributed text representations based on embeddings, in order to compare their discriminative effectiveness. The analysis focuses on multiple linguistic dimensions, including lexical distributions, syntactic structures, and measures of statistical variability. The results aim to clarify whether quantitative language analysis can still provide reliable tools for distinguishing between human writing and artificial generation and for attributing a text to a specific language model. In this sense, the work seeks to contribute to the development of more transparent and interpretable approaches to AI Detection, offering methodological insights to strengthen trust and accountability in the contemporary information ecosystem.

La rapida evoluzione dei modelli linguistici di grandi dimensioni (Large Language Models, LLM) ha reso sempre più complessa la distinzione tra testi prodotti da esseri umani e testi generati automaticamente. In questo scenario, il problema dell’attribuzione autoriale assume una nuova rilevanza, estendendosi dalla tradizionale identificazione dell’autore umano all’individuazione della sorgente generativa artificiale. La presente tesi si inserisce nel filone dell’Attribuzione d’Autore e dell’AI Detection, con l’obiettivo di indagare se e in che misura sia possibile distinguere testi umani da testi generati da modelli di intelligenza artificiale, nonché discriminare tra output prodotti da differenti LLM. L’ipotesi di base è che, nonostante l’elevata qualità e plausibilità linguistica dei testi generati, i modelli linguistici presentino regolarità statistiche e stilometriche riconducibili alla loro natura probabilistica, alle architetture adottate e alle strategie di addestramento e fine-tuning. Tali regolarità, se analizzate in modo sistematico, potrebbero costituire delle impronte linguistiche utili ai fini dell’identificazione automatica. Attraverso un’analisi comparativa basata su tecniche di elaborazione del linguaggio naturale e stilometria computazionale, la tesi esamina un corpus di testi prodotti da esseri umani e da una selezione eterogenea di modelli linguistici, comprendente soluzioni proprietarie (ChatGPT, DaVinci, Cohere) e open-source (BloomZ, Dolly). L’approccio sperimentale si fonda sull’addestramento di modelli di classificazione supervisionata, costruiti a partire sia da caratteristiche stilometriche esplicite (feature extraction) sia da rappresentazioni distribuzionali del testo basate su embeddings, al fine di confrontarne l’efficacia discriminante. L’analisi si concentra su diverse dimensioni linguistiche, quali distribuzioni lessicali, strutture sintattiche e misure di variabilità statistica. I risultati mirano a chiarire se l’analisi quantitativa del linguaggio possa ancora fornire strumenti affidabili per distinguere tra scrittura umana e generazione artificiale e per attribuire un testo a uno specifico modello linguistico. In tal senso, l’elaborato intende contribuire allo sviluppo di approcci più trasparenti e interpretabili all’AI Detection, offrendo spunti metodologici utili per rafforzare la fiducia e la responsabilità nell’ecosistema informativo contemporaneo.

Attribuzione d'autore in un contesto multiclasse: un confronto tra scrittura umana e diversi Large Language Models.

RETTORE, ERIKA
2025/2026

Abstract

The rapid evolution of Large Language Models (LLMs) has made the distinction between texts produced by humans and those generated automatically increasingly complex. In this context, the problem of authorship attribution acquires renewed relevance, extending from the traditional identification of a human author to the detection of an artificial generative source. This thesis is situated within the fields of Authorship Attribution and AI Detection, with the aim of investigating whether, and to what extent, it is possible to distinguish human-written texts from those generated by artificial intelligence models, as well as to discriminate between outputs produced by different LLMs. The underlying hypothesis is that, despite the high quality and linguistic plausibility of generated texts, language models exhibit statistical and stylometric regularities attributable to their probabilistic nature, architectural design, and training and fine-tuning strategies. When systematically analyzed, these regularities may constitute linguistic fingerprints exploitable for automatic identification. Through a comparative analysis based on Natural Language Processing techniques and computational stylometry, the thesis examines a corpus of texts produced by humans and by a heterogeneous selection of language models, including proprietary solutions (ChatGPT, DaVinci, Cohere) and open-source models (BloomZ, Dolly). The experimental approach relies on the training of supervised classification models, built using both explicit stylometric features derived through feature extraction and distributed text representations based on embeddings, in order to compare their discriminative effectiveness. The analysis focuses on multiple linguistic dimensions, including lexical distributions, syntactic structures, and measures of statistical variability. The results aim to clarify whether quantitative language analysis can still provide reliable tools for distinguishing between human writing and artificial generation and for attributing a text to a specific language model. In this sense, the work seeks to contribute to the development of more transparent and interpretable approaches to AI Detection, offering methodological insights to strengthen trust and accountability in the contemporary information ecosystem.
2025
Authorship Attribution in a multiclass context: a comparison between human writing and different Large Language Models
La rapida evoluzione dei modelli linguistici di grandi dimensioni (Large Language Models, LLM) ha reso sempre più complessa la distinzione tra testi prodotti da esseri umani e testi generati automaticamente. In questo scenario, il problema dell’attribuzione autoriale assume una nuova rilevanza, estendendosi dalla tradizionale identificazione dell’autore umano all’individuazione della sorgente generativa artificiale. La presente tesi si inserisce nel filone dell’Attribuzione d’Autore e dell’AI Detection, con l’obiettivo di indagare se e in che misura sia possibile distinguere testi umani da testi generati da modelli di intelligenza artificiale, nonché discriminare tra output prodotti da differenti LLM. L’ipotesi di base è che, nonostante l’elevata qualità e plausibilità linguistica dei testi generati, i modelli linguistici presentino regolarità statistiche e stilometriche riconducibili alla loro natura probabilistica, alle architetture adottate e alle strategie di addestramento e fine-tuning. Tali regolarità, se analizzate in modo sistematico, potrebbero costituire delle impronte linguistiche utili ai fini dell’identificazione automatica. Attraverso un’analisi comparativa basata su tecniche di elaborazione del linguaggio naturale e stilometria computazionale, la tesi esamina un corpus di testi prodotti da esseri umani e da una selezione eterogenea di modelli linguistici, comprendente soluzioni proprietarie (ChatGPT, DaVinci, Cohere) e open-source (BloomZ, Dolly). L’approccio sperimentale si fonda sull’addestramento di modelli di classificazione supervisionata, costruiti a partire sia da caratteristiche stilometriche esplicite (feature extraction) sia da rappresentazioni distribuzionali del testo basate su embeddings, al fine di confrontarne l’efficacia discriminante. L’analisi si concentra su diverse dimensioni linguistiche, quali distribuzioni lessicali, strutture sintattiche e misure di variabilità statistica. I risultati mirano a chiarire se l’analisi quantitativa del linguaggio possa ancora fornire strumenti affidabili per distinguere tra scrittura umana e generazione artificiale e per attribuire un testo a uno specifico modello linguistico. In tal senso, l’elaborato intende contribuire allo sviluppo di approcci più trasparenti e interpretabili all’AI Detection, offrendo spunti metodologici utili per rafforzare la fiducia e la responsabilità nell’ecosistema informativo contemporaneo.
AI detection
Text mining
Multiclasse
LLM
Stilometria
File in questo prodotto:
File Dimensione Formato  
Rettore_Erika.pdf

accesso aperto

Dimensione 6 MB
Formato Adobe PDF
6 MB Adobe PDF Visualizza/Apri

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/105784