Graph Neural Networks (GNNs) offer powerful representations for spatial transcriptomics (ST) but remain opaque, limiting their utility for biological interpretation. This thesis develops an explainable framework for GraphST, a state-of-the-art ST model, by integrating multiple explainers including Integrated Gradients, GraphLIME, and GNNExplainer. To address the lack of direct interpretability in embedding-only outputs, a modular encoder and knowledge-distilled clusterers are introduced, enabling both embedding- and prediction-level explanations and ensuring broad compatibility with standard interpretability tools. The framework produces gene-level attribution scores that not only increase transparency and trust but also transform GraphST into a practical gene ranking method. This allows marker genes to be extracted directly from the deep learning model, complementing and in part replacing traditional differential expression pipelines. The results demonstrate that explainable GNNs can bridge representation learning with interpretable gene discovery, advancing both methodological transparency and biological insight in computational biology.

Le Graph Neural Networks (GNNs) offrono potenti rappresentazioni per la transcriptomica spaziale (ST), ma rimangono in gran parte opache, limitandone l’utilità per l’interpretazione biologica. Questa tesi sviluppa un framework spiegabile per GraphST, un modello ST all’avanguardia, integrando diversi metodi di explainability, tra cui Integrated Gradients, GraphLIME e GNNExplainer. Per affrontare la mancanza di interpretabilità diretta negli output a livello di embedding, vengono introdotti un encoder modulare e clusterizzatori knowledge-distilled, che consentono spiegazioni sia a livello di embedding che di predizione, garantendo al tempo stesso un’ampia compatibilità con gli strumenti di interpretabilità standard. Il framework produce punteggi di attribuzione genica che non solo aumentano la trasparenza e la fiducia, ma trasformano anche GraphST in un metodo pratico di ranking genico. Ciò permette di estrarre marker genici direttamente dal modello di deep learning, integrando e in parte sostituendo i tradizionali pipeline di espressione differenziale. I risultati dimostrano che le GNN spiegabili possono colmare il divario tra apprendimento di rappresentazioni e scoperta genica interpretabile, facendo avanzare sia la trasparenza metodologica sia la comprensione biologica nella biologia computazionale.

Explainable GNNs for Spatial Transcriptomics

HAJIBAGHER TEHRAN, MOHAMMADAMIN
2024/2025

Abstract

Graph Neural Networks (GNNs) offer powerful representations for spatial transcriptomics (ST) but remain opaque, limiting their utility for biological interpretation. This thesis develops an explainable framework for GraphST, a state-of-the-art ST model, by integrating multiple explainers including Integrated Gradients, GraphLIME, and GNNExplainer. To address the lack of direct interpretability in embedding-only outputs, a modular encoder and knowledge-distilled clusterers are introduced, enabling both embedding- and prediction-level explanations and ensuring broad compatibility with standard interpretability tools. The framework produces gene-level attribution scores that not only increase transparency and trust but also transform GraphST into a practical gene ranking method. This allows marker genes to be extracted directly from the deep learning model, complementing and in part replacing traditional differential expression pipelines. The results demonstrate that explainable GNNs can bridge representation learning with interpretable gene discovery, advancing both methodological transparency and biological insight in computational biology.
2024
Explainable GNNs for Spatial Transcriptomics
Le Graph Neural Networks (GNNs) offrono potenti rappresentazioni per la transcriptomica spaziale (ST), ma rimangono in gran parte opache, limitandone l’utilità per l’interpretazione biologica. Questa tesi sviluppa un framework spiegabile per GraphST, un modello ST all’avanguardia, integrando diversi metodi di explainability, tra cui Integrated Gradients, GraphLIME e GNNExplainer. Per affrontare la mancanza di interpretabilità diretta negli output a livello di embedding, vengono introdotti un encoder modulare e clusterizzatori knowledge-distilled, che consentono spiegazioni sia a livello di embedding che di predizione, garantendo al tempo stesso un’ampia compatibilità con gli strumenti di interpretabilità standard. Il framework produce punteggi di attribuzione genica che non solo aumentano la trasparenza e la fiducia, ma trasformano anche GraphST in un metodo pratico di ranking genico. Ciò permette di estrarre marker genici direttamente dal modello di deep learning, integrando e in parte sostituendo i tradizionali pipeline di espressione differenziale. I risultati dimostrano che le GNN spiegabili possono colmare il divario tra apprendimento di rappresentazioni e scoperta genica interpretabile, facendo avanzare sia la trasparenza metodologica sia la comprensione biologica nella biologia computazionale.
Graph Neural Network
Explainable AI
Spatial Transcriptom
File in questo prodotto:
File Dimensione Formato  
HAJIBAGHERTEHRAN_MOHAMMADAMIN.pdf

Accesso riservato

Dimensione 2.35 MB
Formato Adobe PDF
2.35 MB Adobe PDF

The text of this website © Università degli studi di Padova. Full Text are published under a non-exclusive license. Metadata are under a CC0 License

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12608/93346