Riassunto analitico
Il cancro rimane una sfida importante per la salute a livello globale, e una previsione accurata della sopravvivenza è fondamentale per un trattamento efficace e personalizzato dei pazienti. Progressi recenti del deep learning mostrano risultati promettenti nell'utilizzo di dati biomedici su larga scala, in particolare informazioni genomiche e immagini istologiche, ciascuna delle quali fornisce prospettive uniche sulla biologia del tumore. Mentre vari modelli utilizzano questi tipi di dati separatamente, la loro combinazione per la previsione della sopravvivenza di un paziente è ancora relativamente poco esplorata, principalmente a causa delle sfide nell'integrazione dei dati e nella loro alta dimensionalità. Questa lavoro introduce NaCAGaT (Narrow Contextual Attention GAte Transformer), un modello di deep learning multimodale progettato per integrare i dati di espressione RNA e immagini istologiche (WSI) per una migliore previsione della sopravvivenza dei pazienti. NaCAGaT supera le barriere di integrazione concentrandosi sulle regioni chiave guidate dal genoma all'interno delle immagini istologiche, creando una rappresentazione unificata del panorama tumorale. Le valutazioni evidenziano un miglioramento di prestazioni di NaCAGaT rispetto ad altri modelli, specialmente su alcune tipologie di tumori (e.g. Cancro ovarico). Inoltre, le mappe di attenzione generate da NaCAGaT offrono una maggiore interpretabilità del modello, mostrando come specifiche caratteristiche genomiche guidano l’attenzione sulle aree tumorali all’interno delle WSI, fornendo quindi sia accuratezza predittiva che spiegabilità per supportare decisioni cliniche.
|
Abstract
Cancer remains a major health challenge globally, with accurate survival prediction crucial for effective and personalized treatment of patients. Deep learning advancements show promise in leveraging large-scale biomedical data, particularly genomic information and histological images, each providing unique perspectives on tumor biology. While various models use these data types separately, combining them for survival prediction is still relatively underexplored, primarily due to challenges in data integration and high dimensionality.
This thesis introduces NaCAGaT (Narrow Contextual Attention GAte Transformer), a multimodal deep learning model designed to integrate RNA-seq and whole slide image (WSI) data for enhanced survival prediction. NaCAGaT overcomes integration barriers by focusing on key genomic-guided regions within histological slides, creating a unified representation of the tumor landscape. Comparative evaluations highlight NaCAGaT’s predictive performance over other models, especially among certain cancer types (e.g. Ovarian cancer). Additionally, NaCAGaT’s attention maps offer interpretability, showing how specific genomic features guide focus on tumor areas within WSIs, thus providing both predictive accuracy and explainability to support clinical decisions.
|