kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Spherical Convolutional Neural Networks for Survival Rate Prediction in Cancer Patients
KTH, School of Engineering Sciences in Chemistry, Biotechnology and Health (CBH), Biomedical Engineering and Health Systems, Medical Imaging.ORCID iD: 0000-0003-3502-7441
KTH, School of Engineering Sciences in Chemistry, Biotechnology and Health (CBH), Biomedical Engineering and Health Systems, Medical Imaging. Karolinska Inst, Dept Oncol Pathol, Karolinska Univ Sjukhuset, Swede, Stockholm, Sweden..ORCID iD: 0000-0001-5125-4682
KTH, School of Engineering Sciences in Chemistry, Biotechnology and Health (CBH), Biomedical Engineering and Health Systems, Medical Imaging.ORCID iD: 0000-0002-7750-1917
KTH, School of Engineering Sciences in Chemistry, Biotechnology and Health (CBH), Biomedical Engineering and Health Systems, Medical Imaging.ORCID iD: 0000-0001-5765-2964
2022 (English)In: Frontiers in Oncology, E-ISSN 2234-943X, Vol. 12, article id 870457Article in journal (Refereed) Published
Abstract [en]

ObjectiveSurvival Rate Prediction (SRP) is a valuable tool to assist in the clinical diagnosis and treatment planning of lung cancer patients. In recent years, deep learning (DL) based methods have shown great potential in medical image processing in general and SRP in particular. This study proposes a fully-automated method for SRP from computed tomography (CT) images, which combines an automatic segmentation of the tumor and a DL-based method for extracting rotational-invariant features. MethodsIn the first stage, the tumor is segmented from the CT image of the lungs. Here, we use a deep-learning-based method that entails a variational autoencoder to provide more information to a U-Net segmentation model. Next, the 3D volumetric image of the tumor is projected onto 2D spherical maps. These spherical maps serve as inputs for a spherical convolutional neural network that approximates the log risk for a generalized Cox proportional hazard model. ResultsThe proposed method is compared with 17 baseline methods that combine different feature sets and prediction models using three publicly-available datasets: Lung1 (n=422), Lung3 (n=89), and H&N1 (n=136). We observed comparable C-index scores compared to the best-performing baseline methods in a 5-fold cross-validation on Lung1 (0.59 +/- 0.03 vs. 0.62 +/- 0.04). In comparison, it slightly outperforms all methods in inter-data set evaluation (0.64 vs. 0.63). The best-performing method from the first experiment reduced its performance to 0.61 and 0.62 for Lung3 and H&N1, respectively. DiscussionThe experiments suggest that the performance of spherical features is comparable with previous approaches, but they generalize better when applied to unseen datasets. That might imply that orientation-independent shape features are relevant for SRP. The performance of the proposed method was very similar, using manual and automatic segmentation methods. This makes the proposed model useful in cases where expert annotations are not available or difficult to obtain.

Place, publisher, year, edition, pages
Frontiers Media SA , 2022. Vol. 12, article id 870457
Keywords [en]
lung cancer, tumor segmentation, spherical convolutional neural network, survival rate prediction, deep learning, Cox Proportional Hazards, DeepSurv
National Category
Ophthalmology Computer Sciences Gynaecology, Obstetrics and Reproductive Medicine
Identifiers
URN: urn:nbn:se:kth:diva-313029DOI: 10.3389/fonc.2022.870457ISI: 000795556500001PubMedID: 35574400Scopus ID: 2-s2.0-85130209481OAI: oai:DiVA.org:kth-313029DiVA, id: diva2:1662633
Note

QC 20220601

Available from: 2022-06-01 Created: 2022-06-01 Last updated: 2025-02-11Bibliographically approved
In thesis
1. Advanced Machine Learning Methods for Oncological Image Analysis
Open this publication in new window or tab >>Advanced Machine Learning Methods for Oncological Image Analysis
2022 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]

Cancer is a major public health problem, accounting for an estimated 10 million deaths worldwide in 2020 alone. Rapid advances in the field of image acquisition and hardware development over the past three decades have resulted in the development of modern medical imaging modalities that can capture high-resolution anatomical, physiological, functional, and metabolic quantitative information from cancerous organs. Therefore, the applications of medical imaging have become increasingly crucial in the clinical routines of oncology, providing screening, diagnosis, treatment monitoring, and non/minimally-invasive evaluation of disease prognosis. The essential need for medical images, however, has resulted in the acquisition of a tremendous number of imaging scans. Considering the growing role of medical imaging data on one side and the challenges of manually examining such an abundance of data on the other side, the development of computerized tools to automatically or semi-automatically examine the image data has attracted considerable interest. Hence, a variety of machine learning tools have been developed for oncological image analysis, aiming to assist clinicians with repetitive tasks in their workflow.

This thesis aims to contribute to the field of oncological image analysis by proposing new ways of quantifying tumor characteristics from medical image data. Specifically, this thesis consists of six studies, the first two of which focus on introducing novel methods for tumor segmentation. The last four studies aim to develop quantitative imaging biomarkers for cancer diagnosis and prognosis.

The main objective of Study I is to develop a deep learning pipeline capable of capturing the appearance of lung pathologies, including lung tumors, and integrating this pipeline into the segmentation networks to leverage the segmentation accuracy. The proposed pipeline was tested on several comprehensive datasets, and the numerical quantifications show the superiority of the proposed prior-aware DL framework compared to the state of the art. Study II aims to address a crucial challenge faced by supervised segmentation models: dependency on the large-scale labeled dataset. In this study, an unsupervised segmentation approach is proposed based on the concept of image inpainting to segment lung and head-neck tumors in images from single and multiple modalities. The proposed autoinpainting pipeline shows great potential in synthesizing high-quality tumor-free images and outperforms a family of well-established unsupervised models in terms of segmentation accuracy.

Studies III and IV aim to automatically discriminate the benign from the malignant pulmonary nodules by analyzing the low-dose computed tomography (LDCT) scans. In Study III, a dual-pathway deep classification framework is proposed to simultaneously take into account the local intra-nodule heterogeneities and the global contextual information. Study IV seeks to compare the discriminative power of a series of carefully selected conventional radiomics methods, end-to-end Deep Learning (DL) models, and deep features-based radiomics analysis on the same dataset. The numerical analyses show the potential of fusing the learned deep features into radiomic features for boosting the classification power.

Study V focuses on the early assessment of lung tumor response to the applied treatments by proposing a novel feature set that can be interpreted physiologically. This feature set was employed to quantify the changes in the tumor characteristics from longitudinal PET-CT scans in order to predict the overall survival status of the patients two years after the last session of treatments. The discriminative power of the introduced imaging biomarkers was compared against the conventional radiomics, and the quantitative evaluations verified the superiority of the proposed feature set. Whereas Study V focuses on a binary survival prediction task, Study VI addresses the prediction of survival rate in patients diagnosed with lung and head-neck cancer by investigating the potential of spherical convolutional neural networks and comparing their performance against other types of features, including radiomics. While comparable results were achieved in intra-dataset analyses, the proposed spherical-based features show more predictive power in inter-dataset analyses.

In summary, the six studies incorporate different imaging modalities and a wide range of image processing and machine-learning techniques in the methods developed for the quantitative assessment of tumor characteristics and contribute to the essential procedures of cancer diagnosis and prognosis.

Abstract [sv]

Cancer är en global hälsoutmaning som uppskattas ansvara för cirka 10 miljoner dödsfall i hela världen, bara under året 2020. Framsteg inom medicinsk bildtagning och hårdvaruutveckling de senaste tre decennierna har banat vägen för moderna medicinska bildgivande system vars upplösningsförmåga tillåter att fånga information om tumörers anatomi, fysiologi, funktion samt metabolism. Medicinsk bildanalys har därför fått en mer betydelserik roll i klinikers dagliga rutiner inom onkologin, för bland annat screening, diagnostik, uppföljning av behandling samt icke-invasiv utvärdering av sjukdomsprognoser. Sjukvårdens behov av medicinska bilder har lett till att det nu på sjukhusen finns en enorm mängd medicinska bilder på alla moderna sjukhus. Med hänsyn till den viktiga roll medicinsk bilddata spelar i dagens sjukvård, samt den mängd manuellt arbete som behöver göras för att analysera den mängd data som genereras varje dag, så har utvecklingen av digitala verktyg för att för att automatiskt eller semi-automatiskt analysera  bilddatan alltid haft stort intresse. Därför har en rad maskininlärningsverktyg utvecklats för analys av onkologisk data, för att gripa sig an läkares repetitiva vardagssysslor.

Den här avhandlingen syftar att bidra till fältet “onkologisk bildanalys” genom att föreslå nya sätt att kvantifiera tumörers egenskaper från medicinsk bilddata. Specifikt, är denna avhandling baserad på sex artiklar där de första två har fokus att presentera nya metoder för segmentering av tumörer, och de resterande fyra ämnar att utveckla kvantitativa biomarkörer för cancerdiagnostik och prognos.

Huvudsyftet för “Studie I” har varit att utveckla en djupinlärnings-pipeline vars syfte är att fånga lungpatalogiers anatomier (inklusive lungtumörer) samt integrera detta med djupa neurala nätverk för segmentering för att nyttja det första nätverkets utfall för att förbättra segmenteringskvalitén. Den föreslagna pipelinen testades på flertalet dataset och numeriska analyser visar en överlägsna resultat för den föreslagna “prior-medvetna” djupinlärningsmetoden. “Studie II” ämnar att ta sig an ett viktig problem som övervakade segmenteringsmetoder ställs inför: ett beroende av enorma annoterade dataset. I denna studie föreslås en icke-övervakad segmenteringsmetod som baseras på konceptet “ifyllnad” (“inpainting”) för att segmentera tumörer i områdena: lungor samt huvud och hals i bilder från olika modaliteter. Den föreslagna metoden lyckas bättre än en familj väletablerade icke-oövervakade segmenteringsmodeller.

“Studie III” och “Studie IV” försöker automatiskt diskriminera benigna lungtumörer från maligna tumörer genom att analysera bilder från LDCT (lågdos-CT). I “Studie III“ föreslås ett djupt neuralt nätverk för klassificering vars grafstruktur tillåter lokal analys av tumörens inbördes heterogeniteter samt en helhetsbild från global kontextuell information. “Studie IV” försöker utvärdera noggrant utvalda metoder som grundar sig på att extrahera anatomiska särdrag från medicinska bilder. I studien jämförs konventionella “radiomics”-metoder med särdrag från neurala nätverk samt en kombination av båda på samma dataset. Resultat från studien visar att en kombination av särdrag från djupa neurala nätverk samt “radiomics” kan ge bättre resultat i klassificeringsproblemet.

“Studie V” har fokus på tidig bedömning av lungtumörers respons på behandling genom att utveckla ett set nya fysiologisk observerbara särdrag. Den presenterade metoden har använts för att kvantifiera förändringar i tumörers karaktär i PET-CT-undersökningar för att predicera patienters prognos två år efter senaste behandling. Metoden jämförts mot konventionella “radiomics” och utvärderingen visar att den föreslagna metoden ger förbättrade resultat. Till skilnad från “Studie V”, som fokuserar på att lösa ett binärt klassificeringsproblem, så försöker “Studie VI” predicera överlevnadsgraden hos patienter med lung- samt huvud och hals-cancer genom att undersöka neurala nätverk med sfäriska faltningsoperationer. Metoden jämförs mot, bland annat, “radiomics” och visar liknande resultat för analys på samma dataset, men bättre resultat för analys på olika dataset.

Sammanfattningsvis så utnyttjar de sex studierna olika medicinska bildgivande system samt en mängd olika bildbehandling- och maskininlärningstekniker för att utveckla verktyg för att kvantifierar tumörers egenskaper, som kan underlätta fastställande av diagnos och prognos.

Place, publisher, year, edition, pages
Stockholm: Universitetsservice US-AB, Sweden 2022, 2022. p. 147
Series
TRITA-CBH-FOU ; 2022:38
Keywords
Medical Image Analysis, Machine Learning, Deep Learning, Survival Analysis, Early Response Assessment, Tumor Classification, Tumor Segmentation
National Category
Medical Imaging
Research subject
Medical Technology
Identifiers
urn:nbn:se:kth:diva-316665 (URN)978-91-8040-313-9 (ISBN)
Public defence
2022-09-30, https://kth-se.zoom.us/j/64637374028, T2, Hälsovägen 11C, Huddinge, 13:00 (English)
Opponent
Supervisors
Note

QC 2022-08-29

Available from: 2022-08-29 Created: 2022-08-26 Last updated: 2025-02-09Bibliographically approved
2. Geometric Deep Learning for Medical Image Processing Problems
Open this publication in new window or tab >>Geometric Deep Learning for Medical Image Processing Problems
2024 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]

This thesis consists of four studies, each suggesting incorporating geometric deep-learning methods in medical image-processing pipelines.

The rationale here is that a) conventional Deep learning (DL) models for medical imaging depend highly on the quality and quantity of training data, and b) medical images commonly represent structures with intrinsic geometrical properties that standard DL models do not necessarily respect. 

The first study focuses on predicting stiffness tensors from micro-CT trabecular bone scans. This prediction task requires learning from the complex structures of trabecular bone with limited data available. Our proposed model uses a spherical convolutional neural network (SphCNN) for this purpose. The second study investigates lung cancer survival rate prediction based on image-based features. We evaluate a proposed SphCNN-based pipeline using CT images of non-small cell lung cancer. The third study centres on the stability of the streamline tractography algorithm under arbitrary 3D rotations. We propose integrating an SE(3)-equivariant transformer model into the tractography framework to preserve rotational equivariance. The fourth study evaluates a structural connectivity pipeline in combination with tractography filtering, subsequent classification and analysis. The pipeline is evaluated based on its ability to identify group differences in brain connectivity related to Parkinson's disease. 

Abstract [sv]

I denna avhandling presenteras fyra studier som tillsammans utforskar en integration av geometriska djupinlärningsmetoder i bildbehandling för medicinska tillämpningar.

Motivationen till detta är att a) konventionella djupinlärningsmodeller för medicinsk avbildning i hög grad är beroende av träningsdatans mängd och kvalitet, samt b) medicinska bilder ofta avbildar strukturer med inneboende geometriska egenskaper som traditionella djupinlärningsmodeller inte nödvändigtvis tar hänsyn till.

Den första studien fokuserar på att förutsäga styvhetstensorer baserat på mikro-CT-bilder av trabekulärt ben. Denna förutsägelse kräver inlärning från de komplexa strukturerna i trabekulärt ben med begränsad tillgång på data. Vår föreslagna modell använder ett sfäriskt faltningseuronnät  (SphCNN) för detta ändamål. Den andra studien undersöker överlevnadsprognoser vid lungcancer utifrån bildbaserade egenskaper. Vi utvärderar en föreslagen pipeline, baserad på SphCNN, med CT-bilder av icke-småcellig lungcancer. Den tredje studien fokuserar på stabiliteten hos en traktografialgoritm för riktade fibrer under godtyckliga tredimensionella rotationer. Vi föreslår att integrera en SE(3)-ekvivariant transformermodell i traktografins ramverk för att bevara rotations-ekvivariansen. Den fjärde studien utvärderar en pipeline för strukturell konnektivitet i kombination med traktogramfiltrering, klassificering och analys. Pipelinen utvärderas utifrån dess förmåga att identifiera skillnader i hjärnans konnektivitet kopplat till Parkinsons sjukdom.

Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology, 2024. p. 114
Series
TRITA-CBH-FOU ; 2024:48
Keywords
Geometric Deep Learning, Medical Image Processing, Diffusion Brain MRI, Spherical Convolutional Neural Networks, Structural Connectivity, Bone Stiffness Tensor Prediction, Lung Cancer Survival Rate Prediction, Tractography, Geometriskt djupinlärning, Medicinsk bildbehandling, Diffusions hjärn-MRI, Sfäriska konvolutionella neurala nätverk, Strukturell konnektivitet, Styvhetstensorprediktion för ben, Lungcancersöverlevnadsprognos, Traktografi
National Category
Medical Imaging
Research subject
Medical Technology
Identifiers
urn:nbn:se:kth:diva-355899 (URN)978-91-8106-095-9 (ISBN)
Public defence
2024-11-29, T2 (Jacobssonsalen), Hälsovägen 11C, Huddinge, via Zoom: https://kth-se.zoom.us/j/62762467727, Stockholm, 09:00 (English)
Opponent
Supervisors
Note

QC 2024-11-06

Available from: 2024-11-06 Created: 2024-11-06 Last updated: 2025-02-09Bibliographically approved

Open Access in DiVA

No full text in DiVA

Other links

Publisher's full textPubMedScopus

Authority records

Sinzinger, FabianAstaraki, MehdiSmedby, ÖrjanMoreno, Rodrigo

Search in DiVA

By author/editor
Sinzinger, FabianAstaraki, MehdiSmedby, ÖrjanMoreno, Rodrigo
By organisation
Medical Imaging
In the same journal
Frontiers in Oncology
OphthalmologyComputer SciencesGynaecology, Obstetrics and Reproductive Medicine

Search outside of DiVA

GoogleGoogle Scholar

doi
pubmed
urn-nbn

Altmetric score

doi
pubmed
urn-nbn
Total: 136 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf