kth.sePublikationer KTH
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Artificial Intelligence for Medical Image Analysis with Limited Data
KTH, Skolan för elektroteknik och datavetenskap (EECS), Datavetenskap, Beräkningsvetenskap och beräkningsteknik (CST). (Kevin Smith)ORCID-id: 0000-0003-1401-3497
2024 (Engelska)Doktorsavhandling, sammanläggning (Övrigt vetenskapligt)
Abstract [en]

Artificial intelligence (AI) is progressively influencing business, science, and society, leading to major socioeconomic changes. However, its application in real-world problems varies significantly across different sectors. One of the primary challenges limiting the widespread adoption of AI in certain areas is data availability. Medical image analysis is one of these domains, where the process of gathering data and labels is often challenging or even infeasible due to legal and privacy concerns, or due to the specific characteristics of diseases. Logistical obstacles, expensive diagnostic methods and the necessity for invasive procedures add to the difficulty of data collection. Even when ample data exists, the substantial cost and logistical hurdles in acquiring expert annotations pose considerable challenges. Thus, there is a pressing need for the development of AI models that can operate in low-data settings.

In this thesis, we explore methods that improve the generalization and robustness of models when data availability is limited. We highlight the importance of model architecture and initialization, considering their associated assumptions and biases, to determine their effectiveness in such settings. We find that models with fewer built-in assumptions in their architecture need to be initialized with pre-trained weights, executed via transfer learning. This prompts us to explore how well transfer learning performs when models are initially trained in the natural domains, where data is abundant, before being used for medical image analysis where data is limited. We identify key factors responsible for transfer learning’s efficacy, and explore its relationship with data size, model architecture, and the distance between the target domain and the one used for pretraining. In cases where expert labels are scarce, we introduce the concept of complementary labels as the means to expand the labeling set. By providing information about other objects in the image, these labels help develop richer representations, leading to improved performance in low-data regimes. We showcase the utility of these methods by streamlining the histopathology-based assessment of chronic kidney disease in an industrial pharmaceutical setting, reducing the turnaround time of study evaluations by 97%. Our results demonstrate that AI models developed for low data regimes are capable of delivering industrial-level performance, proving their practical use in drug discovery and healthcare.

Abstract [sv]

Artificiell intelligens (AI) påverkar gradvis allt fler domäner såsom affärsvärlden, vetenskapsvärlden och samhället i stort, vilket leder till stora socioekonomiska förändringar.Dock varierar dess tillämpning i verkliga problem avsevärt mellan olika sektorer.En av de främsta utmaningarna som begränsar den breda adoptionen av AI inom vissa områden är tillgången på data.Analys av medicinska bilder är en av dessa domäner, där möjligheten att samla data och annoteringar ofta är begränsad eller till och med omöjlig på grund av juridiska och integritetsmässiga skäl, eller på grund av specifika sjukdomskaraktäristiska problem.Logistiska hinder, dyra diagnostiska metoder och behovet av invasiva procedurer försvårar ytterligare datainsamling.Även när det finns gott om data utgör den betydande kostnaden och logistiska hinder för att skaffa expertannotationer betydande utmaningar.Således finns det ett tydligt behov för utvecklingen av AI-modeller som kan även fungera i med begränsade mängder data.

I denna avhandling utforskar vi metoder som förbättrar generaliseringen och robustheten hos modeller när tillgången på data är begränsad.Vi betonar vikten av modellarkitektur och initialisering, med fokus på aspekter som inbyggda antaganden, för att avgöra deras effektivitet under sådana förhållanden.Vi finner att modeller med färre inbyggda antaganden i sin arkitektur behöver initialiseras med förtränade vikter, genomfört via överföringsinlärning.Detta leder oss till att utforska hur väl överföringsinlärning presterar när modeller initialt tränas inom de naturliga domänerna, där data är rikligt tillgänglig, innan de används för analys av medicinska bilder där data är begränsad.Vi identifierar nyckelfaktorer som påverkar överföringsinlärningens effektivitet och utforskar påverkan som datasetsstorlek, modellarkitektur och avståndet mellan måldomänen och den som används för förträning.I fall där få expertannoteringar är tillgängliga introducerar vi konceptet kompletterande annoteringar, som en strategi för att utöka annoteringssättet.Genom att tillhandahålla information om andra objekt i bilden hjälper dessa annoteringar till att utveckla rikare representationer, vilket leder till förbättrad prestanda i domäner med begränsade mängder data.Vi visar användbarheten av dessa metoder genom att effektivisera histopatologi-baserad utvärderingen av kronisk njursjukdom i en industriell miljö, vilket reducerar tiden för studieutvärderingar med 97%.Våra resultat demonstrerar att AI-modeller utvecklade för förhållanden med små datamängder är kapabla att leverera effektivisering i industriell relevanta situationer, vilket visar på dess praktiska användbarhet inom läkemedelsupptäckt och hälsovård.

Ort, förlag, år, upplaga, sidor
Stockholm: KTH Royal Institute of Technology, 2024. , s. xi, 109
Serie
TRITA-EECS-AVL ; 2024:48
Nationell ämneskategori
Medicinsk bildvetenskap Datavetenskap (datalogi)
Forskningsämne
Datalogi
Identifikatorer
URN: urn:nbn:se:kth:diva-346236ISBN: 978-91-8040-928-5 (tryckt)OAI: oai:DiVA.org:kth-346236DiVA, id: diva2:1856694
Disputation
2024-05-30, Kollegiesalen, Brinellvägen 6, Stockholm, 13:00 (Engelska)
Opponent
Handledare
Anmärkning

QC 20240508

Tillgänglig från: 2024-05-08 Skapad: 2024-05-07 Senast uppdaterad: 2025-02-09Bibliografiskt granskad
Delarbeten
1. Pretrained ViTs yield versatile representations for medical images
Öppna denna publikation i ny flik eller fönster >>Pretrained ViTs yield versatile representations for medical images
(Engelska)Manuskript (preprint) (Övrigt vetenskapligt)
Abstract [en]

Convolutional Neural Networks (CNNs) have reigned for a decade as the de facto approach to automated medical image diagnosis, pushing the state-of-the-art in classification, detection and segmentation tasks. Over the last years, vision transformers (ViTs) have appeared as a competitive alternative to CNNs, yielding impressive levels of performance in the natural image domain, while possessing several interesting properties that could prove beneficial for medical imaging tasks. In this work, we explore the benefits and drawbacks of transformer-based models for medical image classification. We conduct a series of experiments on several standard 2D medical image benchmark datasets and tasks. Our findings show that, while CNNs perform better if trained from scratch, off-the-shelf vision transformers can perform on par with CNNs when pretrained on ImageNet, both in a supervised and self-supervised setting, rendering them as a viable alternative to CNNs.

Nationell ämneskategori
Annan elektroteknik och elektronik
Forskningsämne
Datalogi
Identifikatorer
urn:nbn:se:kth:diva-346235 (URN)10.48550/arXiv.2303.07034 (DOI)
Anmärkning

QC 20240508

Tillgänglig från: 2024-05-07 Skapad: 2024-05-07 Senast uppdaterad: 2024-05-08Bibliografiskt granskad
2. What Makes Transfer Learning Work for Medical Images: Feature Reuse & Other Factors
Öppna denna publikation i ny flik eller fönster >>What Makes Transfer Learning Work for Medical Images: Feature Reuse & Other Factors
Visa övriga...
2022 (Engelska)Ingår i: 2022 IEEE/CVF conference on computer vision and pattern recognition (CVPR), Institute of Electrical and Electronics Engineers (IEEE) , 2022, s. 9215-9224Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

Transfer learning is a standard technique to transfer knowledge from one domain to another. For applications in medical imaging, transfer from ImageNet has become the de-facto approach, despite differences in the tasks and image characteristics between the domains. However, it is unclear what factors determine whether - and to what extent transfer learning to the medical domain is useful. The longstanding assumption that features from the source domain get reused has recently been called into question. Through a series of experiments on several medical image benchmark datasets, we explore the relationship between transfer learning, data size, the capacity and inductive bias of the model, as well as the distance between the source and target domain. Our findings suggest that transfer learning is beneficial in most cases, and we characterize the important role feature reuse plays in its success.

Ort, förlag, år, upplaga, sidor
Institute of Electrical and Electronics Engineers (IEEE), 2022
Serie
IEEE Conference on Computer Vision and Pattern Recognition, ISSN 1063-6919
Nationell ämneskategori
Beräkningsmatematik
Identifikatorer
urn:nbn:se:kth:diva-322794 (URN)10.1109/CVPR52688.2022.00901 (DOI)000870759102028 ()2-s2.0-85137378486 (Scopus ID)
Konferens
IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), JUN 18-24, 2022, New Orleans, LA
Anmärkning

Part of proceedings ISBN 978-1-6654-6946-3

QC 20230131

Tillgänglig från: 2023-01-31 Skapad: 2023-01-31 Senast uppdaterad: 2024-05-20Bibliografiskt granskad
3. Adding seemingly uninformative labels helps in low data regimes
Öppna denna publikation i ny flik eller fönster >>Adding seemingly uninformative labels helps in low data regimes
Visa övriga...
2020 (Engelska)Ingår i: 37th International Conference on Machine Learning, ICML 2020, International Machine Learning Society (IMLS) , 2020, s. 6731-6740Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

Evidence suggests that networks trained on large datasets generalize well not solely because of the numerous training examples, but also class diversity which encourages learning of enriched features. This raises the question of whether this remains true when data is scarce - is there an advantage to learning with additional labels in low-data regimes In this work, we consider a task that requires difficult-To-obtain expert annotations: Tumor segmentation in mammography images. We show that, in low-data settings, performance can be improved by complementing the expert annotations with seemingly uninformative labels from non-expert annotators, turning the task into a multi-class problem. We reveal that these gains increase when less expert data is available, and uncover several interesting properties through further studies. We demonstrate our findings on CSAW-S, a new dataset that we introduce here, and confirm them on two public datasets.

Ort, förlag, år, upplaga, sidor
International Machine Learning Society (IMLS), 2020
Nyckelord
Image segmentation, Machine learning, Data settings, Expert annotations, Large datasets, Mammography images, Multi-class problems, Training example, Tumor segmentation, Large dataset
Nationell ämneskategori
Datorgrafik och datorseende
Identifikatorer
urn:nbn:se:kth:diva-302861 (URN)2-s2.0-85105183400 (Scopus ID)
Konferens
37th International Conference on Machine Learning, ICML 2020, 13 July 2020 through 18 July 2020
Anmärkning

QC 20211002

Tillgänglig från: 2021-10-02 Skapad: 2021-10-02 Senast uppdaterad: 2025-02-07Bibliografiskt granskad
4. Streamlining the Histopathological Workflow in Chronic Kidney Disease with AI
Öppna denna publikation i ny flik eller fönster >>Streamlining the Histopathological Workflow in Chronic Kidney Disease with AI
(Engelska)Manuskript (preprint) (Övrigt vetenskapligt)
Abstract [en]

Pathology assessment and scoring are essential steps for the evaluation of tissue changes in clinical and preclinical studies of chronic kidney disease, but are often costly and inefficient. Moreover, inconsistencies in manual scoring makes comparisons across different studies difficult. In this work, we identify areas where AI-assistance can streamline and improve the pathology workflow and demonstrate the efficiency of our process in an industrial setting. We show that repetitive and time-consuming tasks such as identifying and annotating glomeruli can be fully automated using AI without loss of quality. By providing a streamlined interface that facilitates rapid pathologist scoring, additional savings can be achieved, reducing the time spent per slide by 92%. We also present a fully automated scoring process, where the pathologist’s role is limited to general overview and quality control, which further increases time savings up to 98.7% compared to traditional manual scoring. Finally, we show that AI models trained using our method provide highly accurate scoring of studies they were not trained on in a routine discovery pipeline (R value of 0.964 between the AI predictions and the pathologists score). The models can also effectively translate from mouse models to human biopsies, even without pre-training on human tissue.

Nationell ämneskategori
Medicinsk bildvetenskap Datorgrafik och datorseende
Forskningsämne
Datalogi
Identifikatorer
urn:nbn:se:kth:diva-346253 (URN)
Anmärkning

QC 20240508

Tillgänglig från: 2024-05-08 Skapad: 2024-05-08 Senast uppdaterad: 2025-02-09Bibliografiskt granskad

Open Access i DiVA

kappa(74416 kB)930 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 74416 kBChecksumma SHA-512
15358456c05051b4c59e84f94955a4ef331348874f558bc4ba46a841d9abcf3914958d6feb1df02613795bac98297935d5721a81bc700b6ad30af04bcb1b5e6b
Typ fulltextMimetyp application/pdf

Person

Matsoukas, Christos

Sök vidare i DiVA

Av författaren/redaktören
Matsoukas, Christos
Av organisationen
Beräkningsvetenskap och beräkningsteknik (CST)
Medicinsk bildvetenskapDatavetenskap (datalogi)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 930 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

isbn
urn-nbn

Altmetricpoäng

isbn
urn-nbn
Totalt: 2705 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf