Deep Learning for Bright Field-Based Cell Viability Prediction in 3D Spheroids: Reducing the cost of oncology research with generative AI
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE credits
Student thesisAlternative title
Djupinlärning för mikroskopibaserad cellöverlevnadsprediktion i 3D-sfäroider : Reducering av kostnaden av onkologiforskning med hjälp av generativ AI (Swedish)
Abstract [en]
In medical research, an analysis technique called staining is commonly used. This technique uses fluorescent dyes or colored compounds to highlight different areas, mechanisms, and states in cell samples, that a researcher then studies. While the method is popular it does involve labor in the laboratory, with corresponding labor costs, as well as cost for the materials. It is also time-consuming and can be difficult to optimize for each sample. In this thesis, a technology called virtual staining is attempted and tested, which is when a deep learning model attempts to recreate a staining protocol based on images without that particular staining. Most often the input images are simply brightfield images. In particular, this project tries to stain for viability in 3-dimensional images of Kuramochi ovarian cancer cell line spheroids using a conditional generative adversarial network. This has not been done before in research and is therefore of great interest for this Master’s thesis. The results were measured in terms of mean squared and absolute error as well as with peak-signal-to-noise ratio and a structural similarity index measure. Additionally, the resulting images were visually inspected and assessed qualitatively. While perfect reconstructions were not achieved, the model did manage to identify larger areas of living cells and dead cells within the cell cluster. The issues identified in developing this project can also guide future research in developing new technology to reduce the cost of oncology research with generative AI.
Abstract [sv]
I medicinsk forskning används ofta en analysmetod som kallas för färgning. Denna teknik använder färgrika föreningar för att framhäva olika delar, mekanismer och tillstånd i cellprover, som sedan studeras av en forskare. Även om tekniken är populär innebär den mycket arbete i laboratier och därmed tillhörande arbetskostnader, samt kostnader för material. Vidare tar färgning lång tid och är komplicerat. I denna avhandling prövas och testas en teknik som kallas för virtuell färgning, vilket innebär att en djupinlärningsmodell försöker återskapa en färgningsprotokoll baserat på avbildning utan detta specifika protokoll. Oftast är indatan helt enkelt ljusmikroskopibilder. Specifikt försöker detta projekt att färga för livsduglighet i tredimensionella bilder av sfäroider från Kuramochi-äggstockscancer cellinjen med hjälp av ett betingat generativt adverseriellt nätverk (cGAN). Detta har inte tidigare utförts inom forskning och är därför av stort intresse för denna masteravhandling. Resultatet mäts kvantitativt i genomsnittligt absolutfel och genomsnittligt kvadratiskt fel, samt i termer av ratiot mellan starkast signal och brus samt ett strukturellt likhetsindex. Vidare inspekteras modellerna visuellt för att diskutera kvalitativa skillnader. Även om perfekta rekonstruktioner inte uppnåddes lyckades modellen att identifiera större områden av liv och död inom cellklustret. De problem som identifierades i processen att utveckla detta projekt också kan vägleda framtida forskning för att utveckla ny teknik för att minska kostnaderna för onkologisk forskning med generativ AI.
Place, publisher, year, edition, pages
2024. , p. 55
Series
TRITA-EECS-EX ; 2024:688
Keywords [en]
Virtual Staining, Deep Learning, Conditional Generative Adversarial Networks
Keywords [sv]
Virtuall Infärgning, Djupinlärning, Betingat Generativt Adverseriellt Nätverk
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-359960OAI: oai:DiVA.org:kth-359960DiVA, id: diva2:1937231
External cooperation
Karolinska Institutet - Kallioniemi Group
Supervisors
Examiners
2025-02-172025-02-122025-02-17Bibliographically approved