kth.sePublikationer
Driftinformation
Ett driftavbrott i samband med versionsuppdatering är planerat till 24/9-2024, kl 12.00-14.00. Under den tidsperioden kommer DiVA inte att vara tillgängligt
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Automatic brain segmentation using artificial neural networks with shape context
KTH, Skolan för teknik och hälsa (STH), Medicinsk teknik, Medicinsk bildbehandling och visualisering.
KTH, Skolan för teknik och hälsa (STH), Medicinsk teknik, Medicinsk bildbehandling och visualisering.
KTH, Skolan för teknik och hälsa (STH), Medicinsk teknik, Medicinsk bildbehandling och visualisering.ORCID-id: 0000-0002-7750-1917
KTH, Skolan för teknik och hälsa (STH), Medicinsk teknik, Medicinsk bildbehandling och visualisering.ORCID-id: 0000-0002-0442-3524
2018 (Engelska)Ingår i: Pattern Recognition Letters, ISSN 0167-8655, E-ISSN 1872-7344, Vol. 101, s. 74-79Artikel i tidskrift (Refereegranskat) Published
Abstract [en]

Segmenting brain tissue from MR scans is thought to be highly beneficial for brain abnormality diagnosis, prognosis monitoring, and treatment evaluation. Many automatic or semi-automatic methods have been proposed in the literature in order to reduce the requirement of user intervention, but the level of accuracy in most cases is still inferior to that of manual segmentation. We propose a new brain segmentation method that integrates volumetric shape models into a supervised artificial neural network (ANN) framework. This is done by running a preliminary level-set based statistical shape fitting process guided by the image intensity and then passing the signed distance maps of several key structures to the ANN as feature channels, in addition to the conventional spatial-based and intensity-based image features. The so-called shape context information is expected to help the ANN to learn local adaptive classification rules instead of applying universal rules directly on the local appearance features. The proposed method was tested on a public datasets available within the open MICCAI grand challenge (MRBrainS13). The obtained average Dice coefficient were 84.78%, 88.47%, 82.76%, 95.37% and 97.73% for gray matter (GM), white matter (WM), cerebrospinal fluid (CSF), brain (WM + GM) and intracranial volume respectively. Compared with other methods tested on the same dataset, the proposed method achieved competitive results with comparatively shorter training time.

Ort, förlag, år, upplaga, sidor
Elsevier, 2018. Vol. 101, s. 74-79
Nationell ämneskategori
Medicinsk bildbehandling
Identifikatorer
URN: urn:nbn:se:kth:diva-219889DOI: 10.1016/j.patrec.2017.11.016ISI: 000418101400011Scopus ID: 2-s2.0-85036471005OAI: oai:DiVA.org:kth-219889DiVA, id: diva2:1166503
Anmärkning

QC 20171215

Tillgänglig från: 2017-12-15 Skapad: 2017-12-15 Senast uppdaterad: 2022-06-26Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

Förlagets fulltextScopus

Person

Mahbod, AmirrezaChowdhury, ManishSmedby, ÖrjanWang, Chunliang

Sök vidare i DiVA

Av författaren/redaktören
Mahbod, AmirrezaChowdhury, ManishSmedby, ÖrjanWang, Chunliang
Av organisationen
Medicinsk bildbehandling och visualisering
I samma tidskrift
Pattern Recognition Letters
Medicinsk bildbehandling

Sök vidare utanför DiVA

GoogleGoogle Scholar

doi
urn-nbn

Altmetricpoäng

doi
urn-nbn
Totalt: 368 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf