Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Unsupervised Feature Extraction of Clothing Using Deep Convolutional Variational Autoencoders
KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
2018 (Engelska)Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)Alternativ titel
Oövervakad extrahering av kännetecknande drag av kläder genom djupa självkodande neurala faltningsnätverk (Svenska)
Abstract [en]

As online retail continues to grow, large amounts of valuable data, such as transaction and search history, and, specifically for fashion retail, similarly structured images of clothing, is generated. By using unsupervised learning, it is possible to tap into this almost unlimited supply of data. This thesis set out to determine to what extent generative models – in particular, deep convolutional variational autoencoders – can be used to automatically extract representative features from images of clothing in a completely unsupervised manner. In reviewing variations of the autoencoder, both in terms of reconstruction quality and the ability to generate new realistic samples, results suggest that there exists an optimal size of the latent vector in relation to the image data complexity. Furthermore, by weighting the latent loss and generation loss in the loss function, it was possible to disentangle the learned features such that each feature captured a unique defining characteristic of clothing items (here t-shirts and tops).

Abstract [sv]

I takt med att E-handeln fortsätter att växa och kunderna i ökad utsträckning rör sig online, genereras stora mängder värdefull data, exempelvis transaktions- och sökhistorik, och specifikt för klädeshandeln, välstrukturerade bilder av kläder. Genom att använda oövervakad maskininlärning (unsupervised machine learning) är det möjligt att utnyttja denna, nästan obegränsade mängd data. Detta arbete syftar till att utreda i vilken utsträckning generativa modeller, särskilt djupa självkodande neurala faltningsnätverk (deep convolutional variational autoencoders), kan användas för att automatiskt extrahera definierande drag från bilder av kläder. Genom att granska olika varianter av självkodaren framträder en optimal relation mellan storleken på den latenta vektorn och komplexiteten på den bilddata som nätverket tränades på. Vidare noterades att dragen kan fördeladas unikt på variablerna, i detta fall t-shirts och toppar, genom att vikta den latenta förlustfunktionen.

Ort, förlag, år, upplaga, sidor
2018.
Serie
TRITA-EECS-EX ; 2018:378
Nationell ämneskategori
Datavetenskap (datalogi) Datorseende och robotik (autonoma system)
Identifikatorer
URN: urn:nbn:se:kth:diva-231811OAI: oai:DiVA.org:kth-231811DiVA, id: diva2:1230233
Externt samarbete
Boston Consulting Group (BCG)
Utbildningsprogram
Civilingenjörsexamen - Teknisk fysik
Handledare
Examinatorer
Tillgänglig från: 2018-08-31 Skapad: 2018-07-03 Senast uppdaterad: 2018-08-31Bibliografiskt granskad

Open Access i DiVA

fulltext(24512 kB)132 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 24512 kBChecksumma SHA-512
add7926b872ebc823a3eaaa92be8541dcda30aa5db28995e771d8d8ea7915dae4e29a42ca7762466f1a809ae5e0d5a45e9519201c872016df6923e4d4ad9db5e
Typ fulltextMimetyp application/pdf

Av organisationen
Robotik, perception och lärande, RPL
Datavetenskap (datalogi)Datorseende och robotik (autonoma system)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 132 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 524 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf