Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
The Preimage of Rectifier Network Activities
KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsvetenskap och beräkningsteknik (CST).ORCID-id: 0000-0001-5211-6388
KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
KTH, Skolan för elektroteknik och datavetenskap (EECS), Robotik, perception och lärande, RPL.
Visa övriga samt affilieringar
2017 (Engelska)Ingår i: International Conference on Learning Representations (ICLR), 2017Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

The preimage of the activity at a certain level of a deep network is the set of inputs that result in the same node activity. For fully connected multi layer rectifier networks we demonstrate how to compute the preimages of activities at arbitrary levels from knowledge of the parameters in a deep rectifying network. If the preimage set of a certain activity in the network contains elements from more than one class it means that these classes are irreversibly mixed. This implies that preimage sets which are piecewise linear manifolds are building blocks for describing the input manifolds specific classes, ie all preimages should ideally be from the same class. We believe that the knowledge of how to compute preimages will be valuable in understanding the efficiency displayed by deep learning networks and could potentially be used in designing more efficient training algorithms.

Ort, förlag, år, upplaga, sidor
2017.
Nationell ämneskategori
Datorseende och robotik (autonoma system) Datorseende och robotik (autonoma system)
Identifikatorer
URN: urn:nbn:se:kth:diva-259164Scopus ID: 2-s2.0-85071123889OAI: oai:DiVA.org:kth-259164DiVA, id: diva2:1350663
Konferens
International Conference on Learning Representations (ICLR)
Anmärkning

QC 20190916

Tillgänglig från: 2019-09-11 Skapad: 2019-09-11 Senast uppdaterad: 2019-09-16Bibliografiskt granskad

Open Access i DiVA

fulltext(359 kB)12 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 359 kBChecksumma SHA-512
e0989b5d434118f78b07f7fbef35e0a400aba8657efadcc1eb26950039f7e0b786313e2d48b79774a9df6bdad3fb76e6bd11ca80101cf0013f20e2a6a3dafbd6
Typ fulltextMimetyp application/pdf

Scopus

Personposter BETA

Azizpour, HosseinRazavian, Ali SharifSullivan, JosephineSmith, Kevin

Sök vidare i DiVA

Av författaren/redaktören
Carlsson, StefanAzizpour, HosseinRazavian, Ali SharifSullivan, JosephineSmith, Kevin
Av organisationen
Robotik, perception och lärande, RPLBeräkningsvetenskap och beräkningsteknik (CST)Beräkningsvetenskap och beräkningsteknik (CST)
Datorseende och robotik (autonoma system)Datorseende och robotik (autonoma system)

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 12 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 229 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf