kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Investigating the Spectral Bias in Neural Networks
KTH, School of Engineering Sciences (SCI), Mathematics (Dept.), Mathematics (Div.).
2021 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE creditsStudent thesisAlternative title
Spektrala egenskaper i neurala nätverk (Swedish)
Abstract [en]

Neural networks have been shown to have astounding performance on a variety of different machine learning tasks and data sets, both for synthetic and real-world data.However, in spite of their widespread usage and implementation, the convergence and the training dynamics of neural networks are neither trivial, nor completely understood. This project regards investigating what some researchers refer to as the Spectral Bias of neural networks. Neural networks have been seen during training to initially fit to data of lower complexity rather than high. That is, the network learns features of the target that in the Fourier domain corresponds to lower frequencies first, before it learns features that correspond to high frequencies.

In this thesis, a quantitative way of measuring this bias is proposed, and empirical experiments are able to show the prevalence of the spectral bias with respect to this measure. The experiments compare how different network parameters, architectures, and optimizers affect the network's ability to find high frequency content during training. Both tailored experiments with synthetic target functions, and real-world data are considered. The machine learning problems investigated in this report are low dimensional regression problems. The real-world problem is natural image regression, and is performed on the DIV2K data set used in the NTIRE challenge on Single Image Super Resolution (SISR). The proposed measure shows that there exists a spectral bias in this task as well, indicating that it does not only occur in simulated data and controlled experiments, but also in data from real-world applications.

Abstract [sv]

Neurala nätverk har påvisats prestera utomordentligt på flertalet olika sorters maskininlärningsproblem och dataset. Trots dess utbredda användning och implementation är likväl inte dess konvergens och träningsbeteende varken triviala, eller fullt förstådda. Den här uppsatsen undersöker vad vissa forskare benämner spectral bias hos neurala nätverk. Neurala nätverk har observerats att först anpassa sig till data med låg komplexitet, före hög. Med andra ord, nätverken lär sig de egenskaper hos målfunktionen som motsvarar låga frekvenser i Fourierdomänen först, innan de anpassar sig till de som motsvarar höga frekvenser.

I den här rapporten föreslås ett kvantitativt sätt att mäta spectral bias, och empiriska experiment visar förekomsten av fenomenet med avseende på måttet. Experimenten jämför hur olika nätverksarkitekturer och träningsalgoritmer påverkar nätverkets förmåga att lära sig högfrekventa komponenter under träning. Både syntetiska experiment med konstgjorda målfunktioner, och problem med data från verkliga tillämpningar undersöks. Problemuppställningen som behandlas är lågdimensionell regression, och det verkliga problemet är bildregression applicerat data från datasetet DIV2K som används i NTIREs tävling för Single Image Super Resolution.Det föreslagna måttet påvisar spectral bias även för detta dataset, vilket indikerar att det inte bara uppkommer i konstruerade problem, utan även är något som bör tas hänsyn till i tillämpade problem.

Place, publisher, year, edition, pages
2021. , p. 72
Series
TRITA-SCI-GRU ; 2021:220
Keywords [en]
spectral bias, frequency principle, neural networks, machine learning, applied mathematics
Keywords [sv]
spectral bias, neurala nätverk, maskininlärning, tillämpad matematik
National Category
Computational Mathematics
Identifiers
URN: urn:nbn:se:kth:diva-317583OAI: oai:DiVA.org:kth-317583DiVA, id: diva2:1695513
External cooperation
H-Ai AB
Subject / course
Scientific Computing
Educational program
Master of Science - Applied and Computational Mathematics
Supervisors
Examiners
Available from: 2022-09-27 Created: 2022-09-14 Last updated: 2022-09-27Bibliographically approved

Open Access in DiVA

fulltext(1615 kB)604 downloads
File information
File name FULLTEXT01.pdfFile size 1615 kBChecksum SHA-512
e54d69c5c3aff3170517fc88d2aa55c019af70c5b637a8487244548af482bcf0e76e04aed091c159a0ecd6020185341d43a6fd708cc52e6de857def4f41de8bf
Type fulltextMimetype application/pdf

By organisation
Mathematics (Div.)
Computational Mathematics

Search outside of DiVA

GoogleGoogle Scholar
Total: 604 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 336 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf