kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Evolutionary architecture search for Hebbian deep learning
KTH, School of Electrical Engineering and Computer Science (EECS).
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE creditsStudent thesisAlternative title
Evolutionär arkitektursökning för Hebbsk djupinlärning (Swedish)
Abstract [en]

Recent advancements in deep learning have enabled the effective training of large models using backpropagation. However, this process is costly and the question remains whether this is the most efficient way to train these networks. As a result, local Hebbian learning rules --- stemming from early work on artificial neural network models of the brain --- have recently experienced a resurgence of interest. Most of these Hebbian learning algorithms currently operate on fully connected networks that, unlike the brain, have no inherent structure. The brain is highly structured as a result of evolution, which presumably facilitates efficient (local) learning. Evolution, in turn, has inspired another class of algorithms called evolutionary neural architecture search, which is used to develop effective artificial neural networks. Oftentimes, these networks are used for computer vision and evolution is used to evolve modular networks comprising convolutions and other operations.

Being unsupervised, Hebbian learning relies on self-organization and may therefore benefit from adding some degree of structure while its locality and speed of convergence could allow us to evolve such structures at scale. To explore this idea, I propose to pair a Hebbian learning rule for convolutions with evolutionary architecture search. Each Hebbian convolution has several hyperparameters and with basic tuning after evolving the architecture, the resulting network matches the performance of the one used in the original paper proposing the learning rule. The algorithm has evolved parallel neural pathways (i.e., sequences of convolutions and other operations) that appear to focus on different aspects of the input image. Skip connections seem to provide low-level context by accentuating salient features of the input image (e.g., a deer's antlers), which may be beneficial for particular samples. While this work fixes the convolution hyperparameters during evolution and only performs basic tuning afterward, the convolutions appear to be quite sensitive to these hyperparameters. The experimental results suggest that this affects the evolution as well, which seems to partially tailor the architecture to these hyperparameters. Therefore, integrated evolution of both the architecture and convolution hyperparameters may be crucial for effective evolution.

Abstract [sv]

De senaste framstegen inom djupinlärning har möjliggjort effektiv träning av stora modeller som använder backpropagation. Denna process är dock kostsam och frågan kvarstår om detta är det mest effektiva sättet att träna dessa nätverk. Som ett resultat har lokala Hebbska inlärningsregler --- som härrör från tidigt arbete med artificiella neurala nätverksmodeller av hjärnan --- nyligen upplevt ett återuppvaknande intresse. De flesta av dessa Hebbska inlärningsalgoritmer fungerar för närvarande på fullt kopplade nätverk som, till skillnad från hjärnan, inte har någon inneboende struktur. Hjärnan är mycket strukturerad som ett resultat av evolutionen, vilket förmodligen underlättar ett effektivt (lokalt) lärande. Evolution har i sin tur inspirerat en annan klass av algoritmer som kallas evolutionär neural arkitektursökning, som används för att utveckla effektiva artificiella neurala nätverk. Ofta används dessa nätverk för datorseende och evolution används för att utveckla modulära nätverk som omfattar faltningar och andra operationer.

Eftersom det inte är övervakat, bygger Hebbsk inlärning på självorganisering och kan därför dra nytta av att lägga till en viss grad av struktur medan dess lokalitet och konvergenshastighet kan tillåta oss att utveckla sådana strukturer i stor skala. För att utforska denna idé, föreslår jag att para ihop en Hebbsk inlärningsregel för faltningar med evolutionär arkitektursökning. Varje Hebbsk faltning har flera hyperparametrar och med grundläggande justering efter att arkitekturen har utvecklats, matchar det resulterande nätverket prestandan för det som användes i den ursprungliga artikeln som föreslår inlärningsregeln. Algoritmen har utvecklat parallella neurala banor (d.v.s. sekvenser av faltningar och andra operationer) som verkar fokusera på olika aspekter av ingångsbilden. Hoppa över anslutningar tycks ge lågnivåkontext genom att framhäva framträdande egenskaper hos inmatningsbilden (t.ex. en hjorts horn), vilket kan vara fördelaktigt för särskilda prover. Även om detta arbete fixar faltningshyperparametrarna under evolutionen och endast utför grundläggande justering efteråt, verkar faltningarna vara ganska känsliga för dessa hyperparametrar. De experimentella resultaten tyder på att detta också påverkar evolutionen, vilket tycks delvis skräddarsy arkitekturen till dessa hyperparametrar. Därför kan integrerad utveckling av både arkitekturen och faltningshyperparametrarna vara avgörande för effektiv utveckling.

Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology , 2024. , p. 51
Series
TRITA-EECS-EX ; 2024:578
Keywords [en]
Hebbian learning, neural architecture search, evolutionary algorithms, convolutional neural networks, deep learning
Keywords [sv]
Hebbsk inlärning, neural arkitektursökning, evolutionära algoritmer, neurala faltningsnätverk, djupinlärning
National Category
Computer Sciences
Identifiers
URN: urn:nbn:se:kth:diva-353037OAI: oai:DiVA.org:kth-353037DiVA, id: diva2:1896706
Subject / course
Computer Science
Presentation
2024-06-10, 13:00 (English)
Supervisors
Examiners
Available from: 2024-10-02 Created: 2024-09-10 Last updated: 2024-10-02Bibliographically approved

Open Access in DiVA

fulltext(3448 kB)217 downloads
File information
File name FULLTEXT01.pdfFile size 3448 kBChecksum SHA-512
019c10f082a43cdad5db7707707453f3415773fd6b51d530206ebc417152fcd9d4a29a77296d3379e2bb63e3cac15c0576ae78883576ea9a515997ec4efa57f1
Type fulltextMimetype application/pdf

Search in DiVA

By author/editor
van Berkum, Stefan
By organisation
School of Electrical Engineering and Computer Science (EECS)
Computer Sciences

Search outside of DiVA

GoogleGoogle Scholar
Total: 217 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 167 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf