Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Scalability and Stability in Memory Attractor Networks
KTH, School of Engineering Sciences (SCI).
KTH, School of Engineering Sciences (SCI).
2018 (English)Independent thesis Basic level (degree of Bachelor), 10 credits / 15 HE creditsStudent thesis
Abstract [en]

The field of computational neuroscience seek to understand the principles behind the many complex abilities of the brain. This can be done by applying mathematical models to a more abstract version of the brain. One possible abstraction of the brain is made by partitioning the neocortex into sub-units of neuron populations. These populations are divided according to their response to stimuli, but the exact role of such populations is unclear and a subject in research. This thesis investigates whether a neuronal network consisting of sub-units of neurons, grouped into columns can perform associative memory functions. The memory attractor network investigated is built with inspira- tion from the Hopfield network, equipped with differential equations by Wilson and Cowan and modified to a columnar structure. Further we investigate some qualities in regards of stability and scalability in this network.The simulations show that the network has comparable storage capacity to the binary Hopfield network, constant but lower. They also show that the net- work becomes increasingly robust towards imbalances between excitatory and inhibitory unit sizes when upscaled; the stability increases with the network size.

Abstract [sv]

Inom beräkningsneurologin försöker man förstå principerna bakom hjärnans många komplexa egenskaper. Det är något som kan göras genom att matematiska modeller tillämpas på en mer abstrakt version av hjärnan. Det kan göras på flertalet sätt, men de facto att hjärnbarken kan delas upp i mindre delar av neuronpopulationer har öppnat upp för nya angreppsmetoder. Dessa populationer är klassificerade efter deras svar på stimuli, men den exakta rollen hos sådana populationer är oklar och ett ämne för aktuell forskning. I följande examensarbete undersöks om ett neuronalt nätverk bestående av subenheter av neuroner, grupperade i kolumner, kan utföra associativa minnesfunktioner. Minnesnätverket som undersöks är konstruerat med inspiration från det välkända Hopfield-nätverket, utrustat med differentialekvationer från Wilson och Cowan och modifierat till en kolumnär struktur. Vidare undersöker vi egenskaper i ett sådant nätverk med avseende på stabilitet och skalbarhet. Simuleringarna visar att nätverket har en jämförbar kapacitet med det binära Hopfield-nätverket, konstant men lägre. De visar också att nätverket blir mer robust mot obalans mellan de excitatoriska och inhibitoriska enhetsstorlekarna när det skalas upp; stabiliteten ökar med nätverkets storlek.

Place, publisher, year, edition, pages
2018. , p. 30
Series
TRITA-SCI-GRU ; 2018-125
National Category
Engineering and Technology
Identifiers
URN: urn:nbn:se:kth:diva-231742OAI: oai:DiVA.org:kth-231742DiVA, id: diva2:1229796
Supervisors
Examiners
Available from: 2018-07-02 Created: 2018-07-02 Last updated: 2018-07-02Bibliographically approved

Open Access in DiVA

No full text in DiVA

By organisation
School of Engineering Sciences (SCI)
Engineering and Technology

Search outside of DiVA

GoogleGoogle Scholar

urn-nbn

Altmetric score

urn-nbn
Total: 2 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf