Endre søk
Begrens søket
1 - 13 of 13
RefereraExporteraLink til resultatlisten
Permanent link
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Treff pr side
  • 5
  • 10
  • 20
  • 50
  • 100
  • 250
Sortering
  • Standard (Relevans)
  • Forfatter A-Ø
  • Forfatter Ø-A
  • Tittel A-Ø
  • Tittel Ø-A
  • Type publikasjon A-Ø
  • Type publikasjon Ø-A
  • Eldste først
  • Nyeste først
  • Skapad (Eldste først)
  • Skapad (Nyeste først)
  • Senast uppdaterad (Eldste først)
  • Senast uppdaterad (Nyeste først)
  • Disputationsdatum (tidligste først)
  • Disputationsdatum (siste først)
  • Standard (Relevans)
  • Forfatter A-Ø
  • Forfatter Ø-A
  • Tittel A-Ø
  • Tittel Ø-A
  • Type publikasjon A-Ø
  • Type publikasjon Ø-A
  • Eldste først
  • Nyeste først
  • Skapad (Eldste først)
  • Skapad (Nyeste først)
  • Senast uppdaterad (Eldste først)
  • Senast uppdaterad (Nyeste først)
  • Disputationsdatum (tidligste først)
  • Disputationsdatum (siste først)
Merk
Maxantalet träffar du kan exportera från sökgränssnittet är 250. Vid större uttag använd dig av utsökningar.
  • 1.
    Djurfeldt, Mikael
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Centra, Parallelldatorcentrum, PDC.
    Johansson, Christopher
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Ekeberg, Örjan
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Lundqvist, Mikael
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Massively parallel simulation of brain-scale neuronal network models2005Rapport (Annet vitenskapelig)
  • 2.
    Djurfeldt, Mikael
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Lundqvist, Mikael
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Johansson, Christopher
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Ekeberg, Örjan
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Brain-scale simulation of the neocortex on the IBM Blue Gene/L  supercomputer2008Inngår i: IBM Journal of Research and Development, ISSN 0018-8646, E-ISSN 2151-8556, Vol. 52, nr 1-2, s. 31-41Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

    Biologically detailed large-scale models of the brain can now be simulated thanks to increasingly powerful massively parallel supercomputers. We present an overview, for the general technical reader, of a neuronal network model of layers II/III of the neocortex built with biophysical model neurons. These simulations, carried out on an IBM Blue Gene/Le supercomputer, comprise up to 22 million neurons and 11 billion synapses, which makes them the largest simulations of this type ever performed. Such model sizes correspond to the cortex of a small mammal. The SPLIT library, used for these simulations, runs on single-processor as well as massively parallel machines. Performance measurements show good scaling behavior on the Blue Gene/L supercomputer up to 8,192 processors. Several key phenomena seen in the living brain appear as emergent phenomena in the simulations. We discuss the role of this kind of model in neuroscience and note that full-scale models may be necessary to preserve natural dynamics. We also discuss the need for software tools for the specification of models as well as for analysis and visualization of output data. Combining models that range from abstract connectionist type to biophysically detailed will help us unravel the basic principles underlying neocortical function.

  • 3.
    Johansson, Christopher
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Attractor neural networks with patchy connectivity2007Inngår i: ESANN 2005 Proceedings - 13th European Symposium on Artificial Neural Networks, 2007, s. 429-434Konferansepaper (Fagfellevurdert)
    Abstract [en]

    We investigate the effects of patchy (clustered) connectivity in sparsely connected attractor neural networks (NNs). This study is motivated by the fact that the connectivity of pyramidal neurons in layer II/III of the mammalian visual cortex is patchy and sparse. The storage capacity of hypercolumnar attractor NNs that use the Hopfield and Willshaw learning rules with this kind of connectivity is investigated analytically as well as by simulation experiments. We find that patchy connectivity gives a higher storage capacity, given an overall sparse connectivity and regardless of learning rule.

  • 4.
    Johansson, Christopher
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA. KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Attractor neural networks with patchy connectivity2006Inngår i: Neurocomputing, ISSN 0925-2312, E-ISSN 1872-8286, Vol. 69, nr 7-9, s. 627-633Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

     The neurons in the mammalian visual cortex are arranged in columnar structures, and the synaptic contacts of the pyramidal neurons in layer II/III are clustered into patches that are sparsely distributed over the surrounding cortical surface. Here, We use an attractor neural-network model of the cortical circuitry and investigate the effects of patchy connectivity, both on the properties of the network and the attractor dynamics. An analysis of the network shows that the signal-to-noise ratio of the synaptic potential sums are improved by the patchy connectivity, which results in a higher storage capacity. This analysis is performed for both the Hopfield and Willshaw learning rules and the results are confirmed by simulation experiments.

  • 5.
    Lundqvist, Mikael
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Djurfeldt, Mikael
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Attractor dynamics in a modular network model of neocortex2006Inngår i: Network, ISSN 0954-898X, E-ISSN 1361-6536, Network: Computation in Neural Systems, Vol. 17, nr 3, s. 253-276Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

    Starting from the hypothesis that the mammalian neocortex to a first approximation functions as an associative memory of the attractor network type, we formulate a quantitative computational model of neocortical layers 2/3. The model employs biophysically detailed multi-compartmental model neurons with conductance based synapses and includes pyramidal cells and two types of inhibitory interneurons, i.e., regular spiking non-pyramidal cells and basket cells. The simulated network has a minicolumnar as well as a hypercolumnar modular structure and we propose that minicolumns rather than single cells are the basic computational units in neocortex. The minicolumns are represented in full scale and synaptic input to the different types of model neurons is carefully matched to reproduce experimentally measured values and to allow a quantitative reproduction of single cell recordings. Several key phenomena seen experimentally in vitro and in vivo appear as emergent features of this model. It exhibits a robust and fast attractor dynamics with pattern completion and pattern rivalry and it suggests an explanation for the so-called attentional blink phenomenon. During assembly dynamics, the model faithfully reproduces several features of local UP states, as they have been experimentally observed in vitro, as well as oscillatory behavior similar to that observed in the neocortex.

  • 6.
    Lundqvist, Mikael
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Attractor dynamics in a modular network model of the cerebral cortex2006Inngår i: Neurocomputing, ISSN 0925-2312, E-ISSN 1872-8286, Vol. 69, nr 10-12, s. 1155-1159Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

    Computational models of cortical associative memory often take a top-down approach. We have previously described such an abstract model with a hypercolumnar structure. Here we explore a similar, biophysically detailed but subsampled network model of neocortex. We study how the neurodynamics and associative memory properties of this biophysical model relate to the abstract model as well as to experimental data. The resulting network exhibits attractor dynamics; pattern completion and pattern rivalry. It reproduces several features of experimentally observed local UP states, as well as oscillatory behavior on the gamma and theta time scales observed in the cerebral cortex.

  • 7.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Aspects of memory and representation in cortical computation2006Doktoravhandling, med artikler (Annet vitenskapelig)
    Abstract [sv]

    Denna avhandling i datalogi föreslår modeller för hur vissa beräkningsmässiga uppgifter kan utföras av hjärnbarken. Utgångspunkten är dels kända fakta om hur en area i hjärnbarken är uppbyggd och fungerar, dels etablerade modellklasser inom beräkningsneurobiologi, såsom attraktorminnen och system för gles kodning. Ett neuralt nätverk som producerar en effektiv gles kod i binär mening för sensoriska, särskilt visuella, intryck presenteras. Jag visar att detta nätverk, när det har tränats med naturliga bilder, reproducerar vissa egenskaper (receptiva fält) hos nervceller i lager IV i den primära synbarken och att de koder som det producerar är lämpliga för lagring i associativa minnesmodeller. Vidare visar jag hur ett enkelt autoassociativt minne kan modifieras till att fungera som ett generellt sekvenslärande system genom att utrustas med synapsdynamik. Jag undersöker hur ett abstrakt attraktorminnessystem kan implementeras i en detaljerad modell baserad på data om hjärnbarken. Denna modell kan sedan analyseras med verktyg som simulerar experiment som kan utföras på en riktig hjärnbark. Hypotesen att hjärnbarken till avsevärd del fungerar som ett attraktorminne undersöks och visar sig leda till prediktioner för dess kopplingsstruktur. Jag diskuterar också metodologiska aspekter på beräkningsneurobiologin idag.

  • 8.
    Rehn, Martin
    et al.
    KTH, Tidigare Institutioner, Numerisk analys och datalogi, NADA.
    Lansner, Anders
    KTH, Tidigare Institutioner, Numerisk analys och datalogi, NADA.
    Sequence memory with dynamical synapses2004Inngår i: Neurocomputing, ISSN 0925-2312, E-ISSN 1872-8286, Vol. 58-60, s. 271-278Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

    We present an attractor model of cortical memory, capable of sequence learning. The network incorporates a dynamical synapse model and is trained using a Hebbian learning rule that operates by redistribution of synaptic efficacy. It performs sequential recall or unordered recall depending on parameters. The model reproduces data from free recall experiments in humans. Memory capacity scales with network size, storing sequences at about 0.18 bits per synapse.

  • 9.
    Rehn, Martin
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Sommer, Friedrich
    A network model for the rapid formation of binary sparse representations of sensory inputs.Manuskript (preprint) (Annet vitenskapelig)
  • 10.
    Rehn, Martin
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Sommer, Friedrich T.
    A network that uses few active neurones to code visual input predicts the diverse shapes of cortical receptive fields2007Inngår i: Journal of Computational Neuroscience, ISSN 0929-5313, E-ISSN 1573-6873, Vol. 22, nr 2, s. 135-146Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

    Computational models of primary visual cortexhave demonstrated that principles of efficient coding andneuronal sparseness can explain the emergence of neuroneswith localised oriented receptive fields. Yet, existing modelshave failed to predict the diverse shapes of receptive fieldsthat occur in nature. The existing models used a particular“soft” form of sparseness that limits average neuronal activity.Here we study models of efficient coding in a broadercontext by comparing soft and “hard” forms of neuronalsparseness.As a result of our analyses, we propose a novel networkmodel for visual cortex. Themodel forms efficient visual representationsin which the number of active neurones, ratherthan mean neuronal activity, is limited. This form of hardsparseness also economises cortical resources like synapticmemory and metabolic energy. Furthermore, our model accuratelypredicts the distribution of receptive field shapesfound in the primary visual cortex of cat and monkey.

  • 11.
    Rehn, Martin
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Sommer, Friedrich T.
    Early sensory representation in cortex optimizes information content in small neural assemblies.Manuskript (preprint) (Annet vitenskapelig)
  • 12.
    Rehn, Martin
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Sommer, Friedrich T.
    Storing and restoring visual input with collaborative rank coding and associative memory2006Inngår i: Neurocomputing, ISSN 0925-2312, E-ISSN 1872-8286, Vol. 69, nr 10-12, s. 1219-1223Artikkel i tidsskrift (Fagfellevurdert)
    Abstract [en]

    Associative memory in cortical circuits has been held as a major mechanism for content-addressable memory. Hebbian synapses implement associative memory efficiently when storing sparse binary activity patterns. However, in models of sensory processing, representations are graded and not binary. Thus, it has been an unresolved question how sensory computation could exploit cortical associative memory.Here we propose a way how sensory processing could benefit from memory in cortical circuitry. We describe a new collaborative method of rank coding for converting graded stimuli, such as natural images, into sequences of synchronous spike volleys. Such sequences of sparse binary patterns can be efficiently processed in associative memory of the Willshaw type. We evaluate storage capacity and noise tolerance of the proposed system and demonstrate its use in cleanup and fill-in for noisy or occluded visual input

  • 13.
    Steinert, Rebecca
    et al.
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA. KTH, Skolan för datavetenskap och kommunikation (CSC), Beräkningsbiologi, CB.
    Rehn, Martin
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Lansner, Anders
    KTH, Skolan för datavetenskap och kommunikation (CSC), Numerisk Analys och Datalogi, NADA.
    Recognition of handwritten digits using sparse codes generated by local feature extraction methods2006Inngår i: ESANN'2006: 14th European Symposium on Artificial Neural Networks, 2006, s. 161-166Konferansepaper (Fagfellevurdert)
    Abstract [en]

    We investigate when sparse coding of sensory inputs canimprove performance in a classification task. For this purpose, we use astandard data set, the MNIST database of handwritten digits. We systematicallystudy combinations of sparse coding methods and neural classifiersin a two-layer network. We find that processing the image data intoa sparse code can indeed improve the classification performance, comparedto directly classifying the images. Further, increasing the level of sparsenessleads to even better performance, up to a point where the reductionof redundancy in the codes is offset by loss of information.

1 - 13 of 13
RefereraExporteraLink til resultatlisten
Permanent link
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf