There exists a knowledge gap in the field of Computational Neuroscience, where many learning models for neural networks fail to take into account the influence of neural noise. The purpose of this thesis was to address this knowledge gap by investigating the robustness of the Multidigraph learning rule (MDGL) when exposed to two kinds of neural noise: external noise and internal noise. The external noise was introduced as a random Poisson process in the form of network input. The internal noise was implemented by a Gaussian process and applied from within every recurrent neuron inside the network. A recurrent spiking neural network model was used. As a benchmark, the results for MDGL were compared to BPTT. The result showed that BPTT was more robust against both internal and external noise than MDGL. The accuracy and loss of the MDGL trained network were impacted negatively by both kinds of noise. Limitations in the work were small amounts of iterations in the simulations. Also, only a smaller fixed neural network was used, as opposed to neural networks of varying sizes.
Det finns en kunskapslucka inom området beräkningsneurovetenskap där många inlärningsmodeller för neurala nätverk misslyckas med att ta hänsyn till påverkan av neuralt brus. Syftet med denna avhandling var att adressera denna kunskapslucka genom att undersöka robustheten hos Multidigraph learning rule (MDGL) när den utsätts för två typer av neuralt brus: externt brus och internt brus. Det externa bruset infördes som en slumpmässig Poisson-process i form av nätverksinmatning. Det interna bruset implementerades som en Gaussisk-process och applicerades från varje återkommande neuron inuti nätverket. Ett återkommande neuralt nätverk, med neuroner som kommunicerar genom aktionpotentialer, användes. Som referens jämfördes resultaten för MDGL med BPTT. Resultatet visade att BPTT var mer robust mot både internt och externt brus än MDGL. Noggrannheten och förlusten för nätverket tränat med MDGL påverkades negativt av båda typerna av brus. Begränsningar i arbetet var att antalet iterationer i simuleringarna var små. Dessutom användes endast ett mindre neuronnät av en enda storlek, istället för att använda flera neuronnät av varierande storlekar och uppsättningar.