kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Applying Residue Number Systems to Hardware Probability Models
KTH, School of Electrical Engineering and Computer Science (EECS).
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE creditsStudent thesisAlternative title
Tillämpning av residualnummersystem på sannolikhetsmodeller för hårdvara (Swedish)
Abstract [en]

The rapid advancement of machine learning, particularly in the realm of probabilistic models, faces challenges such as computational efficiency and accuracy. Deep neural networks (DNNs), while powerful and versatile, often lacks transparency and reasoning capabilities, making it less suitable for applications requiring clear decision-making processes. Probabilistic models, offering structured and interpretable systems for reasoning, present a promising alternative. However, accelerating these models remains a significant challenge due to their computational demands. This thesis investigates the application of Residue Number System (RNS) as an alternative to traditional fixed number systems for hardware-based probabilistic models. The research proposes an 8-moduli RNS-based approach to enhance parallel computation in Bayesian Networks (BNs). Through mathematical analysis and hardware implementation using Verilog and Vivado, the study demonstrates that RNS can significantly improve computational speed while maintaining acceptable accuracy. Error analysis and benchmarks reveal that RNS provides a competitive balance between performance and precision compared to 16-bit fixed-point and floating-point systems. The findings suggest that RNS is a viable and efficient alternative for applications requiring high-speed probabilistic inference, particularly in scenarios where numerical range and speed are critical.

Abstract [sv]

Den snabba utvecklingen av maskininlärning, i synnerhet inom probabilistiska modeller, står inför utmaningar som beräkningseffektivitet och noggrannhet. Djupa neurala nätverk (DNN) är visserligen kraftfulla och mångsidiga, men saknar ofta transparens och förmåga att resonera, vilket gör dem mindre lämpliga för tillämpningar som kräver tydliga beslutsprocesser. Probabilistiska modeller, som erbjuder strukturerade och tolkningsbara system för resonemang, är ett lovande alternativ. Att accelerera dessa modeller är dock fortfarande en betydande utmaning på grund av deras beräkningskrav. Denna avhandling undersöker tillämpningen av RNS (Residue Number System) som ett alternativ till traditionella system med fasta tal för hårdvarubaserade probabilistiska modeller. Forskningen föreslår ett 8-moduli RNS-baserat tillvägagångssätt för att förbättra parallellberäkning i Bayesianska nätverk. Genom matematisk analys och hårdvaruimplementering med hjälp av Verilog och Vivado visar studien att RNS kan förbättra beräkningshastigheten avsevärt samtidigt som acceptabel noggrannhet bibehålls. Felanalys och benchmarks visar att RNS ger en konkurrenskraftig balans mellan prestanda och precision jämfört med 16- bitars fastpunkts- och flyttalssystem. Resultaten tyder på att RNS är ett lönsamt och effektivt alternativ för applikationer som kräver probabilistisk inferens i hög hastighet, särskilt i scenarier där numerisk räckvidd och hastighet är kritiska.

Place, publisher, year, edition, pages
2024. , p. 54
Series
TRITA-EECS-EX ; 2024:879
Keywords [en]
Probabilistic models, Residue Number System (RNS), Bayesian Network (BN), hardware implementation, computational efficiency.
Keywords [sv]
Probabilistiska modeller, Residue Number System (RNS), Bayesian Network (BN), hårdvaruimplementering, beräkningseffektivitet.
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-360846OAI: oai:DiVA.org:kth-360846DiVA, id: diva2:1942117
Supervisors
Examiners
Available from: 2025-03-07 Created: 2025-03-04 Last updated: 2025-03-07Bibliographically approved

Open Access in DiVA

fulltext(1652 kB)58 downloads
File information
File name FULLTEXT01.pdfFile size 1652 kBChecksum SHA-512
05170ad7e20d0e725f08579b81a2ce7dae637e815c6684ac4b4d8e8b4f9ef7d807237cfa6154fd9fa1b01e6295a2642ec1880a7dcda6e7e904b30252539043f9
Type fulltextMimetype application/pdf

By organisation
School of Electrical Engineering and Computer Science (EECS)
Computer and Information Sciences

Search outside of DiVA

GoogleGoogle Scholar
Total: 58 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 329 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf