kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Compressing Deep Learning Models for State Of Charge Estimation
KTH, School of Electrical Engineering and Computer Science (EECS).
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE creditsStudent thesis
Abstract [en]

Lithium-ion batteries are used in almost all electric devices and vehicles. Measuring how much energy is stored in the battery is crucial, and that parameter is called the State of Charge (SoC). Precise SoC estimation avoids over-charging and over-discharging of the battery. Overcharging is harmful because it can make the battery hot, causing an explosion and reducing lifespan. Over-discharging can lead to reduced battery lifespan. The topic of this master’s thesis is the estimation of the SoC for lithium-ion batteries using Long Short-Term Memory (LSTM) models. The primary focus of the research is to explore the effects of different compression methods for SoC, specifically pruning and quantization, on the model’s performance and to explore how knowledge distillation can enhance the accuracy of these compressed models. The problem addressed is the lack of understanding regarding the optimal sequence of applying pruning, quantization, and knowledge distillation to achieve the best model accuracy and small size for SoC estimation models. Compression sequencing matters because each technique affects the model differently, and their combined effects on accuracy and model size depend on the order. This issue matters for SoC estimating embedded systems, which are constrained by limited computational power and memory, necessitating the implementation of small yet accurate models. In general, there is a tradeoff between network size and accuracy, with smaller networks typically exhibiting lower accuracy and larger networks offering higher accuracy. Therefore, improving the accuracy of smaller models is crucial. This thesis proposes a novel approach by examining various order combi- nations of pruning, quantization, and knowledge distillation. Traditionally, knowledge distillation is applied after model compression; however, this research explores alternative sequences to determine their impact on the model accuracy. The results of this study indicate that the highest compression rate of 2.5 times was achieved by the following methods while maintaining the lowest Mean Absolute Error (MAE): baseline model pruning of 60% and then distillation (reduction in MAE was 15-32%); baseline model distillation, pruning of 60% and then distillation (reduction in MAE was 3-31%).

Abstract [sv]

Litiumjonbatterier används i nästan alla elektriska apparater och fordon. Det är viktigt att mäta hur mycket energi som lagras i batteriet, och den parametern kallas SoC. En exakt uppskattning av SoC förhindrar överladdning och överurladdning av batteriet. Överladdning är skadligt eftersom det kan göra batteriet varmt, orsaka en explosion och förkorta livslängden. Överdriven urladdning kan leda till minskad livslängd för batteriet. Ämnet för denna masteruppsats är uppskattning av SoC för litiumjonbatterier med hjälp av LSTM-modeller. Det primära fokuset för forskningen är att undersöka effekterna av olika komprimeringsmetoder för SoC, särskilt beskärning och kvantisering, på modellens prestanda och att undersöka hur kunskapsdestillation kan förbättra noggrannheten hos dessa komprimerade modeller. Problemet som behandlas är bristen på förståelse för den optimala sekvensen för att tillämpa beskärning, kvantisering och kunskapsdestillation för att uppnå bästa modellnoggrannhet och liten storlek för SoC-estimeringsmodeller. Kompressionssekvensering är viktig eftersom varje teknik påverkar mo- dellen på olika sätt, och deras kombinerade effekter på noggrannhet och modellstorlek beror på ordningen. Denna fråga är viktig för estimering av inbyggda system, som begränsas av begränsad beräkningskraft och minne, vilket kräver implementering av små men exakta modeller. I allmänhet finns det en avvägning mellan nätverksstorlek och noggrannhet, där mindre nätverk vanligtvis uppvisar lägre noggrannhet och större nätverk erbjuder högre noggrannhet. Därför är det viktigt att förbättra noggrannheten hos mindre modeller. Denna avhandling föreslår ett nytt tillvägagångssätt genom att undersöka olika kombinationer av beskärning, kvantifiering och kunskapsdestillation. Traditionellt tillämpas kunskapsdestillation efter modellkomprimering, men i denna forskning undersöks alternativa sekvenser för att fastställa deras inverkan på modellens noggrannhet. Resultaten av denna studie visar att den högsta komprimeringsgraden på 2,5 gånger uppnåddes med följande metoder samtidigt som de lägsta MAE bibehölls: beskärning av basmodellen med 60% och sedan destillering (minskning av MAE var 15-32%); destillering av basmodellen, beskärning med 60% och sedan destillering (minskning av MAE var 3-31%).

Place, publisher, year, edition, pages
2024. , p. 81
Series
TRITA-EECS-EX ; 2024:899
Keywords [en]
Knowledge Distillation, Pruning, Quantization, State of Charge Estimation
Keywords [sv]
Kunskapsdistillering, beskärning, kvantisering, uppskattning av laddningstill- stånd
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-360866OAI: oai:DiVA.org:kth-360866DiVA, id: diva2:1942266
External cooperation
Knightec AB
Supervisors
Examiners
Available from: 2025-03-11 Created: 2025-03-04 Last updated: 2025-03-11Bibliographically approved

Open Access in DiVA

fulltext(3274 kB)54 downloads
File information
File name FULLTEXT02.pdfFile size 3274 kBChecksum SHA-512
55121c72d929edee9173f8b76c2c5a6be0f85cce7cfcf89744aaad740c9129a19a0734d54556c34c28107faf92767c44745f9786abcd589f0da59b39438a6797
Type fulltextMimetype application/pdf

By organisation
School of Electrical Engineering and Computer Science (EECS)
Computer and Information Sciences

Search outside of DiVA

GoogleGoogle Scholar
Total: 54 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 361 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf