kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Recommendation System for Product Test Failures: A Detailed Analysis of Traditional Frequency-based Models and BERT-based Models
KTH, School of Electrical Engineering and Computer Science (EECS).
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE creditsStudent thesisAlternative title
Rekommendationssystem för Misslyckade Produkttester : En Detaljerad Analys av Traditionella Frekvensbaserade Modeller och BERT-baserade Modeller (Swedish)
Abstract [en]

Analyzing historical failure records can be useful in identifying whether a similar issue has arisen in previous software troubleshooting efforts in a telecommunications company. With the breakthroughs in Natural Language Processing (NLP), it is possible to achieve fast and convenient information retrieval in an automated way. Frequency-based models and BERT-based language models are two popular candidates for this task. In general, while frequency-based models are known for their ease of implementation and lower latency, they typically underperform in accuracy when compared to language models. Yet recent studies show this is not always the case. In this project, we explore the performance of different NLP models in view of accuracy and latency based on our proposed end-to-end recommendation system. The system instantly generates a list of similar failure records given a new one. It consists of three parts: data pre-processing, information retrieval, and information re-ranking. All the models are evaluated with our adaptive Recall@k that utilizes an adaptive k to alleviate the problem of imbalances in the available labeled data. Our study not only delves into the baseline BERT model but also assesses different transfer learning techniques and searching algorithms to achieve state-of-the-art results and conduct further comparisons. The experiments demonstrate that traditional models have the potential to match the performance of the fancy and computationally intensive finetuned BERT models. In addition, frequency-based models usually need shorter inference time than BERT models. Finally, using Approximate Nearest Neighbors (ANN) searching algorithms reduces latency significantly compared with the traditional brute-force search.

Abstract [sv]

Att analysera historiska felposter kan vara användbart för att identifiera om ett liknande problem har uppstått i tidigare programvarufelsökningsinsatser i ett telekommunikationsföretag. Med genombrotten inom Natural Language Processing (NLP) är det möjligt att uppnå snabb och bekväm informationshämtning på ett automatiserat sätt. Frekvensbaserade modeller och BERT-baserade språkmodeller är två populära kandidater för denna uppgift. I allmänhet, medan frekvensbaserade modeller är kända för sin enkla implementering och lägre latens, presterar de vanligtvis underpresterande i noggrannhet jämfört med språkmodeller. Ändå visar nyare studier att detta inte alltid är fallet. I detta projekt utforskar vi prestanda för olika NLP-modeller med tanke på noggrannhet och latens baserat på vårt föreslagna rekommendationssystem från slut till slut. Systemet genererar omedelbart en lista med liknande felposter som ges en ny. Den består av tre delar: förbearbetning av data, informationsinhämtning och omrangering av information. Alla modellerna utvärderas med vår adaptiva Recall@k som använder en adaptiv k för att lindra problemet med obalanser i tillgänglig märkt data. Vår studie går inte bara in på BERT-modellens baslinje utan bedömer också olika tekniker för överföringsinlärning och sökalgoritmer för att uppnå toppmoderna resultat och genomföra ytterligare jämförelser. Experimenten visar att traditionella modeller har potential att matcha prestandan hos de snygga och beräkningsintensiva finjusterade BERTmodellerna. Dessutom behöver frekvensbaserade modeller vanligtvis kortare slutledningstid än BERT-modeller. Slutligen, användning av ANNsökningsalgoritmer (Approximate Nearest Neighbors) minskar latensen avsevärt jämfört med den traditionella brute-force-sökningen.

Place, publisher, year, edition, pages
2024. , p. 53
Series
TRITA-EECS-EX ; 2024:88
Keywords [en]
Information Retrieval, BERT, Natural Language Processing, Recommendation System, Searching Algorithms
Keywords [sv]
Informationssökning, BERT, Behandling av Naturligt Språk, Rekommendationssystem, Sökalgoritmer
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-351573OAI: oai:DiVA.org:kth-351573DiVA, id: diva2:1887853
External cooperation
Ericsson AB
Educational program
Master of Science - Information and Network Engineering
Supervisors
Examiners
Available from: 2024-08-12 Created: 2024-08-09 Last updated: 2024-08-12Bibliographically approved

Open Access in DiVA

fulltext(1338 kB)185 downloads
File information
File name FULLTEXT01.pdfFile size 1338 kBChecksum SHA-512
cae9f6d5af007b8bc42eea7b5137b87303edc8a0f719b0920ad4d2abe6909e4eb3d979482e57e978e7dc70e8a2d4b1dac47d203040e4b98520c9ae6557662233
Type fulltextMimetype application/pdf

By organisation
School of Electrical Engineering and Computer Science (EECS)
Computer and Information Sciences

Search outside of DiVA

GoogleGoogle Scholar
Total: 186 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 440 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf