kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Leveraging Large Language Models for Efficient Failure Analysis in Game Development: Using LLMs to improve Game Developers Workflows and Software Quality
KTH, School of Electrical Engineering and Computer Science (EECS).
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE creditsStudent thesisAlternative title
Utnyttja Stora SpråkModeller för Effektiv Misslyckandeanalys i Spelutveckling : Använda SSM för att förbättra Spelutvecklares Arbetsflöden och Mjukvarukvalitet (Swedish)
Abstract [en]

In games, and more generally in the field of software development, early detection of bugs is vital to maintain a high quality of the final product. Automated tests are a powerful tool that can catch problems earlier in development by executing periodically. As an example, when new code is submitted to the code base, a new automated test verifies these changes. However, identifying the specific change responsible for a test failure becomes harder when dealing with batches of changes – especially in the case of a large-scale project such as a AAA game, where thousands of people contribute to a single code base. This paper proposes a new approach to automatically identify which change in the code caused a test to fail. The method leverages Large Language Models (LLMs) to associate error messages with the corresponding code changes causing the failure. We investigate the effectiveness of our approach with quantitative and qualitative evaluations. Our approach reaches an accuracy of 71% in our newly created dataset, which comprises issues reported by internal developers over a period of one year. We further evaluated our model through a user study to assess the utility and usability of the tool from a developer perspective, resulting in a significant reduction in time – up to 60% – spent investigating issues.

Abstract [sv]

I spel, och mer allmänt inom området mjukvaruutveckling, är en tidig upptäckt av buggar avgörande för att upprätthålla en hög kvalitet på slutprodukten. Automatiserade tester kan vara ett kraftfullt verktyg som kan fånga upp problem tidigt i utvecklingen om man utför dom regelbundet. Som ett exempel på detta, så när ny kod skickas till kodbasen, verifierar ett automatiskt test dessa ändringar. Det blir dock svårare att identifiera den specifika förändringen som är ansvarig för ett testfel när man hanterar batcher av förändringar. Särskilt när man jobbar med ett storskaligt projekt som ett AAA-spel, där tusentals människor bidrar till en enda kodbas. Den här uppsatsen föreslår ett nytt tillvägagångssätt för att automatiskt identifiera vilken ändring i koden som gjorde att ett test misslyckades. Metoden utnyttjar stora språkmodeller (LLM) för att associera felmeddelanden med relaterade kodändringar som orsakar felet. Vi undersöker effektiviteten av vårt tillvägagångssätt med kvantitativa och kvalitativa utvärderingar. Vårt tillvägagångssätt når en noggrannhet på 71% i vår nyskapade datauppsättning, som omfattar problem som rapporterats av interna utvecklare under en period av ett år. Vi utvärderade ytterligare vår modell genom en användarstudie för att bedöma verktygets användbarhet och användbarhet ur ett utvecklarperspektiv, vilket resulterade i en betydande minskning av tiden - upp till 60% - som spenderades på att undersöka problem.

Place, publisher, year, edition, pages
2024. , p. 34
Series
TRITA-EECS-EX ; 2024:784
Keywords [en]
Natural language processing, Validation, Tracing, Games, Software Quality, Software development
Keywords [sv]
Naturlig språkbehandling, Validering, Spårning, Spel, Mjukvarukvalitet, Mjukvaruutveckling
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-360217OAI: oai:DiVA.org:kth-360217DiVA, id: diva2:1939038
External cooperation
Electronic Arts
Supervisors
Examiners
Available from: 2025-02-24 Created: 2025-02-20 Last updated: 2025-02-24Bibliographically approved

Open Access in DiVA

fulltext(568 kB)90 downloads
File information
File name FULLTEXT02.pdfFile size 568 kBChecksum SHA-512
597199abe0dbda4994570f2d3d5e29c1b51328e77edcba1550ab96047f88c2c7ed17ab265aa6e5f173c68f9b2f4dab671a1d435c36f7f5be3a15b65ff43171bd
Type fulltextMimetype application/pdf

By organisation
School of Electrical Engineering and Computer Science (EECS)
Computer and Information Sciences

Search outside of DiVA

GoogleGoogle Scholar
Total: 90 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 232 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf