kth.sePublikationer
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Efficacy of Context Summarization Techniques on Large Language Model Chatbots: Balancing Compression and Recollection
KTH, Skolan för elektroteknik och datavetenskap (EECS).
KTH, Skolan för elektroteknik och datavetenskap (EECS).
2024 (Engelska)Självständigt arbete på grundnivå (kandidatexamen), 10 poäng / 15 hpStudentuppsats (Examensarbete)Alternativ titel
Effektiviteten av olika metoder för att sammanfatta kontexten för chattrobotar baserade på stora språkmodeller (Svenska)
Abstract [en]

This paper investigates the efficacy of various context summarization techniques for LLM chatbots, with a focus on evaluating recollection performance. The study explores the challenges posed by LLMs’ statelessness and the limitations of their context window due to token constraints. It presents a comparative analysis of different summarization methods, including FullContext, and Cohere Summarize, and introduces a novel LLM-prompt for context compression. The research aims to strike a balance between context retention and data compression to reduce API call costs and enhance the usability of LLMs for both personal and enterprise applications. The findings indicate that certain techniques can significantly reduce the space occupied by conversation history while maintaining adequate context recollection, with FullContext emerging as a balanced method for doing so. It achieved a compression ratio of 12.3 (92% space saving), while retaining 77% of the original context, when applied to the large dataset of real ChatGPT conversations. As for retaining fine details in a hand-crafted dataset, Cohere Summarize included 6/7 key topics with a compression ratio of 5.1 (80% space saving). The paper contributes to the field by providing insights into cost-effective LLM utilization and expanding the context window for lower-grade LLM models.

Abstract [sv]

Denna studie undersöker effektiviteten av olika tekniker för kontextsammanfattning för LLM-chatbottar, med fokus på att utvärdera återkallningsförmågan. Studien utforskar de utmaningar som uppstår på grund av att LLM saknar internt tillstånd och begränsningarna i deras kontextfönster på grund av tokenbegränsningar. Den presenterar en jämförande analys av olika sammanfattningsmetoder, inklusive FullContext och Cohere Summarize, och introducerar en ny LLM-prompt för kontextkomprimering. Forskningen syftar till att hitta en balans mellan kontextbevarande och datakomprimering för att minska kostnaderna för API-anrop och förbättra användbarheten av LLM:er för både personliga och företagsapplikationer. Resultaten indikerar att vissa tekniker avsevärt kan minska utrymmet som upptas av konversationshistorik samtidigt som de bibehåller tillräcklig kontextåterkallning, där FullContext framstår som en balanserad metod för detta. Den uppnådde en komprimeringsgrad på 12,3 (92% besparingar) samtidigt som den behöll 77% av den ursprungliga kontexten när den tillämpades på den stora datamängden av verkliga ChatGPT-konversationer. Gällande att behålla fina detaljer i en handgjord datamängd inkluderade Cohere Summarize 6/7 nyckelteman med en komprimeringsgrad på 5,1 (80% besparingar). Studien bidrar till området genom att ge insikter om kostnadseffektiv LLM-användning och utöka kontextfönstret för LLM-modeller av lägre grad.

Ort, förlag, år, upplaga, sidor
2024. , s. 29
Serie
TRITA-EECS-EX ; 2024:350
Nyckelord [sv]
Large Language Models, Chatbots, Context window, Context summarization, Context retention, ChatGPT conversations, Stora språkmodeller, chatbottar, kontextfönster, kontextsammanfattning, återkallningsförmåga, ChatGPT konversationer
Nationell ämneskategori
Data- och informationsvetenskap
Identifikatorer
URN: urn:nbn:se:kth:diva-351103OAI: oai:DiVA.org:kth-351103DiVA, id: diva2:1886192
Handledare
Examinatorer
Tillgänglig från: 2024-08-23 Skapad: 2024-07-30 Senast uppdaterad: 2024-08-23Bibliografiskt granskad

Open Access i DiVA

fulltext(962 kB)433 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 962 kBChecksumma SHA-512
4dac4edc632176c0bf1b3fb9475b50ca5e017f00ab03c191e722c0497fb3a6672bd6df89f212081e4774c34d625469f09cf6a65a050962020034d6fa7848c9d5
Typ fulltextMimetyp application/pdf

Av organisationen
Skolan för elektroteknik och datavetenskap (EECS)
Data- och informationsvetenskap

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 433 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 638 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf