Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Fine-tuning Language Models for Closed-Domain Conversational Interfaces
KTH, Skolan för elektroteknik och datavetenskap (EECS).
2024 (engelsk)Independent thesis Advanced level (degree of Master (Two Years)), 20 poäng / 30 hpOppgaveAlternativ tittel
Finjustering av språkmodeller för konversationsgränssnitt i stängd domän (svensk)
Abstract [en]

Conversational user interfaces (CUIs) offer natural, intuitive ways for users to interact with digital systems. While generative language models (LMs) have significantly advanced natural language understanding, existing models are not readily suited for closed-domain, locally operating CUIs. This thesis presents a general method for LM-based CUIs based on function calling and domain-specific alignment. Specifically, it studies the fine-tuning of open-weight language models for closed-domain conversation and information retrieval in a smart building environment. Several models were fine-tuned using a combination of synthetic and publicly available data to handle queries about real-time and historical sensor data, while rejecting out-of-domain input. The results demonstrate the feasibility of this approach, with the fine- tuned models agreeing closely with teacher-generated reference output. It is also found that fine-tuning instruct-tuned base models has both advantages and disadvantages, being better at function calling but more difficult to align to closed domains. More work is needed in building appropriate datasets and aligning language models to operate correctly and reliably with function calling in closed domains.

Abstract [sv]

Konverserande användargränssnitt (CUIs) möjliggör ett naturligt och enkelt sätt att interagera med digitala system. Generativa språkmodeller (LMs) har gjort stora framsteg inom automatisk språkförståelse, men existerande modeller är inte anpassade för slutna domäner eller lokalt körande gränssnitt. Den här rapporten presenterar en generell metod för LM-baserade CUIs baserad på funktionsanrop och domänspecifik anpassning. Det undersöks hur öppna språkmodeller kan finjusteras för att hantera konversation och informationssökning i sluten domän, med fokus på smarta byggnader. Flera modeller finjusterades med en blandning av syntetisk och offentligt tillgänglig data för att besvara frågor om realtids- och historisk sensordata, samt för att avvisa irrelevanta frågor. Resultaten visar att metoden är effektiv, med flera av de finjusterade mo- dellerna starkt överensstämmande med testdata producerat av en lärarmodell. Det visas även att det finns både för- och nackdelar med att finjustera modeller som redan är instruktionstränade, där de är bättre på funktionsanrop men svårare att anpassa till stängd domän. Mer arbete krävs för att skapa passande dataset och anpassa språkmodeller för att fungera korrekt och pålitligt med funktionsanrop i slutnen domän.

sted, utgiver, år, opplag, sider
2024. , s. 56
Serie
TRITA-EECS-EX ; 2024:931
Emneord [en]
large language models, data science, retrieval-augmented generation, smart buildings, internet of things
Emneord [sv]
språkmodeller, data science, retrieval-augmented generation, smarta byggnader, sakernas internet
HSV kategori
Identifikatorer
URN: urn:nbn:se:kth:diva-361057OAI: oai:DiVA.org:kth-361057DiVA, id: diva2:1943571
Eksternt samarbeid
Devward AB
Veileder
Examiner
Tilgjengelig fra: 2025-03-17 Laget: 2025-03-11 Sist oppdatert: 2025-03-17bibliografisk kontrollert

Open Access i DiVA

fulltext(1215 kB)109 nedlastinger
Filinformasjon
Fil FULLTEXT01.pdfFilstørrelse 1215 kBChecksum SHA-512
edf93d4142be2e6405143e852876a76109039cddc5d76f1f77f67099aec791bb7d0e90b1d899e4828c7211dc37e4e6b653c5c89ac02d1d42ebf1ace1ccd67c35
Type fulltextMimetype application/pdf

Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar
Totalt: 109 nedlastinger
Antall nedlastinger er summen av alle nedlastinger av alle fulltekster. Det kan for eksempel være tidligere versjoner som er ikke lenger tilgjengelige

urn-nbn

Altmetric

urn-nbn
Totalt: 501 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf