kth.sePublikationer
Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Fine-tuning Language Models for Closed-Domain Conversational Interfaces
KTH, Skolan för elektroteknik och datavetenskap (EECS).
2024 (Engelska)Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)Alternativ titel
Finjustering av språkmodeller för konversationsgränssnitt i stängd domän (Svenska)
Abstract [en]

Conversational user interfaces (CUIs) offer natural, intuitive ways for users to interact with digital systems. While generative language models (LMs) have significantly advanced natural language understanding, existing models are not readily suited for closed-domain, locally operating CUIs. This thesis presents a general method for LM-based CUIs based on function calling and domain-specific alignment. Specifically, it studies the fine-tuning of open-weight language models for closed-domain conversation and information retrieval in a smart building environment. Several models were fine-tuned using a combination of synthetic and publicly available data to handle queries about real-time and historical sensor data, while rejecting out-of-domain input. The results demonstrate the feasibility of this approach, with the fine- tuned models agreeing closely with teacher-generated reference output. It is also found that fine-tuning instruct-tuned base models has both advantages and disadvantages, being better at function calling but more difficult to align to closed domains. More work is needed in building appropriate datasets and aligning language models to operate correctly and reliably with function calling in closed domains.

Abstract [sv]

Konverserande användargränssnitt (CUIs) möjliggör ett naturligt och enkelt sätt att interagera med digitala system. Generativa språkmodeller (LMs) har gjort stora framsteg inom automatisk språkförståelse, men existerande modeller är inte anpassade för slutna domäner eller lokalt körande gränssnitt. Den här rapporten presenterar en generell metod för LM-baserade CUIs baserad på funktionsanrop och domänspecifik anpassning. Det undersöks hur öppna språkmodeller kan finjusteras för att hantera konversation och informationssökning i sluten domän, med fokus på smarta byggnader. Flera modeller finjusterades med en blandning av syntetisk och offentligt tillgänglig data för att besvara frågor om realtids- och historisk sensordata, samt för att avvisa irrelevanta frågor. Resultaten visar att metoden är effektiv, med flera av de finjusterade mo- dellerna starkt överensstämmande med testdata producerat av en lärarmodell. Det visas även att det finns både för- och nackdelar med att finjustera modeller som redan är instruktionstränade, där de är bättre på funktionsanrop men svårare att anpassa till stängd domän. Mer arbete krävs för att skapa passande dataset och anpassa språkmodeller för att fungera korrekt och pålitligt med funktionsanrop i slutnen domän.

Ort, förlag, år, upplaga, sidor
2024. , s. 56
Serie
TRITA-EECS-EX ; 2024:931
Nyckelord [en]
large language models, data science, retrieval-augmented generation, smart buildings, internet of things
Nyckelord [sv]
språkmodeller, data science, retrieval-augmented generation, smarta byggnader, sakernas internet
Nationell ämneskategori
Data- och informationsvetenskap
Identifikatorer
URN: urn:nbn:se:kth:diva-361057OAI: oai:DiVA.org:kth-361057DiVA, id: diva2:1943571
Externt samarbete
Devward AB
Handledare
Examinatorer
Tillgänglig från: 2025-03-17 Skapad: 2025-03-11 Senast uppdaterad: 2025-03-17Bibliografiskt granskad

Open Access i DiVA

fulltext(1215 kB)109 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 1215 kBChecksumma SHA-512
edf93d4142be2e6405143e852876a76109039cddc5d76f1f77f67099aec791bb7d0e90b1d899e4828c7211dc37e4e6b653c5c89ac02d1d42ebf1ace1ccd67c35
Typ fulltextMimetyp application/pdf

Av organisationen
Skolan för elektroteknik och datavetenskap (EECS)
Data- och informationsvetenskap

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 109 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 501 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf