Fine-tuning Language Models for Closed-Domain Conversational Interfaces
2024 (English)Independent thesis Advanced level (degree of Master (Two Years)), 20 credits / 30 HE credits
Student thesisAlternative title
Finjustering av språkmodeller för konversationsgränssnitt i stängd domän (Swedish)
Abstract [en]
Conversational user interfaces (CUIs) offer natural, intuitive ways for users to interact with digital systems. While generative language models (LMs) have significantly advanced natural language understanding, existing models are not readily suited for closed-domain, locally operating CUIs. This thesis presents a general method for LM-based CUIs based on function calling and domain-specific alignment. Specifically, it studies the fine-tuning of open-weight language models for closed-domain conversation and information retrieval in a smart building environment. Several models were fine-tuned using a combination of synthetic and publicly available data to handle queries about real-time and historical sensor data, while rejecting out-of-domain input. The results demonstrate the feasibility of this approach, with the fine- tuned models agreeing closely with teacher-generated reference output. It is also found that fine-tuning instruct-tuned base models has both advantages and disadvantages, being better at function calling but more difficult to align to closed domains. More work is needed in building appropriate datasets and aligning language models to operate correctly and reliably with function calling in closed domains.
Abstract [sv]
Konverserande användargränssnitt (CUIs) möjliggör ett naturligt och enkelt sätt att interagera med digitala system. Generativa språkmodeller (LMs) har gjort stora framsteg inom automatisk språkförståelse, men existerande modeller är inte anpassade för slutna domäner eller lokalt körande gränssnitt. Den här rapporten presenterar en generell metod för LM-baserade CUIs baserad på funktionsanrop och domänspecifik anpassning. Det undersöks hur öppna språkmodeller kan finjusteras för att hantera konversation och informationssökning i sluten domän, med fokus på smarta byggnader. Flera modeller finjusterades med en blandning av syntetisk och offentligt tillgänglig data för att besvara frågor om realtids- och historisk sensordata, samt för att avvisa irrelevanta frågor. Resultaten visar att metoden är effektiv, med flera av de finjusterade mo- dellerna starkt överensstämmande med testdata producerat av en lärarmodell. Det visas även att det finns både för- och nackdelar med att finjustera modeller som redan är instruktionstränade, där de är bättre på funktionsanrop men svårare att anpassa till stängd domän. Mer arbete krävs för att skapa passande dataset och anpassa språkmodeller för att fungera korrekt och pålitligt med funktionsanrop i slutnen domän.
Place, publisher, year, edition, pages
2024. , p. 56
Series
TRITA-EECS-EX ; 2024:931
Keywords [en]
large language models, data science, retrieval-augmented generation, smart buildings, internet of things
Keywords [sv]
språkmodeller, data science, retrieval-augmented generation, smarta byggnader, sakernas internet
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-361057OAI: oai:DiVA.org:kth-361057DiVA, id: diva2:1943571
External cooperation
Devward AB
Supervisors
Examiners
2025-03-172025-03-112025-03-17Bibliographically approved