Open this publication in new window or tab >>2025 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]
This thesis advances the understanding and application of synthetic data for manufacturing parts recognition. Vision-based inspection systems in manufacturing rely heavily on real image data, which are costly to collect, annotate, and adapt across products and environments. To address these challenges, this work presents a systematic investigation of how synthetic data can be effectively generated, evaluated, and applied for robust and scalable performance. The research introduces a series of new industrial benchmark datasets covering multiple manufacturing use cases and factory environments: SIP-17, SIP15-OD, and SIP2A-OD, to enable unified evaluation of sim-to-real transfer in classification and detection tasks. Building on these datasets, a domain randomization pipeline is developed to systematically explore the effects of rendering parameters, material variability, and illumination on model generalization. To further automate data generation, the thesis proposes Synthetic Active Learning (SAL), a closed-loop framework that identifies model weaknesses and adaptively refines synthetic data generation without requiring real samples or manual tuning. Experiments across the benchmark datasets show that the proposed method improves model robustness compared to existing approaches while reducing manual labeling requirements. Collectively, these contributions provide new insights into how synthetic data can be systematically leveraged to build data-efficient, automated, and reliable vision systems for manufacturing, aiming to support future development of intelligent and flexible production systems.
Abstract [sv]
Denna avhandling bidrar till förståelsen och tillämpningen av syntetisk data för igenkänning av tillverkningskomponenter. Visionsbaserade inspektionssystem inom industrin är starkt beroende av verkliga bilddata, vilka är kostsamma att samla in, annotera och anpassa mellan olika produkter och miljöer. För att hantera dessa utmaningar presenterar arbetet en systematisk undersökning av hur syntetisk data effektivt kan genereras, utvärderas och tillämpas för robust och skalbar prestanda. Forskningen introducerar en serie nya industriella benchmark-datamängder som täcker flera användningsfall och fabriksmiljöer: SIP-17, SIP15-OD ochSIP2A-OD, för att möjliggöra en enhetlig utvärdering av sim-to-real-överföring inom klassificerings- och detektionsuppgifter. Med utgångspunkt i dessa datamängder utvecklas en domain randomizationpipeline som systematiskt undersöker effekterna av renderingsparametrar, materialvariation och belysning på modellens generaliseringsförmåga. För att ytterligare automatisera datagenereringen föreslås Synthetic Active Learning (SAL), ett slutet ramverk som identifierar modellens svagheter och adaptivt förfinar den syntetiska datagenereringen utan att kräva verkliga prover eller manuell justering. Experiment över benchmark-datamängderna visar att de föreslagna metoderna förbättrar modellens robusthet jämfört med befintliga tillvägagångssätt, samtidigt som behovet av manuell annotering minskar. Sammantaget ger dessa bidrag nya insikter i hur syntetisk data systematiskt kan utnyttjas för att bygga dataeffektiva, automatiserade och tillförlitliga visionssystem för tillverkningsindustrin, med målet att stödja utvecklingen av framtida intelligenta och flexibla produktionssystem.
Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology, 2025. p. xix, 75
Series
TRITA-EECS-AVL ; 2025:105
Keywords
Synthetic Data, Sim-to-real Transfer, Object Detection, Domain Randomization, Ac tive Learning, Dataset Generation, Automation, Computer Vision, Industrial Inspec tion, Syntetisk Data, Sim-to-real-överföring, Objektigenkänning, Domain Randomization, Aktivt Lärande, Datagenerering, Automation, Datorseende, Industriell Inspektion
National Category
Computer Sciences
Identifiers
urn:nbn:se:kth:diva-372644 (URN)978-91-8106-466-7 (ISBN)
Public defence
2025-12-09, https://kth-se.zoom.us/j/62913476523, Kollegiesalen, Brinellvägen 8, Stockholm, 13:00 (English)
Opponent
Supervisors
Funder
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Note
QC 20251112
2025-11-122025-11-112025-11-24Bibliographically approved