Open this publication in new window or tab >>2025 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]
Relocalization is a key component of robot navigation: in order to move successfully within an environment, a robot must know its location in relation to that environment. Cameras are inexpensive sensors that enable relocalization by comparing visual observations with a model of the scene. To this end, camera relocalization, which also finds applications in augmented reality, has long been a topic of research, leading to elaborately designed pipelines for accurate camera pose estimation. Recently, a paradigm shift has seen explicit models of the scene replaced by implicit ones, where the scene is encoded in the weights of neural networks. This shift simplifies relocalization pipelines but leaves open a fundamental challenge: scenes with repetitive structures often produce ambiguous observations, meaning that the same visual input can correspond to multiple distinct camera poses. This thesis addresses this challenge, with a particular focus on implicit relocalization methods. It critically examines the assumptions underlying existing paradigms such as Absolute Pose Regression (APR) and Scene Coordinate Regression (SCR) about the uniqueness of appearances. As its central contribution, the thesis proposes to model the full distribution of possible solutions, which can be arbitrarily shaped, rather than attempting to recover a single best estimate. To this end, it proposes to leverage Conditional Variational Autoencoders (C-VAEs) as generative models capable of representing both distributions over poses and distributions over points. Furthermore, likelihood estimation within this framework provides a principled means of attaching confidence measures to predictions. These contributions, together with the suggested applications and directions for future work, lay a foundation for simplifying relocalization pipelines by more effectively handling ambiguities in observations.
Abstract [sv]
Omlokalisering är en nyckelkomponent i robotnavigering: för att kunna röra sig framgångsrikt inom en miljö måste en robot känna till sin position i förhållande till den miljön. Kameror är kostnadseffektiva sensorer som möjliggör omlokalisering genom att jämföra visuella observationer med en modell av scenen. Därför har kameraomlokalisering, som också hittar tillämpningar inom förstärkt verklighet, länge varit ett forskningsämne, vilket har lett till noggrant utformade pipelines för korrekt kameraposeuppskattning. Nyligen har ett paradigmskifte sett explicita modeller av scenen ersättas av implicita, där scenen är kodad i vikterna av neurala nätverk. Detta skifte förenklar omlokaliseringspipelines men lämnar en grundläggande utmaning öppen: scener med repetitiva strukturer producerar ofta tvetydiga observationer, vilket innebär att samma visuella input kan motsvara flera distinkta kamerapositioner. Denna avhandling tar upp denna utmaning, med särskilt fokus på implicita omlokaliseringsmetoder. Den granskar kritiskt antagandena bakom befintliga paradigm som Absolute Pose Regression (APR) och Scene Coordinate Regression (SCR), som vanligtvis förutsätter en unik lösning. Som sitt centrala bidrag föreslår avhandlingen att modellera den fullständiga fördelningen av möjliga lösningar, som kan formas godtyckligt, snarare än att försöka hitta en enda bästa uppskattning. För detta ändamål föreslogs att man skulle utnyttja Conditional Variational Autoencoders (C-VAEs) som generativa modeller som kan representera både fördelningar över poser och fördelningar över punkter. Dessutom ger sannolikhetsuppskattning inom detta ramverk ett principiellt sätt att koppla konfidensmått till förutsägelser. Dessa bidrag, tillsammans med de föreslagna tillämpningarna och riktningarna för framtida arbete, lägger en grund för att förenkla omlokaliseringspipelines genom att mer effektivt hantera tvetydighet i observationer.
Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology, 2025. p. xii, 41
Series
TRITA-EECS-AVL ; 2025:106
National Category
Computer Vision and Learning Systems
Research subject
Computer Science
Identifiers
urn:nbn:se:kth:diva-372920 (URN)978-91-8106-468-1 (ISBN)
Public defence
2025-12-11, https://kth-se.zoom.us/j/68470117111, D3, Lindstedtsvägen 5, KTH Campus, Stockholm, 14:00 (English)
Opponent
Supervisors
Note
QC 20251117
2025-11-172025-11-162025-11-17Bibliographically approved