Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Sparse2Dense: From Direct Sparse Odometry to Dense 3-D Reconstruction
KTH, School of Electrical Engineering and Computer Science (EECS), Robotics, perception and learning, RPL.
KTH, School of Electrical Engineering and Computer Science (EECS), Robotics, perception and learning, RPL.ORCID iD: 0000-0002-7796-1438
KTH, School of Electrical Engineering and Computer Science (EECS), Robotics, perception and learning, RPL.ORCID iD: 0000-0002-1170-7162
2019 (English)In: IEEE Robotics and Automation Letters, ISSN 2377-3766, E-ISSN 1949-3045, Vol. 4, no 2, p. 530-537Article in journal (Refereed) Published
Abstract [en]

In this letter, we proposed a new deep learning based dense monocular simultaneous localization and mapping (SLAM) method. Compared to existing methods, the proposed framework constructs a dense three-dimensional (3-D) model via a sparse to dense mapping using learned surface normals. With single view learned depth estimation as prior for monocular visual odometry, we obtain both accurate positioning and high-quality depth reconstruction. The depth and normal are predicted by a single network trained in a tightly coupled manner. Experimental results show that our method significantly improves the performance of visual tracking and depth prediction in comparison to the state-of-the-art in deep monocular dense SLAM.

Place, publisher, year, edition, pages
IEEE-INST ELECTRICAL ELECTRONICS ENGINEERS INC , 2019. Vol. 4, no 2, p. 530-537
Keywords [en]
Visual-based navigation, SLAM, deep learning in robotics and automation
National Category
Robotics
Identifiers
URN: urn:nbn:se:kth:diva-243927DOI: 10.1109/LRA.2019.2891433ISI: 000456673300007Scopus ID: 2-s2.0-85063310740OAI: oai:DiVA.org:kth-243927DiVA, id: diva2:1296056
Available from: 2019-03-13 Created: 2019-03-13 Last updated: 2020-05-26Bibliographically approved
In thesis
1. Deep Learning Assisted Visual Odometry
Open this publication in new window or tab >>Deep Learning Assisted Visual Odometry
2020 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]

The capabilities to autonomously explore and interact with the environmenthas always been a greatly demanded capability for robots. Varioussensor based SLAM methods were investigated and served for this purposein the past decades. Vision intuitively provides 3D understanding of the surroundingand contains a vast amount of information that require high levelintelligence to interpret. Sensors like LIDAR, returns the range measurementdirectly. The motion estimation and scene reconstruction using camera is aharder problem. In this thesis, we are in particular interested in the trackingfrond-end of vision based SLAM, i.e. Visual Odometry (VO), with afocus on deep learning approaches. Recently, learning based methods havedominated most of the vision applications and gradually appears in our dailylife and real-world applications. Different to classical methods, deep learningbased methods can potentially tackle some of the intrinsic problems inmulti-view geometry and straightforwardly improve the performance of crucialprocedures of VO. For example, the correspondences estimation, densereconstruction and semantic representation.

In this work, we propose novel learning schemes for assisting both directand in-direct visual odometry methods. For the direct approaches, weinvestigate mainly the monocular setup. The lack of the baseline that providesscale as in stereo has been one of the well-known intrinsic problems inthis case. We propose a coupled single view depth and normal estimationmethod to reduce the scale drift and address the issue of lacking observationsof the absolute scale. It is achieved by providing priors for the depthoptimization. Moreover, we utilize higher-order geometrical information toguide the dense reconstruction in a sparse-to-dense manner. For the in-directmethods, we propose novel feature learning based methods which noticeablyimprove the feature matching performance in comparison with common classicalfeature detectors and descriptors. Finally, we discuss potential ways tomake the training self-supervised. This is accomplished by incorporating thedifferential motion estimation into the training while performing multi-viewadaptation to maximize the repeatability and matching performance. We alsoinvestigate using a different type of supervisory signal for the training. Weadd a higher-level proxy task and show that it is possible to train a featureextraction network even without the explicit loss for it.

In summary, this thesis presents successful examples of incorporating deeplearning techniques to assist a classical visual odometry system. The resultsare promising and have been extensively evaluated on challenging benchmarks,real robot and handheld cameras. The problem we investigate is stillin an early stage, but is attracting more and more interest from researcher inrelated fields.

Abstract [sv]

Förmågan att självständigt utforska och interagera med en miljö har alltidvarit önskvärd hos robotar. Olika sensorbaserade SLAM-metoder har utvecklatsoch använts för detta ändamål under de senaste decennierna. Datorseendekan intuitivt används för 3D-förståelse men bygger på en enorm mängd informationsom kräver en hög nivå av intelligens för att tolka. Sensorer somLIDAR returnerar avståndet för varje mätpunkt direkt vilket gör rörelseuppskattningoch scenrekonstruktion mer rättframt än med en kamera. I den häravhandlingen är vi särskilt intresserade av kamerabaserad SLAM och merspecifikt den första delen av ett sådan system, dvs det som normalt kallasvisuell odometri (VO). Vi fokuserar på strategier baserade på djupinlärning.Nyligen har inlärningsbaserade metoder kommit att dominera de flesta avkameratillämpningarna och dyker gradvis upp i vårt dagliga liv. Till skillnadfrån klassiska metoder kan djupinlärningsbaserade metoder potentielltta itu med några av de inneboende problemen i kamerabaserade system ochförbättra prestandan för viktiga delar i VO. Till exempel uppskattningar avkorrespondenser, tät rekonstruktion och semantisk representation. I detta arbeteföreslår vi nya inlärningssystem för att stödja både direkta och indirektavisuella odometrimetoder. För de direkta metoder undersöker vi huvudsakligenfallet med endast en kamera. Bristen på baslinje, som i stereo, somger skalan i en scen har varit ett av de välkända problemen i detta fall. Viföreslår en metod som kopplar skattningen av djup och normaler, baseradpå endast en bild. För att adressera problemen med att skatta den absolutaskalan och drift i dessa skattningar, används det predikterade djupet somstartgissningar för avståndsoptimeringen. Dessutom använder vi geometriskinformation för att vägleda den täta rekonstruktionen på ett glest-till-tättsätt. För de indirekta metoderna föreslår vi nya nyckelpunktsbaserade metodersom märkbart förbättrar matchningsprestanda jämfört med klassiskametoder. Slutligen diskuterar vi potentiella sätt att göra inlärningen självkontrollerad.Detta åstadkoms genom att integrera skattningen av den inkrementellarörelsen i träningen. Vi undersöker också hur man kan använda enså kallad proxy-uppgift för att generera en implicit kontrollsignal och visaratt vi kan träna ett nyckelpunktgenererande nätverk på detta sätt.

Sammanfattningsvis presenterar denna avhandling flera fungerade exempelpå att hur djupinlärningstekniker kan hjälpa ett klassiskt visuellt odometrisystem.Resultaten är lovande och har utvärderats i omfattande ochutmanande scenarier, från dataset, på riktiga robotar så väl som handhållnakameror. Problemet vi undersöker befinner sig fortfarande i ett tidigt skedeforskningsmässigt, men intresserar nu också forskare från närliggande områden.

Place, publisher, year, edition, pages
KTH Royal Institute of Technology, 2020
National Category
Computer Vision and Robotics (Autonomous Systems)
Identifiers
urn:nbn:se:kth:diva-273749 (URN)978-91-7873-550-1 (ISBN)
Public defence
2020-06-12, U1, https://kth-se.zoom.us/w/69450802964?tk=N7iFB13No_I0ip6YuiqlOvmrTXcCPmzXkcWcUSgbnow.DQIAAAAQK5cnFBZva1hiYUpCS1M5aWdjLXFkUWNCOWRBAAAAAAAAAAAAAAAAAAAAAAAAAAAA&uuid=WN_9RUa0Q0iRZC4gGmHG-ravw, Stockholm, 10:00 (English)
Opponent
Supervisors
Funder
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Note

QC 20200527

Available from: 2020-05-27 Created: 2020-05-26 Last updated: 2020-05-27Bibliographically approved

Open Access in DiVA

No full text in DiVA

Other links

Publisher's full textScopus

Authority records BETA

Tang, JiexiongFolkesson, JohnJensfelt, Patric

Search in DiVA

By author/editor
Tang, JiexiongFolkesson, JohnJensfelt, Patric
By organisation
Robotics, perception and learning, RPL
In the same journal
IEEE Robotics and Automation Letters
Robotics

Search outside of DiVA

GoogleGoogle Scholar

doi
urn-nbn

Altmetric score

doi
urn-nbn
Total: 218 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf