Ändra sökning
Länk till posten
Permanent länk

Direktlänk
BETA
Tang, Jiexiong
Publikationer (5 of 5) Visa alla publikationer
Tang, J. (2020). Deep Learning Assisted Visual Odometry. (Doctoral dissertation). KTH Royal Institute of Technology
Öppna denna publikation i ny flik eller fönster >>Deep Learning Assisted Visual Odometry
2020 (Engelska)Doktorsavhandling, sammanläggning (Övrigt vetenskapligt)
Abstract [en]

The capabilities to autonomously explore and interact with the environmenthas always been a greatly demanded capability for robots. Varioussensor based SLAM methods were investigated and served for this purposein the past decades. Vision intuitively provides 3D understanding of the surroundingand contains a vast amount of information that require high levelintelligence to interpret. Sensors like LIDAR, returns the range measurementdirectly. The motion estimation and scene reconstruction using camera is aharder problem. In this thesis, we are in particular interested in the trackingfrond-end of vision based SLAM, i.e. Visual Odometry (VO), with afocus on deep learning approaches. Recently, learning based methods havedominated most of the vision applications and gradually appears in our dailylife and real-world applications. Different to classical methods, deep learningbased methods can potentially tackle some of the intrinsic problems inmulti-view geometry and straightforwardly improve the performance of crucialprocedures of VO. For example, the correspondences estimation, densereconstruction and semantic representation.

In this work, we propose novel learning schemes for assisting both directand in-direct visual odometry methods. For the direct approaches, weinvestigate mainly the monocular setup. The lack of the baseline that providesscale as in stereo has been one of the well-known intrinsic problems inthis case. We propose a coupled single view depth and normal estimationmethod to reduce the scale drift and address the issue of lacking observationsof the absolute scale. It is achieved by providing priors for the depthoptimization. Moreover, we utilize higher-order geometrical information toguide the dense reconstruction in a sparse-to-dense manner. For the in-directmethods, we propose novel feature learning based methods which noticeablyimprove the feature matching performance in comparison with common classicalfeature detectors and descriptors. Finally, we discuss potential ways tomake the training self-supervised. This is accomplished by incorporating thedifferential motion estimation into the training while performing multi-viewadaptation to maximize the repeatability and matching performance. We alsoinvestigate using a different type of supervisory signal for the training. Weadd a higher-level proxy task and show that it is possible to train a featureextraction network even without the explicit loss for it.

In summary, this thesis presents successful examples of incorporating deeplearning techniques to assist a classical visual odometry system. The resultsare promising and have been extensively evaluated on challenging benchmarks,real robot and handheld cameras. The problem we investigate is stillin an early stage, but is attracting more and more interest from researcher inrelated fields.

Abstract [sv]

Förmågan att självständigt utforska och interagera med en miljö har alltidvarit önskvärd hos robotar. Olika sensorbaserade SLAM-metoder har utvecklatsoch använts för detta ändamål under de senaste decennierna. Datorseendekan intuitivt används för 3D-förståelse men bygger på en enorm mängd informationsom kräver en hög nivå av intelligens för att tolka. Sensorer somLIDAR returnerar avståndet för varje mätpunkt direkt vilket gör rörelseuppskattningoch scenrekonstruktion mer rättframt än med en kamera. I den häravhandlingen är vi särskilt intresserade av kamerabaserad SLAM och merspecifikt den första delen av ett sådan system, dvs det som normalt kallasvisuell odometri (VO). Vi fokuserar på strategier baserade på djupinlärning.Nyligen har inlärningsbaserade metoder kommit att dominera de flesta avkameratillämpningarna och dyker gradvis upp i vårt dagliga liv. Till skillnadfrån klassiska metoder kan djupinlärningsbaserade metoder potentielltta itu med några av de inneboende problemen i kamerabaserade system ochförbättra prestandan för viktiga delar i VO. Till exempel uppskattningar avkorrespondenser, tät rekonstruktion och semantisk representation. I detta arbeteföreslår vi nya inlärningssystem för att stödja både direkta och indirektavisuella odometrimetoder. För de direkta metoder undersöker vi huvudsakligenfallet med endast en kamera. Bristen på baslinje, som i stereo, somger skalan i en scen har varit ett av de välkända problemen i detta fall. Viföreslår en metod som kopplar skattningen av djup och normaler, baseradpå endast en bild. För att adressera problemen med att skatta den absolutaskalan och drift i dessa skattningar, används det predikterade djupet somstartgissningar för avståndsoptimeringen. Dessutom använder vi geometriskinformation för att vägleda den täta rekonstruktionen på ett glest-till-tättsätt. För de indirekta metoderna föreslår vi nya nyckelpunktsbaserade metodersom märkbart förbättrar matchningsprestanda jämfört med klassiskametoder. Slutligen diskuterar vi potentiella sätt att göra inlärningen självkontrollerad.Detta åstadkoms genom att integrera skattningen av den inkrementellarörelsen i träningen. Vi undersöker också hur man kan använda enså kallad proxy-uppgift för att generera en implicit kontrollsignal och visaratt vi kan träna ett nyckelpunktgenererande nätverk på detta sätt.

Sammanfattningsvis presenterar denna avhandling flera fungerade exempelpå att hur djupinlärningstekniker kan hjälpa ett klassiskt visuellt odometrisystem.Resultaten är lovande och har utvärderats i omfattande ochutmanande scenarier, från dataset, på riktiga robotar så väl som handhållnakameror. Problemet vi undersöker befinner sig fortfarande i ett tidigt skedeforskningsmässigt, men intresserar nu också forskare från närliggande områden.

Ort, förlag, år, upplaga, sidor
KTH Royal Institute of Technology, 2020
Nationell ämneskategori
Datorseende och robotik (autonoma system)
Identifikatorer
urn:nbn:se:kth:diva-273749 (URN)978-91-7873-550-1 (ISBN)
Disputation
2020-06-12, U1, https://kth-se.zoom.us/w/69450802964?tk=N7iFB13No_I0ip6YuiqlOvmrTXcCPmzXkcWcUSgbnow.DQIAAAAQK5cnFBZva1hiYUpCS1M5aWdjLXFkUWNCOWRBAAAAAAAAAAAAAAAAAAAAAAAAAAAA&uuid=WN_9RUa0Q0iRZC4gGmHG-ravw, Stockholm, 10:00 (Engelska)
Opponent
Handledare
Forskningsfinansiär
Wallenberg AI, Autonomous Systems and Software Program (WASP)
Anmärkning

QC 20200527

Tillgänglig från: 2020-05-27 Skapad: 2020-05-26 Senast uppdaterad: 2020-05-27Bibliografiskt granskad
Tang, J., Hanme, K., Vitor, G., Sudeep, P. & Rares, A. (2020). Neural Outlier Rejection for Self-Supervised KeypointLearning. In: International Conference on Learning Representations(ICLR), Apr 26th through May 1st, 2020: . Paper presented at International Conference on Learning Representations(ICLR) 2020.
Öppna denna publikation i ny flik eller fönster >>Neural Outlier Rejection for Self-Supervised KeypointLearning
Visa övriga...
2020 (Engelska)Ingår i: International Conference on Learning Representations(ICLR), Apr 26th through May 1st, 2020, 2020Konferensbidrag, Poster (med eller utan abstract) (Refereegranskat)
Nationell ämneskategori
Datorseende och robotik (autonoma system)
Identifikatorer
urn:nbn:se:kth:diva-273745 (URN)
Konferens
International Conference on Learning Representations(ICLR) 2020
Tillgänglig från: 2020-05-26 Skapad: 2020-05-26 Senast uppdaterad: 2020-05-26
Tang, J., Ericson, L., Folkesson, J. & Jensfelt, P. (2019). GCNv2: Efficient Correspondence Prediction for Real-Time SLAM. IEEE Robotics and Automation Letters, 4(4), 3505-3512
Öppna denna publikation i ny flik eller fönster >>GCNv2: Efficient Correspondence Prediction for Real-Time SLAM
2019 (Engelska)Ingår i: IEEE Robotics and Automation Letters, ISSN 2377-3766, E-ISSN 1949-3045, Vol. 4, nr 4, s. 3505-3512Artikel i tidskrift (Refereegranskat) Published
Abstract [en]

In this letter, we present a deep learning-based network, GCNv2, for generation of keypoints and descriptors. GCNv2 is built on our previous method, GCN, a network trained for 3D projective geometry. GCNv2 is designed with a binary descriptor vector as the ORB feature so that it can easily replace ORB in systems such as ORB-SLAM2. GCNv2 significantly improves the computational efficiency over GCN that was only able to run on desktop hardware. We show how a modified version of ORBSLAM2 using GCNv2 features runs on a Jetson TX2, an embedded low-power platform. Experimental results show that GCNv2 retains comparable accuracy as GCN and that it is robust enough to use for control of a flying drone. Source code is available at: https://github.com/jiexiong2016/GCNv2_SLAM.

Ort, förlag, år, upplaga, sidor
Institute of Electrical and Electronics Engineers (IEEE), 2019
Nationell ämneskategori
Robotteknik och automation
Forskningsämne
Datalogi
Identifikatorer
urn:nbn:se:kth:diva-257883 (URN)10.1109/LRA.2019.2927954 (DOI)000477983400013 ()2-s2.0-85069905338 (Scopus ID)
Forskningsfinansiär
Wallenberg AI, Autonomous Systems and Software Program (WASP)Stiftelsen för strategisk forskning (SSF), FactVetenskapsrådet
Anmärkning

QC 20190909

Tillgänglig från: 2019-09-06 Skapad: 2019-09-06 Senast uppdaterad: 2020-05-26Bibliografiskt granskad
Tang, J., Rares, A., Vitor, G., Sudeep, P., Hanme, K. & Adrien, G. (2019). Self-Supervised 3D Keypoint Learning for Ego-motionEstimation.
Öppna denna publikation i ny flik eller fönster >>Self-Supervised 3D Keypoint Learning for Ego-motionEstimation
Visa övriga...
2019 (Engelska)Rapport (Övrigt vetenskapligt)
Nationell ämneskategori
Datorseende och robotik (autonoma system)
Identifikatorer
urn:nbn:se:kth:diva-273748 (URN)
Tillgänglig från: 2020-05-26 Skapad: 2020-05-26 Senast uppdaterad: 2020-05-26
Tang, J., Folkesson, J. & Jensfelt, P. (2019). Sparse2Dense: From Direct Sparse Odometry to Dense 3-D Reconstruction. IEEE Robotics and Automation Letters, 4(2), 530-537
Öppna denna publikation i ny flik eller fönster >>Sparse2Dense: From Direct Sparse Odometry to Dense 3-D Reconstruction
2019 (Engelska)Ingår i: IEEE Robotics and Automation Letters, ISSN 2377-3766, E-ISSN 1949-3045, Vol. 4, nr 2, s. 530-537Artikel i tidskrift (Refereegranskat) Published
Abstract [en]

In this letter, we proposed a new deep learning based dense monocular simultaneous localization and mapping (SLAM) method. Compared to existing methods, the proposed framework constructs a dense three-dimensional (3-D) model via a sparse to dense mapping using learned surface normals. With single view learned depth estimation as prior for monocular visual odometry, we obtain both accurate positioning and high-quality depth reconstruction. The depth and normal are predicted by a single network trained in a tightly coupled manner. Experimental results show that our method significantly improves the performance of visual tracking and depth prediction in comparison to the state-of-the-art in deep monocular dense SLAM.

Ort, förlag, år, upplaga, sidor
IEEE-INST ELECTRICAL ELECTRONICS ENGINEERS INC, 2019
Nyckelord
Visual-based navigation, SLAM, deep learning in robotics and automation
Nationell ämneskategori
Robotteknik och automation
Identifikatorer
urn:nbn:se:kth:diva-243927 (URN)10.1109/LRA.2019.2891433 (DOI)000456673300007 ()2-s2.0-85063310740 (Scopus ID)
Tillgänglig från: 2019-03-13 Skapad: 2019-03-13 Senast uppdaterad: 2020-05-26Bibliografiskt granskad
Organisationer

Sök vidare i DiVA

Visa alla publikationer