Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Non-Parametric Spatial Context Structure Learning for Autonomous Understanding of Human Environments
KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL.ORCID-id: 0000-0003-0448-3786
KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL.
KTH, Skolan för datavetenskap och kommunikation (CSC), Robotik, perception och lärande, RPL.ORCID-id: 0000-0002-1170-7162
2017 (Engelska)Ingår i: 2017 26TH IEEE INTERNATIONAL SYMPOSIUM ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION (RO-MAN) / [ed] Howard, A Suzuki, K Zollo, L, IEEE , 2017, s. 1317-1324Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

Autonomous scene understanding by object classification today, crucially depends on the accuracy of appearance based robotic perception. However, this is prone to difficulties in object detection arising from unfavourable lighting conditions and vision unfriendly object properties. In our work, we propose a spatial context based system which infers object classes utilising solely structural information captured from the scenes to aid traditional perception systems. Our system operates on novel spatial features (IFRC) that are robust to noisy object detections; It also caters to on-the-fly learned knowledge modification improving performance with practise. IFRC are aligned with human expression of 3D space, thereby facilitating easy HRI and hence simpler supervised learning. We tested our spatial context based system to successfully conclude that it can capture spatio structural information to do joint object classification to not only act as a vision aide, but sometimes even perform on par with appearance based robotic vision.

Ort, förlag, år, upplaga, sidor
IEEE , 2017. s. 1317-1324
Serie
IEEE RO-MAN, ISSN 1944-9445
Nyckelord [en]
structure learning, spatial relationships, lazy learners, autonomous scene understanding
Nationell ämneskategori
Data- och informationsvetenskap
Identifikatorer
URN: urn:nbn:se:kth:diva-225236ISI: 000427262400205Scopus ID: 2-s2.0-85045741190ISBN: 978-1-5386-3518-6 (tryckt)OAI: oai:DiVA.org:kth-225236DiVA, id: diva2:1194604
Konferens
26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN), AUG 28-SEP 01, 2017, Lisbon, PORTUGAL
Forskningsfinansiär
EU, FP7, Sjunde ramprogrammet, 600623Vetenskapsrådet, C0475401
Anmärkning

QC 20180403

Tillgänglig från: 2018-04-03 Skapad: 2018-04-03 Senast uppdaterad: 2018-04-11Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Scopus

Personposter BETA

Thippur, AkshayaStork, Johannes A.Jensfelt, Patric

Sök vidare i DiVA

Av författaren/redaktören
Thippur, AkshayaStork, Johannes A.Jensfelt, Patric
Av organisationen
Robotik, perception och lärande, RPL
Data- och informationsvetenskap

Sök vidare utanför DiVA

GoogleGoogle Scholar

isbn
urn-nbn

Altmetricpoäng

isbn
urn-nbn
Totalt: 17 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf