kth.sePublications
Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Affordance Detection for Task-Specific Grasping Using Deep Learning
KTH, School of Computer Science and Communication (CSC), Robotics, perception and learning, RPL.
KTH, School of Computer Science and Communication (CSC), Robotics, perception and learning, RPL.ORCID iD: 0000-0003-3958-6179
KTH, School of Computer Science and Communication (CSC), Robotics, perception and learning, RPL.
KTH, School of Computer Science and Communication (CSC), Robotics, perception and learning, RPL.ORCID iD: 0000-0003-2965-2953
2017 (English)In: 2017 IEEE-RAS 17TH INTERNATIONAL CONFERENCE ON HUMANOID ROBOTICS (HUMANOIDS), Institute of Electrical and Electronics Engineers (IEEE), 2017, p. 91-98Conference paper, Published paper (Refereed)
Abstract [en]

In this paper we utilize the notion of affordances to model relations between task, object and a grasp to address the problem of task-specific robotic grasping. We use convolutional neural networks for encoding and detecting object affordances, class and orientation, which we utilize to formulate grasp constraints. Our approach applies to previously unseen objects from a fixed set of classes and facilitates reasoning about which tasks an object affords and how to grasp it for that task. We evaluate affordance detection on full-view and partial-view synthetic data and compute task-specific grasps for objects that belong to ten different classes and afford five different tasks. We demonstrate the feasibility of our approach by employing an optimization-based grasp planner to compute task-specific grasps.

Place, publisher, year, edition, pages
Institute of Electrical and Electronics Engineers (IEEE), 2017. p. 91-98
Series
IEEE-RAS International Conference on Humanoid Robots, ISSN 2164-0572
National Category
Computer and Information Sciences
Identifiers
URN: urn:nbn:se:kth:diva-225257DOI: 10.1109/HUMANOIDS.2017.8239542ISI: 000427350100013Scopus ID: 2-s2.0-85044473077ISBN: 9781538646786 (print)OAI: oai:DiVA.org:kth-225257DiVA, id: diva2:1194484
Conference
2017 IEEE-RAS 17TH INTERNATIONAL CONFERENCE ON HUMANOID ROBOTICS (HUMANOIDS)
Funder
Wallenberg FoundationsSwedish Foundation for Strategic Research Swedish Research Council
Note

QC 20180403

Available from: 2018-04-03 Created: 2018-04-03 Last updated: 2024-03-18Bibliographically approved
In thesis
1. Learning for Task-Oriented Grasping
Open this publication in new window or tab >>Learning for Task-Oriented Grasping
2020 (English)Doctoral thesis, comprehensive summary (Other academic)
Abstract [en]

Task-oriented grasping refers to the problem of computing stable grasps on objects that allow for a subsequent execution of a task. Although grasping objects in a task-oriented manner comes naturally to humans, it is still very challenging for robots. Take for example a service robot deployed in a household. Such a robot should be able to execute complex tasks that might include cutting a banana or flipping a pancake. To do this, the robot needs to know what and how to grasp such that the task can be executed. There are several challenges when it comes to this. First, the robot needs to be able to select an appropriate object for the task. This pertains to the theory of \emph{affordances}. Second, it needs to know how to place the hand such that the task can be executed, for example, grasping a knife on the handle when performing cutting. Finally, algorithms for task-oriented grasping should be scalable and have high generalizability over many object classes and tasks. This is challenging since there are no available datasets that contain information about mutual relations between objects, tasks and grasps.In this thesis, we present methods and algorithms for task-oriented grasping that rely on deep learning. We use deep learning to detect object \emph{affordances}, predict task-oriented grasps on novel objects and to parse human activity datasets for the purpose of transferring this knowledge to a robot.For learning affordances, we present a method for detecting functional parts given a visual observation of an object and a task. We utilize the detected affordances together with other object properties to plan for stable, task-oriented grasps on novel objects.For task-oriented grasping, we present a system for predicting grasp scores that take into account both the task and the stability. The grasps are then executed on a real-robot and refined via bayesian optimization. Finally, for parsing human activity datasets, we present an algorithm for estimating 3D hand and object poses and shapes from 2D images so that the information about the contacts and relative hand placement can be extracted. We demonstrate that we can use the information obtained in this manner to teach a robot task-oriented grasps by performing experiments with a real robot on a set of novel objects.

Abstract [sv]

Uppdragsorienterad greppning refererar till problemet av att räkna fram stabila grepp på objekt som tillåter efterföljande exekvering av ett uppdrag. Trots att fatta objekt på ett uppdragsorienterat kan vara naturligt för människor, är det fortfarande väldigt utmanande för robotar. Ta exemplet av en servicerobot i ett hushåll. Denna sorts robot borde kuna utföra komplexa uppådrag som möjligtvis innefattar att hacka en banan eller vända på en pannkaka. För att kunna göra detta, måste roboten veta hur och vad den ska greppa så att uppdraget kan utföras. Det finns flera utmaningar gällande detta. Först, måste roboten kunna välja ett passande objekt för uppdraget. Detta tillhör till teorin om \emph{överkomlighet}.Efter detta, måste den veta hur den ska placera handen så att uppdraget kan utföras, till exempel att greppa en kniv vid skaftet när någonting ska skäras. Sist, algoritmer för uppdragsorienterad greppning bör vara uppskalningsbara och ha hög generaliseringsförmåga över många objektklasser och uppdrag. Detta är utmanande eftersom det finns inga tillgängliga dataset som innehåller information om ömsesidiga relationer mellan objekt,  uppdrag, och fattningar.I denna avhandling, presenterar vi metoder och algoritmer för uppdragsorienterad greppning som baseras på djup maskininlärning. Vi använder djup maskininlärning för att detektera objekters \emph{överkomlighet}, förutspå uppdragsorienterade grepp på nya objekt och analysera mänsklig aktivitetsdataset för ändamålet av att överföra denna kunskap till en robot. För att lära oss \emph{överkomlighet}, presenterar vi en metod för att detektera funktionella delar givet en visuell observation av ett objekt och ett uppdrag. Vi använder de detekterade \emph{överkomligheter} tillsammans med andra objektegenskaper för att planera ett stabilt, uppdragsorienterat grepp på nya objekt. För uppdragsorienterad greppning, presenterar vi ett system för att förutspå greppbetyg som tar hänsyn till både uppdraget och stabiliteten. Dessa grepp utförs sedan på en fysisk robot och är förfinade med hjälp av bayesisk optimering. Sedan, för att analysera mänskliga aktivitetsdataset, presenterar vi en algoritm för estimering av hand och objektposer och former från 2 dimensioner och utöka det till 3 dimensioner så att information om kontaktpunkter och relativa handplaceringar kan extraheras. Vi demonstrerar  att vi kan använda information vi har fått med denna metod att lära en robot uppdragsorienterade grepp genom att utföra experiment med en fysisk robot på nya objekt. 

Place, publisher, year, edition, pages
Stockholm: KTH Royal Institute of Technology, 2020. p. 136
Series
TRITA-EECS-AVL ; 2020:48
Keywords
robotics, computer vision
National Category
Computer graphics and computer vision
Research subject
Computer Science
Identifiers
urn:nbn:se:kth:diva-282832 (URN)978-91-7873-651-5 (ISBN)
Public defence
2020-10-22, F3, Lindstedtsvägen 26, Stockholm, 14:00 (English)
Opponent
Supervisors
Note

QC 20201001

Available from: 2020-10-01 Created: 2020-09-30 Last updated: 2025-02-07Bibliographically approved

Open Access in DiVA

No full text in DiVA

Other links

Publisher's full textScopus

Authority records

Kokic, MiaStork, Johannes A.Haustein, Joshua A.Kragic, Danica

Search in DiVA

By author/editor
Kokic, MiaStork, Johannes A.Haustein, Joshua A.Kragic, Danica
By organisation
Robotics, perception and learning, RPL
Computer and Information Sciences

Search outside of DiVA

GoogleGoogle Scholar

doi
isbn
urn-nbn

Altmetric score

doi
isbn
urn-nbn
Total: 320 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf